Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (836) (entfernen)
Sprache
- Deutsch (490)
- Englisch (335)
- Mehrsprachig (7)
- Französisch (4)
Schlagworte
- Stress (37)
- Deutschland (33)
- Modellierung (18)
- Optimierung (18)
- Fernerkundung (17)
- Hydrocortison (16)
- stress (15)
- Motivation (12)
- Stressreaktion (12)
- cortisol (12)
Institut
- Psychologie (181)
- Raum- und Umweltwissenschaften (148)
- Mathematik (62)
- Wirtschaftswissenschaften (61)
- Fachbereich 4 (56)
- Fachbereich 1 (29)
- Geschichte, mittlere und neuere (28)
- Germanistik (26)
- Informatik (26)
- Kunstgeschichte (22)
Die Dissertation untersucht am Beispiel mikrohistorischer Fallstudien die Forschung des remigrierten Instituts für Sozialforschung in Frankfurt am Main unter der Leitung Max Horkheimers und Theodor W. Adornos. Deren empirische Sozialforschung war in Institutionen der frühen Bundesrepublik gefragt, weil die Forscher durch die Studien zur Autoritären Persönlichkeit den Ruf als Experten der Demokratie erworben hatten. Die Forschungsdisziplinen, in denen das Frankfurter Institut seine Expertise entfaltete, reichten von den Feldern der Militärsoziologie über die Sozialpsychologie, über dass Feld der Politischen Bildung bis hin zur Industrie- und Betriebssoziologie. Für das Amt Blank, das Bundesverteidigungsministerium, das Bundesministerium für Arbeit, die Bundeszentrale für Heimatdienst und den Mannesmannkonzern untersuchte das Frankfurter Institut die Akzeptanz demokratischer Institutionen und das demokratische Bewusstsein der Deutschen. Dabei konnte es an Studien der alliierten Besatzungsorgane anschließen, entwickelte aber deren Untersuchungsmethoden durch die Etablierung qualitativer Erhebungsverfahren wie das Gruppendiskussionsverfahren entscheidend weiter. Die Dissertation kommt zum Ergebnis, dass kritische Sozialforschung in der frühen Bundesrepublik nachgefragt wurde, dass aber durch vielfältige Konflikte und Widerstände von etablierten Wissenschaftlern, deren Karrieren zu einem guten Teil im Nationalsozialismus begonnen hatte, aber auch mit den untersuchten Eliten, Verbänden und im industriellen Großkonzern eine breiteren Rezeption verhindert wurde.
Die Vertrauens-Trias erlaubt salutogentische Aussagen über personale Ressourcen. Die kulturvergleichende Anwendung der Vertrauens-Trias wurde bei Jugendlichen in drei Ländern (Deutschland, Luxemburg, Spanien) überprüft. Dabei wurde die Konstruktvalidität der Vertrauens-Trias als auch Zusammenhänge zu symptomatischen Belastungen insgesamt bestätigt. Vergleiche zwischen den Kulturen zeigen keine Unterschiede zwischen deutschen und luxemburgischen Schülern, jedoch zwischen deutschen und spanischen Schülern.
Die Kritische Theorie entstand in den 1930er Jahren und wurde seit den fünfziger Jahren mit der "Frankfurter Schule" identifiziert. In der Dissertation wird dieser Schulzusammenhang durch Porträts der dreizehn Angehörigen der zweiten Generation kritischer Theoretiker(innen) dargestellt. Auf diese Weise wird demonstriert, dass sich die Weiterentwicklung der Kritischen Theorie seit den sechziger Jahren nicht nur auf Jürgen Habermas beschränkt. Die zweite Generation stellt sich als eine zerstrittene Interpretationsgemeinschaft dar, deren unterschiedliche Vertreter verschiedenartige aktuelle Versionen von "Kritischer Theorie" entwickelt haben.
We are living in a connected world, surrounded by interwoven technical systems. Since they pervade more and more aspects of our everyday lives, a thorough understanding of the structure and dynamics of these systems is becoming increasingly important. However - rather than being blueprinted and constructed at the drawing board - many technical infrastructures like for example the Internet's global router network, the World Wide Web, large scale Peer-to-Peer systems or the power grid - evolve in a distributed fashion, beyond the control of a central instance and influenced by various surrounding conditions and interdependencies. Hence, due to this increase in complexity, making statements about the structure and behavior of tomorrow's networked systems is becoming increasingly complicated. A number of failures has shown that complex structures can emerge unintentionally that resemble those which can be observed in biological, physical and social systems. In this dissertation, we investigate how such complex phenomena can be controlled and actively used. For this, we review methodologies stemming from the field of random and complex networks, which are being used for the study of natural, social and technical systems, thus delivering insights into their structure and dynamics. A particularly interesting finding is the fact that the efficiency, dependability and adaptivity of natural systems can be related to rather simple local interactions between a large number of elements. We review a number of interesting findings about the formation of complex structures and collective dynamics and investigate how these are applicable in the design and operation of large scale networked computing systems. A particular focus of this dissertation are applications of principles and methods stemming from the study of complex networks in distributed computing systems that are based on overlay networks. Here we argue how the fact that the (virtual) connectivity in such systems is alterable and widely independent from physical limitations facilitates a design that is based on analogies between complex network structures and phenomena studied in statistical physics. Based on results about the properties of scale-free networks, we present a simple membership protocol by which scale-free overlay networks with adjustable degree distribution exponent can be created in a distributed fashion. With this protocol we further exemplify how phase transition phenomena - as occurring frequently in the domain of statistical physics - can actively be used to quickly adapt macroscopic statistical network parameters which are known to massively influence the stability and performance of networked systems. In the case considered in this dissertation, the adaptation of the degree distribution exponent of a random, scale-free overlay allows - within critical regions - a change of relevant structural and dynamical properties. As such, the proposed scheme allows to make sound statements about the relation between the local behavior of individual nodes and large scale properties of the resulting complex network structures. For systems in which the degree distribution exponent cannot easily be derived for example from local protocol parameters, we further present a distributed, probabilistic mechanism which can be used to monitor a network's degree distribution exponent and thus to reason about important structural qualities. Finally, the dissertation shifts its focus towards the study of complex, non-linear dynamics in networked systems. We consider a message-based protocol which - based on the Kuramoto model for coupled oscillators - achieves a stable, global synchronization of periodic heartbeat events. The protocol's performance and stability is evaluated in different network topologies. We further argue that - based on existing findings about the interrelation between spectral network properties and the dynamics of coupled oscillators - the proposed protocol allows to monitor structural properties of networked computing systems. An important aspect of this dissertation is its interdisciplinary approach towards a sensible and constructive handling of complex structures and collective dynamics in networked systems. The associated investigation of distributed systems from the perspective of non-linear dynamics and statistical physics highlights interesting parallels both to biological and physical systems. This foreshadows systems whose structures and dynamics can be analyzed and understood in the conceptual frameworks of statistical physics and complex systems.
Gegenstand der Dissertation ist die Rolle ideologischer Deutungsmuster in der politischen Auseinandersetzung um Arbeitsbeziehungen in Deutschland. Zunächst wird untersucht, inwiefern tendenziöses Entscheidungsverhalten von Richtern an deutschen Landesarbeitsgerichten und politische Einflussnahme auf die Rechtsprechung empirisch zu belegen sind. Mittels rechtsempirischer Analyse kann gezeigt werden, dass systematische Zusammenhänge zwischen persönlichen Merkmalen von LAG-Richtern und ihrem Entscheidungsverhalten bestehen. Während Einflussnahme von Seiten der Politik im Rahmen der verfügbaren Daten nicht nachweisbar ist, spricht die empirische Evidenz mithin dafür, dass neben rechtsimmanenten Kriterien auch individuelle Überzeugungen die Arbeitsrechtsprechung beeinflussen. Der zweite Teil der Dissertation befasst sich mit der Arena der Massenmedien. Anhand einer Inhaltsanalyse, die den Diskurs über Mitbestimmung in drei überregionalen deutschen Tageszeitungen für den Zeitraum von 1998 bis 2007 rekonstruiert, soll die Frage beantwortet werden, inwieweit die deutschen Massenmedien selbst als autonome politische Akteure in der Auseinandersetzung um Mitbestimmung zu betrachten sind. Die Ergebnisse deuten darauf hin, dass für das Agenda-Setting im Untersuchungszeitraum zwar eher generelle Nachrichtenfaktoren maßgeblich waren. Doch sowohl das Standing der verschiedenen Akteursgruppen als auch die Deutungsrahmen und Handlungsempfehlungen weisen zum Teil Differenzen zwischen den untersuchten Zeitungen auf, die nur als Ausdruck unterschiedlicher ideologischer Positionen erklärbar sind. Ob die Betriebswirtschaftslehre ihren eigenen wissenschaftstheoretischen Ansprüchen gerecht wird, ist Gegenstand des dritten Papiers. Mittels multivariater Analyse wird untersucht, inwieweit die Inhalte der marktführenden betriebswirtschaftlichen Zeitschriften in Deutschland von außerwissenschaftlichen Faktoren beeinflusst werden. Wie die Analyse ihrer Auseinandersetzung mit dem Shareholder-Value-Prinzip zeigt, ist die Betriebswirtschaftslehre offenbar nur bedingt in der Lage, dem Wertfreiheitspostulat zu genügen. Wirtschaftswissenschaftliches Denken muss zumindest in Teilen als Ausdruck subjektiver Maßstäbe und soziokultureller Rahmenbedingungen betrachtet werden, wird also von außerwissenschaftlichen Wertungen beeinflusst, die auch durch innerwissenschaftliche Diskussionsprozesse nicht eliminierbar sind.
Während die ersten Naturwissenschaftler, wie Humboldt und Darwin, auf dem Feld der klassischen Biogeographie noch vor allem die Aufschlüsselung der Verbreitung von Arten untersuchten, entwickelte sich mit Wallace die Erkenntnis, dass es kausale Gründe für die Verbreitung von Arten gibt. Ihre Erkenntnisse erlangten Wallace oder auch de Lattin noch dadurch, dass Sie Verbreitungsmuster von Arten übereinander projizierten und Ausbreitungszentren ableiteten. In den letzten Jahrzehnten bieten die mannigfaltigen Möglichkeiten computerbasierter Analysen besondere Vorteile bei der Analyse von Verbreitungsmustern, welche in der vorliegenden Dissertation genutzt werden, um eine interdisziplinäre Arbeit im Schnittpunkt von Natur- und Rechtswissenschaften zu schreiben. In fünf Kapiteln werden verschiedene Aspekte aus dem Bereich der klassischen Biogeographie analysiert und diskutiert. Im ersten Beitrag dieser Arbeit wird die biogeographische Struktur der Libellen in der westlichen Paläarktis mittels Verbreitungsanalysen untersucht. Der zweite Beitrag vertieft die Betrachtung mit einer regionalen Analyse der Biogeographie der Odonaten und Tagfalter in Rumänien. Ein dritter Beitrag schließt diesen westpaläarktischen Block mit einer Analyse der Inselbiogeographie des westlichen Mittelmeergebietes ab. In einem zweiten eurasischen Block werden in der vierten Arbeit die biogeographischen Muster Eurasiens herausgearbeitet. Abschließend wird im fünften Beitrag die Phylogeographie der Zwerglibelle (Nehalennia speciosa) als ein Beispiel für trans-paläarktisch verbreitete Arten untersucht. Neben ihrer Bedeutung in der Grundlagenforschung stellen diese fünf Arbeiten eine wesentliche Grundlage für die Ausarbeitung der juristischen Abhandlung dar. In der juristischen Abhandlung werden verschiedene Aspekte unter zu Hilfenahme, der zuvor erarbeiteten Erkenntnisse erläutert, die dazu geführt haben dürften, dass Libellen in der FFH-Gesetzgebung eher unterrepräsentiert sind. Es sind dies eine fehlende europaeinheitliche Gefährdungsbewertung, das Fehlen eines Schutzkriteriums Ausbreitungsfähigkeit und eine fragwürdige Herangehensweise bei den Überlegungen, welche Arten überhaupt auf ihre Schutzwürdigkeit hin untersucht werden sollen.
Seit dem Godesberger Programm 1959 entwickelte sich aus dem Umgang der SPD mit Geschichte und Geschichtswissenschaft eine sozialdemokratische Geschichtskultur. Sie manifestierte sich in zweierlei Hinsicht. Zum einen wurde auf geschichtspolitischer Ebene das national-konservative Geschichtsbild und insbesondere die staats- und kontinuitätszentrierten Vorstellungen von Nation und Nationalstaat kritisiert und die Stellung des Nationalsozialismus in der deutschen Geschichte neu bewertet. Zum anderen wurde auf geschichtswissenschaftlicher Ebene das Forschungsfeld der Geschichte der Arbeiterbewegung und der Sozialdemokratie erfolgreich etabliert. Parallel dazu entstand eine große Gruppe akademischer Historiker, die der SPD angehörten oder ihr nahestanden. Sie beschäftigten sich mit Themen der Partei-, der Arbeiter- und der Sozialgeschichte, unterstützten die Geschichtspolitik der SPD, kümmerten sich um Geschichtsbewusstsein dieser Partei und nahmen - zuweilen auch kritisch - an den Diskussionen ihrer Tagespolitik teil. Aus diesen beiderseitigen Aktivitäten bildeten sich vielfältige Kommunikationswege und personelle Netzwerke zwischen SPD und Historikern. Von 1959 bis 1969 vermied die SPD im Zuge ihrer Strategie der Regierungsbeteiligung eine deutliche Profilierung ihrer eigenen Geschichtspolitik, gleichzeitig lenkte nur eine kleine und fachlich eher marginale Gruppe von Historikern die Aufmerksamkeit auf die sozialdemokratische Geschichtsschreibung und ihre Themen. Aber inzwischen wurden seitens der SPD die organisatorischen Rahmenbedingungen für die Intensivierung der Kommunikation gelegt und wurden Kontakte zu einer wachsenden Zahl jüngerer Historiker geknüpft. Trotzdem waren die damaligen Kommunikationsnetzwerke räumlich und personell beschränkt. Seit 1969 erweiterten sich die Verbindungen zwischen beiden Seiten dank des politischen Aufschwungs der Sozialdemokratie und des Generationswechsels der Historikerschaft. Bis 1982 kommunizierten SPD und Historiker miteinander über viele aktuelle Themen: das Spektrum reichte von den historischen Gedenktagen über den Geschichtsunterricht in den Schulen bis hin zur Neuen Ostpolitik der sozialliberalen Koalition. Parallel dazu erlebte die sozialdemokratische Historiographie eine Konjunktur der Arbeiterbewegungsgeschichte, eine sozialgeschichtliche Neuorientierung und einen Erfolg der Sonderwegsthese. Die Kommunikationsnetzwerke umfassten immer mehr jüngere Fachhistoriker. In den Jahren 1983 bis 1989 wurden die Verbindungen der Sozialdemokratie mit den ihr nahestehenden Historikern auf politischer Ebene wegen ihrer geschichtspolitischen Auseinandersetzung mit der Christdemokratie immer enger, während die sozialdemokratische Geschichtsschreibung vor allem von der Strömung der Alltagsgeschichte und -»Geschichte von unten-« gefördert wurde. Haupttendenzen der dreißigjährigen Entwicklung der Kommunikation zwischen SPD und Geschichtswissenschaft waren wechselseitiger Austausch und Zusammenarbeit. Dabei darf jedoch nicht vernachlässigt werden, dass nicht nur die Historiker, die der Sozialdemokratie nahestanden, sondern auch die, die sich von ihr entfremdeten bzw. kritisch gegenüberstanden, Einfluss auf die Kommunikationslandschaft ausübten.
Volition als psychische Funktion, Schwierigkeiten in der Handlungsausführung zu überwinden, spielt eine bedeutende Rolle in der psychosomatischen Rehabilitation. In einer Gruppentherapie über maximal 4 Sitzungen zeigte sich, dass sich volitionale Kompetenzen signifikant verbesserten. Zusätzlich ergaben sich Verbesserungen in anderen Therapie-Outcome-Maßen.
In this thesis, we mainly investigate geometric properties of optimal codebooks for random elements $X$ in a seperable Banach space $E$. Here, for a natural number $ N $ and a random element $X$ , an $N$-optimal codebook is an $ N $-subset in the underlying Banach space $E$ which gives a best approximation to $ X $ in an average sense. We focus on two types of geometric properties: The global growth behaviour (growing in $N$) for a sequence of $N$-optimal codebooks is described by the maximal (quantization) radius and a so-called quantization ball. For many distributions, such as central-symmetric distributions on $R^d$ as well as Gaussian distributions on general Banach spaces, we are able to estimate the asymptotics of the quantization radius as well as the quantization ball. Furthermore, we investigate local properties of optimal codebooks, in particular the local quantization error and the weights of the Voronoi cells induced by an optimal codebook. In the finite-dimensional setting, we are able to proof for many interesting distributions classical conjectures on the asymptotic behaviour of those properties. Finally, we propose a method to construct sequences of asymptotically optimal codebooks for random elements in infinite dimensional Banach spaces and apply this method to construct codebooks for stochastic processes, such as fractional Brownian Motions.
Der Anstieg der Weltbevölkerung, der Mobilität und des Warenhandels fördert die zunehmende Einschleppung von Biota. Ein Teil dieser gebietsfremden Arten kann sich etablieren, ausbreiten und die heimische Biodiversität gefährden ("invasive Arten"). In Mitteleuropa haben sich mehr als 150 gebietsfremde Populationen der ursprünglich submediterran verbreiteten Mauereidechse (Podarcis muralis) etabliert. Diese verkörpern ein ideales Modellsystem zur Untersuchung der Rolle des geografischen Ursprungs für den Etablierungserfolg, zur Überprüfung genetischer Konsequenzen von biologischen Invasionen sowie zur Untersuchung der Auswirkungen intraspezifischer Hybridisierung auf heimische Linien. Über eine mtDNA-Sequenzierung wurden in dieser Dissertation 77 eingeschleppte Populationen in Mitteleuropa acht geografisch abgrenzbaren evolutionären Linien zugeordnet (Kapitel I). Dieser Datensatz wurde in Kombination mit Artverbreitungsmodellen zur Überprüfung intraspezifischer Nischendivergenz genutzt. Trotz deutlicher Nischendifferenzierung zwischen den Linien, wurde nur eine schwache Korrelation zwischen geographischem Ursprung und invasivem Vorkommen gefunden. Linien mit enger realisierter Nische sind vermutlich aufgrund ihrer breiten fundamentalen Nische dennoch fähig erfolgreich Gebiete weit außerhalb ihres Areals zu kolonisieren. Für die populationsgenetischen Analysen dieser Arbeit bewährten sich, alternativ zu Gewebeproben, nicht-invasiv gewonnene Mundschleimhautproben zur DNA-Analyse (Kapitel II). Über eine DNA-Sequenzierung konnte der Ursprung (Poebene und nördliche Adriaregion) der nördlichsten eingeschleppten Ruineneidechsen-Population (Podarcis siculus) bestimmt werden (Kapitel III). Zudem wurde eine syntop in eine P. muralis Population eingeschleppte Podarcis liolepis Population erstmals in Deutschland nachgewiesen (Kapitel IV). Beide stammen vermutlich aus den Ost-Pyrenäen. Die Mikrosatelliten-Analyse zeigte keinen Genfluss zwischen beiden Arten. Verglichen mit natürlichen Populationen aus Süd-Frankreich konnten die eingeschleppten Populationen beider Arten aufgrund von hohem Aussetzungsdruck eine hohe genetische Diversität erhalten. Entlang des Oberrheingrabens treffen heimische Mauereidechsen auf eingeschleppte italienische Linien. In diesen Populationen wurde eine schnelle genetische Assimilation durch Hybridisierung mit gebietsfremden Mauereidechsen nachgewiesen (Kapitel V). Die genetische Diversität dieser Hybridpopulationen war wesentlich höher als die reiner eingeschleppter oder reiner natürlicher Populationen. Der Zusammenhang zwischen genetischer Diversität und Durchmischungsgrad war nicht-linear und erreichte frühzeitig ein Plateau hoher genetischer Diversität bei einer Vermischung von zwei Linien. Das Ausmaß an Introgression und die schnelle Bildung von Hybridschwärmen zeigt, dass Einschleppungen die genetische Integrität natürlicher Populationen stark gefährden. Die kleinräumige, genetische Analyse einer expandierenden Population in Passau (Kapitel VI) zeigt, dass eine signifikante Strukturierung schnell und kleinräumig entstehen kann. Die genetische Differenzierung wurde unter Abnahme der genetischen Diversität vom Einschleppungszentrum zum Expansionsrand stärker. Das abschließende Kapitel VII fasst die wichtigsten Resultate für die Naturschutzpraxis zusammen. Die Schwierigkeiten der phänotypischen Zuordnung von Populationen zu evolutionären Linien sowie der naturschutzrechtliche Umgangs mit Einschleppungen werden diskutiert.
This dissertation focuses on the link between labour market institutions and precautionary savings. It is evaluated whether private households react to changes in social insurance provision such as the income replacement in case of unemployment by increased savings for precautionary reasons. The dissertation consists of three self-contained chapters, each focusing on slightly different aspects of the topic. The first chapter titled "Precautionary saving and the (in)stability of subjective earnings uncertainty" empirically looks at the influence of future income uncertainty on household saving behavior. Numerous cross-section studies on precautionary saving use subjective expectations regarding the income variance one year ahead as a proxy for income uncertainty. Using such proxies observed only at one point in time, however, may give rise to biased estimates for precautionary wealth if expectations are not stable over time. Survey data from the Dutch DNB Household Survey suggest that subjective future income distributions are not stable over the mid-term. Moreover, in this study I contrast estimates of precautionary wealth using the variation coefficient observed at one point in time with those using a simple mid-term average. Estimates of precautionary wealth based on the average are about 40% to 80% higher than the estimates using the variation coefficient observed only once. In addition to that, wealth accumulation for precautionary reasons is estimated for different parts of the income distribution. The share of precautionary wealth is highest for households at the center of the income distribution. By linking saving behaviour with unemployment insurance, the following chapters then shed some light on an issue that has largely been neglected in the literature on labour market institutions so far. Whereas the third chapter models the relevance of unemployment insurance for income uncertainty and intertemporal decision making during institutional reform processes, chapter 4 seeks to establish empirically a relationship between saving behavior and unemployment insurance. Social insurance, especially unemployment insurance, provides agents with income insurance against not marketable income risks. Since the early 1990s, reform measures like more activating policies as suggested by the OECD Jobs Study in 1994 have been observed in Europe. In the third chapter it is argued that such changes in unemployment insurance reduce public insurance and increase income uncertainty. Moreover, a simple three period model is discussed which shows a link between a welfare state reform and agents' saving decisions as one possible reaction of agents to self-insure against income risk. Two sources of uncertainty seem to be important in this context: (1) uncertain results of the reform process concerning the replacement rate, and (2) uncertainty regarding the timing of information about the content of the reform. It can be shown that the precautionary motive for saving explains an increased accumulation of capital in times of reform activities. In addition to that, early information about the expected replacement rate increases agents' utility and reduces under and oversaving. Following the argument of the previous chapters, that an important feature of labour market institutions in modern welfare states is to provide cash transfers as income replacement in case of unemployment, it is hypothesised that unemployment benefits reduce the motive to save for precautionary reasons. Based on consumer sentiment data from the European Commission's Consumer Survey, chapter four finally provides some evidence that aggregate saving intentions are significantly influenced by unemployment benefits. It can be shown that higher benefits lower the intention to save.
The main objective of the present thesis was to investigate whether antibody effects observed in earlier in vitro studies can translate into the protection against chemical carcinogenesis in vivo as the basis of an immunoprophylactic approach against carcinogens. As model for chemical carcinogenesis, we selected B[a]P the prototype polycyclic aromatic hydrocarbon (PAH), an environmental pollutant emanating from both natural and anthropogenic sources. Many in vivo models conveniently use high doses of carcinogens mostly given as single bolus, which provides simple surrogate readouts, but poorly reflects chronic exposure to the low concentrations found in the environment. In addition, these concentrations cannot be matched with equimolar antibody concentrations obtained by immunisation. However, low B[a]P concentrations do not permit to directly measure chemical carcinogenesis. Therefore, in the present thesis, the pharmacokinetic, metabolism and B[a]P mediated immunotoxicity were chosen as experimental read-outs. B[a]P conjugate vaccines based on ovalbumin, tetanus toxoid and diphtheria toxoid (DT) as carrier proteins were developed to actively immunise mice against B[a]P. B[a]P-DT conjugate induced the most robust immune response. The antibodies reacted not only with B[a]P but also with the proximate carcinogen 7,8-diol-B[a]P. Antibodies modulated the bioavailability of B[a]P and its metabolic activation in a dose-dependent manner by sequestration in the blood. In order to further improve the vaccination, we replaced the protein carrier by promiscuous T-helper cell epitopes to induce higher antibody titer with increased specificity for the B[a]P hapten. We hypothesised that a reduction of B cell binding sites on the carrier, compared to whole protein carrier, should favour the activation of B cells recognising the hapten instead of the carrier protein. An internal processing of the carrier and cleavage of the B[a]P-BA and subsequent presentation of the carrier peptide by MHC II molecules to T cell receptor should induce a B cell dependent immune response by activating B cells capable to recognise B[a]P. We demonstrated that a vaccination against B[a]P using promiscuous T-helper cell epitopes as a carrier is feasible and some tested peptide conjugates were more immunogenic as whole protein conjugates with increased specificity. We showed that vaccination against B[a]P reduces immunotoxicity. B[a]P suppressed the proliferative response of both T and B cells after a sub-acute administration, an effect that was completely reversed by vaccination. In immunized mice the immunotoxic effect of B[a]P on IFN-γ, Il-12, TNF-ï¡ production and B cell activation was restored. In addition, specific antibodies inhibited the induction of Cyp1a1 by B[a]P in lymphocytes and Cyp1b1 in the liver, enzymes that are known to convert the procarcinogen B[a]P to the ultimate DNA-adduct forming metabolite, a major risk factor of chemical carcinogenesis. In order to replace Freund adjuvant and to improve the immunisation strategy in terms of antibody quantity and quality, several adjuvants that are potentially compatible with their use in humans were tested. In combination with Freund adjuvant, the conjugate-vaccine induced high levels of B[a]P-specific antibodies. We showed that all adjuvants tested induced specific antibodies against B[a]P and 7,8-diol-B[a]P, its carcinogenic metabolite. The highest antibody levels were obtained with Quil A, MF-59 and Alum. Biological activity in terms of enhanced retention of B[a]P was confirmed in mice immunised with Quil A, Montanide, Alum and MF-59. Our findings demonstrate that a vaccination against B[a]P is feasible in combination with adjuvants licensed in humans. Based on these results and with the current understanding of the mechanisms of chemical carcinogenesis of the ubiquitous carcinogen B[a]P and of the effects of specific antibodies, an immunoprophylactic approach against chemical carcinogenesis is absolutely warranted. Nevertheless, the direct effects of B[a]P-specific antibodies on the different stages of carcinogenesis (e.g. adduct formation) and whether these effects may translate into long-term protective effect against tumourigenesis needs to be proven in further experiments.
Die vorliegende Arbeit verbindet die Konzepte Komorbidität und naturalistische Forschung, indem hier Mehrfachdiagnosen in einer großen längsschnittlich angelegten Studie zur Qualitätssicherung in der ambulanten Psychotherapie betrachtet wurden. Untersucht wurde die Frage, ob und inwieweit Mehrfachdiagnosen im Vergleich zu einfachen Diagnosen Einfluss auf den Status zu Beginn einer Therapie, den Therapieverlauf, ihre Dauer und das Ergebnis ausüben und ob daraus Ableitungen für eine differenzielle Anpassung therapeutischer Interventionen getroffen werden können. Die in dieser Arbeit analysierten Daten stammen aus dem Modellprojekt "Qualitätsmonitoring in der ambulanten Psychotherapie" der Techniker Krankenkasse und umfassen Eingangsinformationen von N=1154 verhaltenstherapeutisch behandelten ambulanten Psychotherapiepatienten. Zur Überprüfung der Fragestellungen kamen regressions- und korrelationsanalytische Verfahren, Latente Wachstumsmodelle sowie Verfahren zur Klassifikation von Personen in latente Subgruppen zur Anwendung. Es resultierten höhere Komorbiditätsraten unter strukturierter Diagnostik. Bei komorbider Persönlichkeitsstörung oder einer Kombination aus Angst- und Affektiven Störungen wurde in vergleichbarem Ausmaß wie bei Vorliegen nur einer Diagnose profitiert, allerdings wiesen diese Patienten aufgrund einer höheren Ausgangsbelastung ein schlechteres absolutes Therapieergebnis auf. Die Variable Komorbidität erwies sich als bedeutsam für die Prädiktion der Sitzungsanzahl, indem komorbide Patienten und insbesondere solche mit Persönlichkeitsstörungen längere Therapiedauern aufwiesen. Die sich auf mehreren Ebenen manifestierenden Besonderheiten komorbider im Vergleich zu monomorbiden Patienten weisen darauf hin, dass das Konzept Komorbidität nicht ausschließlich als Artefakt bestehender Diagnosesysteme gesehen werden kann. Der längere Verbleib komorbider Patienten in der Psychotherapie lässt auf ein differenzielles Vorgehen der Therapeuten schließen. Dieses könnte durch individualisierte Rückmeldungen noch unterstützt werden, im Rahmen derer von vornherein Abschätzungen für spezifische Subgruppen von Patienten vorgenommen werden und in welchen Komorbidität als ein Indikator zu besseren Ressourcensteuerung in der Psychotherapie genutzt werden könnte.
Die globale Vernetzung, der Flächennutungs- und Klimawandel sind zentrale Aspekte bei der Ursachenanalyse der zunehmenden Homogenisierung von Biozönosen und dem weltweiten Verlust von Biodiversität. Von großer Bedeutung sind dabei Arten, die in sich ein weiträumiges Verbreitungspotential mit einem hohen ökologischen, zum Teil in Verbindung mit einem hohen ökonomischen, Schadpotential vereinen " so genannte invasive Arten. Aufgrund ihrer Eigenschaften bilden sie einen wichtigen Schnittpunkt von Ökologie, Ökonomie und Soziologie in Theorie und Praxis. Im Zuge der steigenden Anzahl von biologischen Invasionen weltweit und dem interessanten, interdisziplinären Charakter des Forschungsfeldes, ist dessen Analyse ein bedeutendes Top-Thema internationaler Forschung geworden. Die durch invasive Arten verursachten Schäden sind enorm: So werden die jährlichen Schäden für die USA, Südafrika, das Vereinigte Königreich, Brasilien und Indien auf insgesamt 336 Milliarden US Dollar geschätzt. Nach einem Bericht der EU Kommissionrnbeläuft sich für die Europäische Union die Summe aller Schäden die durch invasive Arten verursacht werden auf jährlich 12 Mrd. Euro. Folglich stellen invasive Arten zugleich einen zunehmend wichtigeren, rechtlichen Regelungsgegenstand auf den unterschiedlichsten Ebenen (international, europäisch, national) dar. In dieser Dissertation wird die Bedeutung von Verbreitungsmodellen als Analyseund Präventions-Instrument in der naturschutzfachlichen Risikoabschätzung verdeutlicht. Ferner wird die Einsatzmöglichkeit von Modellen für die rechtliche Einstufung von Arten und als Ermessensgrundlage bei der Bewilligung von Kostenersatzansprüchen nach entstandenen Schäden aufgezeigt. Zwei ökonomisch bedeutsame Käferarten wurden zur Veranschaulichung als Modellorganismen ausgewählt: Der für die biologische Schädlingsbekämpfung absichtlich eingeführte Asiatische Marienkäfer Harmonia axyridis und der vorwiegend mit Holzverpackungsmaterialien global verschleppte AsiatischernLaubholzbockkäfer Anoplophora glabripennis. Beide Organismen sind in der EU alsrngebietsfremde Arten mit einem hohen Schadpotential einzustufen, haben jedoch einen sehr unterschiedlichen rechtlichen Status inne. Harmonia axyridis wird in Europa kommerziell vermarktet und darf in Deutschland mit Genehmigungsvorbehalt im Freiland ausgebracht werden, wohingegen Anoplophora glabripennis in der EU als zu bekämpfender Quarantäneschadorganismus geführt wird. Für beide Insekten gibt es derzeit keinen praktikablen Rechtsanspruch auf Schadenshaftung bzw. Entschädigungen. Neben der Erstellung von Verbreitungsmodellen nach naturwissenschaftlichen Kriterien, wird dieser Tatbestand erörtert und entsprechende Verbesserungsansätze für die Normsetzung und -anwendung präsentiert.
This dissertation focuses on e-marketing strategy's effective elements in tourism industry. As case study, research focus is on Airlines, tour operator, chain hotels in Iran and Germany. It aims to show various possibilities to enhance the company- e-marketing strategy and successfully performance e-marketing strategies with recognition effective elements and their important during the strategy designing and implementation process. For the purpose of this research due to the nature of the research, Explanatory -exploratory-applicable; after studying and consulting, Delphi technique has been chosen. In results, we have some effective elements and their important according the Delphi and AHP method. For example between elements "Tourists' Needs, Experience and Expects" with the importance coefficient of %204 is the most remarkable elements and "Customer satisfactions' elements group" with average value 5.54 according the research results have more important than other groups.
Die vorliegende Arbeit entstand im Rahmen des EU INTERREG NWE IVB Projektes "ForeStClim - Transnational Forestry Management Strategies in Response to Regional Climate Change Impacts". Zum Zweck der Verbesserung des Prozessverständnisses von Abflussprozessen in Wäldern sowie zur Validierung und Weiterentwicklung eines GIS-basierten Tools (GIS-DRP) zur Erstellung von Abflussprozesskarten wurden auf 25 Test-Plots in vier Einzugsgebieten in Rheinland-Pfalz und dem Großherzogtum Luxemburg boden-hydrologische Untersuchungen durchgeführt. Auf Grundlage dieser Untersuchungen konnten große intraspezifische Unterschiede im Abflussverhalten von Waldstandorten erhoben werden. Die Differenzen werden dabei hauptsächlich durch das Substrat, die bodenphysikalischen Eigenschaften, die Nutzung bzw. deren Intensität und die Vorfeuchte bedingt. Es wurde nachgewiesen, dass Wälder generell hohe Infiltrationsraten aufweisen und verzögerte Zwischenabflussprozesse begünstigen. Durch einen prinzipiell naturnahen Waldbau und etwaige Meliorationsmaßnahmen auf Niederertragsstandorten bestehen zudem Möglichkeiten positiv auf die Wasserretention und das Wasserspeichervermögen eines Forstbestandes einzuwirken. Die mittels GIS-DRP erstellten Abflussprozesskarten der vier Testgebiete wurden durch die Ergebnisse der Geländeuntersuchungen sowie der Abflussprozesskartierung nach SCHERRER (2006) validiert. Hierdurch wurden für die Abflussgenerierung wichtige Parameter ermittelt und Optimierungsansätze erarbeitet, welche anschließend in GIS-DRP implementiert werden konnten. Verschlämmungsprozesse auf Ackerflächen können nun durch das modifizierte GIS-DRP-Werkzeug identifiziert werden. Zudem war es möglich, Extrem-Ereignis basierte Abflussprozesskarten zu etablieren, die Hot Spots der Abflussgenerierung identifizieren können. Die Einführung des Abflussprozesses "dSSF" (tiefer Zwischenabfluss) wurde durch eine neue Klassifizierung des geologischen Ausgangssubstrates erreicht. Forstwirten und Entscheidungsträgern im Waldmanagement wird somit die Möglichkeit geboten, Expertenwissen in ihre Planungen einfließen zu lassen. Hierdurch kann zum einen positiv auf den Landschaftswasserhaushalt eingewirkt werden, da gezielt auf Flächen nachteiliger Abflussbildung geeignete Maßnahmen des dezentralen Hochwasserschutzes angewandt werden können. Zum anderen werden Potentiale für bestmögliche Waldwachstumsvoraussetzungen in einem Landschaftsraum aufgezeigt. Der nachhaltigen Nutzung von Wäldern wird somit auch im Kontext des Klimawandels Rechnung getragen.
Seit Mitte der 1970er Jahre engagiert sich das Land Nordrhein-Westfalen, in Folge des sozial/ökologischen Wertewandels der 1960er und 1970er Jahre, in der Radverkehrsförderung. Damals wie heute ist die systematische Realisierung von Radverkehrsnetzen, die durchgängig mit einem Leitsystem gekennzeichnet werden, ein zentrales Landesziel. Hierzu entwickelte das Land NRW unterschiedliche Strategien: Ende der 1970er Jahre wurde landesweit ein touristisches Netz erarbeitet, das jedoch seitens der Kommunen nur wenig Akzeptanz fand. Anschließend führte das Land NRW mit zwei Modellvorhaben den Nachweis, dass zur Förderung des Radverkehrs eine systematische Zielnetzplanung verbunden mit einer Kennzeichnung des Netzes mittels Leitsystem zielführend ist. Doch auch dies fand seitens der Kommunen nur wenig Nachahmer. Daher leitete das Land NRW einen weiteren Strategiewechsel von der Bottom-up-Strategie zur Top-down-Strategie ein: 1995 wurde im Koalitionsvertrag der Landesregierung die Realsierung des Radverkehrsnetz Nordrhein-Westfalen (RVN NRW) politisch beschlossen. Landesweit sollte ein Radverkehrsnetz geplant und anschließend mit einem Leitsystem vor Ort gekennzeichnet werden. Das RVN NRW wurde zwischen 1996 und 2007 unter vollständiger Finanzierung des Landes NRW in enger Abstimmung mit den 427 Kommunen und ca. 2.000 Projektpartnern erfolgreich umgesetzt. Es hat eine Länge von 14.155 km. Heute wird das RVN NRW durch viele Kommunen weiter lokal verdichtet. Bereits im Rahmen der Projektkonzeption waren auf Grundlage des RVN NRW umfangreiche Synergien vorgesehen, indem u. a. der Radroutenplaner NRW entwickelt wurde. Dieser wird mittels Internet/Smartphone kommuniziert und enthält sowohl alle Informationen zur Planung der Strecke vor der Fahrt, als auch zur Wegefindung während der Fahrt. Mit diesem innovativen Projekt wurden zahlreiche Mehrwerte und Synergien erzielt, indem z. B. radtouristischen Netze neu geordnet, ein landeseinheitliches Qualitätsmanagement zur Pflege entwickelt, ein Repertoire zur Sicherung des Radverkehrs außerorts geschaffen und insbesondere die Verkehrsmittel des Umweltverbunds sowohl in den Netzen (Hardware) als auch in der Informationsvermittlung (Software) miteinander verknüpft wurden. Unter Berücksichtigung der ökologischen, energetischen, demographischen und volkswirtschaftlichen Anforderungen an die Mobilität der Zukunft, muss ein nachhaltiges selbsterklärendes multimodales Mobilitätssystem mit dem Rückgrat Öffentlicher Verkehr entwickelt werden. Mit der Realisierung des RVN NRW hat das Land NRW bereits eine wesentliche Komponente fertiggestellt. Um die Systemvorteile der jeweiligen Verkehrsarten optimal nutzen zu können, sind umfangreiche weitere Maßnahmen erforderlich, die wiederum einer Landesinitiative bedürfen. Das mit der Konzeption des RVN NRW erfolgreich praktizierte Umsetzungsverfahren lässt sich auf eine Vielzahl von weiteren Zukunftsaufgaben übertragen. Allgemeingültige Handlungsempfehlungen zeigen den Weg auf, wie auch diese Visionen in die Realität übergeleitet werden können.
On the Influence of Ignored Stimuli: Generalization and Application of Distractor-Response Binding.
(2011)
In selection tasks where target stimuli are accompanied by distractors, responses to target stimuli, target stimuli and the distractor stimuli can be encoded together as one episode in memory. Subsequent repetition of any aspect of such an episode can lead to the retrieval of the whole episode including the response. Thus, repeating a distractor can retrieve responses given to previous targets; this mechanism was labeled distractor-response binding and has been evidenced in several visual setups. Three experiments of the present thesis implemented a priming paradigm with an identification task to generalize this mechanism to auditory and tactile stimuli as well as to stimulus concepts. In four more experiments the possible effect of distractor-response binding on drivers' reactions was investigated. The same paradigm was implemented using more complex stimuli, foot responses, go/no-go responses, and a dual task setup with head-up and head-down displays. The results indicate that distractor-response binding effects occur with auditory and tactile stimuli and that the process is mediated by a conceptual representation of the distractor stimuli. Distractor-response binding effects also revealed for stimuli, responses, and framework conditions likely to occur in a driving situation. It can be concluded that the effect of distractor-response binding needs to be taken into account for the design of local danger warnings in driver assistance systems.
Zum Problem eines Bewusstseins bei Tieren am Paradigma der kantischen Theorie des Bewusstseins
(2012)
In einem ersten längeren Teil wird die These begründet und verteidigt, dass vor dem Hintergrund der Bewusstseins- bzw. Erkenntnislehre Kants, die vornehmlich den Menschen in den Blick nimmt, auch die Tiere als Züge transzendentaler Subjektivität aufweisend verstanden werden müssen. Im Anschluss daran wird diese Einsicht kritisch auf Kants Theorie menschlichen Bewusstseins und Erkennens bezogen. Es sind vornehmlich zwei Gesichtspunkte der Bewusstseins- bzw. Erkenntnistheorie Kants, die zur Begründung genannter These herangezogen werden: Zum einen die Lehre Kants von der Apriorität von Zeit und Raum als Formen der Anschauung eines transzendentalen Subjekts - insofern Tiere in Zeit und Raum anschauen, müssen auch sie über die apriorischen Anschauungsformen der Zeit und des Raumes verfügen; zum anderen die mit Kant aufzuweisende Abhängigkeit des Wahrnehmungsbewusstseins von nicht dem Vermögen der Sinnlichkeit zuzurechnenden Synthesisleistungen. Letztere sind vielmehr als von der Einheit eines transzendentalen Subjekts abhängig anzusehen, welche bzw. welches mithin auch bei Tieren zu veranschlagen ist. Vor dem skizzierten Hintergrund - und nachdem noch Kants Begriff des Organismus, des Lebens und seine Position zum Vorstellungsleben von Tieren nähere Betrachtung gefunden haben - werden in einem abschließenden Teil der Arbeit zwei Gesichtspunkte der kantischen Theorie menschlichen Bewusstseins kritisch diskutiert. Zunächst wird problematisiert, inwiefern Kants mindestens implizite These zu verteidigen ist, Vernunft weise gleichsam eine organologische Einheit auf, in der die einzelnen "Glieder" wechselseitig aufeinander bezogen sind und somit eine unauflösbare Einheit bilden. Die Notwendigkeit, auch Tieren transzendentale Subjektivität in bestimmtem Ausmaß zuzusprechen, scheint eine Aufspaltung besagter organologischer Einheit zur Folge zu haben. Des Weiteren wird erwogen, ob bei Tieren " nämlich insofern bei ihnen offenbar die Bewusstseinsebene vorliegt, die Kant beim Menschen die empirische Apperzeption oder den inneren Sinn nennt - nicht auch schon von Selbstbewusstsein zu sprechen ist. Es ist doch in ihrem wie in unserem Fall ein transzendentales Subjekt, das, insofern Zeit und Raum lediglich apriorische Anschauungsformen sind, sich selbst anschaut bzw. sich auch seiner selbst insofern bewusst ist. Es ist, so wird argumentiert, allererst Selbsterkenntnis, die den Menschen wesentlich vom Tier unterscheidet, nicht aber schon Selbstbewusstsein.
Der Schwarzmeerraum stellte am Ende des Mittelalters einen Schnittpunkt unterschiedlichster Kulturbereiche dar. Hier trafen das zerfallende Byzantinische Reich, die Reste der Kreuzfahrerstaaten, verschiedene mongolische Reiche und das aufsteigende Osmanische Reich aufeinander. Wie sich aus diesem Aufeinandertreffen ein über Jahrzehnte trotz immer wieder entstehender Konflikte fruchtbares und bei aller Dynamik relativ stabiles Miteinander entwickelte, wird anhand der aufschlussreichen Register der genuesischen Massaria von Caffa untersucht. Dabei liegt der Fokus sowohl auf der Organisation des italienischen Netzwerks in der Region als auch auf dem Umgang mit den tatarischen und türkischen Nachbarn, auf deren Gebiet die Genuesen operierten, insbesondere auf den diplomatischen Aktivitäten. Wie sich unter diesen Umständen der Handel als Hauptaktivität entfaltete, wird am Beispiel des Sklavenhandels verdeutlicht.
Untersucht wurde der Zusammenhang zwischen körperlichen sowie psychischen Beschwerden und kulturellen Wertvorstellungen, Akkulturationsorientierungen, Kompetenz- und Kontrollüberzeugungen, Vertrauen in direkte Bezugspersonen und Hoffnungslosigkeit bei 172 türkischstämmigen Menschen in Deutschland im Alter von 16 bis 73 Jahren. Die deutschen Erhebungsinstrumente wurden mit Ausnahme eines Fragebogens, der bereits in türkischer Sprache vorlag, von der Autorin und einer staatlich anerkannten Dolmetscherin in die türkische Sprache übersetzt. Für die deutschen und türkischen Messinstrumente wurden anschließend Item- und Skalenanalysen durchgeführt, um sie hinsichtlich ihrer psychometrischen Tauglichkeit zu überprüfen. Weiterhin wurde die türkischstämmige Gesamtstichprobe in eine türkisch orientierte und eine deutsch orientierte Subgruppe unterteilt, zwischen denen einige Mittelwertsvergleiche berechnet wurden, um einerseits inhaltlich relevante Unterschiede explorativ zu erforschen und um andererseits zu überprüfen, ob die Variablen Nationalität, Sprache oder Geburtsort für die stärkere Symptomausprägung bei in Deutschland lebenden Türken entscheidend sind.
Öffentlichkeitsarbeit ist in der politischen Arbeit unabdingbar geworden, die Wirkungen von Kommunikationsmaßnahmen in die Bevölkerung sind Gegenstand zahlreicher Untersuchungen. Die Wirkungen auf die Durchführenden selber, also auf die Politik und die Verwaltung, sind hingegen noch nicht untersucht worden. Hier setzt diese Arbeit an. Im Zentrum der Untersuchung steht dementsprechend die "interne" Wirkung (auf Verwaltung, Politik) einer Kommunikationsmaßnahme, weniger die "externe" (in die Bevölkerung). Zentrale These ist, dass eine an die Öffentlichkeit gerichtete Maßnahme eine interne Wirkung entfaltet, die die politischen, gesellschaftlichen und verwaltungstechnischen Rahmenbedingungen wesentlich zugunsten des beworbenen Themas verändert. Am Beispiel des Radverkehrs wird diese These überprüft. Als Untersuchungsrahmen dient die "Kopf-an" Kampagne des Bundesumweltministeriums, welche, durchgeführt in neun Kommunen Deutschlands, die Förderung des Alltagsradverkehrs zum Ziel hatte. Mittels einer vergleichenden Untersuchung von Hemmnissen und Erfolgsfaktoren kommunaler Radverkehrspolitik werden Erfolgsfaktoren für den kommunalen Radverkehr extrahiert, die die Kernthesen der Untersuchung bilden. Inwieweit diese Erfolgsfaktoren durch die "Kopf an" Kampagne positiv beeinflusst werden konnten, wird mittels Experteninterviews untersucht. Es wird gezeigt, dass eine Reihe von Faktoren positiv beeinflusst wurde und sich so aufgrund der Kampagne ein positiveres Klima für den Radverkehr in Politik und Verwaltung entwickelt hat.
Die Auswirkungen von Rahmenfehlern in Zensen werden bereits seit vielen Jahren untersucht. Eine Methode, um aktuelle Bevölkerungszahlen zu gewinnen, basiert auf Fortschreibung. Wegen Ungenauigkeiten in der Fortschreibung wurden aber auch andere Modelle entwickelt - die capture-recapture-Modelle. Am 29. August 2006 hat die Bundesregierung beschlossen, dass in Deutschland 2011 ein registergestützter Zensus durchgeführt wird. Der Schwerpunkt dieser Dissertation liegt in der Anwendung des capture-recapture-Modelles im deutschen Zensus 2011. Die Dissertation vergleicht den dual system estimator (DSE) und alternative Schätzer (Verallgemeinerter-Regressionsschätzer, Verhältnis-synthetischer Schätzer, Schätzer basierend auf dem Unit-level Modell) für die Schätzung der Anzahl der tatsächlich vorhandenen Personen. Die empirische Untersuchung der Güte der Schätzer basiert auf Monte Carlo Simulationen synthetischer Populationen des Bundeslandes Saarland.
This thesis centers on formal tree languages and on their learnability by algorithmic methods in abstractions of several learning settings. After a general introduction, we present a survey of relevant definitions for the formal tree concept as well as special cases (strings) and refinements (multi-dimensional trees) thereof. In Chapter 3 we discuss the theoretical foundations of algorithmic learning in a specific type of setting of particular interest in the area of Grammatical Inference where the task consists in deriving a correct formal description for an unknown target language from various information sources (queries and/or finite samples) in a polynomial number of steps. We develop a parameterized meta-algorithm that incorporates several prominent learning algorithms from the literature in order to highlight the basic routines which regardless of the nature of the information sources have to be run through by all those algorithms alike. In this framework, the intended target descriptions are deterministic finite-state tree automata. We discuss the limited transferability of this approach to another class of descriptions, residual finite-state tree automata, for which we propose several learning algorithms as well. The learnable class by these techniques corresponds to the class of regular tree languages. In Chapter 4we outline a recent range of attempts in Grammatical Inference to extend the learnable language classes beyond regularity and even beyond context-freeness by techniques based on syntactic observations which can be subsumed under the term 'distributional learning', and we describe learning algorithms in several settings for the tree case taking this approach. We conclude with some general reflections on the notion of learning from structural information.
Die ältesten bekannten jüdischen Grabsteine in den Rheinlanden befinden sich in Mainz und Worms. Ihre Inschriften werden dem 11. Jahrhundert n. Chr. zugeordnet und sind meistens datiert. Möglicherweise noch früher ist die undatierte Inschrift von Heilbronn anzusetzen, die aber vielleicht gar kein Epitaph ist. In dieser Untersuchung wird nach der Einleitung (Vorstellung eines namenkundlich-geschichtswissenschaftlichen Projekts) zunächst der Wert jüdischer Epitaphe für die onomastische Forschung aufgezeigt, die regionale Verteilung der rheinischen jüdischen Grabsteine des Mittelalters beschrieben und die Abgrenzung historischer Phasen erörtert. Bei der Prüfung der Heilbronner Inschrift und ihres Umfelds ergaben sich bisher unbeachtete Aspekte, deren Bedeutung für die Einordnung dieses Epigraphs aufgezeigt wird. Die anschließenden Analysen und Erörterungen richten sich nach einer Abfolge, die auch bei der Untersuchung der datierten Grabinschriften beachtet wird: Nach der Behandlung von Datierungsfragen wird der Blick auf die onomastischen Felder Name(n), Attribut(e), Bindeglied(er), Schrift(en), Sprache(n) und Kette(n) gerichtet. Der jeweils angefügte Vergleich mit antiken jüdischen Inschriften ist nach ebendiesem Muster aufgebaut. So wird beispielsweise nicht nur die Verbreitung des mit der Heilbronner Inschrift überlieferten Namens Nathan im Mittelalter skizziert, sondern auch konstatiert, daß dieser biblische Name in dem betreffenden Vergleichsmaterial der Antike nicht zu finden ist. Aus arbeits- und darstellungsökonomischen Gründen wird bei der Behandlung der erwähnten Grabsteine in Mainz und Worms unterschieden zwischen denjenigen Teilaufgaben, die alle diesbezüglichen Inschriften der Zeit vor dem Ersten Kreuzzug betreffen, und denjenigen, die sich auf die speziellen Angaben des einzigen bekannten Epitaphs der Phase Ia (bis ca. a. 1050) beziehen. Die erstgenannten Teilaufgaben werden in dieser Grundlegung erörtert, dagegen die speziellen Angaben der Epitaphe der Phase Ib (ca. a. 1050-1100) erst in einer künftigen Publikation ausführlicher besprochen. Zu den generellen Beobachtungen bei den Vergleichen nicht nur mit antiken, sondern auch mit späteren jüdischen (Grab-)Inschriften u. a. in Italien (bes. Venosa), Spanien und Frankreich gehört, dass man sich in der Antike bei der Zählung der Jahre auf die nichtjüdische Herrschaftsausübung (wie römische Konsuln) bezog, während man im Mittelalter spezifisch jüdisch ("nach der Zerstörung des Tempels", "nach der Erschaffung der Welt") zählte. Weiterhin ist z. B. bemerkenswert, dass die jüdischen Epitaphe nach ca. 750 ausschließlich mit hebräischen Buchstaben geschrieben wurden ("Schriftgrenze") und dass von den untersuchten nur rheinische den Zusatz Lifrat "nach der Zählung" aufweisen. Eine rheinische Spezialität ist zudem die auffällige Häufigkeit des biblischen Namens Jehuda und die Verbreitung von Senior/Schneior, wobei, von dem lateinischen Wort ausgehend, in der Untersuchung verschiedene Positionen zur sprach- und regionalhistorischen Einordnung dieses Namens erwogen und linguistische Fakten und Faktoren besonders aus der Perspektive der germ.-deutschen Majoritätskomponente des Jiddischen und aus romanistischer Sicht erörtert werden. Spezifika der jüdischen Namenwelt werden bei der Darstellung onomastischer Ketten erstmals in angemessener Detailbeachtung berücksichtigt, was entsprechende Vergleiche entscheidend befördert. Ergänzt wird die Abhandlung nicht nur u. a. durch Kontextwiedergaben und 28 Tabellen, sondern auch durch sechs umfangreiche Exkurse, in denen neben philologischen (z. B. Diminutivbildungen) und literarischen Fragen auch solche anderer Disziplinen wie archäologisch-historischer in den Blick genommen werden.
Eine Vielzahl hydrophiler Xenobiotika wird in kommunalen Kläranlagen nur unvollständig abgebaut und stellt ein potentielles Risiko für aquatische Ökosysteme dar. Die Eliminationsleistung von Kläranlagen hat sich deshalb während des letzten Jahrzehnts zu einem Schwerpunkt in der aquatischen Umweltchemie entwickelt. Die vorliegende Arbeit untersucht in diesem Zusammenhang die Variation biologischer Abbauleistungen kommunaler Kläranlagen für polare Xenobiotika. Es soll überprüft werden, ob die Abbauleistung von Xenobiotika mit derer klassischer Nährstoffe in Beziehung gesetzt werden kann. Als zusätzlicher Faktor zur Erklärung von unterschiedlichen Eliminationsleistungen wurden Probenahmestrategien hinsichtlich der Erstellung von Massenbilanzen analysiert. Fünf Pharmaka sowie drei Aminopolycarbonsäuren wurden als Testsubstanzen ausgewählt. Diese umfassen ein Spektrum an mikrobiologischer Abbaubarkeit bedingt durch die Reaktivität ihrer unterschiedlichen molekularen Strukturen. Ein kombinierter Versuchsaufbau aus Respirometrie und Abbautests ermöglichte, neben der Bestimmung von Abbaukinetiken, auch die Charakterisierung von Belebtschlamm. Der Einfluss von Mischungsprozessen auf die Abbauleistungen von Kläranlagen wurde mittels hydraulischer Aufenthaltszeitverteilungen modelliert. Darauf basierend wurde eine Methode zur Beurteilung und Erstellung von Eliminationsleistungen aus Zulauf-Ablauf Massenbilanzen entwickelt. Die Resultate zeigen deutliche Unterschiede in den Belebtschlammcharakteristika und dem Abbaupotential von Xenobiotika zwischen verschiedenen Kläranlagen. Die aktive heterotrophe Biomasse wurde als steuernder Faktor für die Biodegradation der untersuchten leicht und moderat abbaubaren Xenobiotika identifiziert. Dies kann als Hinweis auf kometabolische Abbauprozesse durch unspezifische Enzymaktivitäten gewertet werden. Die beobachtete Abnahme der Eliminationsleistung mit steigendem Schlammalter konnte anhand modifizierter Kinetiken pseudo-erster Ordnung beschrieben werden. Die Modellierung von Mischungsprozessen mittels hydraulischer Aufenthaltszeitverteilungen macht deutlich, mit welcher Unsicherheit Massenbilanzen in Kläranlagen behaftet sind. Die Ergebnisse demonstrieren, dass dies vor allem auf inadäquate Probenahmestrategien zurückzuführen ist. Insbesondere Massenbilanzen auf der Basis von kurzen Probenahmezeiträumen und 24-h Mischproben resultieren in fehlerhafte Eliminationsraten. Der vorgestellte Ansatz benutzt die Verteilungen von Aufenthaltszeiten als Leitprinzip, um Zulauf- und Ablauffrachten zueinander in Beziehung zu setzen. Die Methode kann als Grundlage zur akkuraten Schätzung von Eliminationsleistungen herangezogen werden und bietet eine Erklärung für das Vorkommen negativer Eliminationsleistungen.
Psychiatric/Behavioral disorders/traits are usually polygenic in nature, where a particular phenotype is the manifestation of multiple genes. However, the existence of large families with numerous members who are affected by these disorders/traits steers us towards a Mendelian (or monogenic) possibility, where the phenotype is caused by a single gene. In order to better understand the genetic architecture of general psychiatric/behavioral disorders/traits, this thesis investigates large pedigrees that display a Mendelian pattern for attention-deficit/hyperactivity disorder, schizophrenia and bipolar disorder. Numerous challenges in the field of psychiatric and behavioral sciences have impeded the genetic investigation of such disorders/traits. Examples include frequent cross-disorders, genetic heterogeneity across subjects as well as the use of diagnostic tools that can be subjective at times. To overcome these challenges, this thesis investigates large multi-generational pedigrees, which comprise a significant number of members who exhibit specific psychiatric/behavioral phenotypes. These pedigrees provide high-resolution experimental setups that can dissect the genetic complexities of psychiatric/behavioral disorders/traits. This thesis adopts a classical two-stage genetic approach to investigate the various psychiatric/behavioral disorders/traits in large pedigrees. The classical two-stage genetic approach is commonly used by many human geneticists to study a wide spectrum of human physiological disorders but is only being applied to the field of psychiatric and behavioral genetics recently. Through the study of large pedigrees, this thesis discovers the genomic regions that may play a causative role in the expression of certain psychiatric/behavioral disorders/traits within the vast genome.
In addition to the well-recognised effects of both, genes and adult environment, it is now broadly accepted that adverse conditions during pregnancy contribute to the development of mental and somatic disorders in the offspring, such as cardiovascular disorders, endocrinological disorders, metabolic disorders, schizophrenia, anxious and depressive behaviour and attention deficit hyperactivity disorder (ADHD). Early life events may have long lasting impact on tissue structure and function and these effects appear to underlie the developmental origins of vulnerability to chronic diseases. The assumption that prenatal adversity, such as maternal emotional states during pregnancy, may have adverse effects on the developing infant is not new. Accordant references can be found in an ancient Indian text (ca. 1050 before Christ), in biblical texts and in documents originating during the Middle Ages. Even Hippocrates stated possible effects of maternal emotional states on the developing fetus. Since the mid-1950s, research examining the effects of maternal psychosocial stress during pregnancy appeared in the literature. Extensive research in this field has been conducted since the early 1990s. Thus, the relationship between early life events and long-term health outcomes was already postulated over 20 years ago. David Barker and colleagues demonstrated that children of lower birth weight - which represents a crude marker of an adverse intrauterine environment - were at increased risk of high blood pressure, cardiovascular disorders, and type-2 diabetes later in life. These provocative findings led to a large amount of subsequent research, initially focussing on the role of undernutrition in determining fetal outcomes. The phenomenon of prenatal influences that determine in part the risk of suffering from chronic disease later in life has been named the "fetal origins of health and disease" paradigm. The concept of "prenatal programming" has now been extended to many other domains, such as the effects of prenatal maternal stress, prenatal tobacco exposure, alcohol intake, medication, toxins, as well as maternal infection and diseases. During the process of prenatal programming, environmental agents are transmitted across the placenta and act on specific fetal tissues during sensitive periods of development. Thus, developmental trajectories are changed and the organisation and function of tissue structure and organ system is altered. The biological purpose of those "early life programming" may consist in evolutionary advantages. The offspring adapts its development to the expected extrauterine environment which is forecast by the clues available during fetal life. If the fetus receives signals of a challenging environment, e.g. due to maternal stress hormones or maternal undernutrition, its survival may be promoted due to developmental adaptation processes. However, if the expected environment does not match with the real environment, maladapation and later disease risk may result. For example, a possible indicator of a "response ready" trait, such as hyperactivity/inattention may have been advantageous in an adverse ancient environment. However, it is of disadvantage when the postnatal environment demands oppositional skills, such as attention and concentration " e.g. in the classroom, at school, to achieve academic success. Borderline personality disorder (BPD) is a prevalent psychiatric disorder, characterized by impulsivity, affective instability, dysfunctional interpersonal relationships and identity disturbance. Although many studies report different risk factors, the exact etiologic mechanisms are not yet understood. In addition to the well-recognised effects of genetic components and adverse childhood experiences, BPD may potentially be co-determined by further environmental influences, acting very early in life: during pre- and perinatal period. There are several hints that may suggest possible prenatal programming processes in BPD. For example, patients with BPD are characterized by elevated stress sensitivity and reactivity and dysfunctions of the neuroendocrine stress system, such as the hypothalamic pituitary adrenal (HPA) axis. Furthermore, patients with BPD show a broad range of somatic comorbidities " especially those disorders for which prenatal programming processes have been described. During infancy and childhood, BPD patients already show behavioural and emotional abnormalities as well as pronounced temperamental traits, such as impulsivity, emotional dysregulation and inattention that may potentially be co-determined by prenatal programming processes. Such temperamental traits - similar to those, seen in patients with ADHD - have been described to be associated with low birthweight which indicates a suboptimal intrauterine environment. Moreover, the functional and structural alterations in the central nervous system (CNS) in patients with BPD might also be mediated in part by prenatal agents, such as prenatal tobacco exposure. Prenatal adversity may thus constitute a further, additional component in the multifactorial genesis of BPD. The association between BPD and prenatal risk factors has not yet been studied in such detail. We are not aware of any further study that assessed pre- and perinatal risk factors, such as maternal psychoscocial stress, smoking, alcohol intake, obstetric complications and lack of breastfeeding in patients with BPD.
Diese Dissertation befasst sich mit anreiztheoretischen Konsequenzen der Reform der Professorenbesoldung. Dabei stehen vor allem die besonderen Leistungsbezüge im Mittelpunkt, die ökonomisch als relative Leistungsturniere zu betrachten sind. Das erste Papier mit dem Titel "Stufenmodell oder Leistungspunkte? Die Vergabe besonderer Leistungsbezüge an deutschen Universitäten" beschäftigt sich mit den Vergabeverfahren für besondere Leistungsbezüge auf Universitätsebene und zeigt, dass die existierenden Systeme unterschiedliche Turniertypen darstellen: Bei dem Stufenmodell handelt es sich um ein U-Typ Turnier, während das Leistungspunkte-Modell als J-Typ Turnier aufzufassen ist. Ein Vergleich dieser beiden Typen liefert modelltheoretische Empfehlungen für die Umsetzung. Diese werden empirisch für 60 deutsche Universitäten überprüft. Das zweite Papier "Searching for the best? Clubs and their admission decision" beschäftigt sich mit strategischen Entscheidungen in Berufungskommissionen. Mit der Einführung der W-Besoldung an deutschen Universitäten werden Professoren stärker leistungsabhängig entlohnt. Die so genannten besonderen Leistungsbezüge werden durch relative Leistungsturniere auf Fachbereichsebene vergeben. Im Zusammenspiel mit der Auswahl neuer Hochschullehrer in Berufungskommissionen können adverse Anreize entstehen, nicht den besten Bewerber auszuwählen. Die Fachbereiche sehen sich bei der Einstellungsentscheidung einem Trade-off gegenüber: Die Berufung eines sehr guten Kandidaten erzeugt Spill-over-Effekte. Zum einen können durch Kooperationen mit anderen (guten) Forschern des Fachbereichs neue Projekte entstehen, die Forschungsgelder und Drittmittel einbringen und somit auch die Reputation des Fachbereichs insgesamt (oder dieser Forschergruppe) steigern. Zum anderen führt diese Berufungsentscheidung dazu, dass bei der Vergabe der besonderen Leistungsbezüge die zusätzliche Konkurrenz durch einen besonders erfolgreichen Professor bedeutet, dass weniger erfolgreiche Fakultätsmitglieder geringere besondere Leistungsbezüge erhalten. Dieser Effekt kann als relative Deprivation verstanden werden. Welcher Effekt überwiegt, wird mit Hilfe eines zweistufigen Spiels untersucht. Das dritte Papier "Kooptation und Wettbewerb - Experimentelle Analyse" analysiert das Zusammenwirken von relativen Leistungsturnieren und Team-Arbeit experimentell. Dazu wird das Design von Irlenbusch/Ruchala (2008) um das Element der Kooptation eines neuen Mitspielers und Turniergegners erweitert. Es zeigt sich, dass die Anreizwirkung von Wettbewerben mit nur einem Preis (Stufenmodell) größer ist als bei mehreren, relativ vergebenene Preisen (Leistungspunkte-Verfahren). Bei der Zuwahl-Entscheidung gibt es zwei Spiel-Strategien: Neben der typischen Auszahlungsmaximierung gibt es Spieler, die bereit sind auf Einkommen zu Gunsten von Status zu verzichten. Diese Spieler wählen einen Bewerber, der ihre eigene Position im internen Ranking nicht gefährdet. Besonders anfällig für dieses Verhalten ist das Stufenmodell mit nur einem Siegerpreis. Das Leistungspunkte-Verfahren schneidet hier besser ab, da es dort nur wenige Fälle von Status sichernden Zuwahl-Entscheidungen gibt.
Wilhelm Windelband (1848-1915) gilt als ein wegbereitender Denker, der die wertphilosophische Ausrichtung der sogenannten Südwestdeutschen Schule vorzeichnet. Aufgrund dieser Vorreiterrolle sowie seiner fragmentarischen Denkweise gerät die Eigenständigkeit seines Philosophierens oft in Vergessenheit oder wird meistens im Schatten der Rezeptionsgeschichte gesehen. Die vorliegende Arbeit macht sich zur Aufgabe, Windelbands Philosophie zunächst in ihrer Eigentümlichkeit wiederherzustellen, um anschließend nach ihrer systematischen Bedeutung fragen zu können. Neben den entwicklungsgeschichtlichen Aspekten, anhand derer Windelbands gedanklicher Werdegang in drei Phasen (Psychologismus, Wertphilosophie und Kulturphilosophie) eingeteilt wird, geht die vorliegende Arbeit vor allem der Frage nach, in wie fern die von ihm konzipierte Wertphilosophie als Kulturphilosophie zu verstehen ist. Die Forderung des späten Windelbands, den Kantischen Kritizismus zu einer umfassenden Kulturphilosophie zu erweitern, dient dabei als roter Faden dieses Interpretationsversuchs. Die Herausarbeitung möglicher systematischer Ansatzpunkte innerhalb seiner Werttheorie, die dieser Forderung genügen, soll Windelbands Status als Kulturphilosoph untermauern.
Variational inequality problems constitute a common basis to investigate the theory and algorithms for many problems in mathematical physics, in economy as well as in natural and technical sciences. They appear in a variety of mathematical applications like convex programming, game theory and economic equilibrium problems, but also in fluid mechanics, physics of solid bodies and others. Many variational inequalities arising from applications are ill-posed. This means, for example, that the solution is not unique, or that small deviations in the data can cause large deviations in the solution. In such a situation, standard solution methods converge very slowly or even fail. In this case, so-called regularization methods are the methods of choice. They have the advantage that an ill-posed original problem is replaced by a sequence of well-posed auxiliary problems, which have better properties (like, e.g., a unique solution and a better conditionality). Moreover, a suitable choice of the regularization term can lead to unconstrained auxiliary problems that are even equivalent to optimization problems. The development and improvement of such methods are a focus of current research, in which we take part with this thesis. We suggest and investigate a logarithmic-quadratic proximal auxiliary problem (LQPAP) method that combines the advantages of the well-known proximal-point algorithm and the so-called auxiliary problem principle. Its exploration and convergence analysis is one of the main results in this work. The LQPAP method continues the recent developments of regularization methods. It includes different techniques presented in literature to improve the numerical stability: The logarithmic-quadratic distance function constitutes an interior point effect which allows to treat the auxiliary problems as unconstrained ones. Furthermore, outer operator approximations are considered. This simplifies the numerical solution of variational inequalities with multi-valued operators since, for example, bundle-techniques can be applied. With respect to the numerical practicability, inexact solutions of the auxiliary problems are allowed using a summable-error criterion that is easy to implement. As a further advantage of the logarithmic-quadratic distance we verify that it is self-concordant (in the sense of Nesterov/Nemirovskii). This motivates to apply the Newton method for the solution of the auxiliary problems. In the numerical part of the thesis the LQPAP method is applied to linearly constrained, differentiable and nondifferentiable convex optimization problems, as well as to nonsymmetric variational inequalities with co-coercive operators. It can often be observed that the sequence of iterates reaches the boundary of the feasible set before being close to an optimal solution. Against this background, we present the strategy of under-relaxation, which robustifies the LQPAP method. Furthermore, we compare the results with an appropriate method based on Bregman distances (BrPAP method). For differentiable, convex optimization problems we describe the implementation of the Newton method to solve the auxiliary problems and carry out different numerical experiments. For example, an adaptive choice of the initial regularization parameter and a combination of an Armijo and a self-concordance step size are evaluated. Test examples for nonsymmetric variational inequalities are hardly available in literature. Therefore, we present a geometric and an analytic approach to generate test examples with known solution(s). To solve the auxiliary problems in the case of nondifferentiable, convex optimization problems we apply the well-known bundle technique. The implementation is described in detail and the involved functions and sequences of parameters are discussed. As far as possible, our analysis is substantiated by new theoretical results. Furthermore, it is explained in detail how the bundle auxiliary problems are solved with a primal-dual interior point method. Such investigations have by now only been published for Bregman distances. The LQPAP bundle method is again applied to several test examples from literature. Thus, this thesis builds a bridge between theoretical and numerical investigations of solution methods for variational inequalities.
The role of cortisol and cortisol dynamics in patients after aneurysmal subarachnoid hemorrhage
(2011)
Spontaneous aneurysmal subarachnoid hemorrhage (SAH) is a form of stroke which constitutes a severe trauma to the brain and often leads to serious long-term medical and psychosocial sequels which persist for years after the acute event. Recently, adrenocorticotrophic hormone deficiency has been identified as one possible consequence of the bleeding and is assumed to occur in around 20% of all survivors. Additionally, a number of studies report a high prevalence of post-SAH symptoms such as lack of initiative, fatigue, loss of concentration, impaired quality of life and psychiatric symptoms such as depression. The overlap of these symptoms and those of patients with untreated partial or complete hypopituitarism lead to the suggestion that neuroendocrine dysregulations may contribute to the psychosocial sequels of SAH. Therefore, one of the aims of this work is to gain insights into the role of neuroendocrine dysfunction on quality of life and the prevalence of psychiatric sequels in SAH-patients. Additionally, as data on cortisol dynamics after SAH are scarce, diurnal cortisol profiles are investigated in patients in the acute and chronic phase, as well as the cortisol awakening response and feedback sensitivity in the chronic phase after SAH. As a result, it can be shown that some SAH patients exhibit lower serum cortisol levels but at the same time a higher cortisol awakening response in saliva than healthy controls. Also, patients in the chronic phase after SAH do have a stable diurnal cortisol rhythm while there are disturbances in around 50% of all patients in the acute phase, leading to the conclusion that a single baseline measurement of cortisol is of no substantial use for diagnosing cortisol dysregulations in the acute phase after SAH. It is assumed that in SAH patients endocrine changes occur over time and that a combination of adrenal exhaustion and a subsequent downregulation of corticosteroid binding globulin may be the most probable causes for the dissociation of serum cortisol concentrations and salivary cortisol profiles in the investigated SAH patients. These changes may be an emergency response after SAH and, as elevated free cortisol levels are connected to a better psychosocial outcome in patients in the chronic phase after SAH, this reaction may even be adaptive.
The demand for reliable statistics has been growing over the past decades, because more and more political and economic decisions are based on statistics, e.g. regional planning, allocation of funds or business decisions. Therefore, it has become increasingly important to develop and to obtain precise regional indicators as well as disaggregated values in order to compare regions or specific groups. In general, surveys provide the information for these indicators only for larger areas like countries or administrative divisions. However, in practice, it is more interesting to obtain indicators for specific subdivisions like on NUTS 2 or NUTS 3 levels. The Nomenclature of Units for Territorial Statistics (NUTS) is a hierarchical system of the European Union used in statistics to refer to subdivisions of countries. In many cases, the sample information on such detailed levels is not available. Thus, there are projects such as the European Census, which have the goal to provide precise numbers on NUTS 3 or even community level. The European Census is conducted amongst others in Germany and Switzerland in 2011. Most of the participating countries use sample and register information in a combined form for the estimation process. The classical estimation methods of small areas or subgroups, such as the Horvitz-Thompson (HT) estimator or the generalized regression (GREG) estimator, suffer from small area-specific sample sizes which cause high variances of the estimates. The application of small area methods, for instance the empirical best linear unbiased predictor (EBLUP), reduces the variance of the estimates by including auxiliary information to increase the effective sample size. These estimation methods lead to higher accuracy of the variables of interest. Small area estimation is also used in the context of business data. For example during the estimation of the revenues of specific subgroups like on NACE 3 or NACE 4 levels, small sample sizes can occur. The Nomenclature statistique des activités économiques dans la Communauté européenne (NACE) is a system of the European Union which defines an industry standard classification. Besides small sample sizes, business data have further special characteristics. The main challenge is that business data have skewed distributions with a few large companies and many small businesses. For instance, in the automotive industry in Germany, there are many small suppliers but only few large original equipment manufacturers (OEM). Altogether, highly influential units and outliers can be observed in business statistics. These extreme values in connection with small sample sizes cause severe problems when standard small area models are applied. These models are generally based on the normality assumption, which does not hold in the case of outliers. One way to solve these peculiarities is to apply outlier robust small area methods. The availability of adequate covariates is important for the accuracy of the above described small area methods. However, in business data, the auxiliary variables are hardly available on population level. One of several reasons for that is the fact that in Germany a lot of enterprises are not reflected in business registers due to truncation limits. Furthermore, only listed enterprises or companies which trespass specific thresholds are obligated to publish their results. This limits the number of potential auxiliary variables for the estimation. Even though there are issues with available covariates, business data often include spatial dependencies which can be used to enhance small area methods. Next to spatial information based on geographic characteristics, group-specific similarities like related industries based on NACE codes can be used. For instance, enterprises from the same NACE 2 level, e.g. sector 47 retail trade, behave more similar than two companies from different NACE 2 levels, e.g. sector 05 mining of coal and sector 64 financial services. This spatial correlation can be incorporated by extending the general linear mixed model trough the integration of spatially correlated random effects. In business data, outliers as well as geographic or content-wise spatial dependencies between areas or domains are closely linked. The coincidence of these two factors and the resulting consequences have not been fully covered in the relevant literature. The only approach that combines robust small area methods with spatial dependencies is the M-quantile geographically weighted regression model. In the context of EBLUP-based small area models, the combination of robust and spatial methods has not been considered yet. Therefore, this thesis provides a theoretical approach to this scientific and practical problem and shows its relevance in an empirical study.
Edition und Kommentar von 27 Texten auf Papyrus aus den französisch-italienischen Grabungen in Tebtynis (Umm el-Breigât), Ägypten. Alle Texte stammen aus römischer Zeit und sind in Tebtynis gefunden worden. Sie werden hier erstmals mit Abschrift, Übersetzung und Kommentar herausgegeben und beleuchten diverse Aspekte des täglichen Lebens, so auf Verwaltung, Wirtschaft, Rechtsangelegenheiten, Bevölkerung, Religion, Steuerwesen, Arbeitsalltag, Vertragswesen, geschäftliche und erbrechtliche Angelegenheiten. Es handelt sich somit um Quellenmaterial für alle altertumswissenschaftlichen Nachbarsdisziplinen. Folgende Texte sind enthalten: 1. Rundschreiben des Praefectus Aegypti; 2. Monatsbericht der Sitologen von Kerkesis; 3. κατ'ἄνδρα-Bericht der Sitologen von Kerkesis (Verso von Nr. 2); 4. Fragment eines Amtlichen Schreibens; 5. Verhandlungsprotokoll; 6. Liste von Dörfern und Geldsummen; 7. Liturgie-Vorschlagsliste (?); 8. Personenliste; 9. Aufstellung über Naturalien; 10. Tempelabrechnung; 11. Zensusdeklaration; 12. Schluß einer Eingabe mit Namenliste; 13. Eingabe der Thenherakleia?; 14. Quittungsbogen für verschiedene Steuern; 15. Quittungen für Dammsteuer; 16. Fragment einer Lohnquittung für Arbeiten auf einem Kleros (?); 17. Fragment einer Lohnquittung; 18. Liste von Zahlungen in Weizen; 19. Abrechnung von Außenständen in Naturalien und Geld; 20. Agoranomischer Vertrag über ein Geld- und Getreidedarlehen; 21. Donatio mortis causa; 22. Geschäftsbrief: Heron an Heron; 23. Geschäftsbrief: Heron an Heron; 24. Geschäftsbrief: Heron an Sabinos; 25. Brief; 26. Brief; 27. Fragment mit Erwähnung von Dörfern und Immobilien (descr.)
The complicated human alternative GR promoter region plays a pivotal role in the regulation of GR levels. In this thesis, both genomic and environmental factors linked with GR expression are covered. This research showed that GR promoters were susceptible to silencing by methylation and the activity of the individual promoters was also modulated by SNPs. E2F1 is a major element to drive the expression of GR 1F transcripts and single CpG dinucleotide methylation cannot mediate the inhibition of transcription in vitro. Also, the distribution of GR first exons and 3" splice variants (GRα and GR-P) is expressed throughout the human brain with no region-specific alternative first exon usage. These data mirrored the consistently low levels of methylation in the brain, and the observed homogeneity throughout the studied regions. Taken together, the research presented in this thesis explored several layers of complexity in GR transcriptional regulation.
There is a lot of evidence for the impact of acute glucocorticoid treatment on hippocampus-dependent explicit learning and memory (memory for facts and events). But there have been few studies, investigating the effect of glucocorticoids on implicit learning and memory. We conducted three studies with different methodology to investigate the effect of glucocorticoids on different forms of implicit learning. In Study 1, we investigated the effect of cortisol depletion on short-term habituation in 49 healthy subjects. 25 participants received oral metyrapone (1500 mg) to suppress endogenous cortisol production, while 24 controls received oral placebo. Eye blink electromyogram (EMG) responses to 105 dB acoustic startle stimuli were assessed. Effective endogenous cortisol suppression had no effect on short-term habituation of the startle reflex, but startle eye blink responses were significantly increased in the metyrapone group. The latter findings are in line with previous human studies, which have shown that excess cortisol, sufficient to fully occupy central nervous system (CNS) corticosteroid receptors, may reduce startle eye blink. This effect may be mediated by CNS mechanisms controlling cortisol feedback. In Study 2, we investigated delay or trace eyeblink conditioning in a patient group with a relative hypocortisolism (30 patients with fibromyaligia syndrome/FMS) compared to 20 healthy control subjects. Conditioned eyeblink response probability was assessed by EMG. Morning cortisol levels, ratings of depression, anxiety and psychosomatic complaints as well as general symptomatology and psychological distress were assessed. As compared to healthy controls FMS patients showed lower morning cortisol levels, and trace eyeblink conditioning was facilitated whereas delay eyeblink conditioning was reduced. Cortisol measures correlate significantly only with trace eyeblink conditioning. Our results are in line with studies of pharmacologically induced hyper- and hypocortisolism, which affected trace eyeblink conditioning. We suggest that endocrine mechanisms affecting hippocampus-mediated forms of associative learning may play a role in the generation of symptoms in these patients.rnIn Study 3, we investigated the effect of excess cortisol on implicit sequence learning in healthy subjects. Oral cortisol (30 mg) was given to 29 participants, whereas 31 control subjects received placebo. All volunteers performed a 5-choice serial reaction time task (SRTT). The reaction speed of every button-press was determined and difference-scores were calculated as a proof of learning. Compared to the control group, we found a delayed learning in the cortisol group at the very beginning of the task. This study is the first human investigation, indicating impaired implicit memory function after exogenous administration of the stress hormone cortisol. Our findings support a previous neuroimaging study, which suggested that the medial temporal lobe (including the hippocampus) is also active in implicit sequence learning, but our results may also depend on the engagement of other brain structures.
This work is concerned with two kinds of objects: regular expressions and finite automata. These formalisms describe regular languages, i.e., sets of strings that share a comparatively simple structure. Such languages - and, in turn, expressions and automata - are used in the description of textual patterns, workflow and dependence modeling, or formal verification. Testing words for membership in any given such language can be implemented using a fixed - i.e., finite - amount of memory, which is conveyed by the phrasing finite-automaton. In this aspect they differ from more general classes, which require potentially unbound memory, but have the potential to model less regular, i.e., more involved, objects. Other than expressions and automata, there are several further formalisms to describe regular languages. These formalisms are all equivalent and conversions among them are well-known.However, expressions and automata are arguably the notions which are used most frequently: regular expressions come natural to humans in order to express patterns, while finite automata translate immediately to efficient data structures. This raises the interest in methods to translate among the two notions efficiently. In particular,the direction from expressions to automata, or from human input to machine representation, is of great practical relevance. Probably the most frequent application that involves regular expressions and finite automata is pattern matching in static text and streaming data. Common tools to locate instances of a pattern in a text are the grep application or its (many) derivatives, as well as awk, sed and lex. Notice that these programs accept slightly more general patterns, namely ''POSIX expressions''. Concerning streaming data, regular expressions are nowadays used to specify filter rules in routing hardware.These applications have in common that an input pattern is specified in form a regular expression while the execution applies a regular automaton. As it turns out, the effort that is necessary to describe a regular language, i.e., the size of the descriptor,varies with the chosen representation. For example, in the case of regular expressions and finite automata, it is rather easy to see that any regular expression can be converted to a finite automaton whose size is linear in that of the expression. For the converse direction, however, it is known that there are regular languages for which the size of the smallest describing expression is exponential in the size of the smallest describing automaton.This brings us to the subject at the core of the present work: we investigate conversions between expressions and automata and take a closer look at the properties that exert an influence on the relative sizes of these objects.We refer to the aspects involved with these consideration under the titular term of Relative Descriptional Complexity.
Durch Bodendegradation werden jedes Jahr weltweit große Schäden verursacht. Die beiden Hauptverursacher für die globale Bodendegradation sind die Wind- und die Wassererosion. Für die Planung von effizienten Schutzmaßnahmen oder regionalen Managementplänen ist es deshalb wichtig zu verstehen, dass die beiden Prozesse nicht nur als abgekoppelte Phänomene auftreten. Auch wenn seit einiger Zeit das Bewusstsein hierfür zugenommen hat und eine steigende Anzahl von Bodenerosionsstudien auf diesen Sachverhalt eingehen, so bestehen vor allem bei der Abschätzung der relativen Bedeutung und dem Verständnis der vorhandenen Interaktionen zwischen der Wind- und Wassererosion noch substantielle Wissenslücken. Da indirekte Messverfahren, wie beispielsweise die Luftbildauswertung oder die Fernerkundung, für mikro-skalige Prozessstudien ungeeignet sind, beschränken sich die Studien zur Erfassung der Interaktion beider Prozesse zumeist auf die direkten und/oder experimentellen Messungen. Ein Vergleich der Abtragsraten und eine Untersuchung der Interaktionen zwischen der Wind- und der Wassererosion ist jedoch sehr schwierig, da es bislang kein Messinstrument gibt, dass einfach und schnell, die durch Wind, Wasser oder deren Zusammenwirken verursachten Erosionsraten auf natürlichen Oberflächen bestimmen kann. Aus diesem Grund wurde im Rahmen dieses Dissertationsprojekts erstmals, ein mobiler Windkanal mit integrierter Beregnungsanlage konzipiert und umgesetzt. Seine simulierten Wind- und Niederschlagseigenschaften wurden in Labormessungen mit einem Laserdistrometer, Niederschlagssammlern, Anemometern und Nebelversuchen bestimmt. Die beim Einsatz der Anlage in unterschiedlichen Messkampagnen gewonnenen Erkenntnisse zu seinem Aufbau flossen stetig in die Weiterentwicklung des Kanals ein. Die Qualität der simulierten Bedingungen im Kanal können nach den Modifikationen und unter Einbeziehung der Anforderungen an einen geländefähigen Kanal mit guter Mobilität, als sehr gut bezeichnet werden. Insbesondere die Reproduzierbarkeit der simulierten Bedingungen treten hier positiv hervor. Die angestrebten Ziele dieser Arbeit konnten weitestgehend erfüllt werden. Mit dem mobilen Windkanal mit integrierter Beregnungsanlage steht in Zukunft eine Anlage zur Verfügung, mit der die Abtragsraten der Wind- und Wassererosion im Gelände, getrennt und in ihrer gemeinsamen Wirkung, gemessen werden können. Durch den Einsatz der Anlage ist es möglich, einige der noch offenen wissenschaftlichen Fragen zur relativen Bedeutung und Interaktion der beiden Prozesse zukünftig zu untersuchen, um weitere Erkenntnisse über Ihren Einfluss auf die Bodendegradation, in Abhängigkeit von Landnutzungsänderungen und dem Klimawandel, zu erhalten.
By rodent studies it has been shown that the mineralocorticoid receptor (MR) is a candidate gene for the investigation of cognitive functions comparable to human executive function. The present work addresses the question if polymorphisms in the MR gene can act as a "probe" to explain a part of the interindividual variance of human executive functions. For this purpose, 72 healthy young participants were assigned to four equally sized groups, concerning their particular MR genotype for two common MR polymorphisms. They were investigated in an electroencephalogram (EEG) test session, accomplishing two cognitive tests while delivering saliva samples for subsequent cortisol measures. The two tests chosen for the assessment of executive functions were the Attention Network Task (ANT) and a modified version of the Wisconsin Card Sorting Test (WCST).Chapter 1 of the present work reports of the rational bases for the empirical approach, which were built up on a broad theoretical background presented in Chapter 2. In the third chapter, the investigation and results of the statistical analysis for behavioral data (i.e. reaction times, accuracy/error rates) are presented. No association with MR polymorphisms was found for the reaction times of both tests. For the accuracy rate, differences between genotype groups were found for ANT and WCST, indicating an association of MR polymorphisms and accuracy in the Alertness and Executive Control network of the ANT and during the detection of an intradimensional shift in the WCST. Data acquisition and the results for EEG data analyses are presented in Chapter 4. The results show that groups differing for MR genotype show different activity over prefrontal motor areas during the process of answering to the ANT. Those group differences again were prominent for the Alertness and Executive Control network. A tendency for further significant group differences was found for activity on frontopolar positions in extradimensional rule switching. Chapter 5 summarizes the findings for the analysis of salivary free cortisol, showing a tendency for an association between MR polymorphisms and a mildly stimulated Hypothalamus-pituitary-adrenal (HPA) axis during the test situation. The results of the different measures are integrated and discussed in Chapter 6 within the scope of novel findings in investigating the functionality of the chosen MR polymorphisms. Finally, Chapter 7 gives an outlook on the methodology and constraints of future research strategies to further describe the role of the MR in human cognitive function.
Die Dissertation zur "Pfälzischen Phraseologie" greift in den letzten Jahren für den deutschsprachigen Raum mehrfach thematisierte Forschungsdesiderate der (dialektalen) Phraseologie und Lexikographie auf: die genauere Analyse des phraseologischen Systems eines Dialekts sowie die Darstellung von Phraseologismen in Dialektwörterbüchern. In der vorliegenden Arbeit wird hierfür das Pfälzische ausgewählt, da es bisher in phraseologischer Hinsicht kaum untersucht wurde. Die Studie erweitert insofern die wenigen bereits vorhandenen Analysen dialektaler Phraseologie um eine zusätzliche Regionalsprache. Ziel der Arbeit ist es, die Besonderheiten der pfälzischen Phraseologie auf lexikographischer, kultureller und stilistisch-pragmatischer Ebene herauszuarbeiten. Die Phraseologie des Pfälzischen wird somit in dieser Studie unter verschiedenen Gesichtspunkten betrachtet und analysiert. In einem ersten Schritt wird das zugrunde gelegte Korpus, eines der großlandschaftlichen Dialektwörterbücher, das Pfälzische Wörterbuch, aus Sicht der enthaltenen Phraseologiekomponenten unter makro- und mikrostrukturellen Gesichtspunkten ausgewertet und beurteilt. Dadurch können detaillierte Aussagen zur Repräsentation der Phraseologie innerhalb eines Wörterbuchtypus gewonnen werden, wie sie bisher nur in Ansätzen und für andere Dialektwörterbücher vorhanden sind. Außerdem wird die Verwendbarkeit von Dialektwörterbüchern als Datengrundlage für die dialektale Phraseologie diskutiert. Die aus dem Wörterbuch erhobene Materialsammlung von Phrasemen bildet die Grundlage für den zweiten Hauptteil der Arbeit, die genauere Analyse der pfälzischen Phraseologie unter verschiedenen Aspekten (v. a. der sprachlich-kulturellen Wissensstrukturen, die die bildliche Motivation der Phraseologismen bestimmen, und die damit eng verbundenen stilistisch-pragmatischen Kennzeichen). Hierbei können innerhalb des pfälzischen phraseologischen Inventars unterschiedliche Merkmale herausgestellt werden: Unter anderem Übereinstimmungen mit der Phraseologie des Standarddeutschen und z. T. gesamteuropäische Bezüge, aber auch Eigenständiges in einzelnen Subkategorien.
Monatelange Wartezeiten auf einen ambulanten Psychotherapieplatz sind der Regelfall im deutschen Gesundheitssystem. Die Veränderung der Symptombelastung der Patienten in der Wartezeit ist bislang allerdings kaum empirisch untersucht worden. In der vorliegenden Arbeit wurden an einer Stichprobe ambulanter Psychotherapiepatienten die Ausprägungen und Veränderungen der allgemeinen psychischen Symptombelastung während der durchschnittlich sechsmonatigen Wartezeit auf den Psychotherapieplatz untersucht. Zudem wurde überprüft, mit welchen Merkmalen die Symptombelastungen zum Zeitpunkt der Anmeldung zur Therapie und zum Zeitpunkt des Erstgesprächs sowie ihre Veränderungen in der Wartezeit zusammenhängen. Die dabei untersuchten Persönlichkeitsmerkmale wurden aus theoretischen Rahmenmodellen abgeleitet. Hierzu gehören die aktionale Entwicklungspsychologie, das handlungstheoretische Partialmodell der Persönlichkeit mit der darin eingeordneten Vertrauens-Trias und das Androgynie-Modell der psychischen Gesundheit. Nach einem direkten Veränderungskriterium zeigten 48 % der Patienten in der Wartezeit keine bedeutsame Veränderung, 29 % eine Verbesserung und 23 % eine Verschlechterung. Durch die bei der Anmeldung erfassten Persönlichkeitsmerkmale konnten Verbesserungen, Verschlechterungen und gleichbleibende Symptombelastungen in der Wartezeit anhand einer multinomialen logistischen Regressionsanalyse für 60 % der Patienten korrekt vorausgesagt werden. Eine traditionelle normative Geschlechtsrollen-Orientierung stellt einen negativen Prädiktor für eine Verbesserung dar. Soziales Vertrauen konnte Verschlechterungen negativ vorhersagen. Bei Hoffnungslosigkeit handelt es sich um einen marginal negativen Prädiktor für eine Verbesserung. Ein hoch ausgeprägtes Selbstkonzept eigener Fähigkeiten ist ein positiver Prädiktor für eine Verschlechterung. Hinsichtlich der soziodemografischen und störungsbezogenen Merkmale konnten das Alter, das Geschlecht und die Anzahl der Diagnosen die Veränderungen der Symptombelastung in der Wartezeit zu 54 % korrekt vorhersagen. Das Alter ist ein positiver Prädiktor für eine Verschlechterung. Weibliches Geschlecht und die Anzahl an Diagnosen sind negative Prädiktoren für eine Verbesserung. Darüber hinaus wurden differenzierte Zusammenhänge zwischen den Persönlichkeitsmerkmalen und der Symptombelastung exploratorisch untersucht.
Stress represents a significant problem for Western societies inducing costs as high as 3-4 % of the European gross national products, a burden that is continually increasing (WHO Briefing, EUR/04/5047810/B6). The classical stress response system is the hypothalamic-pituitary-adrenal (HPA) axis which acts to restore homeostasis after disturbances. Two major components within the HPA axis system are the glucocorticoid receptor (GR) and the mineralocorticoid receptor (MR). Cortisol, released from the adrenal glands at the end of the HPA axis, binds to MRs and with a 10 fold lower affinity to GRs. Both, impairment of the HPA axis and an imbalance in the MR/GR ratio enhances the risk for infection, inflammation and stress related psychiatric disorders. Major depressive disorder (MDD) is characterised by a variety of symptoms, however, one of the most consistent findings is the hyperactivity of the HPA axis. This may be the result of lower numbers or reduced activity of GRs and MRs. The GR gene consists of multiple alternative first exons resulting in different GR mRNA transcripts whereas for the MR only two first exons are known to date. Both, the human GR promoter 1F and the homologue rat Gr promoter 1.7 seem to be susceptible to methylation during stressful early life events resulting in lower 1F/1.7 transcript levels. It was proposed that this is due to methylation of a NGFI-A binding site in both, the rat promoter 1.7 and the human promoter 1F. The research presented in this thesis was undertaken to determine the differential expression and methylation patterns of GR and MR variants in multiple areas of the limbic brain system in the healthy and depressed human brain. Furthermore, the transcriptional control of the GR transcript 1F was investigated as expression changes of this transcript were associated with MDD, childhood abuse and early life stress. The role of NGFI-A and several other transcription factors on 1F regulation was studied in vitro and the effect of Ngfi-a overexpression on the rat Gr promoter 1.7 in vivo. The susceptibility to epigenetic programming of several GR promoters was investigated in MDD. In addition, changes in methylation levels have been determined in response to a single acute stressor in rodents. Our results showed that GR and MR first exon transcripts are differentially expressed in the human brain, but this is not due to epigenetic programming. We showed that NGFI-A has no effect on endogenous 1F/1.7 expression in vitro and in vivo. We provide evidence that the transcription factor E2F1 is a major element in the transcriptional complex necessary to drive the expression of GR 1F transcripts. In rats, highly individual methylation patterns in the paraventricular nucleus of the hypothalamus (PVN) suggest that this is not related to the stressor but can rather be interpreted as pre-existing differences. In contrast, the hippocampus showed a much more uniform epigenetic status, but still is susceptible to epigenetic modification even after a single acute stress suggesting a differential "state‟ versus "trait‟ regulation of the GR gene in different brain regions. The results of this thesis have given further insight in the complex transcriptional regulation of GR and MR first exons in health and disease. Epigenetic programming of GR promoters seems to be involved in early life stress and acute stress in adult rats; however, the susceptibility to methylation in response to stress seems to vary between brain regions.
Entre stéréotypes et affirmation identitaire : quatre artistes contemporains d'Afrique occidentale.
(2007)
Die Arbeit beabsichtigt eher, die Frage der Konstruktion der Identität in der zeitgenössischen afrikanischen Kunst zur Sprache zu bringen. Wo befindet sich die Genauigkeit der Identitätsbehauptung, wenn es Identitätsbehauptung gibt? Ist es möglich, die Umrisse einer "Afrikanität", einer spezifischen Identität in der derzeitigen Kunst Afrikas einzukreisen? Das Werk von Frédéric Bruly Bouabré wird auf zwei Elementen gegründet, das es dem Sinn zugänglich machen: die Zeichnung und der Text. Die Schrift besonderes nimmt eine grundlegende Stelle in der Gesamtheit der Arbeiten von Bruly Bouabré ein. Sein ganzes Werk in der Tat konvergiert in Richtung der Forschung und der Konzeption eines zuerst afrikanischen Schriftsystems, danach universell. Bruly Bouabré stellt auf dem Konto des Fehlens einer Schrift die Niederlage der Afrikaner angesichts der Europäer. Ousmane Sow versteht den Körper als ein Gedächtnisort, ein durch das Gedächtnis geprägter Raum. Er setzt seine Werke auf den Körpern der Völker in oder schon verschwundener Löschgefahr zusammen. Das Werk von Sow ist eine Art der Rehabilitation der Völker, die die Geschichte verurteilt hat, nicht nur besiegt zu werden. Man müßte das künstlerische Konzept von Ousmane Sow in der Bewegung der Négritude eintragen, mit der es viele gemeinsame Punkte hat. Bei Romuald Hazoumé ist es also nicht erstaunlich, in seinem Werk die Spuren der vodun Religion wiederzufinden. Seine mit dem Vodou-Geist gefüllten "Kanister Masken", sind eine Metapher für die Konsumgesellschaft, aus der Hazoumé sie entnimmt und sie ihres Status als Ausschuss entledigt, um sie in den Rang von Kunstwerken zu erheben. So lädt er zum Nachdenken ein über die der Materialität beigemessenen Bedeutung und die ihr innewohnende Spiritualität. Die Malerei von Suzanne ist gewalttätig, aggressiv und gewagt, sie malt mit harten Farben (schwarz, grau, dunkelbraun und blutrot) und hat nichts mit ästhetischen oder dekorativen Erwägungen im Sinn. Wenn sie Tiere malt, dann vor allem, um die menschlichen Fehler darzustellen (Egoismus, Hochmut, Futterneid): sie sind blutig mit besorgten, gefolterten, aggressiven. Ihrem Kampf widmet sie zahlreiche Werke: dem Kampf um die (Lebens-) Bedingungen der afrikanischen Frau. Jedoch ist die Problematik einer spezifischen Identität im Bereich der Kunst, alles andere als wirklich einschlägig zu sein. Sicherlich erlaubt sie dem Künstler, der davon benutzt, sich eine Originalität zu bauen. diese Originalität ist fiktiv, und stellt sich auf Grundlagen auf, die manchmal veraltet sind, und die zu einer phantasierten Vergangenheit gehören. die Echtheit eines Kunstwerkes kann sich nicht ab der geographischen Zugehörigkeit oder von der kulturellen Zugehörigkeit des Künstlers definieren. Das Paradigma der Echtheit fälscht von Anfang die Behauptung des Künstlers (Künstlerin) und des Werkes, die Universalität herzustellen. Es scheint, daß einige Künstler von der Beharrlichkeit der exotischen Klischees, von der Folklore sich nicht täuschen lassen, daß die Kuratoren und die westliche Öffentlichkeit von ihnen erwarten. Und wenn einige sich für das Spiel eignen, ist es, um den internationalen Markt besser zu infiltrieren.
Recent non-comparative studies diverge in their assessments of the extent to which German and Japanese post-Cold War foreign policies are characterized by continuity or change. While the majority of analyses on Germany find overall continuity in policies and guiding principles, prominent works on Japan see the country undergoing drastic and fundamental change. Using an explicitly comparative framework for analysis based on a role theoretical approach, this study reevaluates the question of change and continuity in the two countries" regional foreign policies, focusing on the time period from 1990 to 2010. Through a qualitative content analysis of key foreign policy speeches, this dissertation traces and compares German and Japanese national role conceptions (NRCs) by identifying policymakers" perceived duties and responsibilities of their country in international politics. Furthermore, it investigates actual foreign policy behavior in two case studies about German and Japanese policies on missile defense and on textbook disputes. The dissertation examines whether the NRCs identified in the content analysis are useful to understand and explain each country- particular conduct. Both qualitative content analysis and case studies demonstrate the influence of normative and ideational variables in foreign policymaking. Incremental adaptations in foreign policy preferences can be found in Germany as well as Japan, but they are anchored in established normative guidelines and represent attempts to harmonize existing preferences with the conditions of the post-Cold War era. The dissertation argues that scholars have overstated and misconstrued the changes underway by asserting that Japan is undergoing a sweeping transformation in its foreign policy.
Die vorliegende Arbeit beschreibt ausgewählte Bereiche des Stadtklimas von Trier. Anhand von langjährigen meteorologischen Messreihen ist eine Bewertung der klimatologischen Gegebenheiten für das Stadtgebiet von Trier möglich. Trenduntersuchungen der Datenreihen des Niederschlags zeigen positive Niederschlagstrends für die meteorologischen Wintermonate. Die Intensität der urbanen Wärmeinsel der Stadt Trier wurde mittels mehrerer Temperaturmessfahrten untersucht und bewertet. Es treten in den Wintermonaten maximale Differenzen von bis zu 5,5 -°C zwischen dem unbebauten Umland und den Innenstadtbereichen auf. Von der erhöhten thermischen Belastung während ausgewählter Wetterlagen sind vor allem die Anwohner der Innenstadtbereiche in den Sommermonaten betroffen. Zusätzlich fand eine Bewertung der thermischen Belastung mittels verschiedener thermischer Indizes statt. Die Auswertungen von Klimaprojektionen für den Untersuchungsraum zeigen eine starke Zunahme der thermischen Belastung ab Mitte des 21. Jahrhunderts. Die Auswirkungen des Sommers 2003 auf die Bevölkerung von Trier wurde anhand von Mortalitätsdaten von JUNK ET AL. (2007) analysiert. Die Kosten des Klimawandels (Temperaturzunahme bis 2100 um 4,5 -°C) in den kommenden 50 Jahren beziffert eine Studie des Deutschen Institutes für Wirtschaftsforschung auf rund 80 Milliarden Euro für Rheinland-Pfalz. Auch wenn diese Abschätzungen mit starken Unsicherheiten behaftet sind, so wird dringender Handlungsbedarf deutlich. Vor dem Hintergrund des Klimawandels und der zunehmenden Urbanisierung muss sich auch im Bereich der Stadtplanung und der Verwaltung von urbanen Agglomerationsräumen das Prinzip der Nachhaltigkeit in allen Skalenbereichen durchsetzen. Übertragen auf den Bereich der Stadtklimatologie heißt das, dass dies auf die Ressourcen saubere Luft, angemessener Flächen- und Energieverbrauch verbunden mit Luft-schadstoffemissionen, Recht auf Mobilität usw. übertragen werden muss. Im Vordergrund steht dabei eine Entkopplung des Ressourcenverbrauchs von dem wirtschaftlichen Wachstum durch technische Innovation, effizientere Technologien und verändertes individuelles Verhalten. Bezüglich der lufthygienischen Situation im Stadtbereich von Trier konnten Partikel und Stickoxide als wichtige Schadstoffe identifiziert werden. Da die Auswertungen der Luftschadstoffe auf die Datensätze des ZIMEN-Messnetzes beschränkt sind, können keine Aussagen über Inhaltsstoffe von Partikeln getroffen werden. Für die untersuchten Luftschadstoffe CO, SO2, NOx, O3 und PM10 treten in den letzten Jahren keine Grenzwertüberschreitungen auf, jedoch liegen die gemessenen Werte nur geringfügig unter diesen und überschreiten teilweise die unteren- und oberen Beurteilungsschwellen. Die Auswertungen des wirkungsbezogenen Luftqualitätsindex DAQx zeigen, dass in der Mehrheit der Fälle Feinstaub der bestimmende Luftschadstoff ist. Die Analyse der mittleren Mortali-tätszahlen zeigt, das bei DAQx-Werten > 4,0 (ausreichende Luftqualität) die Anzahl der täglichen Mortalitätsfälle über den Durchschnitt von 5,74 Fällen pro Tag steigt. Der Klimawandel wird auch direkte Auswirkungen auf die Luftschadstoffbelastung haben. Dies geschieht über die Veränderung der Windverhältnisse, Änderungen in der Höhe der Mischungsschicht sowie Änderungen in der Frequenz und Zugbahn von Tiefdruckgebieten. Veränderte Niederschlagsmuster beeinflussen die nassen und trockenen Depositionsraten, und die prognostizierte Temperaturerhöhung beeinflusst die chemischen Bildungs- und Abbauprozesse in der Atmosphäre, sowie die natürlichen Emissionsquellen. Der Einfluss des zu erwartenden Temperaturanstieges auf die Ozonkonzentrationen in urbanen Gebieten lässt sich gut einschätzen, da während Episoden mit hohen Ozonkonzentrationen eine signifikante Korrelation zwischen der Lufttemperatur und der Ozonkonzentration besteht. Studien zeigen einen Anstieg der Ozonkonzentration zwischen 2 -µg/m-³ und 20 -µg/m-³ pro Grad Kelvin in Abhängigkeit des Emissionsszenarios, der verwendeten Modelle und der untersuchten Region aus. Die urbanen Ballungsräume werden von diesem Ozonanstieg stärker betroffen sein, da dort genügend Ozonvorläufersubstanzen vorhanden sind. Der Einfluss auf die Partikelkonzentrationen ist schwieriger zu beurteilen, da keine klaren Zusammenhänge zwischen der Lufttemperatur und den Partikelkonzentrationen bestehen. Insgesamt ist tendenziell mit einer Stagnation bis hin zu einer kurzzeitigen Verschlechterung der Luftqualität zu rechnen. Deswegen reicht die bereits erwähnte alleinige Berücksichtigung der thermischen Gegebenheiten in einem Warnsystem nicht aus. Es geht vielmehr um die integrative Bewertung der potentiellen Gefahrensituation für die Bevölkerung und die situationsbezogene Auslösung von Interventionsmaßnahmen und Aktionsplänen. Ein solches System wird derzeit für die Modellregion Esch-sur-Alzette in Luxemburg erstellt und wird 2011 in die Pilotphase eintreten.
Cortisol is a stress hormone that acts on the central nervous system in order to support adaptation and time-adjusted coping processes. Whereas previous research has focused on slow emerging, genomic effects of cortisol likely mediated by protein synthesis, there is only limited knowledge about rapid, non-genomic cortisol effects on in vivo neuronal cell activity in humans. Three independent placebo-controlled studies in healthy men were conducted to test effects of 4 mg cortisol on central nervous system activity, occurring within 15 minutes after intravenous administration. Two of the studies (N = 26; N = 9) used continuous arterial spin labeling as a magnetic resonance imaging sequence, and found rapid bilateral thalamic perfusion decrements. The third study (N = 14) revealed rapid cortisol-induced changes in global signal strength and map complexity of the electroencephalogram. The observed changes in neuronal functioning suggest that cortisol may act on the thalamic relay of non-relevant background as well as on task specific sensory information in order to facilitate the adaptation to stress challenges. In conclusion, these results are the first to coherently suggest that a physiologically plausible amount of cortisol profoundly affects functioning and perfusion of the human CNS in vivo by a rapid, non-genomic mechanism.
Die Europäische Union hat seit Ende des Ost-West-Konflikts 1989/90 einen dynamischen Ausbau ihrer vertraglichen und institutionellen Fundamente erfahren. Mit diesem Prozess ging zugleich eine enge Verflechtung von europäischen und nationalen Entscheidungsprozessen und politischen Arenen einher. So entwickelte sich ein zunehmend dynamischer werdendes Interaktionsverhältnis zwischen Europäischer Union, nationaler Europapolitik und Innenpolitik. Ausgehend von der These, dass die deutsche Europapolitik seit der Zäsur 1989/90 zunehmend pragmatischer, kontroverser und somit normaler geworden ist, untersucht die Arbeit diese Veränderung der deutschen Europapolitik am Beispiel zweier qualitativer Fallstudien: 1.Die Verhandlungen zum dritten mehrjährigen Finanzrahmen für die Jahre 2000 bis 2006, die sogenannte Agenda 2000. Für Deutschland als größtem Beitragszahler in der EU waren die Finanzverhandlungen von immenser Bedeutung. Denn mit der finanziellen Ausstattung der beiden größten Ausgabenblöcken, der europäischen Kohäsionspolitik und der Gemeinsamen Agrarpolitik, waren zentrale Grundsatzfragen der deutschen Europapolitik und der Rolle Deutschlands in der EU verbunden, wie zum Beispiel das bilaterale Verhältnis zum französischen Partner. 2.Der Prozess der Osterweiterung der Europäischen Union seit dem Ende des Ost-West-Gegensatzes 1989/90 von der Assoziierung der Reformstaaten in Mittel- und Osteuropa bis zum Beitritt der acht neuen Mitglieder am 1. Mai 2004. Die Ost-Erweiterung der EU war eine der wichtigsten Grundsatzentscheidungen der deutschen Europapolitik. Dieser fast 15 Jahre dauernde Prozess von 1989 bis 2004 wird in einer minuziösen Längsschnitt-Analyse nachgezeichnet und die spezifischen Interessen der zentralen politischen und gesellschaftlichen Akteure der deutschen Politik detailliert analysiert.Beide Entscheidungsprozesse beeinflussten nahezu alle Politikfelder und hatten weitreichende Konsequenzen für die innen-, wirtschafts- und sozialpolitischen Strukturen der Bundesrepublik. Damit erforderten sie sowohl eine grundsätzliche und strategische Positionierungen der deutschen Europapolitik als auch kurzfristige, auf rationalen Kosten-Nutzen-Abwägungen basierende Festlegungen zu konkreten Einzelfragen im Verlauf der Entscheidungsprozesse. Die beiden umfangreichen Fallstudien bestätigen, dass die wechselseitige Interaktion zwischen innenpolitischen Auseinandersetzungen und europäischen Entscheidungsprozessen sich verdichtet hat. Europäische Entscheidungsprozesse werden für innenpolitische Auseinandersetzungen und Debatten genutzt und häufig auch parteipolitisch polarisiert. Die Europapolitik wird zu einem Feld pragmatischer Kosten-Nutzen-Abwägungen aus begrenzten innenpolitischen oder gar parteitaktischen Kalkülen. Die Europapolitik wird unter innenpolitischen Vorzeichen politisiert und polarisiert.
Japanische Touristen in Deutschland : Analyse der Wahrnehmung der Destination Deutschland und der Kundenansprüche im interkulturellen Kontext. Auf der Angebotsseite steht die noch mittelständisch geprägte deutsche Hotellerie, mit der Tendenz einer zunehmenden Konzentration zur Groß- und Kettenhotellerie. Der japanische Kunde auf der Nachfragerseite wird aufgrund seiner kulturellen, sozialen, politischen und geschichtlichen Umgebung analysiert. Er bewegt sich in einer vorwiegend kollektivistisch und stark kontextorientierten, durch dichte Informationsnetze geprägten, maskulinen Gesellschaft. Beeinflusst durch die Lehre von Konfuzius bilden heute noch mora-lisches Handeln, Rechtschaffenheit, Höflichkeit, die Beachtung hierarchischer Beziehungen und Harmonie Handlungsgrundlage des gesellschaftlichen Lebens. Daneben hat Japan, als entwickeltes Industrieland, mit denselben Problemen wie westliche Industrienationen zu kämpfen, wie Überalterung, Wertewandel und konjunkturelle Auf- und Abschwünge. Der japanische Kunde stellt hohe Ansprüche an die Qualität des angebotenen Produktes und an den Service. Während die Hardware, z.B. die Qualität der Hotelzimmer in Deutschland positiv beurteilt wird, wird die Servicequalität hier oft als unzureichend empfunden. Dabei setzt der japanische Kunde, der an dichte Informationsnetze gewöhnt ist, viele Dinge als selbstverständlich voraus. Der Deutsche, der über diese Informationen nicht verfügt und sich stur an das Vereinbarte hält, wird als unhöflich empfunden. Als Einkaufsdestination hat Deutschland aufgrund fehlender Marken kaum Bedeutung. Japaner sind leidenschaftliche und experimentierfreudige Esser, die oft in Deutschland aufgrund der mangelnden Beachtung und Vermarktung lokaler Spezialitäten zu kurz kommen. Mittels der Methode Importance Grid konnten abgefragte Attribute in Basis-, Leistungs- und Begeisterungsfaktoren eingeteilt werden. Grundlegend und Ausschlusskriterium für einen Reiseantritt sind die öffentliche Sicherheit, die der Japaner nicht nur auf die Kriminalität sondern auch auf Lebensmittelsicherheit und Gesundheitswesen bezieht. Sehenswürdigkeiten sind wichtige Leistungsfaktoren. Das Hotelangebot, als Begeisterungsfaktor hat einen enormen Einfluss und damit großes Entwicklungspotential auf die Reisezufriedenheit. Begeisterung lösen weiterhin individuelle Begegnungen, eine originale und stimmige Atmo-sphäre und lokale Besonderheiten, aus. Der hoch kontextorientierte Japaner nimmt die Reise als Gesamterlebnis wahr und gibt seine Erinnerungen gern über Mund zu Mund Propaganda weiter. Folgereisen können sich wie ein Schneeballsystem entwickeln. Als Trends sind die zunehmende Bedeutung von Seniorenreisen, Hube-and-Spoke Reisen, Skeleton-Touren, der Furosato Trend und Honeymoonreisen zu nennen.
Das erste Beispiel einer so genannten universellen holomorphen Funktion stammt von Birkhoff, welcher im Jahre 1929 die Existenz einer ganzen Funktion beweisen konnte, die gewissermaßen jede ganze Funktion durch geeignete Translationen approximieren kann. In der Folgezeit hat sich der Bereich der "universellen Approximation" zu einem eigenständigen Gebiet innerhalb der komplexen Approximationstheorie entwickelt, und es gibt eine Vielzahl an Ergebnissen über universelle Funktionen. Hierbei wurde sich allerdings fast ausschließlich auf das Studium holomorpher und ganzer Funktionen beschränkt, insbesondere die Klasse der meromorphen Funktionen wurde bisher kaum auf das Phänomen der Universalität hin untersucht. Die vorliegende Arbeit beschäftigt sich mit universeller meromorpher Approximation, und geht der Fragestellung nach, ob meromorphe Funktionen mit gewissen Universalitätseigenschaften existieren, und ob die klassischen Ergebnisse aus der universellen holomorphen Approximation auf den meromorphen Fall erweiterbar sind. Hierbei wird zunächst zwischen Translations- und Streckungsuniversalität unterschieden und bewiesen, dass in beiden Fällen jeweils eine im Raum der meromorphen Funktionen residuale Menge an universellen Funktionen existiert. Weiterhin werden die Eigenschaften dieser Funktionen ausführlich studiert. Anschließend werden meromorphe Funktionen auf Ableitungsuniversalität hin untersucht. Hierbei wird einerseits gezeigt, dass im Allgemeinen keine positiven Ergebnisse möglich sind, während andererseits eine spezielle Klasse meromorpher Funktionen betrachtet wird, für welche universelles Verhalten der sukzessiven Ableitungen nachgewiesen werden kann.
The overall objective of this thesis was to gain a deeper understanding of the antecedents, processes, and manifestations of uniqueness-driven consumer behavior. To achieve this goal, five studies have been conducted in Germany and Switzerland with a total of 1048 participants across different demographic and socio-economic backgrounds. Two concepts were employed in all studies: Consumer need for uniqueness (CNFU) and general uniqueness perception (GUP). CNFU (Tian, Bearden, & Hunter, 2001), a mainly US"based consumer research concept, measures the individual need, and thus the motivation to acquire, use, and dispose consumer goods in order to develop a unique image. GUP, adapted from the two-component theory of individuality (Kampmeier, 2001), represents a global and direct measure of self-ascribed uniqueness. Study #1 looked at the interrelation of the uniqueness-driven concepts. Therefore, GUP and CNFU were employed in the study as potential psychological factors that influence and predict uniqueness-driven consumer behavior. Different behavioral measures were used: The newly developed possession of individualized products (POIP), the newly developed products for uniqueness display (PFUD), and the already established uniqueness-enhancing behaviors (UEB). Analyses showed that CNFU mediates the relationship between GUP and the behavioral measures in a German speaking setting. Thus, GUP (representing self-perception) was identified as the driver behind CNFU (representing motivation) and the actual consumer behavior. Study #2 examined further manifestations of uniqueness-driven consumer behavior. For this purpose, an extreme form of uniqueness-increasing behavior was researched: Tattooing. The influence of GUP and CNFU on tattooing behavior was investigated using a sample derived from a tattoo exhibition. To do so, a newly developed measure to determine the percentage of the body covered by tattoos was employed. It was revealed that individuals with higher GUP and CNFU levels indeed have a higher tattooing degree. Study #3 further explored the predictive possibilities and limitations of the GUP and CNFU concepts. On the one hand, study #3 specifically looked at the consumption of customized apparel products as mass customization is said to become the standard of the century (Piller & Müller, 2004). It was shown that individuals with higher CNFU levels not only purchased more customized apparel products in the last six months, but also spend more money on them. On the other hand, uniqueness-enhancing activities (UEA), such as travel to exotic places or extreme sports, were investigated by using a newly developed 30-item scale. It was revealed that CNFU partly mediates the GUP and UEA relationship, proving that CNFU indeed predicts a broad range of consumer behaviors and that GUP is the driver behind the need and the behavior. Study #4, entered a new terrain. In contrast to the previous three studies, it explored the so termed "passive" side of uniqueness-seeking in the consumer context. Individuals might feel unique because business companies treat them in a special way. Such a unique customer treatment (UCT) involves activities like customer service or customer relationship management. Study #4 investigated if individuals differ in their need for such a treatment. Hence, with the need for unique customer treatment (NFUCT) a new uniqueness-driven consumer need was introduced and its impact on customer loyalty examined. Analyses, for example, revealed that individuals with high NFUCT levels receiving a high unique customer treatment (UCT) showed the highest customer loyalty, whereas the lowest customer loyalty was found among those individuals with high NFUCT levels receiving a low unique customer treatment (UCT). Study #5 mainly examined the processes behind uniqueness-driven consumer behavior. Here, not only the psychological influences, but also situational influences were examined. This study investigated the impact of a non-personal "indirect" uniqueness manipulation on the consumption of customized apparel products by simultaneously controlling for the influence of GUP and CNFU. Therefore, two equal experimental groups were created. Afterwards, these groups either received an e-mail with a "pro-individualism" campaign or a "pro-collectivism" campaign especially developed for study #5. The conducted experiment revealed that, individuals receiving a "pro-individualism" poster campaign telling the participants that uniqueness is socially appropriate and desired were willing to spend more money on customization options compared to individuals receiving a "pro-collectivism" poster campaign. Hence, not only psychological antecedents such as GUP and CNFU influence uniqueness-driven consumer behavior, but also situational factors.
Aus dem Wunsch, die zentralen Prozesse im System Boden"Pflanze"Atmosphäre einschließlich der Auswirkungen verschiedener Bewirtschaftungspraktiken zu verstehen und nachzubilden, resultiert die Entwicklung verschiedener Pflanzenwachstumsmodelle. Ziel der vorliegenden Untersuchung ist zum einen, die im Realsystem auftretenden räumlichen Ertragsmuster zu identifizieren und zu charakterisieren. Mithilfe der Semivariogramm-Analyse ist eine räumliche Autokorrelation der Ertragsdaten von maximal 48 Meter abzuleiten. Die räumliche Analyse (GIS) zeigt, dass die Sommergerste ein leicht abweichendes Verhalten im Vergleich zu den Winterkulturen (Winterweizen, Winterraps) aufweist. Schließlich werden mithilfe der selbstorganisierenden Merkmalskarten die primär und sekundär für das Ertragsverhalten verantwortlichen Ursachen identifiziert. Eine abschließende hierarchische Clusteranalyse gliedert die in die Untersuchung eingehenden Standorte in vier spezifische Cluster mit charakteristischen Eigenschaften. Ein zweites Ziel ist die Klärung der Frage, ob die Pflanzenwachstumsmodelle STICS und DAISY bei entsprechender Parametrisierung in der Lage sind, das für ein detektiertes Muster charakteristische Verhalten von Pflanzenwachstum und Ertrag realitätsnah abzubilden. Den Modellanwendungen gehen eine Sensitivitätsanalyse und verschiedene Parametrisierungsansätze zur Erfassung des jeweiligen Modellverhaltens voraus. In beiden Modellen übt der Bodenwasserhaushalt einen starken Einfluss auf die Ertragsbildung aus. Des weiteren kommt in beiden Modellen den Stressfaktoren eine zentrale Bedeutung zu. Die Parametrisierung der Modelle auf der Grundlage der im Feld erhobenen Daten führt bei beiden Modellen nicht zu einem dem Realsystem entsprechenden Bild. Eine über die Sensitivitätsanalyse hinausreichende, vertiefte Modellkenntnis ist erforderlich, um die in die Modelle eingehenden Parameter bzw. deren spezifischen Einfluss auf das Modellverhalten beurteilen und interpretieren zu können. Dies betrifft insbesondere die Modellgrößen der Bodenmodule. Dieser Aspekt erschwert eine einfache räumliche Übertragung der Modelle STICS und DAISY.
Recently, optimization has become an integral part of the aerodynamic design process chain. However, because of uncertainties with respect to the flight conditions and geometrical uncertainties, a design optimized by a traditional design optimization method seeking only optimality may not achieve its expected performance. Robust optimization deals with optimal designs, which are robust with respect to small (or even large) perturbations of the optimization setpoint conditions. The resulting optimization tasks become much more complex than the usual single setpoint case, so that efficient and fast algorithms need to be developed in order to identify, quantize and include the uncertainties in the overall optimization procedure. In this thesis, a novel approach towards stochastic distributed aleatory uncertainties for the specific application of optimal aerodynamic design under uncertainties is presented. In order to include the uncertainties in the optimization, robust formulations of the general aerodynamic design optimization problem based on probabilistic models of the uncertainties are discussed. Three classes of formulations, the worst-case, the chance-constrained and the semi-infinite formulation, of the aerodynamic shape optimization problem are identified. Since the worst-case formulation may lead to overly conservative designs, the focus of this thesis is on the chance-constrained and semi-infinite formulation. A key issue is then to propagate the input uncertainties through the systems to obtain statistics of quantities of interest, which are used as a measure of robustness in both robust counterparts of the deterministic optimization problem. Due to the highly nonlinear underlying design problem, uncertainty quantification methods are used in order to approximate and consequently simplify the problem to a solvable optimization task. Computationally demanding evaluations of high dimensional integrals resulting from the direct approximation of statistics as well as from uncertainty quantification approximations arise. To overcome the curse of dimensionality, sparse grid methods in combination with adaptive refinement strategies are applied. The reduction of the number of discretization points is an important issue in the context of robust design, since the computational effort of the numerical quadrature comes up in every iteration of the optimization algorithm. In order to efficiently solve the resulting optimization problems, algorithmic approaches based on multiple-setpoint ideas in combination with one-shot methods are presented. A parallelization approach is provided to overcome the amount of additional computational effort involved by multiple-setpoint optimization problems. Finally, the developed methods are applied to 2D and 3D Euler and Navier-Stokes test cases verifying their industrial usability and reliability. Numerical results of robust aerodynamic shape optimization under uncertain flight conditions as well as geometrical uncertainties are presented. Further, uncertainty quantification methods are used to investigate the influence of geometrical uncertainties on quantities of interest in a 3D test case. The results demonstrate the significant effect of uncertainties in the context of aerodynamic design and thus the need for robust design to ensure a good performance in real life conditions. The thesis proposes a general framework for robust aerodynamic design attacking the additional computational complexity of the treatment of uncertainties, thus making robust design in this sense possible.
Die Zielsetzung der vorliegenden Arbeit war die raumdifferenzierte und skalenübergreifende Untersuchung der Hochwasserentstehungsprozesse im Frankelbach-Einzugsgebiet, das ein Beispiel eines land- und forstwirtschaftlich genutzten Kleineinzugsgebiets in Mittelgebirgen der gemäßigten Breiten ist. Eine Kernaufgabe war die Quantifizierung der Beiträge einzelner Abflusskomponenten während des Scheiteldurchflusses eines Hochwassers. Zudem sollten Zusammenhänge zwischen der Bodenfeuchtedynamik und der Abflussreaktion herausgearbeitet werden. Zur Bodenfeuchtemessung wurde ein neu entwickeltes Spatial-TDR-Messsystem eingesetzt. Im Rahmen dieses pilothaften Einsatzes war zudem die Tauglichkeit des Messsystems zu überprüfen und zu bewerten. Das im Rotliegenden gelegene 5 km2 große Frankelbachgebiet mit Jahresniederschlägen von 750 mm a-1, steil eingeschnittenen, bewaldeten Kerbtälern und ackerwirtschaftlich genutzten Hochflächen liegt zwischen 200 und 450 m ü. NN. Auf schuttführenden Sand- und Schlufflehmen, deren Genese auf periglaziale Solifluktionsprozesse zurückgeht, sind hangabwärts mächtiger werdende Braunerden zu finden. Bemerkenswert sind die zahlreichen Quellen auf gleicher Höhenlage, die teilweise als Pipequellen ausgebildet sind. Beregnungs- und Infiltrationsversuche dienten der Beurteilung der Oberflächenabflussreaktion unterschiedlich bewirtschafteter Flächen. Durch stündliche Spatial-TDR-Messungen an 13 Standorten (60 cm lange vertikal installierte Dreistabsonden) konnten Hangwasserflüsse identifiziert werden. Zwischen 2005 und 2009 wurden die Abflüsse vier geschachtelter Einzugsgebiete sowie einer Quelle in 10min-Intervallen erfasst und 87 Hochwasserereignisse analysiert. Mittels Messungen der elektrischen Leitfähigkeit und eines Zweikomponenten-Mischungsmodells wurde der Ereigniswasseranteil für die höchsten Hochwasser abgeschätzt. Ergänzend zu den Geländeexperimenten wurde ein einfaches Modell konzipiert, das eine quantitative Abschätzung der ober- und unterirdischen Wasserflüsse in einen Gewässereinschnitt erlaubt. Zum Vergleich mit 31 anderen Untersuchungsgebieten wurde eine Codierung entwickelt, die eine Einordnung sowohl hinsichtlich der Geofaktoren der Gebiete als auch bezüglich der untersuchten Hochwasserereignisse ermöglicht. Das im hanghydrologischen Forschungsbereich als eher trocken einzuordnende Frankelbachgebiet, zeigte ein jahreszeitlich sehr unterschiedliches Abflussverhalten. Während in trockenen Sommern hohe Niederschläge im Gebiet gespeichert werden, liegen die Abflusskoeffizienten für einige schneeschmelzfreie Frühjahrsereignisse über 50 %. Das höchste beobachtete Hochwasser weist einen Abflusskoeffizient von 55 % bei einer relativ niedrigen Abflussspende von 140 l s-1 km-2 auf. Die Großberegnungsversuche, die Quellabflussmessungen, die Ereignisanalysen und die Modellierungsergebnisse weisen darauf hin, dass Dauerregen- und Schneeschmelz-Hochwasser zum Großteil aus Zwischenabfluss bestehen. Hier konnten zwei Abflusskomponenten differenziert werden: (i) eine oberflächen- und gerinnenahe Komponenten, die aufgrund des hohen Ereigniswasseranteils von etwa 60 % durch präferentielles Fließen erklärt werden kann, und (ii) eine ein bis zwei Tage verzögerte tiefere Komponente, die durch unterirdische Abflusskonzentration auf stauenden Schichten generiert wird. Letztere war in den Quellabfluss- und Spatial-TDR-Messungen erkennbar, hatte jedoch an den am Pegel beobachteten Scheiteldurchflüssen nur einen sehr kleinen Anteil. Während sehr intensiver Niederschläge könnte zusätzlich der Horton'sche Oberflächenabfluss von offen liegenden, hydraulisch angeschlossenen Äckern zum Scheiteldurchfluss beitragen. Für sämtliche Spatial-TDR-Messstandorte ist von hohen Infiltrations- und Sickerraten auszugehen. Eine Aufsättigung der Standorte war nicht erkennbar, für die nassen Wintermonate liegen jedoch nur sehr wenige Spatial-TDR-Messwerte vor. Eine in einer Tiefenlinie installierte Sonde (A08) zeigte das Umschalten des Gesamtgebiets in relativ nasse Zustände an. Hier nahm die Bodenfeuchte während zwei größerer Dauerregenereignisse infolge der unterirdischen Abflusskonzentration stark zu. In der vorliegenden Arbeit wurden die einbau- und substratbedingten Unsicherheiten sowie die Schwächen des Algorithmus zur Rekonstruktion der absoluten Bodenfeuchtewerte konkretisiert. Demzufolge wurde lediglich das Spatial-TDR-Rohsignal als Indikator für die aktuelle Bodenfeuchte verwendet. Durch eine Transformation des Spatial-TDR-Signals von der Zeit auf den Sondenort können dennoch Aussagen zur relativen Änderung der Bodenfeuchte in einer bestimmten Tiefe gemacht werden können. Diese Informationen sind hinreichend genau für die Untersuchung hanghydrologischer Prozesse und für die Ableitung von Gebietsfeuchtezuständen.
Caenorhabditis elegans Modelsysteme für Freiland und Labor Caenorhabditis elegans ist eines der am intensivsten untersuchten Tiermodelle, dabei weisen die nur unzureichenden Informationen über sein ursprüngliches Habitat eine Vielzahl offener Fragen auf. Deshalb beschäftigt sich der erste Teil vorliegender Arbeit mit einer Überprüfung der Freilandökologie und Biogeographie des Taxons. Nach den Untersuchungen spricht vieles dafür, dass die Ursprungsart der C. elegans Gruppe ein Begleiter von Gastropoden war, welche auch für ihre Ausbreitung häufig verantwortlich sind. Als Folge der Verschleppung durch Wirtstiere (u.a. die Weinbergschnecke Helix aspersa) erreichte sie ihr heutiges Areal, in allen Kontinenten. Ein nicht weniger wichtiges Ziel der vorliegenden Arbeit war die Etablierung von C. elegans als Biotest-System für die Indikation von Chemikalien-Wirkungen. In dieser Arbeit wurden ein ökotoxikologisches Testsystem entwickelt mit den C. elegans als Modellorganismus, das durch Messung von umweltbedingten intrazellulär gebildeten ROS im Gesamtorganismus eine Einschätzung der biologischen Aktivität von Chemikalien und Umweltmedien ermöglichen sollte. Als grundlegender biochemischer Parameter ist eine, die Kapazität der antioxidativen Schutzmechanismen übersteigende, ROS-Bildung ursächlich für oxidative Schädigungen der Zelle verantwortlich und damit Basis für zahlreiche pathologische Effekte. Aus den Resultaten als Bewertungsgrundlage lässt sich folgern, dass sich das erarbeitete Biotestsystem als adäquates Verfahren zur Messung von oxidativem Stress, als Folge exogener Belastung, einsetzen lässt. Damit leistet es einen Beitrag zur Beurteilung des Toxizitätspotentials von Chemikalien und Umweltproben. Zur Eignung des Einsatzes von C. elegans für Toxizitätstest wurden weitere Untersuchungen mit verschiedenen Chemikalien durchgeführt. Dabei ergibt sich bezogen auf molare Einheiten eine immer gleich bleibende Reihenfolge der Sensitivitäten gegenüber BaP > Cu2+ > AcL, ein Ergebnis welches mit Testergebnissen von anderen Versuchsorganismen zu vergleichen war. Die Wirkung von Atrazin auf die Entwicklung von C. elegans wurde auch untersucht. Es wurde festgestellt, dass Atrazin auf Wachstum und Reproduktion von C. elegans konzentrationsabhängig toxisch wirkt. Die bisherigen Ergebnisse zeigen jedoch, dass das Testsystem C. elegans hervorragend geeignet ist, um Chemikalienwirkungen frühzeitig sichtbar zu machen.
The main research question of this thesis was to set up a framework to allow for the identification of land use changes in drylands and reveal their underlying drivers. The concept of describing land cover change processes in a framework of global change syndrome was introduced by Schellnhuber et al. (1997). In a first step the syndrome approach was implemented for semi-natural areas of the Iberian Peninsula based on time series analysis of the MEDOKADS archive. In the subsequent study the approach was expanded and adapted to other land cover strata. Furthermore, results of an analysis of the relationship of annual NDVI and rainfall data were incorporated to designate areas that show a significant relationship indicating that at least a part of the variability found in NDVI time series was caused by precipitation. Additionally, a first step was taken towards the integration of socio-economic data into the analysis; population density changes between 1961 and 2008 were utilized to support the identification of processes related to land abandonment accompanied by cessation of agricultural practices on the one hand and urbanization on the other. The main findings of the studies comprise three major land cover change processes caused by human interaction: (i) shrub and woody vegetation encroachment in the wake of land abandonment of marginal areas, (ii) intensification of non-irrigated and irrigated, intensively used fertile regions and (iii) urbanization trends along the coastline caused by migration and the increase of mass tourism. Land abandonment of cultivated fields and the give-up of grazing areas in marginal mountainous areas often lead to the encroachment of shrubs and woody vegetation in the course of succession or reforestation. Whereas this cover change has positive effects concerning soil stabilization and carbon sequestration the increase of biomass involves also negative consequences for ecosystem goods and services; these include decreased water yield as a result of increased evapotranspiration, increasing fire risk, decreasing biodiversity due to landscape homogenization and loss of aesthetic value. Arable land in intensively used fertile zones of Spain was further intensified including the expansion of irrigated arable land. The intensification of agriculture has also generated land abandonment in these areas because less people are needed in the agricultural labour sector due to mechanization. Urbanization effects due to migration and the growth of the tourism sector were mapped along the eastern Mediterranean coast. Urban sprawl was only partly detectable by means of the MEDOKADS archive as the changes of urbanization are often too subtle to be detected by data with a spatial resolution of 1 km-². This is in line with a comparison of a Landsat TM time series and the NOAA AVHRR archive for a study area in the Greece that showed that small scale changes cannot be detected based on this approach, even though they might be of high relevance for local management of resources. This underlines the fact that land degradation processes are multi-scale problems and that data of several spatial and temporal scales are mandatory to build a comprehensive dryland observation system. Further land cover processes related to a decrease of greenness did not play an important role in the observation period. Thus, only few patches were identified, suggesting that no large-scale land degradation processes are taking place in the sense of decline of primary productivity after disturbances. Nevertheless, the land cover processes detected impact ecosystem functioning and using the example of shrub encroachment, bear risks for the provision of goods and services which can be valued as land degradation in the sense of a decline of important ecosystem goods and services. This risk is not only confined to the affected ecosystem itself but can also impact adjacent ecosystems due to inter-linkages. In drylands water availability is of major importance and the management of water resources is an important political issue. In view of climate change this topic will become even more important because aridity in Spain did increase within the last decades and is likely to further do so. In addition, the land cover changes detected by the syndrome approach could even augment water scarcity problems. Whereas the water yield of marginal areas, which often serve as headwaters of rivers, decreases with increasing biomass, water demand of agriculture and tourism is not expected to decline. In this context it will be of major importance to evaluate the trade-offs between different land uses and to take decisions that maintain the future functioning of the ecosystems for human well-being.
Extension of inexact Kleinman-Newton methods to a general monotonicity preserving convergence theory
(2011)
The thesis at hand considers inexact Newton methods in combination with algebraic Riccati equation. A monotone convergence behaviour is proven, which enables a non-local convergence. Above relation is transferred to a general convergence theory for inexact Newton methods securing the monotonicity of the iterates for convex or concave mappings. Several application prove the pratical benefits of the new developed theory.
Die Wirksamkeit und der Nutzen von Psychotherapie sind vielfach nachgewiesen. Dennoch sind die der Psychotherapie zugrunde liegenden Wirk- und Veränderungsmechanismen zu einem großen Teil noch ungeklärt und werden kontrovers diskutiert. Ein vielversprechendes Untersuchungsdesign zur Überprüfung der Wirksamkeit und Wirkungsweise spezifischer psychotherapeutischer Techniken stellt die Untersuchung psychotherapeutischer Mikrointerventionen dar. In der vorliegenden Arbeit wurde ein laborexperimentelles Untersuchungsdesign zur Überprüfung der Wirksamkeit spezifischer psychotherapeutischer Techniken und damit einhergehender hirnphysiologischer Veränderungen erstmalig erprobt. Untersucht wurden die Effekte einer 90-minütigen psychotherapeutischen Mikrointervention, in der die Technik des kognitiven Reframings vermittelt und eingeübt wurde. Probanden einer subklinisch depressiven Stichprobe (N=45) sowie gesunde Kontrollpersonen (N=47) wurden randomisiert entweder der Mikrointervention oder einer von zwei Kontrollbedingungen zugeordnet. Die Überprüfung der interventionssezifischen Effekte erfolgte über die Erfassung ereigniskorrelierter Potenziale (EKPs) sowie Affekt-Ratings der Probanden. In einem spezifischen EEG-Paradigma wurden den Probanden negativ affektive Bilder gezeigt, die sie entweder aus einem neuen, positiven Blickwinkel betrachten oder nur anschauen sollten. Am Ende jedes Durchganges wurden die Probanden aufgefordert die Intensität ihrer emotionalen Reaktion einzuschätzen. Die Ergebnisse zeigen, dass die Psychotherapeutische Mikrointervention zu spezifischen Effekten, insbesondere auf der Ebene elektrokortikaler Veränderungen führte. Dabei wiesen die Probanden der Gruppe mit der psychotherapeutischen Mikrointervention größere mittlere frontale LPP Amplitudenwerte in Folge der Instruktionsbedingung "Umdeuten" auf. Die Ergebnisse werden im Sinne einer intensivierten kontrollierten Nutzung relevanter, über den präfrontalen Kortex vermittelter, kognitiver Verarbeitungsressourcen im Zusammenhang mit der Herunterregulierung emotionaler Reaktionen interpretiert.
During pregnancy every eighth woman is treated with glucocorticoids. Glucocorticoids inhibit cell division but are assumed to accelerate the differentiation of cells. In this review animal models for the development of the human fetal and neonatal hypothalamic-pituitary-adrenal (HPA) axis are investigated. It is possible to show that during pregnancy in humans, as in most of the here-investigated animal models, a stress hyporesponsive period (SHRP) is present. In this period, the fetus is facing reduced glucocorticoid concentrations, by low or absent fetal glucocorticoid synthesis and by reduced exposure to maternal glucocorticoids. During that phase, sensitive maturational processes in the brain are assumed, which could be inhibited by high glucocorticoid concentrations. In the SHRP, species-specific maximal brain growth spurt and neurogenesis of the somatosensory cortex take place. The latter is critical for the development of social and communication skills and the secure attachment of mother and child. Glucocorticoid treatment during pregnancy needs to be further investigated especially during this vulnerable SHRP. The hypothalamus and the pituitary stimulate the adrenal glucocorticoid production. On the other hand, glucocorticoids can inhibit the synthesis of corticotropin-releasing hormone (CRH) in the hypothalamus and of adrenocorticotropic hormone (ACTH) in the pituitary. Alterations in this negative feedback are assumed among others in the development of fibromyalgia, diabetes and factors of the metabolic syndrome. In this work it is shown that the fetal cortisol surge at the end of gestation is at least partially due to reduced glucocorticoid negative feedback. It is also assumed that androgens are involved in the control of fetal glucocorticoid synthesis. Glucocorticoids seem to prevent masculinization of the female fetus by androgens during the sexual gonadal development. In this work a negative interaction of glucocorticoids and androgens is detectable.
In Europa haben sich im Laufe der vergangenen Jahrhunderte zahlreiche Kriege und Auseinandersetzungen Art abgespielt, die die Menschen und Nationen, ihre Ideologien und Ansichten stark geprägt haben. Gerade im SaarLorLux-Raum, einer grenzüberschreitenden Region im Gebiet von Deutschland, Frankreich, Luxemburg und Belgien, wurden die Grenzen von den Siegermächten immer neu gezogen und verschoben. Heute leben hier Menschen mit sehr verschiedenen kulturellen Hintergründen in einer multikulturellen Gesellschaft zusammen, die aber oftmals stark von einem Nebeneinander und von Unterschieden geprägt ist. Für die Grenzräume haben sich mit dem Konzept "Europa der Regionen", das kleineren räumlichen Einheiten ein Mitwirken bei Entscheidungsprozessen ermöglicht, große Kooperationschancen eröffnet. Von politischer Seite wird der SaarLorLux-Raum oft als "Mitte Europas" (BRÜCHER, QUASTEN, REITEL 1982, S. 13) oder "einzige europäische Kernregion" bezeichnet, in die "besonders hohe Erwartungen gesetzt" (SANTER 1997) werden. Wie aber sieht das Leben jenseits der Politik auf der ganz alltäglichen Ebene aus? Welche Möglichkeiten bieten sich den Menschen, die kulturelle Vielfalt, die Andersartigkeit der Nachbarländer sowie die Vor- und Nachteile hautnah in Alltagssituationen zu erleben? Die Dissertation untersucht, inwieweit die Grenzen in den Köpfen der Menschen auch nach ihrer Öffnung durch das Schengener Abkommen verankert bleiben und ob die Bewohner einer Grenzregion diesen besonderen Lebensraum in ihrem Alltag nutzen und zu grenzüberschreitend agierenden Europäern werden. Dazu werden wahrnehmungsgeographische Forschungsmethoden (mental maps) genutzt und auf das konkrete Beispiel des SaarLorLux-Raumes angewendet. In drei Studien (2000, 2002 und 2006) wurden insgesamt 5865 Schüler und Bewohner in 20 Orten in den vier Ländern zu ihren Vorstellungen vom SaarLorLux-Raum, zu ihrem aktionsräumlichen Verhalten und zu ihrer Abgrenzung der Region befragt. Dabei wurden bewusst grenznahe und grenzferne Standorte ausgewählt wurden, um Unterschiede im Verhalten herauszuarbeiten. Ziel der Analyse ist es, das Leben in der Großregion über den Zeitraum von sechs Jahren zu untersuchen und mit dieser Langzeitstudie Veränderungen beziehungsweise Gemeinsamkeiten im Verhalten der Bewohner herauszuarbeiten. Die Wahrnehmung des Lebens im SaarLorLux-Raum aus der Sicht seiner Bewohner wird herausgearbeitet und -ausgehend von den Ergebnissen- werden Potentiale und Defizite im grenzüberschreitenden Zusammenleben abzuleiten. Die politische und ökonomische Liberalisierung ist seit mehr als einem halben Jahrhundert Realität in Westeuropa. Ob allerdings die sich daraus ergebenden Chancen von den Bewohnern der grenznahen Räume erkannt, erwünscht und erlebt werden, ist Gegenstand der Untersuchungen. Durch die Fokussierung auf die Befragung von Schülern, also den jungen Menschen, die die Zukunft darstellen, wird die Frage beantwortet, ob sich traditionelle und eventuell auch eingefahrene Sichtweisen von Generation zu Generation übertragen und somit das aktionsräumliche Verhalten beeinflussen und erstarren lassen. Einen Beitrag zu einer funktionierenden Zusammenarbeit leistet die kulturelle und regionale Identität, die dazu beiträgt, dass sich die Menschen über die Grenzen hinaus als Bewohner der gleichen Region definieren. Dabei sollen nicht die Unterschiede, die zwischen den Bewohnern mit unterschiedlichen Nationalitäten bestehen, geleugnet oder verwischt werden. Abschließend werden, losgelöst vom regionalen Beispiel, Möglichkeiten aufgezeigt, wie durch unterschiedliche Initiativen vor allem auf schulischer Ebene zur Stärkung einer gemeinsamen europäischen Identität bei der jungen Bevölkerung beigetragen werden kann. Die Dissertation endet "ausgerichtet auf die Hauptzielgruppe bei den Befragungen- mit dem Entwurf einer Unterrichteinheit zur Stärkung eines grenzüberschreitenden Wir-Gefühls. Der Schulunterricht kann einen Beitrag dazu leisten, dass die zukünftigen Generationen ein tieferes Bewusstsein für das Zusammenleben im Grenzraum und in Europa erhalten.
Einen literarischen Text entlang eines figürlichen Körperleibs zu lesen und zu deuten, lenkt die Lektüre zwangsläufig auf unwiderrufliche und unabänderliche Grunddispositionen des menschlichen Daseins wie Sterblichkeit, Verletzlichkeit, Verwundbarkeit, Bedürftigkeit und wechselseitige Angewiesenheit. Eine der korporalen Entsprechungen für die eigene Bedürftigkeit äußert sich in den Stücken der deutschsprachgigen Gegenwartsdramatik häufig als Suche nach oder Bitte um Beistand. Die eigene Schwäche bedarf der fremden Kraft, um aufgefangen zu werden. In der Korrespondenzfigur des fallenden und haltenden Körpers wird das Phänomen der Fürsorge entfaltet. Die Verweigerung von Fürsorge wird in der Zweifachfigur eines abwehrenden und eines zurückgewiesenen Körpers zugespitzt. Mit der leiblichen Präsenz der Figuren wird ein solidarisches Potenzial angeboten. Die Rücknahme des eigenen Körperleibs aus dem Blickfeld des Anderen suspendiert jedoch die Möglichkeit, dass die potenziell vorhandene Solidaritätsfähigkeit tatsächlich in Anspruch genommen werden kann. Im Rückzug der Figuren deutet sich meist die Entscheidung an, den eigenen Körperleib nicht als möglichen Halt oder Anhaltspunkt für den Anderen zu erkennen zu geben.
Die Ménage-Polynome (engl.: ménage hit polynomials) ergeben sich in natürlicher Weise aus den in der Kombinatorik auftretenden Ménage-Zahlen. Eine Verbindung zu einer gewissen Klasse hypergeometrischer Polynome führt auf die Untersuchung spezieller Folgen von Polynomen vom Typ 3-F-1. Unter Verwendung einer Modifikation der komplexen Laplace-Methode zur gleichmäßigen asymptotischen Auswertung von Parameterintegralen sowie einiger Hilfsmittel aus der Potentialtheorie der komplexen Ebene werden starke und schwache Asymptotiken für die in Rede stehenden Polynomfolgen hergeleitet.
Mechanical and Biological Treatment (MBT) generally aims to reduce the amount of solid waste and emissions in landfills and enhance the recoveries. MBT technology has been studied in various countries in Europe and Asia. Techniques of solid waste treatment are distinctly different in the study areas. A better understanding of MBT waste characteristics can lead to an optimization of the MBT technology. For a sustainable waste management, it is essential to determine the characteristics of the final MBT waste, the effectiveness of the treatment system as well as the potential application of the final material regarding future utilization. This study aims to define and compare the characteristics of the final MBT materials in the following countries: Luxembourg (using a high degree technology), Fridhaff in Diekirch/Erpeldange, Germany (using a well regulated technology), Singhofen in Rhein-Lahn district, Thailand (using a low cost technology): Phitsanulok in Phitsanulok province. The three countries were chosen for this comparative study due to their unique performance in the MBT implementation. The samples were taken from the composting heaps of the final treatment process prior to sending them to landfills, using a random sampling standard strategy from August 2008 onwards. The size of the sample was reduced to manageable sizes before characterization. The size reduction was achieved by the quartering method. The samples were first analyzed for the size fraction on the day of collection. They were screened into three fractions by the method of dry sieving: small size with a diameter of <10 mm, medium size with a diameter of 10-40 mm and large size with a diameter of >40 mm. These fractions were further analyzed for their physical and chemical parameters such as particle size distribution (total into 12 size fractions), particle shape, porosity, composition, water content, water retention capacity and respiratory activity. The extracted eluate was analyzed for pH-value, heavy metals (lead, cadmium and arsenic), chemical oxygen demand, ammonium, sulfate and chloride. In order to describe and evaluate the potential application of the small size material as a final cover of landfills, the fraction of small size samples were tested for the geotechnical properties as well. The geotechnical parameters were the compaction test, permeability test and shear strength test. The detailed description of the treatment facilities and methods of the study areas were included in the results. The samples from the three countries are visibly smaller than waste without pretreatment. Maximum particle size is found to be less than 100 mm. The samples are found to consist of dust to coarse fractions. The small size with a diameter of <10 mm was highest in the sample from Germany (average 60% by weight), secondly in the sample from Luxembourg (average 43% by weight) and lowest in the sample from Thailand (average 15% by weight). The content of biodegradable material generally increased with decreasing particle sizes. Primary components are organic, plastics, fibrous materials and inert materials (glass and ceramics). The percentage of each components greatly depends on the MBT process of each country. Other important characteristics are significantly reduced water content, reduced total organic carbon and reduced potential heavy metals. The geotechnical results show that the small fraction is highly compact, has a low permeability and lot of water adsorbed material. The utilization of MBT material in this study shows a good trend as it proved to be a safe material which contained very low amounts of loadings and concentrations of chemical oxygen demand, ammonium, and heavy metals. The organic part can be developed to be a soil conditioner. It is also suitably utilized as a bio-filter layer in the final cover of landfill or as a temporary cover during the MBT process. This study showed how to identify the most appropriate technology for municipal solid waste disposal through the study of waste characterization.
In der Tagespresse bestehen Berichte über Nordkorea meistens aus Schreckens-meldungen: Von Nuklearem Wahn, Menschenrechtsverletzungen oder Terror ist hier die Rede. Gleichzeitig ist die Informationspolitik dieses Landes so restriktiv, dass kaum anderweitige Informationen nach außen dringen. Dies macht es in den Augen vieler Menschen umso gefährlicher, weil es dadurch unbegreiflich und unkalkulierbar erscheint. Nach dem Zusammenbruch der DDR und der Öffnung von bislang unzugänglichen Archiven hat diese Undurchdringlichkeit Risse bekommen, und es erschlossen sich der Forschung vollkommen neue Quellen. Ziel der vorliegenden Arbeit ist es, mit Hilfe der nun zugänglichen Dokumente einen Teil der Informationslücken über Nordkorea und vor allem über seine Beziehungen zur DDR zu schließen. Neben der Entwicklung der bilateralen Beziehungen in den Bereichen Politik, Wirtschaft und Kultur wird hier auch ein besonderer Aspekt der bilateralen Beziehungen untersucht: Nordkoreas Umgang mit seiner Abhängigkeit von der DDR und dem damit verbundenen Sicherheitsrisiko. Zu diesem Zweck wird anhand konkreter Fallbeispiele die Zusammenarbeit zwischen der DDR und Nordkorea analysiert. Obwohl auch in anderen Gebieten Abhängigkeiten bestanden, ist die wirtschaftliche Abhängigkeit im Zusammenhang mit einem möglichen Sicherheitsrisiko von besonderer Relevanz. Dieses Risiko definiert sich in diesem Zusammenhang als Gefährdung der inneren Sicherheit Nordkoreas. Nordkorea ist seit seiner Gründung ein Staat, der seine Bürger aufs Äußerste überwacht, um ihre vollständige Indoktrination zu gewährleisten. Da die nord-¬koreanische Regierung eine eigene, künstliche Wirklichkeit für die Bewohner des Landes erschaffen hatte, musste alles, was diese Wirklichkeit in Frage stellte, als Sicherheitsrisiko eingeschätzt werden. Dazu gehörte z.B. das Sichtbarwerden von Abhängigkeit, weil hierdurch der selbsterhobene Anspruch der Chuch"e-Ideologie "alles aus eigener Kraft" konterkariert wurde. Gleichfalls musste der Kontakt mit einer anderen Wirklichkeit als der koreanischen ein Sicherheitsrisiko darstellen, wenn sich dadurch die Einstellung zur koreanischen Realität änderte. In diesem Zusammenhang spielen vor allem die nordkoreanischen Studenten, die in der DDR studierten, eine besondere Rolle. Die vorliegende Arbeit zeigt, dass der Umgang Nordkoreas mit seiner Abhängigkeit von der DDR durchaus einer Logik entsprach und sich daraus Handlungsmuster ergaben, die diesen Umgang prägten. Zunächst versuchte die nordkoreanische Regierung, sich immer aus bestehenden Abhängigkeiten zu befreien oder sie zum größtmöglichen eigenen Vorteil zu nutzen. Dabei schreckte sie auch nicht vor illegalen Maßnahmen wie Industriespionage zurück. Das oberste Primat der nordkoreanischen Politik lag jedoch in der Wahrung Innerer Sicherheit und damit in der Regimestabilität. Diesem Ziel wurden alle anderen Ziele wie auch Entwicklung der Wirtschaft untergeordnet. Ergaben sich für das Erreichen von Wirtschaftszielen Abhängigkeiten, dann wurden diese nur so lange in Kauf genommen, wie sie die Innere Sicherheit nicht gefährdeten. Wurde hier allerdings ein Sicherheitsrisiko wahrgenommen, dann wurden alle Mittel eingesetzt, um dieses auszuschalten oder zu minimieren. Dabei spielte es keine Rolle, wie drastisch diese Maßnahmen waren und wer von ihnen betroffen war. Vergleicht man dieses Verhalten mit der heutigen nordkoreanischen Politik, so finden sich kaum Unterschiede. Die Innere Sicherheit ist für Nordkorea das oberste Ziel geblieben. Um es durchzusetzen, werden alle als notwendig erachteten Maßnahmen ergriffen, von der Bespitzelung der eigenen Bevölkerung bis hin zu Internierung und Terror. Was für den Umgang der nordkoreanischen Regierung mit dem eigenen Volk gilt, lässt sich auch in seiner Außenpolitik nachvollziehen. Die Regimestabilität bleibt das oberste Ziel. Im Gegensatz zur weitverbreiteten Meinung, die Volksrepublik sei in ihrer Politik nicht kalkulierbar, macht das Wissen um dieses Ziel Nordkorea zu einem sehr berechenbaren Staat. In Übereinstimmung mit dem Primat der Inneren Sicherheit wird die nordkoreanische Führung alles ablehnen, was diese gefährden könnte. Konkret ergibt sich daraus z.B., dass Nordkorea sein Nuklearprogramm niemals aufgeben wird, weil das Einstellen seiner Ambitionen auf diesem Gebiet die Führung in P"yÅngyang angreifbar machen könnte.
Virtuelle Umgebungen erfreuen sich in den letzten Jahren einer großen Beliebtheit und können kontinuierlich wachsende Nutzerzahlen vorweisen. Deshalb wird erwartet, dass die ohnehin große Nutzergemeinde weiterhin wächst. Dieses Wachstum stellt jedoch die Entwickler und die Betreiber von virtuellen Umgebungen vor eine Herausforderung. Die meisten heutzutage erfolgreichen virtuellen Umgebungen basieren auf einer Client-Server-Infrastruktur, in der der Server für die Verwaltung der gesamten Umgebung zuständig ist. Bei einer gleichzeitigen Inanspruchnahme durch viele Nutzer werden die serverbasierten Umgebungen jedoch massiven Skalierbarkeits- und Lastverteilungsproblemen ausgesetzt. Diese Probleme führen beispielsweise dazu, dass Nutzer Wartezeiten beim Einloggen in Kauf nehmen müssen bzw. selbst im Falle eines erfolgreichen Logins die "überfüllten" virtuellen Regionen nicht betreten dürfen. Deshalb wird in dieser Arbeit untersucht, ob eine Verbesserung der Skalierbarkeit und der Lastverteilung in virtuellen Umgebungen durch die Verwendung alternativer Infrastrukturansätze erreicht werden kann. Außerdem werden Maßnahmen zur weiteren Entlastung der Basis-Infrastruktur entwickelt. Diese Verbesserung soll zum einen dadurch erzielt werden, dass anstelle eines Servers ein Server-Verbund (Peer-to-Peer-System) als eine Art Management-Schicht agieren soll, in der jeder Knoten nur einen bestimmten Teil der virtuellen Umgebung verwaltet. Dabei wird die gewünschte Lastverteilung durch die Aufteilung der Verantwortungsbereiche auf die Knoten der Management-Schicht erreicht. Gleichzeitig entsteht aber ein Mehraufwand für die Konstruktion bzw. Erhaltung einer solchen Management-Schicht. Deshalb werden in dieser Arbeit die Vor- und Nachteile eines Infrastrukturwechsels hin zu dezentralisierten Infrastruktur-Ansätzen untersucht. Zum anderen wird eine spürbare Entlastung der Management-Schicht und somit eine Verbesserung der Skalierbarkeit und der Lastverteilung durch die Übertragung einiger Verwaltungsaufgaben an die Clients angestrebt. Zu diesen Verwaltungsaufgaben zählen die Gruppenkommunikation und das Konsistenz-Handling. Dazu wird in dieser Arbeit erforscht, inwiefern die Clients, die sich innerhalb derselben virtuellen Region befinden, selbst die Gruppenkommunikation über eine Multicast-Infrastruktur regeln können bzw. in die Wahrung der Konsistenz eines gemeinsamen Zustandes und der gemeinsam genutzten Objekte involviert werden können. Bei dem clientbasierten Konsistenz-Handling sollte vor allem auf die besonderen Interaktivitäts- und Konsistenzanforderungen, die Nutzer an die virtuellen Umgebungen stellen, geachtet werden. Dazu wird ein neues Konsistenzmodell definiert, welches die Einhaltung der strengen Interaktivitätsanforderungen erzwingt und die Konsistenz mit einer bestimmten Wahrscheinlichkeit garantieren kann.
Im Fokus der Dissertation steht das Spannungsfeld zwischen betriebswirtschaftlichen Zielen und unternehmerischer Sozialverantwortung. Dieses wird im Hinblick auf die Ebene des Arbeitsmarktes und die Beschäftigung von Menschen mit Behinderung im Tourismus untersucht. Das Ziel der Untersuchung ist die Identifikation des durch die sozialwirtschaftlichen Intentionen integrativer Hotels entstehenden gesamtgesellschaftlichen Nutzens. Ob integrativen Hotels der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt, wird hierbei ermittelt. Bei dem herangezogenen Untersuchungsobjekt integrativer Hotelbetrieb handelt es sich um Hotels, die Menschen mit und ohne Behinderung beschäftigen, als Integrationsprojekte anerkannt sind und vom Gesetzgeber als Unternehmen des allgemeinen Arbeitsmarktes definiert werden. Da es sich um ein in der Tourismuswissenschaft weitgehend unbekanntes Untersuchungsobjekt handelt, wird dieses grundlegend erläutert, sodass neben dem Konzept, den rechtlichen Rahmenbedingungen und den Fördermöglichkeiten auch eine situative Beschreibung integrativer Hotels in Deutschland Bestandteil der Arbeit ist. Da es sich um Betriebe handelt, die im Rahmen der Beschäftigung von Menschen mit Behinderung staatlich gefördert werden, ist darüber hinaus die fiskalische Bilanz der Beschäftigungssituation Integrationshotel Gegenstand der Untersuchung. Des Weiteren stehen die Werte, die integrative Hotels über monetär messbare Werte hinaus schaffen, im Mittelpunkt. Neben der sozial- und volkswirtschaftlichen Ebene findet auch die betriebswirtschaftliche Ebene Berücksichtigung. Sowohl Merkmale und interne Strukturen integrativer Hotelbetriebe als auch deren betriebswirtschaftliche Situation und deren Gäste werden in diesem Zusammenhang behandelt. Das Methodenspektrum der Untersuchung ist entsprechend des erläuterten Inhaltes der Arbeit vielschichtig. Neben der Analyse relevanter Literatur liefern Experteninterviews wesentliche Ergebnisse. Die Analyse der sozial- und volkswirtschaftlichen Ebene basiert zunächst auf der Sekundäranalyse vorhandener Daten und darüber hinaus auf der Analyse und Weiterentwicklung eines Bewertungsmodells. Im Rahmen der betriebswirtschaftlichen Analyse werden betriebliche/betriebsinterne Daten analysiert und die Methode der standardisierten Gästebefragung angewendet. Als Abschluss der Arbeit werden die Untersuchungsergebnisse zusammengefasst und die Übertragbarkeit sowie die gesellschaftliche Relevanz des Themas diskutiert. Durch die Zusammenfassung der zentralen Befunde wird der Nutzen, der durch das Wirken integrativer Hotels auf verschiedenen Ebenen entsteht, benannt. Mit der Identifikation des durch integrative Hotels entstehenden gesamtgesellschaftlichen Nutzens liefert die Arbeit einen erweiterten theoretischen Ansatz der Argumentationslinie für Integrationsprojekte in der Hotellerie und weist nach, dass diesen ein Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt. Die Balance zwischen den parallelen Motiven Wirtschaftlichkeit und Gemeinnützigkeit bzw. der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen ist zugleich der kritischste als auch der für den Erfolg integrativer Hotels entscheidendste Punkt. Die Herstellung eines Ausgleiches zwischen konträren Zielen ist dementsprechend die Voraussetzung für den maximal erreichbaren Zusatznutzen. Die Schlussfolgerung der Arbeit zielt jedoch nicht auf die ausnahmslos überall umzusetzende Integration von Menschen mit Behinderung im Teilarbeitsmarkt Tourismus ab, sondern weist auf das Potential eines erfolgreichen Ansatzes hin, der für die Entstehung eines eigenständigen Hoteltyps geeignet ist. Die Wahrnehmung der sozialen Verantwortung sollte hierbei jedoch nicht in den Vordergrund rücken, denn auch unter Einsatz des Alleinstellungsmerkmals Beschäftigung von Menschen mit Behinderung muss die vom Gast gebuchte touristische Dienstleistung vordergründig sein.
WICHTIGER HINWEIS: Aufgrund eines Computerfehlers bei der Rohdatenaufbereitung, müssen die 5.2.3. Ergebnisse (S. 43 ff.) wie folgt korrigiert werden: Explizite Einstellungsmessung Die Ergebnisse ändern sich inhaltlich: Haupteffekt Wortvalenz F(1, 94) = 51.10, p < .001, η2 = .35, (Mpos= 5.06; Mneg= -28.51); Interaktionseffekt Wortvalenz und kognitive Belastung F(1, 94) = 7.90, p < .01, η2 = .08, (Mpos/load= -5.01; Mpos/kein load= 15.13; Mneg/load= -25.43; Mneg/kein load= -31.75); Haupteffekt Wortnegation F(1, 94) = 8.58, p < .01, η2 = .08, (Mkeine = -7.95; Mnegation= -15.58). Implizite Einstellungsmessung Die Ergebnisse bleiben inhaltlich gleich: Zweifach-Interaktion von Wortvalenz und Prime, F(1, 80) = 4.61, p < .05, η2 = .06, (Mpos/wahr= 20.33; Mpos/falsch= 3.85; Mneg/wahr= 4.44; Mneg/falsch = 14.14). ABSTRACT: Ziel der vorliegenden Arbeit war es Evidenz für die Existenz einer Antonymie-Heuristik bei der Falsifikation valenter Information zu finden. Es wird angenommen, dass die vorherige Ankündigung, dass eine nachfolgende valenzhafte Information falsch ist, zu einer Änderung der Enkodierungsstrategie der valenzhaften Information führt. Dies bedeutet, dass zu der Valenz der gegebenen Information automatisch eine Gegenvalenz oder antonyme Valenz aktiviert werden sollte. Dementsprechend sollten falsche positive Informationen negativer und falsche negative Informationen positiver beurteilt werden als ihre wahren Entsprechungen. In vier Studien konnte dieser Effekt nachgewiesen werden. Die Ankündigung, dass eine valenzhafte Information falsch ist, beeinflusst, unabhängig von kognitiver Belastung, die Valenzübertragung in einem evaluativen Konditionierungsparadigma in vorhergesagter Weise (Experiment1). Ebenso führen generierte Gegenvalenzen, wenn eine Information als falsch angekündigt wurde, zu einem Verarbeitungsvorteil in einer Valenzkategorisierungs-Aufgabe, bei welcher positive Informationen als negativ und negative Informationen als positiv eingeschätzt werden sollten (Experiment 2). Die Ankündigung, dass eine nachfolgende Information falsch ist, führt außerdem dazu, dass positive (negative) Eigenschaften schnell und effizient negativer (positiver) eingeschätzt werden als bei einer Ankündigung der Informationen als wahr (Experiment 3 und 4). Zusammenfassend werden diese Befunde als Evidenz für die Existenz einer Antonymie-Heuristik im Zuge der Falsifikation valenter Information interpretiert.
The brain is the central coordinator of the human stress reaction. At the same time, peripheral endocrine and neural stress signals act on the brain modulating brain function. Here, three experimental studies are presented demonstrating this dual role of the brain in stress. Study I shows that centrally acting insulin, an important regulator of energy homeostasis, attenuates the stress related cortisol secretion. Studies II and III show that specific components of the stress reaction modulate learning and memory retrieval, two important aspects of higher-order brain function.
Das Studium des christlichen Briefstils im spätantiken Ägypten steht im Zentrum dieser Arbeit. Anhand der dokumentarischen Papyrusbriefe berührt diese Arbeit hauptsächlich die Epistolographie des Altertums, besonders die Phraseologie des frühen Christentums. So sieht man in der Arbeit die Beobachtung, Analyse und Erklärung der griechischen christlichen Privatbriefe im Hinblick auf ihre Struktur und ihre typischen christlichen Elemente insbesondere in Anredeformen, Grußformeln und typischen Redewendungen. Für diese Forschung wurden etwa 200 christliche Briefe zur intensiven Auswertung als Textgrundlage ausgewählt; zum Vergleich wurden auch heidnische Briefe aus ptolemäischer und römischer Zeit herangezogen. Diese Studie, besonders bei der Untersuchung der Formeln, bezieht sich auf den Zeitraum, zwischen dem 3. und 4./5. Jh. n.Chr.
Legalisation cannot be fully explained by interest politics. If that were the case, the attitudes towards legalisation would be expected to be based on objective interests and actual policies in France and Germany would be expected to be more similar. Nor can it be explained by institutional agency, because there are no hints that states struggle with different normative traditions. Rather, political actors seek to make use of the structures that already exist to guar-antee legitimacy for their actions. If the main concern of governmental actors really is to accumulate legitimacy, as stated in the introduction, then politicians have a good starting position in the case of legalisation of illegal foreigners. Citizens" negative attitudes towards legalisation cannot be explained by imagined labour market competition; income effects play only a secondary role. The most important explanatory factor is the educational level of each individual. Objective interests do not trigger attitudes towards legalisation, but rather a basic men-tal predisposition for or against illegal immigrants who are eligible for legalisation. Politics concerning amnesties are thus not tied to an objectively given structure like the socio-economic composition of the electorate, but are open for political discretion. Attitudes on legalising illegal immigrants can be regarded as being mediated by beliefs and perceptions, which can be used by political agents or altered by political developments. However, politicians must adhere to a national frame of legitimating strategies that cannot be neglected without consequences. It was evident in the cross-country comparison of political debates that there are national systems of reference that provide patterns of interpretation. Legalisation is seen and incorporated into immigration policy in a very specific way that differs from one country to the next. In both countries investigated in this study, there are fundamental debates about which basic principles apply to legalisation and which of these should be held in higher esteem: a legal system able to work, humanitarian rights, practical considerations, etc. The results suggest that legalisation is "technicized" in France by describing it as an unusual but possible pragmatic instrument for the adjustment of the inefficient rule of law. In Germany, however, legalisation is discussed at a more normative level. Proponents of conservative immigration policies regard it as a substantial infringement on the rule of law, so that even defenders of a humanitarian solution for illegal immigrants are not able to challenge this view without significant political harm. But the arguments brought to bear in the debate on legalisation are not necessarily sound because they are not irrefutable facts, but instruments to generate legitimacy, and there are enough possibilities for arguing and persuading because socio-economic factors play a minor role. One of the most important arguments, the alleged pull effect of legalisation, has been subjected to an empirical investigation. In the political debate, it does not make any dif-ference whether this is true or not, insofar as it is not contested by incontrovertible findings. In reality, the results suggest that amnesties indeed exert a small attracting influence on illegal immigration, which has been contested by immigration friendly politicians in the French par-liament. The effect, however, is not large; therefore, some conservative politicians may put too much stress on this argument. Moreover, one can see legalisation as an instrument to restore legitimacy that has slipped away from immigration politics because of a high number of illegally residing foreigners. This aspect explains some of the peculiarities in the French debate on legalisation, e.g. the idea that the coherence of the law is secured by creating exceptional rules for legalising illegal immigrants. It has become clear that the politics of legalisation are susceptible to manipulation by introducing certain interpretations into the political debate, which become predominant and supersede other views. In this study, there are no signs of a systematic misuse of this constellation by any certain actor. However, the history of immigration policy is full of examples of symbolic politics in which a certain measure has been initiated while the actors are totally aware of its lack of effect. Legalisation has escaped this fate so far because it is a specific instrument that is the result of neglecting populist mechanisms rather than an ex-ample of a superficial measure. This result does not apply to policies concerning illegal immi-gration in general, both with regard to concealing a lack of control and flexing the state- muscles.
320 Probandinnen bekamen Portraitfotos von Männern und Frauen, kombiniert mit geschlechterstereotypkongruenten, -inkongruenten und -neutralen Eigenschaften unter verschiedenen Instruktions- und Rahmenbedingungen vorgelegt. Anschließend erfolgten, für Items und Assoziationen, explizite Gedächtnistests. Die Ergebnisse belegen einen wiederholten assoziativen Inkongruenzvorteil, stereotypkongruente Rateverzerrungen, ein moderierendes individuelles Stereotypizitätsniveau, Ausbleiben stereotypkongruenten Einflusses nach intentionaler Instruktion, die Interaktion von Gedächtnisleistung und instruktionsvermittelnder Fokussierung, einen Erinnerungsvorteil für assoziative im Vergleich zu Iteminformationen sowie Leistungsminderung bei paralleler Aufmerksamkeitsbelastung. In der zeitunbegrenzten Testphase bwz. der Erfassung der probandeneigenen Reaktionszeiten wird eine wichtige Aufklärungsquelle vermutet.
Stress and pain are common experiences in human lives. Both, the stress and the pain system have adaptive functions and try to protect the organism in case of harm and danger. However, stress and pain are two of the most challenging problems for the society and the health system. Chronic stress, as often seen in modern societies, has much impact on health and can lead to chronic stress disorders. These disorders also include a number of chronic pain syndromes. However, pain can also be regarded as a stressor itself, especially when we consider how much patients suffer from long-lasting pain and the impact of pain on life quality. In this way, the effects of stress on pain can be fostered. For the generation and manifestation of chronic pain symptoms also learning processes such as classical conditioning play an important role. Processes of classical conditioning can also be influenced by stress. These facts illustrate the complex and various interactions between the pain and the stress systems. Both systems communicate permanently with each other and help to protect the organism and to keep a homeostatic state. They have various ways of communication, for example mechanisms related to endogenous opioids, immune parameters, glucocorticoids and baroreflexes. But an overactivation of the systems, for example caused by ongoing stress, can lead to severe health problems. Therefore, it is of great importance to understand these interactions and their underlying mechanisms. The present work deals with the relationship of stress and pain. A special focus is put on stress related hypocortisolism and pain processing, stress induced hypoalgesia via baroreceptor related mechanisms and stress related cortisol effects on aversive conditioning (as a model of pain learning). This work is a contribution to the wide field of research that tries to understand the complex interactions of stress and pain. To demonstrate the variety, the selected studies highlight different aspects of these interactions. In the first chapter I will give a short introduction on the pain and the stress systems and their ways of interaction. Furthermore, I will give a short summary of the studies presented in Chapter II to V and their background. The results and their meaning for future research will be discussed in the last part of the first chapter. Chronic pain syndromes have been associated with chronic stress and alterations of the HPA axis resulting in chronic hypocortisolism. But if these alterations may play a causal role in the pathophysiology of chronic pain remains unclear. Thus, the study described in Chapter II investigated the effects of pharmacological induced hypocortisolism on pain perception. Both, the stress and the pain system are related to the cardiovascular system. Increase of blood pressure is part of the stress reaction and leads to reduced pain perception. Therefore, it is important for the usage of pain tests to keep in mind potential interferences from activation of the cardiovascular system, especially when pain inhibitory processes are investigated. For this reason we compared two commonly and interchangeably used pain tests with regard to the triggered autonomic reactions. This study is described in chapter III. Chapter IV and V deal with the role of learning processes in pain and related influences of stress. Processes of classical conditioning play an important role for symptom generation and manifestation. In both studies aversive eyeblink conditioning was used as a model for pain learning. In the study described in Chapter IV we compared classical eyeblink conditioning in healthy volunteers to patients suffering from fibromyalgia, a chronic pain disorder. Also, differences of the HPA axis, as part of the stress system, were taken in account. The study of Chapter V investigated effects of the very first stress reaction, particularly rapid non-genomic cortisol effects. Healthy volunteers received an intravenous cortisol administration immediately before the eyeblink conditioning. Rapid effects have only been demonstrated on a cellular level and on animal behavior so far. In general, the studies presented in this work may give an impression of the broad variety of possible interactions between the pain and the stress system. Furthermore, they contribute to our knowledge about theses interactions. However, more research is needed to complete the picture.
In this thesis, three studies investigating the impact of stress on the protective startle eye blink reflex are reported. In the first study a decrease in prepulse inhibition of the startle reflex was observed after intravenous low dose cortisol application. In the second study a decrease in reflex magnitude of the startle reflex was observed after pharmacological suppression of endogenous cortisol production. In the third study, a higher reflex magnitude of the startle reflex was observed at reduced arterial and central venous blood pressure. These results can be interpreted in terms of an adaption to hostile environments.
Die vorliegende Arbeit ist eine Fallstudie zu Gender- und ethnischen Identitäts- und Differenzkonstruktionen in einer indigenen Gemeinde im Tiefland Ecuadors. Sie sucht folgende Fragen zu beantworten: I. Wie wird Gender im sog. "Oriente" Ecuadors verhandelt und performativ produziert? Existieren Gegenstimmen und Subversionen zu dominanten Genderrollen, und wenn ja, in welcher Form? II. Wie entwerfen die Napo Runa von der sogenannten Peripherie aus ihre nationale und ethnische Identität? Welche Diskurse und praktischen Strategien entwickeln sie im Umgang mit den ethnisch "Anderen" innerhalb des nationalen, ecuadorianischen Kontextes? III. Auf welche Art und Weise sind die Kategorien Gender, Ethnizität und Nation ineinander verwoben? Wie werden Männlichkeiten und Weiblichkeiten in Abgrenzung und Anziehung zum ethnisch "Anderen" konstruiert? Wie werden dabei hegemoniale Gender-, ethnisch-rassische und nationale Diskurse und Praxen von den Runa aufgenommen, verarbeitet und umgedeutet? In der feministisch ausgerichteten Gender-Forschung dienen "nicht-westliche" Beispiele häufig dazu, Alternativen zur euro-amerikanischen binären, heteronormativen Geschlechterordnung aufzuzeigen und letztere somit zu dekonstruieren. Diese Fallstudie zu den Tiefland-Runa in Ecuador kann dazu nur sehr bedingt einen Beitrag leisten: Die Runa bestehen auf der Dichotomie weiblich-männlich, die nach dem biologischen Geschlecht des Kindes bei der Geburt bestimmt wird. Und dennoch erfordert das Herausbilden der "richtigen" Genderidentität aus indigener Perspektive von Kindheit an beständige Formung, was sich besonders in der früh einsetzenden Arbeitsteilung äußert, welche Wissen in den Körper "einschreibt". Wer die gegenderten, alltagspraktischen Techniken in seinen/ihren Körperhabitus übernommen hat, gilt als "richtiger Mann" resp. "richtige Frau", als erwachsen. Der biologischen Reifung des Körpers wird dagegen weniger Bedeutung beigemessen. Explizit ausformuliert wird die für gesellschaftliches Leben als unerlässlich angesehene Komplementarität beider Geschlechter. Die jüngere ethnographische Literatur zum Amazonastiefland tendiert mehrheitlich zur Gleichsetzung dieser Komplementarität mit einem egalitären Geschlechterverhältnis. Meine Daten deuten jedoch auf ein unausgeglichenes Machtverhältnis zwischen Männern und Frauen hin. Eine klare Hierarchie lässt sich in verschiedenen Bereichen ablesen, wie z.B. dem unterschiedlichen Zugang zu politischer Macht, spirituellem Wissen, ökonomischen Möglichkeiten, Arbeitszeitaufteilung, Bewegungsfreiheit und Verfügungsgewalt über den eigenen und fremde Körper. Auch in der Abgrenzung der Runa gegenüber anderen ethnischen Gruppen spielt die Kategorie Geschlecht eine zentrale Rolle. Entlang der Runa-Ideale von geschlechtsspezifischer Arbeitsteilung und Verhaltensidealen werden Grenzen gezogen. Dabei sind es die MestizInnen, welche die wichtigste Rolle in diesem fortwährenden identitätszeichnenden und -versichernden Prozess als direkte und dominanteste Gegenüber spielen. Einerseits sucht man sich gegen mestizische Dominanz und Vereinnahmung durch Betonung der eigenen, ethnisierten Kraft und Stärke und einer "reinen" Heiratspraxis zu erwehren. Andererseits eifert insbesondere die jüngere Generation, auch in ihren Genderentwürfen, einem mestizischen Lebensstil als Inbegriff von "Zivilisation", Modernität, Urbanität und Fortschrittlichkeit nach und versucht, dies besonders durch Bildung zu erreichen. Speziell in den Feminitätsentwürfen der ruralen, traditionellen runa warmi und ihrem Gegenstück "urbane Mestizin" findet dieser Widerspruch seinen Ausdruck. Für Männer stellt das Militär den größten außerdörflichen Einfluss auf jugendliche maskuline Runa-Identitätsbildung dar und drängt diese zusehends in die Richtung eines mestizisch-virilen Männlichkeitsideals, das eng verbunden ist mit einer nationalen Identität als Ecuadorianer. Beruhend auf Viveiros de Castros" Multinaturalismus-Theorie findet man in der wissenschaftlichen Literatur zum Amazonastiefland immer wieder die Darstellung äußerst aufnahmefähiger, flexibler Gesellschaften, welche starren ethnischen Grenzen mit größter Skepsis zu begegnen wüssten. Die Inkorporierung "Fremder", seien sie Affinalverwandte oder ethnisch different, geschehe über die konstante gemeinsame Produktion entlang der gegenderten Arbeitsteilung und den Konsum der gleichen Nahrung, die zusehends und fortlaufend die Unterschiede zwischen Menschen nivellieren. Ich halte diese Einschätzung amazonischen Gemeinschaftslebens für idealisiert. Sie mag partiell richtig sein, jedoch wird "Fremdartigkeit" nie ganz vergessen. Eine gewisse "fremde" Essenz, welcher Art diese auch immer sein möge, bleibt bestehen " unabhängig davon, ob die Betreffenden die geschlechtsspezifischen Runa-Körpertechniken erlernt haben. Es stehen hier m. E. zwei Diskurse nebeneinander.
Umweltschutz wird in dieser Arbeit als Soziales Dilemma betrachtet. Es wird mittels eines experimentellen Online-Spiels (N = 182) primär überprüft, inwieweit unkooperatives Verhalten von Akteuren zu genuinem Ungerechtigkeitserleben bei anderen Personen führt und ob diese in Folge u. a. das eigene kooperative Verhalten reduzieren. Somit wird im Gegensatz zu Erklärungen der Rational-Choice-Theorien angenommen, dass ein Teil des phänotypisch unkooperativen, umweltschädigenden Verhaltens nicht auf Egoismus, sondern auf einem genuinen Gerechtigkeitsmotiv beruht. Zur Erhöhung der internen Validität wird ebenfalls der moderierende Einfluss der Persönlichkeitseigenschaften "Eigeninteresse" und "Gerechtigkeitszentralität" untersucht. Die Hypothesentestungen zeigen, dass unkooperatives Verhalten anderer Akteure in Sozialen Dilemmata bei vielen Personen Ungerechtigkeitserleben auslöst, was sich u. a. in Emotionen der Empörung, Ungerechtigkeitskognitionen, Bestrafungsverhalten und einer Reduktion des eigenen kooperativen Verhaltens niederschlägt. Hierbei spielen interindividuelle Unterschiede hinsichtlich der Stärke des Gerechtigkeitsmotivs bei etlichen gefundenen Effekte eine moderierende Rolle. Es wird somit ein motivpluralistischer Ansatz bestätigt, der die Rolle des Gerechtigkeitsmotivs bei der Vorhersage und Veränderung von Verhalten in Sozialen Dilemmata hervorhebt. Implikationen in Hinblick auf Theorie, zukünftige Forschung und Interventionen in Sozialen-Dilemma-Situationen werden erörtert.
Bei der Realisierung einer nachhaltigen Entwicklung kommt dem Erhalt und der Sanierung des vorhandenen Altbaubestands zentrale Bedeutung zu. Sanierungen versprechen in erster Line Einsparpotentiale beim Energieverbrauch, bei den CO2-Emissionen und den anthropogen induzierten Stoffströmen. Auch im sozialen Bereich sind Verbesserungen möglich, weil sich beispielsweise attraktive und energetisch optimierte Wohnungen positiv auf die Bleibeabsichten der Bewohner auswirken und so Wohnquartiere sozial stabilisiert werden können. In der Arbeit wird untersucht, welchen signifikanten Beitrag Bestandssanierungen zur Realisierung einer global nachhaltigen Entwicklung leisten können. Zudem wird gefragt, warum Altbausanierungen bislang nur zögerlich umgesetzt werden. So soll die Kluft zwischen Wissen und Handeln bei der Realisierung einer nachhaltigen Entwicklung erklärt werden. Um die Forschungsfragen beantworten zu können, werden vier Sanierungsmaßnahmen in den Städten Ludwigshafen und Köln als Einzelfälle untersucht: (1) Ludwigshafen Brunckviertel, (2) Ludwigshafen Ebertsiedlung, (3) Köln Vingst und (4) Köln Zollstock. Gewählt wird ein qualitativer Forschungsansatz. Zur Anwendung kommen die Erhebungsmethoden teilstrukturierte Befragung und Dokumentenanalyse.
Diese Arbeit beschäftigt sich mit (frequent) universellen Funktionen bezüglich Differentialoperatoren und gewichteten Shiftoperatoren. Hierbei wird ein Charakteristikum von Funktionen vom Exponentialtyp untersucht, das bisher im Rahmen der Universalität noch nicht betrachtet wurde: Das konjugierte Indikatordiagramm. Dabei handelt es sich um eine kompakte und konvexe Menge, die einer Funktion vom Exponentialtyp zugeordnet ist und gewisse Rückschlüsse über das Wachstum und die mögliche Nullstellenverteilung zulässt. Mittels einer speziellen Transformation werden (frequent) universelle Funktionen vom Exponentialtyp bezüglich verschiedener Differentialoperatoren ineinander überführt. Hierdurch ist eine genaue Lokalisation der konjugierten Indikatordiagramme möglicher (frequent) universeller Funktionen für diese Operatoren ableitbar. Durch Konjugation der Differentiation mit gewichteten Shiftoperatoren über das Hadamardprodukt, wird auch für diese Operatoren eine Lokalisation möglicher konjugierter Indikatordiagramme ihrer (frequent) universellen Funktionen erreicht.
Die Beobachtung und Bewertung von Wäldern ist eins der zentralen Themen der Fernerkundung. Wälder sind auf der Erde die größten Speicher von Biomasse und damit, neben den Ozeanen, die größte Senke für Kohlendioxid. Eine genaue Kenntnis über Zusammensetzung, Zustand und Entwicklung der Wälder ist wegen ihrer vielfältigen Funktionen und ihres großen Anteils an der Landesfläche von großem wissenschaftlichem und gesellschaftlichem Wert. Eine flächen-deckende detaillierte Beobachtung ist nur mit fernerkundlichen Mitteln möglich. Eine vielversprechende moderne Technik für hochauflösende Waldfernerkundung ist luftgestütztes Laser-¬scanning. Für die Arbeit stand ein Laserscanner-Datensatz aus dem Idarwald bei Morbach in Einzelpunkten und als Wellenformdatensatz zur Verfügung, der zur Ableitung von strukturellen Waldparametern genutzt wurde. Als wichtigster Bestandsstrukturparameter wurde die Baumhöhe sowohl aus Einzelpunktdaten als auch aus gerasterten Bilddaten flächendeckend mit hoher Genauigkeit abgeleitet. Die Kronenuntergrenzen konnten anhand der Wellenformdaten identifiziert werden und stimmten ebenfalls in hoher Genauigkeit mit Geländemessungen überein. Aus Baumhöhen und Höhe der Kronenuntergrenzen konnte die jeweilige Kronenlänge bestimmt werden. Eine größere Herausforderung ist die Bestimmung der Anzahl der Bäume pro Hektar. Während die einzelnen Kronen älterer Nadelbäume gut erkennbar sind, lassen sich Laubbäume und jüngere Nadelbäume nur schwer identifizieren. Trotzdem konnte mit Hilfe eines adaptiven Moving-Window-Ansatzes eine hohe Übereinstimmung mit im Gelände bestimmten Stammzahlen erzielt werden. Aus dem Anteil der Laserstrahlen, die im Bestand den Boden erreichen, können der Kronenschlussgrad und der Blattflächenindex bestimmt werden. Beide Größen sind für den Strahlungstransfer im Bestand und für ökologische Fragestellungen von Bedeutung und konnten ebenfalls flächendeckend und mit hoher Genauigkeit gemessen werden. Eng verknüpft mit dem Blattflächenindex sind die Biomasse und der Holzvorrat. Der Holzvorrat kann zwar nicht direkt aus den Laser-¬scannerdaten abgeleitet werden, da aber enge Beziehungen zu Baumhöhe und Stammzahl bestehen, kann er aus diesen statistisch abgeleitet werden. Auch die Biomasse wurde indirekt bestimmt: aus den Baumhöhen und dem Bedeckungsgrad. Die detaillierteste Charakterisierung von Waldbeständen kann durch Kombination unterschiedlicher Datensätze erreicht werden. Neben dem Laserscanningdatensatz stand auch ein hyperspektrales Bild des Untersuchungsgebiets zur Verfügung. Um diese zu kombinieren, wurde aus den Wellenformen die jeweils über der Fläche eines Hyperspektralpixels zurückgestreute Laserenergie in Höhenschritten von 0.5 m berechnet. Diese Höhenprofile zeigen die Position und Dichte der Baumkronen. Der kombinierte Datensatz wurde für eine Klassifikation zwischen Fichten und Douglasien in jeweils mehreren Altersstufen verwendet und konnte gegenüber dem Hyperspektralbild alleine eine deutliche Verbesserung der Klassifikationsgenauigkeit erzielen. Als weitere Methode, die Vorteile von hyperspektraler Fernerkundung mit denen von Laser-scanning zu verbinden, wurden Methoden zur Verwendung von Laserscanning für die Invertierung von zwei Reflexionsmodellen entwickelt und getestet. Da mit Laserscanning Größen bestimmt werden können, die aus einem Reflexionsspektrum nicht eindeutig ableitbar sind, können die Daten verwendet werden, um den Parameterraum bei der Invertierung zu verkleinern und damit die Invertierung zuverlässiger zu machen.
In der vorliegenden Arbeit wurden potentielle Kandidatengene für Periodische Katatonie und Schizophrenie untersucht. Es erfolgte eine strukturelle und funktioneller Promotoranalyse des Megalencephalic leukoencephalopathy with subcortikal cysts 1 (Mlc1/MLC1)-Gens, welches eine Rolle bei der Entwicklung der Megalenzephalen Leukoenzephalopathie spielt und auch für die Ätiogenese der Periodischen Katatonie diskutiert wird. Die in silico Promotoranalyse ergab, daß Bindestellen für wichtige Transkriptionsfaktoren und gängige Promotorelemente wie TATA- und GC-Boxen fehlten. Ebenso konnte in vitro keine Aktivität des Promotors nachgewiesen werden, was vermuten läßt, daß ein noch nicht identifiziertes Enhancer-Element oder einen Ko-Faktor für die Aktivierung des Mlc1-Promotors nötig ist. Als ein weiteres Kandidatengen für die Periodische Katatonie wurde das Gen für die mitotic checkpoint kinase BUB1B auf eine mögliche Ätiologie für die Periodische Katatonie untersucht. Aufgrund fehlender kausativer Mutationen konnte BUB1B als Kandidatengen für die Periodische Katatonie ausgeschlossen werden. Ein weiterer Teil dieser Arbeit umfaßte eine Studie zur Untersuchung der Gene für den nikotinergen Acetylcholinrezeptor (CHRNA7), des D-aminosäure Aktivators (DAOA) und des bromodomain containing protein 1 (BRD1) mit einer Assoziation zur Schizophrenie. Es konnte hierbei eine Assoziation von BRD1 mit Schizophrenie bestätigt werden.
Im Rahmen der vorliegenden Dissertation wurden aus den umfassenden Daten der Umweltprobenbank des Bundes relative Vergleichsstandards abgeleitet, welche als Referenzsystem die allgemeine Belastungssituation und deren zeitliche Entwicklung in der Bundesrepublik widerspiegeln, eine Bewertung von gemessenen Schadstoffkonzentrationen in biologischen Matrizes sowie biometrischer Parameter der eingesetzten Bioindikatoren ermöglichen. Anhand der biometrischen Daten des Brassen und der rückstandsanalytischen Daten der Brassenmuskulatur wurde dieses Referenzsystem für die limnischen Systeme in der Bundesrepublik konzeptioniert und umgesetzt. Es handelt sich um ein Fünf-Klassen-System, bei dem die fünf Referenzbereiche durch vier Referenzwerte voneinander abgegrenzt werden. Die Referenzwerte sind aufgrund der repräsentativen Datenbasis in der Lage, die allgemeine Belastungssituation in der Bundesrepublik abzubilden. Da sie sich nur auf einen zweijährigen Bezugszeitraum beziehen und ständig fortgeschrieben werden, kann die zeitliche Entwicklung der allgemeinen Belastungssituation hervorragend dargestellt werden. Aufgrund ihrer rein naturwissenschaftlichen Basis sind Referenzwerte als Umweltqualitätskriterien zu verstehen. Mit den rückstandsanalytischen Umweltqualitätkriterien kann der stoffbezogene Gewässerzustand anhand von Bioindikatoren qualitativ bewertet werden, was eine deutliche Optimierung im stoffbezogenen Gewässerschutz darstellt. Zudem können die Referenzwerte als eine Basis für die Ableitung von hoheitlichen Umweltqualitätsstandards in Rechtsnormen herangezogen werden. Ergänzt werden die stoffbezogenen Umweltqualitätskriterien durch biometrischen Kenngrößen, die eine qualitative Bewertung der Lebensbedingungen des Bioindikators Brassen erlauben.
Es zählt zu den Gemeinplätzen der sozialwissenschaftlichen Forschung, dass politische Wirklichkeit sozial konstruiert ist. Wenig wissen wir hingegen darüber, wie politische Wirklichkeit entsteht, insbesondere wie Sprache bewirkt, dass etwas zu einer allgemein akzeptierten politischen Wirklichkeit wird. In Anknüpfung an die bisherige konstruktivistische Forschung rekonstruiert der Band auf methodisch innovative Weise den Gebrauch von Sprachbildern und Metaphern im deutschen Diskurs über den EU-Verfassungsvertrag. Durch die quantitative und qualitative Extrapolation des metaphorischen Sprechens in der Europadebatte lassen sich nicht nur signifikante Veränderungen in den Diskursen der bundesdeutschen Parteien offenlegen, sondern die Einzelmetaphern lassen sich auch zu machtvollen handlungsleitenden Narrativen verdichten. Dass die europäische Verfassungsfrage vor allem eine Frage der demokratischen Legitimation und europäischen Identität, des politischen Gestaltungswillens und der Finalität Europas ist, scheint dabei wenig überraschend. Dass die Frage der Konstitutionalisierung Europas aber auch und gerade ein Diskurs über neue Grenzziehungen und die partielle Schließung "offener Staatlichkeit" ist, kann hingegen als das eigentlich "Neue" in der deutschen Europapolitik angesehen werden.
The visualization of relational data is at the heart of information visualization. The prevalence of visual representations for this kind of data is based on many real world examples spread over many application domains: protein-protein interaction networks in the field of bioinformatics, hyperlinked documents in the World Wide Web, call graphs in software systems, or co-author networks are just four instances of a rich source of relational datasets. The most common visual metaphor for this kind of data is definitely the node-link approach, which typically suffers from visual clutter caused by many edge crossings. Many sophisticated algorithms have been developed to layout a graph efficiently and with respect to a list of aesthetic graph drawing criteria. Relations between objects normally change over time. Visualizing the dynamics means an additional challenge for graph visualization researchers. Applying the same layout algorithms for static graphs to intermediate states of dynamic graphs may also be a strategy to compute layouts for an animated graph sequence that shows the dynamics. The major drawback of this approach is the high cognitive effort for a viewer of the animation to preserve his mental map. To tackle this problem, a sophisticated layout algorithm has to inspect the whole graph sequence and compute a layout with as little changes as possible between subsequent graphs. The main contribution and ultimate goal of this thesis is the visualization of dynamic compound weighted multi directed graphs as a static image that targets at visual clutter reduction and at mental map preservation. To achieve this goal, we use a radial space-filling visual metaphor to represent the dynamics in relational data. As a side effect the obtained pictures are very aesthetically appealing. In this thesis we firstly describe static graph visualizations for rule sets obtained by extracting knowledge from software archives under version control. In a different work we apply animated node-link diagrams to code-developer relationships to show the dynamics in software systems. An underestimated visualization paradigm is the radial representation of data. Though this kind of data has a long history back to centuries-old statistical graphics, only little efforts have been done to fully explore the benefits of this paradigm. We evaluated a Cartesian and a radial counterpart of a visualization technique for visually encoding transaction sequences and dynamic compound digraphs with both an eyetracking and an online study. We found some interesting phenomena apart from the fact that also laymen in graph theory can understand the novel approach in a short time and apply it to datasets. The thesis is concluded by an aesthetic dimensions framework for dynamic graph drawing, future work, and currently open issues.
Während deutsche Einwanderer sich nur bedingt gegen die Institution der Sklaverei aussprachen, zeigten sie in ihrer Sicht auf African Americans ein weit höheres Maß an Geschlossenheit in ihrer ablehnenden Haltung. Um die Divergenz zwischen der Wahrnehmung von Sklaverei und African Americans sinnvoll zu kontextualisieren und zu erklären, erscheint die Kategorie der race als erhellende Untersuchungseinheit, welche hilft, die einseitige Wahrnehmung auf der menschlichen im Vergleich zur institutionellen Ebene zu beleuchten. Da der Begriff race weit weniger ideologisch belastet ist als der Begriff des Rassismus, bietet er ein Instrument, welches die nötige Offenheit für verschiedene Erklärungsansätze besitzt. Als Arbeitsgrundlage dient dabei die Definition von Stephen Cornell und Douglas Hartman. Die Autoren betonen besonders stark den menschlichen Ursprung der Kategorie race, ein für diese Untersuchung besonders wichtiger Aspekt, weil er auf die soziale Eingebundenheit des Konzepts verweist. Als solches handelt es sich bei race um eine historische Einheit, die Diskussionen und Wandlungen unterworfen war. Menschen schufen diese Kategorie als distinktes Merkmal für eine Gruppe von Menschen, die sie so eindeutig als von sich selbst unterschiedlich darstellten und damit eine möglichst große und eindeutige Differenz schufen. Diese Vorüberlegungen bilden die Basis für den Kontext, in dem die deutschen Einwanderer ihre Unterschiedlichkeit zu schwarzen Menschen wahrnahmen und davon ausgehend diese als Menschen beurteilten, was häufig mit einer Bewertung der Institution der Sklaverei einherging, der viele der in Amerika lebenden African Americans unterworfen waren. Die Divergenz zwischen dem Selbst und dem Gegenüber schlägt sich dabei in den komplementären Konzepten von blackness und whiteness nieder. Im Zusammenhang mit den deutschen Immigranten spielen diese beiden Perspektiven eine wichtige Rolle, weil so die Denkmuster der Deutschen zum Teil aus ihrem Fokus auf das Anderssein ihres Gegenübers, also der blackness, und zum Teil aus dem Gefühl der eigenen besonderen Stellung, also der whiteness, zu erklären sind. Deutsche Einwanderer schlossen sich Argumentationsmustern aus der Literatur oder der Populärwissenschaft in unterschiedlichen Ausprägung sowohl direkt auch indirekt an, was darauf hindeutet, dass sie wohl mit Gedanken um die Thematik blackness bereits schon in der alten Heimat in variierender Intensität konfrontiert worden waren und damit ihre Äußerungen zu schwarzen Menschen, welche sie nach ihrer Ankunft in den USA trafen, auch auf Vorstellungen beruhten, die sie vor einem direkten Kontakt mit Schwarzen geformt hatten. In Anlehnung an die Diskussionen innerhalb der USA zu schwarzen Menschen wurde Blackness für die deutschen Einwanderer zu einer gesellschaftlichen Kategorie, mit der sie sich in unterschiedlichen Intensitätsgraden auseinandersetzten mussten, weil sie potentiell enorme Auswirkungen auf die verschiedensten Aspekte des Lebens haben konnte. Die Institution der Sklaverei als eine auf race basierende Arbeitsform spielte dabei eine wichtige Rolle, weil hier eine institutionalisierte Manifestation der rassistischen Hierarchisierung in der amerikanischen Gesellschaft existierte. Innerhalb dieser hierarchisierten Gesellschaft stellte die Distanzierung von schwarzen Menschen und, damit einhergehend, die Integration in die Gruppe der weißen Amerikaner eine grundlegende Tendenz dar. Die Kategorie whiteness gewann also enorm an Wichtigkeit für die Einwanderer, wobei die sich daraus ergebenden Folgen etwa in wirtschaftlicher Hinsicht nicht unbedingt der Realität entsprechen mussten, sondern auch auf subjektive Wahrnehmungen beschränkt sein konnten. Vor diesem Hintergrund erklärt sich die hohe Zahl der deutschen Immigranten, die eine latente Abneigung oder sogar offene Abscheu gegenüber African Americans zeigte. Dieser Anreiz zur Differenzierung in Weiße und Schwarze war im Zusammenhang mit der Diskussion um die Institution der Sklaverei nicht gegeben, denn dabei ging es vor allem den intellektuellen Deutschen primär um abstrakte Ideen wie Freiheit und Gleichheit, die sie dann ohne oder nur mit geringem Bezug zu schwarzen Menschen diskutierten. Solange also die Distanz zu African Americans und damit die Zugehörigkeit zur Kategorie whiteness gewahrt blieb, konnten die Deutschen ihre Meinungen gegen die Sklaverei äußern. Es ging dann nicht um das Wohl der Schwarzen, sondern um die Institution und die damit verbundenen abstrakten Prinzipien.
Zu Beginn des 18. Jh. setzten sich der Franzose Jean-Baptiste Du Bos (Réflexions critiques sur la poësie et sur la peinture, Paris 1719) und der Italiener Francesco de Ficoroni (Le maschere sceniche e le figure comiche d"antichi romani, Rom 1736) mit der Frage auseinander, ob die antiken Theatermasken die Aufgabe gehabt haben könnten, die Stimme ihrer Träger zu verstärken. Beide kamen zu einem bejahenden Ergebnis, was zur Folge hatte, dass sich viele Handbücher der damaligen Zeit ihrer Meinung anschlossen. Bisweilen wurde dieser Ansicht widersprochen, die Frage offengelassen oder ganz übergangen. Mit der Veröffentlichung von Otto Dingeldeins Aufsatz "Haben die Theatermasken der Alten die Stimme verstärkt?" (Berlin 1890) schien das Interesse an dieser Thematik zu versiegen. Dingeldein erteilte der Stimmverstärkungsfunktion eine entschiedene Absage. Zahlreiche spätere Autoren folgten ihm, indem sie hinsichtlich der akustischen Funktion der Masken lediglich auf seine Abhandlung verwiesen. Kann die Frage der Stimmverstärkung durch die antiken Theatermasken wirklich als vollständig geklärt gelten? Die Tatsache, dass dieses Thema bisher überwiegend aus archäologisch-philologischer Sicht betrachtet wurde, gibt zu Bedenken Anlass, denn eine umfassende Untersuchung desselben erfordert unweigerlich interdisziplinäre Behandlung: Kenntnisse der alten Sprachen, der antiken Kultur (Religion, Theater- und Maskengeschichte, Theater- und Maskenbau), der Akustik sowie insbesondere der menschlichen Stimme. Die bisherigen Beiträge auf diesem Gebiet versuchten zwar teilweise, diesem Anspruch zu genügen, doch fördert eine Einsichtnahme derselben häufig ein unzureichendes phonetisches Verständnis zutage. Aus diesem Grund greift die vorliegende Arbeit die Überprüfung der Verstärkungsfunktion erneut auf, mit dem Ziel, sowohl archäologisch-philologischen als auch phonetischen Erwartungen zu entsprechen. Da die Maske nicht nur zu den Requisiten des antiken Theaters zählte, sondern auch ein Element der griechischen Religion bildete, ist der eigentlichen Untersuchung der Verstärkungsfähigkeit antiker Masken eine Einführung in das antike Theaterwesen und den mit diesem stets verbunden gebliebenen Dionysos-Kult vorangestellt. Ausgehend von einer knappen Skizzierung der antiken Maske (Definition, Aussehen, Handhabung) und ihrer Verankerung im religiösen Bereich (Herkunft) wird zunächst ein Einblick in die Entstehungsgeschichte des griechischen Theaters gegeben (der Gott Dionysos, seine Begleiter, seine Attribute und sein Kult). Danach erfolgt eine Einführung in das dem Kult entsprungene eigentliche Theater, das Theater als staatliche Institution: angefangen bei den attischen Dionysos-Festen, aus denen exemplarisch die Städtischen Dionysien herausgegriffen werden (Festverlauf, -vorbereitung, Ehrungen und Weihgeschenke, Chancengleichheit, Publikum, Schauspieler), über die außerattischen Aufführungen bis hin zu der Geschichte der antiken Maske als theatralischem Requisit, ihrer Entwicklung in der Tragödie und Komödie sowie ihrem Einfluss auf das Mienenspiel. Im Anschluss daran wird das Theaterwesen der Römer vorgestellt, da diese nicht nur das Bühnenspiel, sondern auch den Gebrauch der Maske (nicht aber deren religiöse Komponente) von den Griechen übernommen haben. So weit es möglich war, wurde hierbei versucht, die bei den Griechen besprochenen Aspekte auch bei den Römern Erwähnung finden zu lassen, so dass auch hier der Ursprung des Bühnenspiels den Anfang bildet, gefolgt von den verschiedenen "Spielen" (ludi), unter denen vor allem die "Bühnenspiele" (ludi scaenici) hervorgehoben werden, bis hin zu den Spielbedingungen, Schauspielern und Masken. Den Auftakt für die Untersuchung der akustischen Funktion der antiken Masken macht die Definition der Begriffe "Verstärkung" und "Verständlichkeit", die in der Vergangenheit oft miteinander in Zusammenhang gebracht wurden, deren phonetische Differenzierung für die Analyse der vorliegenden Fragestellung jedoch von erheblicher Wichtigkeit ist. Anschließend werden die für eine Verstärkungsfähigkeit der antiken Masken vorgebrachten Belege vorgestellt, unterteilt in literarische Zeugnisse (Angaben antiker und spätantiker Autoren, aus denen eine Stimmverstärkungsfunktion hervorzugehen scheint), architektonische Beobachtungen (häufig sehr auffallende Mundöffnungen der antiken Masken, für die man eine andere Erklärung als Stimmverstärkung nicht zu finden wusste) sowie pragmatische Überlegungen (Glaube an die Unerlässlichkeit einer künstlichen Stimmverstärkung angesichts der gewaltigen Größe der antiken Freilufttheater und der damit verbundenen Zuschauermassen; befremdende Wirkung maskierter Schauspieler, woraus geschlossen wurde, dass die Masken eine spezielle Bedeutung gehabt haben müssen), deren Gültigkeit detailliert untersucht wird. Als Abschluss werden die Ergebnisse zusammengefasst.
Im Fokus dieser Untersuchung steht die Evaluation allgemeinpsychiatrischer tagesklinischer Behandlung, einerseits zur Überprüfung der Wirksamkeit der teilstationären Intervention bzgl. der Symptomatik, andererseits unter der speziellen Berücksichtigung von generalisierten Vertrauensaspekten (Vertrauenstrias) auf dem theoretischen Hintergrund des Handlungstheoretischen Partialmodells der Persönlichkeit (Krampen, 1987) und ihren Zusammenhängen zu psychischen Erkrankungen. Dem wurde in einer Fragebogenstudie mit 200 tagesklinischen Patienten im Alter von 16 bis 80 Jahren, die im Zeitraum von Oktober 2002 bis Februar 2004 in einer südwestdeutschen Kleinstadt teilstationär aufgenommen worden waren, nachgegangen. Die Patienten unterscheiden sich sowohl in den soziodemographischen Variablen als auch in Diagnosen und Behandlungszeiträumen. Wie in den Hypothesen angenommen, kann in dieser Studie gezeigt werden, dass die teilstationäre Behandlung eine deutliche Verringerung der psychischen Belastung mit sich bringt und Vertrauen " mit Ausnahme von interpersonalem " gesteigert wird. Weiterhin wurden negative Zusammenhänge zwischen Vertrauen und psychischer Krankheit/Gesundheit und Unterschiede bezüglich einzelner Störungsbilder angenommen. Die einzelnen Hypothesen hierzu werden ebenfalls durch diese Studie größtenteils bestätigt.
Ausgangspunkt ist der demographische Wandel und die damit einhergehende älter werdende Erwerbsbevölkerung. Es wird davon ausgegangen, dass aufgrund dieser Entwicklung einige Unternehmen senioritätsorientierte Entgeltstrukturen grundlegend verändern bzw. abschaffen müssen. Es gibt bisher einige wenige theoretische Überlegungen, wie diese veränderten Entgeltstrukturen aussehen könnten. Jedoch wird hierbei nicht berücksichtigt, wie ältere Beschäftigte auf eine derartige Veränderung reagieren könnten. Dieser Frage wird im Rahmen der Dissertation nachgegangen. Ein gesondertes Augenmerk, wird zudem auf die möglichen Reaktionen älterer Arbeitnehmer auf eine Anhebung des Renteneintrittsalters auf 67 Jahre gelegt. Zu diesem Zweck werden aus verschiedenen theoretischen Perspektiven mögliche Verhaltensreaktionen älterer Arbeitnehmer abgeleitet. Grund für die breitangelegte Betrachtung des Sachverhaltes ist die mehrdeutige Bedeutung von Einkommen. Die Höhe der Entlohnung ist nicht nur als Gegenleistung der erbrachten Arbeitsleistung zu sehen, sondern immer auch als Ausdruck von Macht, Prestige, sozialen Status etc. Berücksichtigung finden klassische ökonomische Theorien, Motivationstheorien, Wertwandeltheorien, Theorien zur Arbeitszufriedenheit und Machttheorien. Bei der Behandlung der verschiedenen Theorien wurde des Weiteren der Frage nach alternativen Anreizen zu monetären Anreizen nachgegangen, welche eine spezifische Wirkung auf ältere Arbeitnehmer entwickeln können. Durch eine weiterentwickelte Typologie drei verschiedener Typen der Arbeitsorientierung werden als Ergebnis mögliche Verhaltensreaktionen näher erläutert und auf mögliche alternative Anreize eingegangen.
Seuchen und Krieg waren jedem einzelnen Individuum der spätmittelalterlichen Gesellschaft als elementare Bedrohungen des eigenen Lebens stets gegenwärtig. Welch hohen Stellenwert diese Katastrophen im Bewußtsein der Bevölkerung einnahmen, läßt sich anhand der vielfältigen zeitgenössischen Bild- und Textzeugnisse erschließen. Während diese vor der Mitte des 15. Jahrhunderts aufgrund der manuellen Fertigung in Skriptorien und den Werkstätten von Kartenmalern nur einem relativ kleinen Personenkreis zugänglich waren, herrschten nach der Erfindung des Buchdrucks völlig neue Voraussetzungen bei der Produktion, Reproduktion und Vervielfältigung von Schriftlichkeit. Mit der Druckkunst stand erstmals eine Technologie zur Verfügung, welches es erlaubte, in kurzer Zeit Abbildungen und Texte in bisher nicht geahnter Auflagenhöhe zu fertigen. Mit den Einblattdrucken wurde früh eine Form gefunden - der erste datierbare Einblattdruck ist ein Mainzer Ablaßbrief aus dem Jahre 1454 -, die es erlaubte, mit niedrigem Aufwand einen großen Personenkreis zu erreichen. Die inhaltliche Bandbreite dieser Sonderform des frühen Drucks war beträchtlich. Sowohl textliche als auch bildliche Elemente wurden genutzt, um Ablaßbriefe, Almanache, Lehr- und Mahnblätter sowie Wunderberichte, Sensationsmeldungen usw. zu gestalten. Auftraggeber dieser Blätter waren in der Regel kirchliche und weltliche Institutionen. Neben den bereits genannten Ablaßbriefen bildeten die sogenannten "Andachtsblätter" eine weitere wichtige Gruppe dieser Druckgattung. Nachweislich ist diese besondere Form der Gebets-Fokussierung bereits für das 14. Jahrhundert. Mit dem Aufkommen des Typendrucks setzte eine erste serielle Herstellung von Andachtsblättern ein. Speziell Blätter, welche die Seuchenabwehr thematisierten, wurden bald in großer Vielfalt verlegt. Der Schutz vor Pest und Syphilis nahm hierbei einen hohen Stellenwert ein.rnDas inhaltliche Spektrum dieser "Pestblätter" reichte von der einfachen Fürbitte um Interzession durch den jeweils angerufenen Krankheitspatron bis hin zu komplexen medizinisch, diätetischen Anweisungen in Bild und Text. Neben diesem eher anleitenden Charakter verband der mittelalterliche Mensch mit dieser Variante des Einblattdrucks auch die Funktion eines apotropäischen Talismans.rnAußer der Bedrohung durch Krankheiten sah sich die mittelalterliche Gesellschaft des 15. Jahrhunderts mit einer weiteren existentiellen Bedrohung konfrontiert - dem Krieg. Auch wenn die deutschen Territorien im 15. Jahrhundert weitgehend von großen kriegerischen Auseinandersetzungen verschont blieben, so reichte der sogenannte Schweizer- oder Schwabenkrieg sowie der Bayerisch-Pfälzische (oder Landshuter) Erbfolgekriege aus, die gravierenden Folgen der Kriegsführung für die zivile Gesellschaft vor Augen zu führen. Zu einer weiteren Steigerung der "Kriegsangst" führten die in diesem Zeitraum stattfindenden Auseinandersetzungen mit dem expandierenden Osmanischen Reich. Diese dezidierte Untersuchung der frühesten Einblattdrucke baut auf mehreren grundsätzlichen Fragestellungen auf: Wie, von wem, warum und wann wurden Einblattdrucke hergestellt? Wie und wo erfolgte die Verbreitung von Einblattdrucken? Wer erwarb wann Einblattdrucke und aus welcher Absicht heraus tat er dies? Diese recht komplexen Fragestellungen lassen sich auf drei Schlagworte reduzieren: »Produktion - Diffusion - Rezeption« Aus diesen drei Aspekten des "Lebenslaufes" eines Einblatts ergeben sich die zentralen Forschungsschwerpunkte dieses Projekts. Daher wird auch nach einer einführenden Begriffsdefinition des "Katastrophenblattes" das Hauptaugenmerk zunächst auf der Produktion dieser Druckgattung - den Einblattdrucken - liegen. Bei der anschließend untersuchten Diffusion ist von besonderem Interesse, an welchen Orten, zu welchem Zeitpunkt die Drucke vom Hersteller oder Auftraggeber in den Besitz des "Endverbrauchers" gelangten. Dieses Detail der Untersuchung ist auch daher von besonderer Bedeutung, da über die hier zu ermittelnden Ergebnisse eine Zuordnung erfolgen kann, in welchem gesellschaftlichen Umfeld die Blätter ihre Verwendung fanden. Der Kreis der Rezipienten schließlich ist in mehr als einer Beziehung für dieses Projekt von Bedeutung. Zunächst erlaubt die Kenntnis um ihren gesellschaftlichen Stand eine Einordnung in ein soziales Umfeld. Hieraus wiederum sind Rückschlüsse auf die Formen des Gebrauchs, in diesem Zusammenhang ist insbesondere die Lesefähigkeit von außerordentlicher Relevanz, der Einblattdrucke, welche Katastrophen thematisieren - möglich. Die somit gleichsam am Ende stehenden Gebrauchsformen - diese lassen sich nicht nur aus den Textinhalten der Blätter, sondern auch anhand von Benutzungsspuren, Fundorten usw. ermitteln - bieten Erkenntnisse, wie katastrophalen Ereignissen auf die spätmittelalterliche Gesellschaft einwirkten und welche Schlußfolgerungen diese daraus zog, um letztlich eine Antwort auf sie zu finden.
Theoretischer Hintergrund der vorliegenden Arbeit bildet das Persönlichkeitskonstrukt der Kontrollüberzeugungen (locus of control). Es wurde im Rahmen der sozialen Lerntheorie von Rotter (1954, 1966) entwickelt und beinhaltet generalisierte Handlungs-Ergebnis-Erwartungen. Die zunächst eindimensionale Erfassung der internalen versus externalen Kontrollüber-zeugungen erfuhr " nicht zuletzt aufgrund widersprüchlicher empirischer Befunde " durch Levenson (1972) eine Differenzierung in eine sozial bedingte und eine fatalistische Externalität. In Bezug auf die Vorhersage des Behandlungserfolgs bei Alkoholabhängigkeit hat sich in bisherigen Studien die mehrdimensionale, bereichsspezifische Erfassung der Kontrollüberzeugungen etabliert. In den zahlreichen Untersuchungen, die sich in ihrer Methodik stark voneinander unterscheiden, stellte sich eine höhere Internalität als prädiktiv für eine günstige, eine erhöhte fatalistische Externalität hingegen als prädiktiv für eine ungünstige Prognose heraus. Dabei wird von einem umgekehrt u-förmigen Verlauf eines günstigen Kontrollüberzeugungsstils ausgegangen, wonach sowohl eine zu hohe als auch eine zu niedrige Internalität zu einer inadäquaten Wahrnehmung der eigenen Kontrollmöglichkeiten führen. In dieser Arbeit interessieren die Veränderungen in den generalisierten und bereichsspezifischen Kontroll- und Kompetenzüberzeugungen bei stationär behandelten alkoholabhängigen Patienten. Unter Berücksichtigung weiterer Variablen wie Therapiemotivation, psychopathologische Symptombelastung, Suchtverlangen und komorbide depressive Erkrankung sollen Prädiktoren für die Rückfälligkeit während der Behandlung sowie bis zu einem Jahr danach identifiziert werden. Im Weiteren werden bedeutsame Zusammenhänge zwischen der Ausprägung der Kontrollüberzeugungen und kognitiven Leistungsbeeinträchtigungen vermutet. Externale Kontrollüberzeugungen werden dabei mit Leistungsdefiziten in Verbindung gebracht. Zur Untersuchung der Frage, ob eine hohe Internalität mit einer generellen Überschätzung der eigenen Fähigkeiten und damit einem ungünstigeren Behandlungsergebnis einhergeht, soll die Selbsteinschätzung in fünf neuropsychologischen Testverfahren herangezogen werden. Es wurden 102 alkoholabhängige Patienten in die Studie eingeschlossen. 81 davon konnten sowohl am Anfang als auch am Ende einer durchschnittlich zehnwöchigen stationären Behandlung untersucht werden. 51 Patienten wurden zusätzlich nach einem Jahr schriftlich befragt. Während der Behandlung konnten bei der gesamten Stichprobe, insbesondere bei Patienten mit einem ungünstigeren Kontrollüberzeugungsstil, Veränderungen in die gewünschte Richtung beobachtet werden: Das Selbstkonzept und die Internalität nahmen zu, während sich die sozial bedingte und fatalistische Externalität verringerten. Als einziger signifikanter Prädiktor für die Ein-Jahres-Abstinenz stellte sich das bereichsspezifische, prospektiv ausgerichtete Selbstkonzept zu Beginn der Behandlung heraus. Die bei Behandlungsende erhobenen Variablen besassen keinen Vorhersagewert. Insofern kann angenommen werden, dass die Veränderungen während der Behandlung in nicht unerheblichem Masse durch kurzzeitige Hospitalisations- und soziale Erwünschtheitseffekte beeinflusst worden sind. Patienten, die bereits während der Behandlung rückfällig wurden, zeichneten sich im Vergleich zu abstinenten Patienten bereits zu Beginn durch ein niedrigeres Selbstkonzept, eine niedrigere Internalität sowie eine erhöhte fatalistische Externalität aus. Sie waren psychisch belasteter, hatten ein grösseres Suchtverlangen und wiesen häufiger eine komorbide depressive Störung auf. Bezüglich der bereichsspezifischen, nicht jedoch der generalisierten Kontrollüberzeugungen unterschieden sie sich am Ende der Behandlung noch deutlicher von abstinen-ten Patienten. Die Differenzen blieben bis zur Ein-Jahres-Katamnese bestehen. Insgesamt stellten für die Rückfälligkeit während der Behandlung ein ungünstigerer Kontrollüberzeugungsstil, eine depressive Erkrankung, ein hohes Suchtverlangen und kognitive Leistungseinbussen Risikofaktoren dar, die sich wechselseitig beeinflussten. Patienten mit sehr hoher Internalität zeichneten sich durch eine generelle Überschätzung ihrer kognitiven Leistungsfähigkeit aus. Übereinstimmend damit schützte eine sehr hohe Internalität nicht vor Rückfälligkeit. Eine niedrige Internalität ging hingegen mit einer Unterschätzung der Leistungsfähigkeit in zwei von fünf Tests einher. Die Ergebnisse entsprechen grösstenteils den Erwartungen. Sie werden abschliessend unter Berücksichtigung der methodischen Stärken und Schwächen der vorliegenden empirischen Untersuchung erörtert, in den aktuellen Kenntnisstand eingeordnet und im Hinblick auf zukünftige Forschungsperspektiven diskutiert.
Die vorliegende Arbeit widmet sich der Beantwortung der Fragestellung, inwieweit die NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen erfolgreich war, und aufgrund welcher Akteure, Praktiken und Bedingungen die Normübernahme (nicht) erfolgte. NATOisierung wird hierbei als Sozialisationsprozess im Politikfeld Sicherheit begriffen. Konzeptioneller Ausgangspunkt für die theoriegeleiteten Fallstudien bildet die Entwicklung eines Forschungsdesigns, mittels dessen der rational-institutionalistische und der konstruktivistisch-institutionalistische Strang der internationalen Sozialisations-forschung für die Analyse der NATOisierung postkommunistischer Sicherheitspolitik nutzbar gemacht werden kann. In Kritik an der Mehrheit der Sozialisationsstudien, die die Übernahme von Normen internationaler Institutionen seitens der postkommunistischen Staaten entweder als Verhandlungs- und Anpassungsprozess strategisch handelnder Akteure oder als sozialen Lern- und normativen Überzeugungsprozess intrinsisch motivierter Akteure betrachten, argumentiert diese Studie, dass die Wahl eines komplementären Zugangs sowohl aus theoretisch-konzeptionellen als auch empirisch-phänomenologischen Erwägungen unabdingbar ist. Die hierbei zu Grunde liegende Methode der doppelten Interpretation, mittels derer der Verlauf und das Ergebnis der NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen sowohl aus Sicht des rationalen als auch des konstruktivistischen Institutionalismus beleuchtet worden sind, hat sich als tragfähig erwiesen. In der Tat variiert die Erklärungskraft beider theoretischer Ansätze im Hinblick auf die unterschiedlichen Akteure, Phasen und/oder Kontexte des sicherheitspolitischen Sozialisationsprozesses. Wenngleich die NATO durch ihre Sozialisationspolitik den Demokratisierungsprozess Polens und Tschechiens im Politikfeld Sicherheit begünstigte, bestätigt die empirische Analyse die weit verbreitete Betrachtungsweise der 'Partnerschaft für den Frieden' als ausschließliche Erfolgsgeschichte nicht. Vielmehr war die Erweiterungs- und Sozialisationspolitik der NATO mit gravierenden (nichtintendierenden) Konsequenzen verbunden, die sich hinderlich auf die Transformation der zivil-militärischen Beziehungen postkommunistischer Staaten auswirkten.
Aggression is one of the most researched topics in psychology. This is understandable, since aggression behavior does a lot of harm to individuals and groups. A lot is known already about the biology of aggression, but one system that seems to be of vital importance in animals has largely been overlooked: the hypothalamic-pituitary-adrenal (HPA) axis. Menno Kruk and Jószef Haller and their research teams developed rodent models of adaptive, normal, and abnormal aggressive behavior. They found the acute HPA axis (re)activity, but also chronic basal levels to be causally relevant in the elicitation and escalation of aggressive behavior. As a mediating variable, changes in the processing of relevant social information is proposed, although this could not be tested in animals. In humans, not a lot of research has been done, but there is evidence for both the association between acute and basal cortisol levels in (abnormal) aggression. However, not many of these studies have been experimental of nature. rnrnOur aim was to add to the understanding of both basal chronic levels of HPA axis activity, as well as acute levels in the formation of aggressive behavior. Therefore, we did two experiments, both with healthy student samples. In both studies we induced aggression with a well validated paradigm from social psychology: the Taylor Aggression Paradigm. Half of the subjects, however, only went through a non-provoking control condition. We measured trait basal levels of HPA axis activity on three days prior. We took several cortisol samples before, during, and after the task. After the induction of aggression, we measured the behavioral and electrophysiological brain response to relevant social stimuli, i.e., emotional facial expressions embedded in an emotional Stroop task. In the second study, we pharmacologically manipulated cortisol levels 60min before the beginning of the experiment. To do that, half of the subjects were administered 20mg of hydrocortisone, which elevates circulating cortisol levels (cortisol group), the other half was administered a placebo (placebo group). Results showed that acute HPA axis activity is indeed relevant for aggressive behavior. We found in Study 1 a difference in cortisol levels after the aggression induction in the provoked group compared to the non-provoked group (i.e., a heightened reactivity of the HPA axis). However, this could not be replicated in Study 2. Furthermore, the pharmacological elevation of cortisol levels led to an increase in aggressive behavior in women compared to the placebo group. There were no effects in men, so that while men were significantly more aggressive than women in the placebo group, they were equally aggressive in the cortisol group. Furthermore, there was an interaction of cortisol treatment with block of the Taylor Aggression Paradigm, in that the cortisol group was significantly more aggressive in the third block of the task. Concerning basal HPA axis activity, we found an effect on aggressive behavior in both studies, albeit more consistently in women and in the provoked and non-provoked groups. However, the effect was not apparent in the cortisol group. After the aggressive encounter, information processing patterns were changed in the provoked compared to the non-provoked group for all facial expressions, especially anger. These results indicate that the HPA axis plays an important role in the formation of aggressive behavior in humans, as well. Importantly, different changes within the system, be it basal or acute, are associated with the same outcome in this task. More studies are needed, however, to better understand the role that each plays in different kinds of aggressive behavior, and the role information processing plays as a possible mediating variable. This extensive knowledge is necessary for better behavioral interventions.
In dieser Abhandlung wird die Stellung der Mädchenbildung in der staatlichen Bildungspolitik in der Phase verdichteter staatlicher Reformbestrebungen an der Wende vom 18. zum 19. Jahrhundert untersucht. Dazu wird ein Vergleich zwischen der preußischen Kurmark und dem Land Österreich unter der Enns in Österreich durchgeführt.
This work addresses the algorithmic tractability of hard combinatorial problems. Basically, we are considering \NP-hard problems. For those problems we can not find a polynomial time algorithm. Several algorithmic approaches already exist which deal with this dilemma. Among them we find (randomized) approximation algorithms and heuristics. Even though in practice they often work in reasonable time they usually do not return an optimal solution. If we constrain optimality then there are only two methods which suffice for this purpose: exponential time algorithms and parameterized algorithms. In the first approach we seek to design algorithms consuming exponentially many steps who are more clever than some trivial algorithm (who simply enumerates all solution candidates). Typically, the naive enumerative approach yields an algorithm with run time $\Oh^*(2^n)$. So, the general task is to construct algorithms obeying a run time of the form $\Oh^*(c^n)$ where $c<2$. The second approach considers an additional parameter $k$ besides the input size $n$. This parameter should provide more information about the problem and cover a typical characteristic. The standard parameterization is to see $k$ as an upper (lower, resp.) bound on the solution size in case of a minimization (maximization, resp.) problem. Then a parameterized algorithm should solve the problem in time $f(k)\cdot n^\beta$ where $\beta$ is a constant and $f$ is independent of $n$. In principle this method aims to restrict the combinatorial difficulty of the problem to the parameter $k$ (if possible). The basic hypothesis is that $k$ is small with respect to the overall input size. In both fields a frequent standard technique is the design of branching algorithms. These algorithms solve the problem by traversing the solution space in a clever way. They frequently select an entity of the input and create two new subproblems, one where this entity is considered as part of the future solution and another one where it is excluded from it. Then in both cases by fixing this entity possibly other entities will be fixed. If so then the traversed number of possible solution is smaller than the whole solution space. The visited solutions can be arranged like a search tree. To estimate the run time of such algorithms there is need for a method to obtain tight upper bounds on the size of the search trees. In the field of exponential time algorithms a powerful technique called Measure&Conquer has been developed for this purpose. It has been applied successfully to many problems, especially to problems where other algorithmic attacks could not break the trivial run time upper bound. On the other hand in the field of parameterized algorithms Measure&Conquer is almost not known. This piece of work will present examples where this technique can be used in this field. It also will point out what differences have to be made in order to successfully apply the technique. Further, exponential time algorithms for hard problems where Measure&Conquer is applied are presented. Another aspect is that a formalization (and generalization) of the notion of a search tree is given. It is shown that for certain problems such a formalization is extremely useful.
N-acetylation by N-acetyltransferase 1 (NAT1) is an important biotransformation pathway of the human skin and it is involved in the deactivation of the arylamine and well-known contact allergen para-phenylenediamine (PPD). Here, NAT1 expression and activity were analyzed in antigen presenting cells (monocyte-derived dendritic cells, MoDCs, a model for epidermal Langerhans cells) and human keratinocytes. The latter were used to study exogenous and endogenous NAT1 activity modulations. Within this thesis, MoDCs were found to express metabolically active NAT1. Activities were between 23.4 and 26.6 nmol/mg/min and thus comparable to peripheral blood mononuclear cells. These data suggest that epidermal Langerhans cells contribute to the cutaneous N-acetylation capacity. Keratinocytes, which are known for their efficient N-acetylation, were analyzed in a comparative study using primary keratinocytes (NHEK) and different shipments of the immortalized keratinocyte cell line HaCaT, in order to investigate the ability of the cell line to model epidermal biotransformation. N-acetylation of the substrate para-aminobenzoic acid (PABA) was 3.4-fold higher in HaCaT compared to NHEK and varied between the HaCaT shipments (range 12.0"44.5 nmol/mg/min). Since B[a]P induced cytochrome p450 1 (CYP1) activities were also higher in HaCaT compared to NHEK, the cell line can be considered as an in vitro tool to qualitatively model epidermal metabolism, regarding NAT1 and CYP1. The HaCaT shipment with the highest NAT1 activity showed only minimal reduction of cell viability after treatment with PPD and was subsequently used to study interactions between NAT1 and PPD in keratinocytes. Treatment with PPD induced expression of cyclooxygenases (COX) in HaCaT, but in parallel, PPD N-acetylation was found to saturate with increasing PPD concentration. This saturation explains the presence of the PPD induced COX induction despite the high N-acetylation capacities. A detailed analysis of the effect of PPD on NAT1 revealed that the saturation of PPD N-acetylation was caused by a PPD-induced decrease of NAT1 activity. This inhibition was found in HaCaT as well as in primary keratinocytes after treatment with PPD and PABA. Regarding the mechanism, reduced NAT1 protein level and unaffected NAT1 mRNA expression after PPD treatment adduced clear evidences for substrate-dependent NAT1 downregulation. These results expand the existing knowledge about substrate-dependent NAT1 downregulation to human epithelial skin cells and demonstrate that NAT1 activity in keratinocytes can be modulated by exogenous factors. Further analysis of HaCaT cells from different shipments revealed an accelerated progression through the cell cycle in HaCaT cells with high NAT1 activities. These findings suggest an association between NAT1 and proliferation in keratinocytes as it has been proposed earlier for tumor cells. In conclusion, N-acetylation capacity of MoDCs as well as keratinocytes contribute to the overall N-acetylation capacity of human skin. NAT1 activity of keratinocytes and consequently the detoxification capacities of human skin can be modulated by the presence of exogenous NAT1 substrates and endogenous by the cell proliferation status of keratinocytes.
Die Arbeit beschäftigt sich mit der Interaktion zwischen den Juden des Regnum Teutonicum und den verschiedenen Herrschaftsträgern, mit denen die Juden in Kontakt kamen. Dies waren neben dem König auch geistliche und weltliche Landes- und Stadtherren. Chronologisch an vier Herrschaftsphasen Rudolfs ausgerichtet, analysiert die Studie sämtliche überlieferte schriftliche Zeugnisse, um insbesondere der Frage nach der Bedeutung der Kammerknechtschaft im Reich nachzugehen. Diese stellt sich als höchst ambivalente und keinesfalls nur negative Beziehungsform heraus, die zudem nur in einem europäischen Kontext verständlich wird.
Stress is a common phenomenon for animals living in the wild, but also for humans in modern societies. Originally, the body's stress response is an adaptive reaction to a possibly life-threatening situation, and it has been shown to impact on energy distribution and metabolism, thereby increasing the chance of survival. However, stress has also been shown to impact on mating behaviour and reproductive strategies in animals and humans. This work deals with the effect of stress on reproductive behavior. Up to now, research has only focused on the effects of stress on reproduction in general. The effects of stress on reproduction may be looked at from two points of view. First, stress affects reproductive functioning by endocrine (e.g. glucocorticoid) actions on the reproductive system. However, stress can also influence reproductive behavior, i.e. mate choice and mating preferences. Animals and humans do not mate randomly, but exhibit preferences towards mating partners. One factor by which animals and humans choose their mating partners is similarity vs. dissimilarity: Similar mates usually carry more of one's own genes and the cooperation between similar mates is, at least theoretically, less hampered by expressing diverse behaviors. By mating with dissimilar mates on the other hand one may acquire new qualities for oneself, but also for one's offspring, useful to cope with environmental challenge. In humans we usually find a preference for similar mates. Due to the high costs of breeding, variables like cooperation and life-long partnerships may play a greater role than the acquaintance of new qualities.The present work focuses on stress effects on mating preferences of humans and will give a first answer to the question whether stress may affect our preference for similar mates. Stress and mating preferences are at the centre of this work. Thus, in the first Chapter I will give an introduction on stress and mating preferences and link these topics to each other. Furthermore, I will give a short summary of the studies described in Chapter II - Chapter IV and close the chapter with a general discussion of the findings and directions for further research on stress and mating preferences. Human mating behavior is complex, and many aspects of it may not relate to biology but social conventions and education. This work will not focus on those aspects but rather on cognitive and affective processing of erotic and sexually-relevant stimuli, since we assume that these aspects of mating behaviour are likely related to psychobiological stress mechanisms. Therefore, a paradigm is needed that measures such aspects of mating preferences in humans. The studies presented in Chapter II and Chapter III were performed in order to develop such a paradigm. In these studies we show that affective startle modulation may be used to indicate differences in sexual approach motivation to potential mating partners with different similarity levels to the participant. In Chapter IV, I will describe a study that aimed to investigate the effects of stress on human mating preferences. We showed that stress reverses human mating preferences: While unstressed individuals show a preference for similar mates, stressed individuals seem to prefer dissimilar mates. Overall, the studies presented in this work showed that affective startle modulation can be employed to measure mating preferences in humans and that these mating preferences are influenced by stress.
During and after application, pesticides enter the atmosphere by volatilisation and by wind erosion of particles on which the pesticide is sorbed. Measurements at application sites revealed that sometimes more than half of the amount applied is lost into the atmosphere within a few days. The atmosphere is an important part of the hydrologic cycle that can transport pesticides from their point of application and deposit them into aquatic and terrestrial ecosystems far from their point of use. In the region of Trier pesticides are widely used. In order to protect crops from pests and increase crop yields in the viniculture, six to eight pesticide applications take place between May and August. The impact that these applications have on the environmental pollution of the region is not yet well understood. The present study was developed to characterize the atmospheric presence, temporal patterns, transport and deposition of a variety of pesticides in the atmosphere of the area of Trier. To this purpose, rain samples were weekly collected at eight sites during the growing seasons 2000, 2001 and 2002, and air samples (gas and particle phases) were collected during the growing season 2002. Multiresidue analysis methods were developed to determine multiple classes of pesticides in rain water, particle- and gas-phase samples. Altogether 24 active ingredients and 3 metabolites were chosen as representative substances, focussing mainly on fungicides. Twenty-four of the 27 measured pesticides were detected in the rain samples; seventeen pesticides were detected in the air samples. The most frequently detected pesticides and at the highest concentrations, both in rain and air, were compounds belonging to the class of fungicides. The insecticide methyl parathion was also detected in several rain samples as well as two substances that are banned in Germany, such as the herbicides atrazine and simazine. Concentration levels varied during the growing season with the highest concentrations being measured in the late spring and summer months, coinciding with application times and warmer months. Concentration levels measured in the rain samples were, generally, in the order of rnng l-1. Though average concentrations for single substances were less than 100 ng l-1, total concentrations were considerable and in some instances well above the EU drinking water quality standard of 500 ng l-1 for total pesticides. Compared to the amounts applied for pest control, the amounts deposited by rain resulted between 0,004% and 0,10% of the maximum application rates. These low pesticide inputs from precipitation to surface-water bodies is not of concern in vinicultural areas where the impact of other sources, such as superficial runoff inputs from the treated areas and cleaning of field crop sprayers, is more important. However, the potential impacts of these aerial pesticide inputs to non-target sites, such as organic crops, and sensitive ecosystems are as yet not known. Concentration levels in the air samples were in the order of ng m-3 at sites close to the fields were pesticides were applied, while lower values, in the order of pg m-3, were detected at the site located further away from fields where applications were performed. The measured air concentration levels found in this study do not represent a concern for human health in terms of acute risk. Inhalation toxicity studies have shown that an acute potential risk only arises at air concentrations in the range of g m-3. Finally, it must be kept in mind that only a small number of chemicals that were applied in the area were analysed for in this study. In order to gain a better evaluation of the local atmospheric load of pesticides, a wider spectrum of applied substances (including metabolites) needs to be investigated.
Tropospheric ozone (O3) is known to have various detrimental effects on plants, such as visible leaf injury, reduced growth and premature senescence. Flux models offer the determination of the harmful ozone dose entering the plant through the stomata. This dose can then be related to phytotoxic effects mentioned above to obtain dose-response relationships, which are a helpful tool for the formulation of abatement strategies of ozone precursors. rnOzone flux models are dependant on the correct estimation of stomatal conductance (gs). Based on measurements of gs, an ozone flux model for two white clover clones (Trifolium repens L. cv Regal; NC-S (ozone-sensitive) and NC-R (ozone-resistant)) differing in their sensitivity to ozone was developed with the help of artificial neural networks (ANNs). White clover is an important species of various European grassland communities. The clover plants were exposed to ambient air at three sites in the Trier region (West Germany) during five consecutive growing seasons (1997 to 2001). The response parameters visible leaf injury and biomass ratio of NC-S/NC-R clone were regularly assessed. gs-measurements of both clones functioned as output of the ANN-based gs model, while corresponding climate parameters (i.e. temperature, vapour pressure deficit (VPD) and photosynthetic active radiation (PAR)) and various ozone concentration indices were inputs. The development of the model was documented in detail and various model evaluation techniques (e.g. sensitivity analysis) were applied. The resulting gs model was used as a basis for ozone flux calculations, which were related to above mentioned response parameters. rnThe results showed that the ANNs were capable of revealing and learning the complex relationship between gs and key meteorological parameters and ozone concentration indices. The dose-response relationships between ozone fluxes and visible leaf injury were reasonably strong, while those between ozone fluxes and NC-S/NC-R biomass ratio were fairly weak. The results were discussed in detail with respect to the suitability of the chosen experimental methods and model type.
Markenaufbau von Destinationen ist eine kostenintensive und langfristige Angelegenheit. In den vergangenen Jahren stieg das Interesse von Kommunen, Regionen und Ländern die Markenbildung zu verstärken. Gleichzeitig wird aber auch immer mehr der Ruf lauter ein Instrument zu schaffen, das Markenbewertung für Destinationen vornimmt. Vor allem in der Konsumgüter und Investitionsgüterindustrie finden sich zahlreiche Ansätze zur Markenbewertung, im Destinationsmanagement gibt es das bisher kaum. Es gibt drei verschiedene Arten von Verfahren, die meist von Unternehmensberatungen oder Wissenschaftlern entwickelt wurden: Messung des Markenwertes, Messung der Markenstärke und hybride Verfahren. Für Destinationen machen rein quantitative Verfahren wenig Sinn, da es beim Thema "Reise" auch auf eine Vielzahl von qualitativen Merkmalen ankommt. Von daher wurde im Rahmen dieser Dissertation entschieden, sich primär auf ein qualitatives Verfahren zu konzentrieren und verschiedene Modelle der Markenbewertung zu überprüfen. Das Resultat der Überprüfung zeigte, dass es notwendig war verschiedene Modelle zu kombinieren, um damit die Markenstärke einer Destination zu messen. Als empirisches Beispiel wurde hier Spanien ausgewählt, da dies als ein erfolgreiches Beispiel für Branding in der Fachliteratur gesehen wird. Dieses neu entwickelte Verfahren wurde an der Destination Spanien überprüft im Rahmen einer Projektstudie mit Studierenden der Universität Trier. Das Ergebnis zeigte, dass der Ansatz eines qualitativen Verfahrens richtig war, allerdings könnte es in ein hybrides Verfahren überführt werden. Kooperationspartner für die Dissertation war Turespana, Berlin.
For the first time, the German Census 2011 will be conducted via a new method the register based census. In contrast to a traditional census, where all inhabitants are surveyed, the German government will mainly attempt to count individuals using population registers of administrative authorities, such as the municipalities and the Federal Employment Agency. Census data that cannot be collected from the registers, such as information on education, training, and occupation, will be collected by an interview-based sample survey. Moreover, the new method reduces citizens' obligations to provide information and helps reduce costs significantly. The use of sample surveys is limited if results with a detailed regional or subject-matter breakdown have to be prepared. Classical estimation methods are sometimes criticized, since estimation is often problematic for small samples. Fortunately, model based small area estimators serve as an alternative. These methods help to increase the information, and hence the effective sample size. In the German Census 2011 it is possible to embed areas on a map in a geographical context. This may offer additional information, such as neighborhood relations or spatial interactions. Standard small area models, like Fay-Herriot or Battese-Harter-Fuller, do not account for such interactions explicitly. The aim of our work is to extend the classical models by integrating the spatial information explicitly into the model. In addition, the possible gain in efficiency will be analyzed.
This thesis introduces a calibration problem for financial market models based on a Monte Carlo approximation of the option payoff and a discretization of the underlying stochastic differential equation. It is desirable to benefit from fast deterministic optimization methods to solve this problem. To be able to achieve this goal, possible non-differentiabilities are smoothed out with an appropriately chosen twice continuously differentiable polynomial. On the basis of this so derived calibration problem, this work is essentially concerned about two issues. First, the question occurs, if a computed solution of the approximating problem, derived by applying Monte Carlo, discretizing the SDE and preserving differentiability is an approximation of a solution of the true problem. Unfortunately, this does not hold in general but is linked to certain assumptions. It will turn out, that a uniform convergence of the approximated objective function and its gradient to the true objective and gradient can be shown under typical assumptions, for instance the Lipschitz continuity of the SDE coefficients. This uniform convergence then allows to show convergence of the solutions in the sense of a first order critical point. Furthermore, an order of this convergence in relation to the number of simulations, the step size for the SDE discretization and the parameter controlling the smooth approximation of non-differentiabilites will be shown. Additionally the uniqueness of a solution of the stochastic differential equation will be analyzed in detail. Secondly, the Monte Carlo method provides only a very slow convergence. The numerical results in this thesis will show, that the Monte Carlo based calibration indeed is feasible if one is concerned about the calculated solution, but the required calculation time is too long for practical applications. Thus, techniques to speed up the calibration are strongly desired. As already mentioned above, the gradient of the objective is a starting point to improve efficiency. Due to its simplicity, finite differences is a frequently chosen method to calculate the required derivatives. However, finite differences is well known to be very slow and furthermore, it will turn out, that there may also occur severe instabilities during optimization which may lead to the break down of the algorithm before convergence has been reached. In this manner a sensitivity equation is certainly an improvement but suffers unfortunately from the same computational effort as the finite difference method. Thus, an adjoint based gradient calculation will be the method of choice as it combines the exactness of the derivative with a reduced computational effort. Furthermore, several other techniques will be introduced throughout this thesis, that enhance the efficiency of the calibration algorithm. A multi-layer method will be very effective in the case, that the chosen initial value is not already close to the solution. Variance reduction techniques are helpful to increase accuracy of the Monte Carlo estimator and thus allow for fewer simulations. Storing instead of regenerating the random numbers required for the Brownian increments in the SDE will be efficient, as deterministic optimization methods anyway require to employ the identical random sequence in each function evaluation. Finally, Monte Carlo is very well suited for a parallelization, which will be done on several central processing units (CPUs).
Die Fauna-Flora-Habitat-Richtlinie (Richtlinie 92/43/EWG) stellt derzeit das umfangreichste Instrument des internationalen Naturschutzes zur Erhaltung der europäischen Biodiversität dar. Das Grundkonzept der FFH-RL beruht hierbei sowohl auf dem Schutz gefährdeter Arten als auch auf dem Erhalt natürlicher Lebensräume. Dieser ganzheitliche Ansatz verursacht jedoch infolge der großen Anzahl zu berücksichtigender Schutzgüter einen hohen personellen wie finanziellen Aufwand bei der Umsetzung der Richtlinienvorgaben. Daher wurde in der vorliegenden Arbeit am Beispiel der Schmetterlingsart Euphydryas aurinia (Anhang II FFH-RL) überprüft, inwieweit die Konzepte von ESUs (Evolutionarily Significant Units) und MUs (Management Units) geeignete Möglichkeiten bieten, um die Prioritätensetzung bei der Auswahl besonders schützenswerter Vorkommen gefährdeter Arten zu erleichtern. Zu diesem Zweck wurden mit drei verschiedenen Subspezies von E. aurinia (E. aurinia beckeri, E. aurinia debilis, E. aurinia aurinia) Fang-Markierung-Wiederfangstudien durchgeführt, sowie mit Hilfe von Allozym-Elektrophoresen populationsgenetische Parametern in europäischem Kontext und auf regionaler Ebene (Westtschechien) erfasst. Die drei untersuchten Subspezies zeigten hierbei spezifische ökologische Adaptationen an die jeweiligen Habitatbedingungen (z.B. bzgl. der Populationsdichte, Demographie und Mobilität). Ferner wiesen die genetischen Analysen starke Differenzierungen bei E. aurinia in Europa nach, die u.a. Antworten auf phylogeographische und taxonomische Fragestellungen ermöglichen. Auch auf regionaler Ebene (Westtschechien) konnten genetische Differenzierungen festgestellt werden. Auf Basis der erhobenen populationsökologischen und -genetischen Daten wird abschließend die generelle Anwendbarkeit und der Nutzen der Konzepte von ESUs und MUs bei der Etablierung von Schutzkonzepten für E. aurinia und andere Arten der FFH-RL diskutiert. rnDer zweite Teil der vorliegenden Arbeit beschäftigt sich exemplarisch mit dem aktuellen Schutzverfahren für deutsche E. aurinia-Vorkommen im Rahmen der FFH-RL und den damit verbundenen Problemen. Der Schwerpunkt lag hierbei auf der Schutzgebietsauswahl, dem Monitoring und dem Gebietsmanagement. In diesem Kontext werden u.a. Problematiken angesprochen, die sich aus der großen ökologischen Variabilität der Art ergeben bzw. die aufgrund von Koordinierungsschwierigkeiten zwischen einzelnen Bundesländern bestehen. Vor dem Hintergrund dieser Erkenntnisse werden Lösungsvorschläge unterbreitet, wie das aktuelle Schutzverfahren für E. aurinia in Deutschland weiter verbessert werden könnte.