Refine
Year of publication
Document Type
- Doctoral Thesis (799) (remove)
Language
- German (480)
- English (308)
- Multiple languages (7)
- French (4)
Keywords
- Stress (37)
- Deutschland (29)
- Fernerkundung (17)
- Modellierung (17)
- Hydrocortison (16)
- Optimierung (16)
- stress (15)
- Stressreaktion (12)
- cortisol (12)
- Motivation (11)
Institute
- Psychologie (181)
- Geographie und Geowissenschaften (148)
- Mathematik (62)
- Wirtschaftswissenschaften (60)
- Fachbereich 4 (47)
- Geschichte, mittlere und neuere (28)
- Germanistik (26)
- Informatik (26)
- Fachbereich 1 (23)
- Kunstgeschichte (22)
- Politikwissenschaft (18)
- Anglistik (17)
- Soziologie (15)
- Fachbereich 6 (13)
- Fachbereich 2 (11)
- Philosophie (9)
- Romanistik (9)
- Computerlinguistik und Digital Humanities (7)
- Medienwissenschaft (6)
- Geschichte, alte (5)
- Allgemeine Sprach- und Literaturwissenschaft (4)
- Fachbereich 3 (4)
- Klassische Philologie (4)
- Pädagogik (4)
- Ethnologie (3)
- Fachbereich 5 (3)
- Japanologie (3)
- Sinologie (3)
- Archäologie (2)
- Rechtswissenschaft (2)
- Phonetik (1)
- Slavistik (1)
- Universitätsbibliothek (1)
An einer Stichprobe mit insgesamt N = 204 Psychotherapiepatienten einer stationären Rehabilitationseinrichtung wurden die Auswirkungen der Posttraumatischen Verbitterungsstörung (Posttraumatic Embitterment Disorder; PTED) auf die berufliche Vertrauens-Trias untersucht und eine Emotionsanalyse zur Verbitterung durchgeführt. Als weitere Persönlichkeitsmerkmale wurden Ärgerneigung, Ärgerbewältigung, Zielanpassung und das arbeitsbezogene Verhaltens- und Erlebensmuster erfasst. Ein Vergleich der Patientengruppen "mit Verbitterungsaffekt" und "ohne Verbitterungsaffekt" belegt die ätiologische Relevanz der Faktoren Zielblockierung, Attribution der Verantwortung, anhaltender Ärger und misslungene Situationsbewältigung bei der Entstehung der Emotion Verbitterung. Nach den Ergebnissen einer durchgeführten MANOVA mit den drei Gruppen (PTED aufgrund eines Arbeitsplatzereignisses vorhanden; PTED aufgrund eines Arbeitsplatzereignisses nicht vorhanden; kein Arbeitsplatzereignis) unterscheiden sich die beiden Patientengruppen mit einem Arbeitsplatzereignis nicht signifikant voneinander in Bezug auf ihre berufliche Vertrauens-Trias, ihre Ärgerneigung und -bewältigung sowie ihre Zielanpassung. Allerdings haben Patienten mit Arbeitsplatzereignis eine geringere berufliche internale Kontrollüberzeugung, besitzen weniger interpersonales Vertrauen am Arbeitsplatz und ihr Vertrauen in die eigene berufliche Zukunft ist niedriger als bei Patienten ohne Arbeitsplatzereignis. Ein weiterer Unterschied sind die höheren Arbeitsunfähigkeitszahlen bei Patienten mit Arbeitsplatzereignis " mit den meisten Krankschreibungen in der Gruppe der PTED-Patienten. Im arbeitsbezogenen Verhaltens- und Erlebensmuster unterscheiden sich die drei Patientengruppen in den Skalen Ehrgeiz, Verausgabungsbereitschaft, Distanzierungsfähigkeit, Offensive Problembewältigung und Soziale Unterstützung. Auch hier unterscheiden sich hauptsächlich die beiden Gruppen mit Arbeitsplatzereignis von der Gruppe ohne Arbeitsplatzereignis, einzige Ausnahme ist das Erleben sozialer Unterstützung.
Die Evangelische Kirche in Deutschland (EKD) ist eine der größten Nonprofit-Organisationen in Deutschland. Sie ist ein sehr heterogenes Gebilde aus (zum Zeitpunkt der Untersuchung) 22 Landeskirchen unterschiedlichen Bekenntnisses mit jeweils eigenen Organisationsstatuten und rechtlichen Regelungen. Lokale Anlaufpunkte für ihre 23,9 Millionen Mitglieder (Stand Ende 2010) sind die Gemeinden. Sie verwalten sich weitgehend selbständig und werden von gewählten und berufenen Ehrenamtlichen sowie dem oder den Geistlichen der Gemeinde geleitet. Ein Mitglieder- und Einnahmerückgang bewirkt steigende Anforderungen an die Gemeindeleitung und die Notwendigkeit umfassender organisatorischer Veränderungen, die einen groß angelegten Reformprozess in der EKD angestoßen hat. Dies führt u.a. zu Zusammenlegungen von Landeskirchen und Kirchengemeinden, Pfarrstellenkürzungen und einer Reduzierung kirchlicher Gebäude. Auch hiervon sind die Gemeinden und ihre Leitungsgremien betroffen. Ziel der Arbeit ist, vor diesem Hintergrund die Gemeindeleitung (mit Fokus auf den ehrenamtlichen Gemeindeleitern) und die Entscheidungsprozesse in den Leitungsgremien explorativ zu beleuchten. Die Betrachtung erfolgt aus einer verfügungsrechtlichen Perspektive und rückt damit die Handlungsspielräume, die Einstellungen und das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter in den Fokus. Zunächst werden die aktuellen Herausforderungen für die Gemeinden sowie die Themen und unterschiedlichen Ansätze in der Reformdebatte betrachtet. Es folgt eine Darlegung der Einflussmöglichkeiten der Gemeindeleiter auf die Situation ihrer Gemeinde. Hierzu werden die für die Dienstleistungsproduktion von Gemeinden relevanten Entscheidungsfelder, wichtige Kenngrößen für die Gemeindearbeit und die von den Gemeindeleitern beeinflussbaren Entscheidungsvariablen ermittelt. Es folgt eine Analyse der verfügungsrechtlichen Arrangements der 22 Landeskirchen der EKD für die Gemeindeleitung. Für den angestrebten Organisationsvergleich sind Regelungsaspekte von Interesse, deren Ausgestaltung in einzelnen Landeskirchen stark voneinander abweicht. Für die empirische Untersuchung werden konkret die drei Aspekte 'Grad der Selbständigkeit des Gemeindeleitungsgremiums', 'Einflussverteilung zwischen Pfarrern und Ehrenamtlichen im Gremium' sowie 'Haftungsregelungen für die ehrenamtlichen Gemeindeleiter' ausgewählt. Zu den Auswirkungen der unterschiedlichen Ausgestaltung dieser drei Regelungsaspekte werden Hypothesen aufgestellt, die anhand von Fallstudien überprüft werden sollen. Hierfür wurden mit der Evangelischen Kirche in Hessen und Nassau, der Evangelischen Kirche von Kurhessen-Waldeck und der Evangelisch-reformierten Kirche drei Landeskirchen selektiert, die in den genannten Bereichen sehr unterschiedliche Regelungen aufweisen. Den Kern der Arbeit bildet eine explorative vergleichende Untersuchung der unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den ausgewählten Landeskirchen und ihrer Auswirkung auf das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter. Auf der Basis von Interviews mit rechtlich versierten Vertretern der drei Landeskirchen werden die historischen Hintergründe für die unterschiedliche rechtliche Ausgestaltung sowie die praktische Relevanz und Anwendbarkeit der einzelnen Regelungen analysiert. Zusätzlich werden für die gemeindlichen Fallstudien wichtige Veränderungs- / Entscheidungsprozesse mit aktuell großer Bedeutung für die Gemeinden ermittelt. Dies sind konkret der Gemeindezusammenschluss, die Pfarrstellenbesetzung und die Durchführung einer großen Baumaßnahme. Für die gemeindliche Untersuchung wurden für jede der drei Landeskirchen drei bis vier Gemeinden (insgesamt 11) ausgewählt, die mindestens einen der drei genannten Prozesse gerade durchliefen oder abgeschlossen hatten. Für jeden ausgewählten Prozess wird damit in jeder Landeskirche mindestens ein Fall betrachtet. An die ehrenamtlichen Gemeindeleiter der selektierten Gemeinden adressierte Fragebögen geben Aufschluss zu ihren Motivstrukturen. Mittels eine Clusteranalyse werden dabei sechs unterschiedliche Gemeindeleitertypen mit verschiedenen Motiven und Schwerpunkten ermittelt und vorgestellt. Anhand von mit den ehrenamtlichen Vorsitzenden der Gemeinden geführten Interviews werden schließlich die durchlaufenen Entscheidungsprozesse beleuchtet. Auf Basis der Erkenntnisse aus den Interviews und den Fragebögen wird analysiert, wie sich die unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den drei Landeskirchen auf das Entscheidungsverhalten verschiedener Gemeindeleitertypen und damit auf die Entscheidungsprozesse und -ergebnisse in den Gemeinden auswirken. Dabei werden die zuvor aufgestellten Hypothesen anhand der vornehmlich qualitativen Auswertungen überprüft. Abschließend werden die gewonnenen Erkenntnisse in die Reformdebatte eingeordnet und konkrete organisatorische Gestaltungsvorschläge abgeleitet.
In sechs Primar- und zwei Sekundarschulen wurde eine dreimonatige leistungsmotivationsbezogene Intervention mit Schülerinnen und Schülern in sieben Jahrgangsstufen durchgeführt. Die Intervention umfasste 25,5 Zeitstunden und basierte auf einem Training, welches neben didaktischen Impulsen für Lehrpersonen vor allem die Stärkung der Schülerinnen und Schüler im Hinblick auf Selbstwahrnehmung, Selbstwirksamkeitserwartungen, Kausalattribuierung von Erfolgen bzw. Misserfolgen, soziale Beziehungen und Zielsetzung intendierte. Die beiden zugrundeliegenden Hypothesen der Studie formulieren die Erwartungen, dass nach Abschluss der Intervention erstens die Leistungsmotivation und zweitens auch das Wohlbefinden (Flourishing) der Schülerinnen und Schüler nachhaltig ansteigt. Es fanden Erhebungen zu drei Messzeitpunkten (Pre- und Posttest, Follow-Up sechs Monate nach Beendigung der Intervention) statt. Beide Hypothesen wurden in der empirischen Evaluation (RM-ANOVA) nicht bestätigt. Ergänzende explorative Untersuchungen (t-Tests und Clusteranalysen) zeigten vereinzelte Tendenzen in Richtung der Hypothesen, sind jedoch nicht aussagekräftig. Aufgrund dieser Befunde wurde im Anschluss an die Studie eine qualitative Inhaltsanalyse des schriftlichen Feedbacks der beteiligten Lehrpersonen durchgeführt. Hierbei konnten fünf erfolgskritische Faktoren (Commitment der Lehrpersonen, Anstrengungsgrad, Rolle der Schülerinnen und Schüler, Projektorganisation, sowie Inhalt und Methodik der Intervention) identifiziert werden, deren Beachtung für das Gelingen von positiv-psychologischen Interventionen in Organisationen unerlässlich erscheinen. Die Befunde der qualitativen Inhaltsanalyse führen schließlich zu der Annahme, dass aufgrund fehlender Programmintegrität keine Aussage über die tatsächliche Wirksamkeit des Trainings getroffen werden kann. Die Arbeit endet mit Empfehlungen zur optimalen Gestaltung positiv-psychologischer Interventionen in Bildungsorganisationen.
Das Problem des Wissenstransfers ist in unserer Informationsgesellschaft von besonderer Bedeutung. Da gerade in jüngster Zeit eine enorme Expansion der Wissenschaften zu verzeichnen ist, kommt es mehr und mehr zu einer geradezu explosiven Zunahme von Wissen, die einhergeht mit der Notwendigkeit der Vermittlung dieses Wissens. Auch die oft postulierten Probleme mit der Verständlichkeit von Packungsbeilagen für Fertigarzneimittel stellen kein isoliertes Phänomen dar, sondern sind Teil dieses Wissenstransferprozesses. Bei Packungsbeilagen für Fertigarzneimittel handelt es sich um eine durch nationale Gesetze und neuerdings auch durch europäisches Recht stark konventionalisierte Textsorte, die seit ihrer gesetzlichen Verankerung im Jahr 1978 kontinuierlich in der Diskussion ist. Dabei beschränkt sich die Auseinandersetzung mit der Problematik nicht nur auf Deutschland, sondern ist europa- und weltweit nachzuweisen. Anstrengungen, Packungsbeilagen patientengerecht aufzubereiten, werden unternommen, weil viele Patienten Verständnisprobleme beim Lesen einer Packungsbeilage haben und dann ihr Medikament nicht oder nicht entsprechend der Verordnung einnehmen. Ziel dieser Arbeit ist es zu untersuchen, ob die zurzeit auf dem Markt befindlichen Packungsbeilagen wirklich überarbeitet werden müssten oder ob die Diskussion in dieser Form nicht nachvollziehbar ist. Dabei erfolgt anhand gängiger Kriteria, die sowohl sprachlich-formale als auch inhaltliche Aspekte umfassen, eine ausführliche Untersuchung dreier Packungsbeilagen. Es zeigt sich, dass diese zwar in vielerlei Hinsicht patientengerecht aufbereitet sind, in anderer Hinsicht aber dringend überarbeitet werden müssten. Dieses Ergebnis korreliert mit aktuellen empirischen Untersuchungen zur Verständlichkeit von Packungsbeilagen, die ebenfalls als verbesserungsbedürftig eingestuft werden. Daher bleibt die Forderung nach einem angemessenen Wissenstransfer ein wichtiges Anliegen.
Die Einführung leistungsorientierter Entgeltsysteme stellt Mitarbeiter und Unternehmen vor besondere Herausforderungen. Dabei verändert sich vor allem die Rolle des Mitarbeiters. War er vormals Ausführender der ihm übertragenen Arbeitsaufgaben, wird er zunehmend zum eigenverantwortlichen Gestalter und Mitunternehmer. Im Rahmen einer multiplen Fallstudie wird zunächst der Frage nachgegangen, wie die Mitarbeiter in drei karitativen Einrichtungen die Einführung einer leistungsorientierten Vergütungskomponente erleben. Dazu werden inhaltliche Gestaltungsmerkmale der Entgeltsysteme, Merkmale des Einführungsprozesses und ihre Auswirkungen untersucht. Die Ergebnisse zeigen, dass die Mitarbeiter in allen Einrichtungen dem Aspekt der Finanzierung des variablen Vergütungsanteils eine wesentliche Bedeutung beimessen. Wird dieser Anteil durch die Variabilisierung bisher garantierter, fixer Vergütungsanteile finanziert, entstehen unsichere Gehalts-anteile und es erhöht sich das Risiko von möglichen Gehaltsverlusten. In der Einrichtung mit dem höchsten Entgeltrisiko führte dieser Umstand dazu, dass Mitarbeiter und Vorgesetzte durch informelle Absprachen versucht haben, mögliche Verluste zu vermeiden. Wird der variable Entgeltanteil durch die Einrichtungen mitfinanziert, erhöhen sich hingegen die Chancen auf Einkommensgewinne, was auch zu einer höheren Akzeptanz der neuen Entgeltsysteme beiträgt. Aufbauend auf den Ergebnissen der Fallstudie werden in einer quantitativen Analyse die Auswirkungen eines erhöhten Entgeltrisikos auf die Zufriedenheit der Mitarbeiter mit ihrem variablen Vergütungsanteil (Bonuszufriedenheit) untersucht. Dabei wird das Entgeltrisiko durch drei konzeptuelle Facetten operationalisiert: die Variabilität der Entlohnung, das Ausmaß möglicher Verluste und das Verhältnis von Risiko und Chance (RCV). Entgegen der bisherigen Annahme in der Forschungsliteratur, dass vor allem die Variabilität der Entlohnung ausschlaggebend für die Auswirkungen von Entgeltrisiko ist, zeigen regressionsanalytische Ergebnisse, dass in der Einführungsphase neuer Entgeltsysteme vor allem das RCV einen signifikanten Effekt auf die Bonuszufriedenheit der Mitarbeiter hat. Die Ergebnisse einer multiplen Mediationsanalyse legen nahe, dass der Effekt von RCV auf die Bonuszufriedenheit zum Teil von Einstellungen der distributiven und prozeduralen Gerechtigkeit vermittelt wird. Wei-terführende Analysen ergeben, dass der Zusammenhang zwischen dem RCV und der Bonuszufriedenheit durch zwei moderierende Variablen beeinflusst wird: zum einen durch die partizipative Beteiligung der Mitarbeiter am Einführungsprozess und zum anderen durch die individuelle Präferenz für leistungsorientierte Entlohnung. Vor allem bei hoher partizipativer Beteiligung wirkt sich ein günstiges RCV positiv auf die Bonuszufriedenheit der Mitarbeiter aus. Außerdem sind jene Mitarbeiter unzufriedener mit einem risiko-reichen Entgeltsystem, die eine stark ausgeprägte Präferenz für leistungsorientierte Entlohnung besitzen.
Gegenstand der Dissertation ist die Geschichte und Manifestation des Nationaltheaters in Japan, der Transfer einer europäischen Kulturinstitution nach und deren Umsetzungsprozess in Japan, welcher mit der Modernisierung Japans ab Mitte des 19. Jahrhunderts begann und erst hundert Jahre später mit der Eröffnung des ersten Nationaltheaters 1966 endete. Dazu werden theaterhistorische Entwicklungen, Veränderungen in der Theaterproduktion und -architektur in Bezug auf die Genese eines japanischen Nationaltheaters beleuchtet. Das Ergebnis zeigt, dass sich die Institution Nationaltheater in seiner japanischen kulturellen Translation bzw. Manifestation wesentlich von den vom Land selbst als Model anvisierten Pendants in Europa in Inhalt, Organisations- und Produktionsstruktur unterscheidet. Kulturell übersetzt wurde allein die Hülle der europäischen Institution. Das erste Nationaltheater in Japan manifestiert sich als eine von der Regierung im Rahmen des Denkmalschutzgesetztes initiierte und bestimmte, spezifisch japanische Variante eines Nationaltheaters, die unter dem Management von staatlichen Angestellten und Beamten den Erhalt traditioneller Künste in dafür ausgerichteten Bühnen zur Aufgabe hat. Nationaltheaterensemble gibt es nicht, die Produktionen werden mit Schauspielern kommerzieller Theaterunternehmen realisiert. Der lange Prozess dieser Genese liegt in der nicht vorhandenen Theaterförderung seitens der Regierung und der eher zurückhaltenden Haltung der Theaterwelt gegenüber einem staatlich betriebenen Theater begründet. Das Hüllen-Konzept des ersten Nationaltheaters diente, genau wie dessen Management durch Beamte, als Prototyp für die fünf weiteren bis 2004 eröffneten Nationaltheater in Japan, welche als Spartentheater der spezifisch japanischen Vielfalt an Theaterformen, auch in ihrer Bühnenarchitektur Rechnung tragen.
An indignation control training has been developed and tested for it's effectiveness. The training was based upon a cognitive model of emotions. One's own cognitions in emotional situations are often considered to be "assertorically" true. Therefore it was tested, whether the emotion could be controlled by means of reflecting about one's own assertoric judgements and considering alternative interpretations of the current situation. The cognitive training was compared in terms of effectiveness to a relaxation training. Participants were randomly distributed to the experimental conditions: cognitive training, relaxation training and control group. Six training sessions à 90 min. - one per week- were conducted. Pre- post and follow-up-test after 3 month were undertaken. As dependent variables the following measures were used: Participants reported a personal indignation encounter and indicated their reactions to imaginal situations. Additionally a real provocation was realised. The data analysis was based upon a group of 72 persons. The cognitive training proved to be more effective in reducing indignation compared to the control group. Especially for behavioural measures the cognitive training was also superior compared to the relaxation approach. Taken together for the cognitive training group indignation in the own situation as well as in imaginal situations was reduced. Also perspective taking could be improved as well as destructive reactions in imaginal situations were reduced. After the real provocation less physiological arousal was reported as well as less negative reactions observed. Almost all effects remained stable over the 3 month follow-up period. The results clearly demonstrate the effectiveness of the new method. This new approach is also relevant for psychological interventions: A more precise control of emotion is possible because the training is based upon the specific cognitive components of the emotion. As a consequence, clients on their own are able to question their interpretation of a situation based upon each single cognition.
This study focuses on the representation of British South Asian identities in contemporary British audiovisual media. It attempts to answer the question, whether these identities are represented as hybrid, heterogeneous and ambivalent, or whether these contemporary representations follow in the tradition of colonial and postcolonial racialism. Racialised depictions of British South Asians have been the norm not only in the colonial but also in the postcolonial era until the rise of the Black British movement, whose successes have been also acknowledged in the field of representation. However these achievements have to be scrutinized again, especially in the context of the post 9/11 world, rising Islamophobia, and new forms of institutionalized discrimination on the basis of religion. Since the majority of British Muslims are of South Asian origin, this study tries to answer the question whether the marker of religious origin is racial belonging, i.e. skin colour, and old stereotypes associated with the racialised representation are being perpetuated into current depictions through an examination of the varied genre of popular audio visual media texts.
Die globale Vernetzung, der Flächennutungs- und Klimawandel sind zentrale Aspekte bei der Ursachenanalyse der zunehmenden Homogenisierung von Biozönosen und dem weltweiten Verlust von Biodiversität. Von großer Bedeutung sind dabei Arten, die in sich ein weiträumiges Verbreitungspotential mit einem hohen ökologischen, zum Teil in Verbindung mit einem hohen ökonomischen, Schadpotential vereinen " so genannte invasive Arten. Aufgrund ihrer Eigenschaften bilden sie einen wichtigen Schnittpunkt von Ökologie, Ökonomie und Soziologie in Theorie und Praxis. Im Zuge der steigenden Anzahl von biologischen Invasionen weltweit und dem interessanten, interdisziplinären Charakter des Forschungsfeldes, ist dessen Analyse ein bedeutendes Top-Thema internationaler Forschung geworden. Die durch invasive Arten verursachten Schäden sind enorm: So werden die jährlichen Schäden für die USA, Südafrika, das Vereinigte Königreich, Brasilien und Indien auf insgesamt 336 Milliarden US Dollar geschätzt. Nach einem Bericht der EU Kommissionrnbeläuft sich für die Europäische Union die Summe aller Schäden die durch invasive Arten verursacht werden auf jährlich 12 Mrd. Euro. Folglich stellen invasive Arten zugleich einen zunehmend wichtigeren, rechtlichen Regelungsgegenstand auf den unterschiedlichsten Ebenen (international, europäisch, national) dar. In dieser Dissertation wird die Bedeutung von Verbreitungsmodellen als Analyseund Präventions-Instrument in der naturschutzfachlichen Risikoabschätzung verdeutlicht. Ferner wird die Einsatzmöglichkeit von Modellen für die rechtliche Einstufung von Arten und als Ermessensgrundlage bei der Bewilligung von Kostenersatzansprüchen nach entstandenen Schäden aufgezeigt. Zwei ökonomisch bedeutsame Käferarten wurden zur Veranschaulichung als Modellorganismen ausgewählt: Der für die biologische Schädlingsbekämpfung absichtlich eingeführte Asiatische Marienkäfer Harmonia axyridis und der vorwiegend mit Holzverpackungsmaterialien global verschleppte AsiatischernLaubholzbockkäfer Anoplophora glabripennis. Beide Organismen sind in der EU alsrngebietsfremde Arten mit einem hohen Schadpotential einzustufen, haben jedoch einen sehr unterschiedlichen rechtlichen Status inne. Harmonia axyridis wird in Europa kommerziell vermarktet und darf in Deutschland mit Genehmigungsvorbehalt im Freiland ausgebracht werden, wohingegen Anoplophora glabripennis in der EU als zu bekämpfender Quarantäneschadorganismus geführt wird. Für beide Insekten gibt es derzeit keinen praktikablen Rechtsanspruch auf Schadenshaftung bzw. Entschädigungen. Neben der Erstellung von Verbreitungsmodellen nach naturwissenschaftlichen Kriterien, wird dieser Tatbestand erörtert und entsprechende Verbesserungsansätze für die Normsetzung und -anwendung präsentiert.
Evapotranspiration (ET) is one of the most important variables in hydrological studies. In the ET process, energy exchange and water transfer are involved. ET consists of transpiration and evaporation. The amount of plants transpiration dominates in ET. Especially in the forest regions, the ratio of transpiration to ET is in general 80-90 %. Meteorological variables, vegetation properties, precipitation and soil moisture are critical influence factors for ET generation. The study area is located in the forest area of Nahe catchment (Rhineland-Palatinate, Germany). The Nahe catchment is highly wooded. About 54.6 % of this area is covered by forest, with deciduous forest and coniferous forest are two primary types. A hydrological model, WaSiM-ETH, was employed for a long-term simulation from 1971-2003 in the Nahe catchment. In WaSiM-ETH, the potential evapotranspiration (ETP) was firstly calculated by the Penman-Monteith equation, and subsequently reduced according to the soil water content to obtain the actual evapotranspiration (ETA). The Penman-Monteith equation has been widely used and recommended for ETP estimation. The difficulties in applying this equation are the high demand of ground-measured meteorological data and the determination of surface resistance. A method combined remote sensing images with ground-measured meteorological data was also used to retrieve the ETA. This method is based on the surface properties such as surface albedo, fractional vegetation cover (FVC) and land surface temperature (LST) to obtain the latent heat flux (LE, corresponding to ETA) through the surface energy balance equation. LST is a critical variable for surface energy components estimation. It was retrieved from the TM/ETM+ thermal infrared (TIR) band. Due to the high-quality and cloudy-free requirements for TM/ETM+ data selection as well as the overlapping cycle of TM/ETM+ sensor is 16 days, images on only five dates are available during 1971-2003 (model ran) " May 15, 2000, July 05, 2001, July 19, August 04 and September 21 in 2003. It is found that the climate conditions of 2000, 2001 and 2003 are wet, medium wet and dry, respectively. Therefore, the remote sensing-retrieved observations are noncontinuous in a limited number over time but contain multiple climate conditions. Aerodynamic resistance and surface resistance are two most important parameters in the Penman-Monteith equation. However, for forest area, the aerodynamic resistance is calculated by a function of wind speed in the model. Since transpiration and evaporation are separately calculated by the Penman-Monteith equation in the model, the surface resistance was divided into canopy surface resistance rsc and soil surface resistance rse. rsc is related to the plants transpiration and rse is related to the bare soil evaporation. The interception evaporation was not taken into account due to its negligible contribution to ET rate under a dry-canopy (no rainfall) condition. Based on the remote sensing-retrieved observations, rsc and rse were calibrated in the WaSiM-ETH model for both forest types: for deciduous forest, rsc = 150 sm−1, rse = 250 sm−1; for coniferous forest, rsc = 300 sm−1, rse = 650 sm−1. We also carried out sensitivity analysis on rsc and rse. The appropriate value ranges of rsc and rse were determined as (annual maximum): for deciduous forest, [100,225] sm−1 for rsc and [50,450] sm−1 for rse; for coniferous forest, [225,375] sm−1 for rsc and [350,1200] sm−1 for rse. Due to the features of the observations that are in a limited number but contain multiple climate conditions, the statistical indices for model performance evaluation are required to be sensitive to extreme values. In this study, boxplots were found to well exhibit the model performance at both spatial and temporal scale. Nush-Sutcliffe efficiency (NSE), RMSE-observations standard deviation ratio (RSR), percent bias (PBIAS), mean bias error (MBE), mean variance of error distribution (S2d), index of agreement (d), root mean square error (RMSE) were found as appropriate statistical indices to provide additional evaluation information to the boxplots. The model performance can be judged as satisfactory if NSE > 0.5, RSR ≤ 0.7, PBIAS < -±12, MBE < -±0.45, S2d < 1.11, d > 0.79, RMSE < 0.97. rsc played a more important role than rse in ETP and ETA estimation by the Penman-Monteith equation, which is attributed to the fact that transpiration dominates in ET. The ETP estimation was found the most correlated to the relative humidity (RH), followed by air temperature (T), relative sunshine duration (SSD) and wind speed (WS). Under wet or medium wet climate conditions, ETA estimation was found the most correlated to T, followed by RH, SSD and WS. Under a water-stress condition, there were very small correlations between ETA and each meteorological variable.
In Deutschland fallen bei der Wasseraufbereitung, der Verarbeitung von Gesteinen, Recyclingprozessen und in der Industrie etliche mineralische Zwangs-, Koppel-, Neben- oder Abfallprodukte an, die aufgrund ihrer Inhaltsstoffe als Puffersubstanzen oder Nährstofflieferanten im Wald eingesetzt werden könnten. In diesem Projekt wurde die Wirksamkeit und Ökosystemverträglichkeit von Mischungen potentieller Sekundärrohstoffe in Gefäßversuchen, Lysimeterversuchen, Freilandversuchen, Perkolationsversuchen und Keim- und Wachstumsversuchen untersucht. Die Mischungen bestehen aus Enthärterkalk und Magnesitstaub. Eingesetzte Enthärterkalke waren zwei Reaktorkornvarianten und ein Enthärterschlamm, dem zur besseren Händelbarkeit und als Kaliumquelle Bimsmehl bzw. Perlitstaub beigemischt wurde. Zur Anregung der biologischen Aktivität mit Phosphor wurden zwei Enthärterschlammmischungen mit Tiermehlasche aus der Monoverbrennung von Tierkörpermehl versetzt. Als Puffersubstanzen oder Nährstofflieferanten bewährten sich die Reaktorkörner, Magnesitstaub und Bimsmehl. Die Reaktorkornkalke wirken ähnlich dem herkömmlich eingesetzten Dolomit mit hoher oberflächennaher Säurepufferkapazität, verbesserter Basensättigung des Mineralbodens, Reduktion der Schwermetallmobilität und Aluminiumbelegung an den Austauscher sowie Erhöhung der Stickstoffspeicherkapazität. Unter dem Einfluss von Magnesitstaubs erhöhte sich der Magnesiumgehalt der Bodenlösung bis in den Hauptwurzelraum und Magnesiummangel in Pflanzen wurde signifikant behoben. Pflanzenvitalitätskennwerte verbesserten sich deutlich. Der Kaliumgehalt der Bodenlösung verbesserte sich bei Perlitstaub und Bimsmehl, in den Pflanzen nur bei Bimsmehl. Unter Einfluss der Tiermehlasche erhöhte sich weder der Gehalt der Bodenlösung noch die biologische Aktivität. Der enthaltene Phosphor liegt als schwerlösliches Hydroxylapatit vor, leichter lösliches Phosphat wurde als Calciumphosphat festgelegt. Durch geringe Anteile von Kalkmilch im Enthärterschlamm wurden initiale Nitrat- und Protonenschübe initiiert, die in stickstoffgesättigten Systemen problematisch werden können. Auf der Basis der Untersuchungsergebnisse wurden die positiv bewerteten Sekundärrohstoffe in die 2003 neugefasste Düngemittelverordnung aufgenommen.
The glucocorticoid (GC) cortisol, main mediator of the hypothalamic-pituitary-adrenal axis, has many implications in metabolism, stress response and the immune system. GC function is mediated mainly via the glucocorticoid receptor (GR) which binds as a transcription factor to glucocorticoid response elements (GREs). GCs are strong immunosuppressants and used to treat inflammatory and autoimmune diseases. Long-term usage can lead to several irreversible side effects which make improved understanding indispensable and warrant the adaptation of current drugs. Several large scale gene expression studies have been performed to gain insight into GC signalling. Nevertheless, studies at the proteomic level have not yet been made. The effects of cortisol on monocytes and macrophages were studied in the THP-1 cell line using 2D fluorescence difference gel electrophoresis (2D DIGE) combined with MALDI-TOF mass spectrometry. More than 50 cortisol-modulated proteins were identified which belonged to five functional groups: cytoskeleton, chaperones, immune response, metabolism, and transcription/translation. Multiple GREs were found in the promoters of their corresponding genes (+10 kb/-0.2 kb promoter regions including all alternative promoters available within the Database for Transcription Start Sites (DBTSS)). High quality GREs were observed mainly in cortisol modulated genes, corroborating the proteomics results. Differential regulation of selected immune response related proteins were confirmed by qPCR and immuno-blotting. All immune response related proteins (MX1, IFIT3, SYWC, STAT3, PMSE2, PRS7) which were induced by LPS were suppressed by cortisol and belong mainly to classical interferon target genes. Mx1 has been selected for detailed expression analysis since new isoforms have been identified by proteomics. FKBP51, known to be induced by cortisol, was identified as the strongest differentially expressed protein and contained the highest number of strict GREs. Genomic analysis of five alternative FKBP5 promoter regions suggested GC inducibility of all transcripts. 2D DIGE combined with 2D immunoblotting revealed the existence of several previously unknown FKBP51 isoforms, possibly resulting from these transcripts. Additionally multiple post-translational modifications were found, which could lead to different subcellular localization in monocytes and macrophages as seen by confocal microscopy. Similar results were obtained for the different cellular subsets of human peripheral blood mononuclear cells (PBMCs). FKBP51 was found to be constitutively phosphorylated with up to 8 phosphosites in CD19+ B lymphocytes. Differential Co-immunoprecipitation for cytoplasm and nucleus allowed us to identify new potential interaction partners. Nuclear FKBP51 was found to interact with myosin 9, whereas cytosolic FKBP51 with TRIM21 (synonym: Ro52, Sjögren`s syndrome antigen). The GR has been found to interact with THOC4 and YB1, two proteins implicated in mRNA processing and transcriptional regulation. We also applied proteomics to study rapid non-genomic effects of acute stress in a rat model. The nuclear proteome of the thymus was investigated after 15 min restraint stress and compared to the non-stressed control. Most of the identified proteins were transcriptional regulators found to be enriched in the nucleus probably to assist gene expression in an appropriate manner. The proteomic approach allowed us to further understand the cortisol mediated response in monocytes/macrophages. We identified several new target proteins, but we also found new protein variants and post-translational modifications which need further investigation. Detailed study of FKBP51 and GR indicated a complex regulation network which opened a new field of research. We identified new variants of the anti-viral response protein MX1, displaying differential expression and phosphorylation in the cellular compartments. Further, proteomics allowed us to follow the very early effects of acute stress, which happen prior to gene expression. The nuclear thymocyte proteome of restraint stressed rats revealed an active preparation for subsequent gene expression. Proteomics was successfully applied to study differential protein expression, to identify new protein variants and phosphorylation events as well as to follow translocation. New aspects for future research in the field of cortisol-mediated immune modulation have been added.
This work addresses the algorithmic tractability of hard combinatorial problems. Basically, we are considering \NP-hard problems. For those problems we can not find a polynomial time algorithm. Several algorithmic approaches already exist which deal with this dilemma. Among them we find (randomized) approximation algorithms and heuristics. Even though in practice they often work in reasonable time they usually do not return an optimal solution. If we constrain optimality then there are only two methods which suffice for this purpose: exponential time algorithms and parameterized algorithms. In the first approach we seek to design algorithms consuming exponentially many steps who are more clever than some trivial algorithm (who simply enumerates all solution candidates). Typically, the naive enumerative approach yields an algorithm with run time $\Oh^*(2^n)$. So, the general task is to construct algorithms obeying a run time of the form $\Oh^*(c^n)$ where $c<2$. The second approach considers an additional parameter $k$ besides the input size $n$. This parameter should provide more information about the problem and cover a typical characteristic. The standard parameterization is to see $k$ as an upper (lower, resp.) bound on the solution size in case of a minimization (maximization, resp.) problem. Then a parameterized algorithm should solve the problem in time $f(k)\cdot n^\beta$ where $\beta$ is a constant and $f$ is independent of $n$. In principle this method aims to restrict the combinatorial difficulty of the problem to the parameter $k$ (if possible). The basic hypothesis is that $k$ is small with respect to the overall input size. In both fields a frequent standard technique is the design of branching algorithms. These algorithms solve the problem by traversing the solution space in a clever way. They frequently select an entity of the input and create two new subproblems, one where this entity is considered as part of the future solution and another one where it is excluded from it. Then in both cases by fixing this entity possibly other entities will be fixed. If so then the traversed number of possible solution is smaller than the whole solution space. The visited solutions can be arranged like a search tree. To estimate the run time of such algorithms there is need for a method to obtain tight upper bounds on the size of the search trees. In the field of exponential time algorithms a powerful technique called Measure&Conquer has been developed for this purpose. It has been applied successfully to many problems, especially to problems where other algorithmic attacks could not break the trivial run time upper bound. On the other hand in the field of parameterized algorithms Measure&Conquer is almost not known. This piece of work will present examples where this technique can be used in this field. It also will point out what differences have to be made in order to successfully apply the technique. Further, exponential time algorithms for hard problems where Measure&Conquer is applied are presented. Another aspect is that a formalization (and generalization) of the notion of a search tree is given. It is shown that for certain problems such a formalization is extremely useful.
Vor dem Hintergrund eines fachlichen und gesellschaftlichen Interesses an psychologischen Forschungsthemen wurde der Einsatz von Topic Modeling zu deren automatisierten und validen Identifikation erprobt und mit einem traditionellen Ansatz verglichen, der auf Klassifikationskategorien von Fachdatenbanken beruht. Kern der Arbeit sind drei Studien mit unterschiedlichen Anwendungsszenarien: (1) Die Ermittlung psychologischer Brennpunktthemen, (2) das Verhältnis zwischen gesellschaftlichen Herausforderungen und Themen der psychologischen Fachliteratur sowie (3) die Forschungsinteressen von Psychologinnen und Psychologen. In jeder dieser Studien wurden sukzessive neue methodische Schwerpunkte gesetzt. Die Erkenntnisse daraus flossen in die Entwicklung einer nutzerfreundlichen App zur Exploration und Analyse von psychologischen Forschungsthemen ein. Im Vergleich mit dem klassifikationsbasierten Ansatz erwies sich Topic Modeling als Methode der Wahl zur automatisierten und differenzierten Identifikation psychologischer Forschungsthemen. Zur externen Validierung der Themeninhalte stellte sich ein Klassifikationssystem für psychologische Fachliteratur jedoch als geeignet heraus. Einschränkungen, Implikationen für weitere Forschung sowie Folgerungen für die Weiterentwicklung digitaler Produkte von forschungsbasierten Infrastruktureinrichtungen in der Psychologie werden diskutiert. Abschließend wird eine Entscheidungsheuristik zur Auswahl geeigneter Topic-Modeling-Varianten im Kontext von Forschungsthemen vorgelegt.
Attitudes are "the most distinctive and indispensable concept in contemporary social psychology" (Allport, 1935, p. 798). This outstanding position of the attitude concept in social cognitive research is not only reflected in the innumerous studies focusing on this concept but also in the huge number of theoretical approaches that have been put forth since then. Yet, it is still an open question, what attitudes actually are. That is, the question of how attitude objects are represented in memory cannot be unequivocally answered until now (e.g., Barsalou, 1999; Gawronski, 2007; Pratkanis, 1989, Chapter 4). In particular, researchers strongly differ with respect to their assumptions on the content, format and structural nature of attitude representations (Ferguson & Fukukura, 2012). This prevailing uncertainty on what actually constitutes our likes and dislikes is strongly dovetailed with the question of which processes result in the formation of these representations. In recent years, this issue has mainly been addressed in evaluative conditioning research (EC). In a standard EC-paradigm a neutral stimulus (conditioned stimulus, CS) is repeatedly paired with an affective stimulus (unconditioned stimulus, US). The pairing of stimuli then typically results in changes in the evaluation of the CS corresponding to the evaluative response of the US (De Houwer, Baeyens, & Field, 2005). This experimental approach on the formation of attitudes has primarily been concerned with the question of how the representations underlying our attitudes are formed. However, which processes operate on the formation of such an attitude representation is not yet understood (Jones, Olson, & Fazio, 2010; Walther, Nagengast, & Trasselli, 2005). Indeed, there are several ideas on how CS-US pairs might be encoded in memory. Notwithstanding the importance of these theoretical ideas, looking at the existing empirical work within the research area of EC (for reviews see Hofmann, De Houwer, Perugini, Baeyens, & Crombez, 2010; De Houwer, Thomas, & Baeyens, 2001) leaves one with the impression that scientists have skipped the basic processes. Basic processes hereby especially refer to the attentional processes being involved in the encoding of CSs and USs as well as the relation between them. Against the background of this huge gap in current research on attitude formation, the focus of this thesis will be to highlight the contribution of selective attention processes to a better understanding of the representation underlying our likes and dislikes. In particular, the present thesis considers the role of selective attention processes for the solution of the representation issue from three different perspectives. Before illustrating these different perspectives, Chapter 1 is meant to envision the omnipresence of the representation problem in current theoretical as well as empirical work on evaluative conditioning. Likewise, it emphasizes the critical role of selective attention processes for the representation question in classical conditioning and how this knowledge might be used to put forth the uniqueness of evaluative conditioning as compared to classical conditioning. Chapter 2 then considers the differential influence of attentional resources and goal-directed attention on attitude learning. The primary objective of the presented experiment was thereby to investigate whether attentional resources and goal-directed attention exert their influence on EC via changes in the encoding of CS-US relations in memory (i.e., contingency memory). Taking the findings from this experiment into account, Chapter 3 focuses on the selective processing of the US relative to the CS. In particular, the two experiments presented in this chapter were meant to explore the moderating influence of the selective processing of the US in its relation to the CS on EC. In Chapter 4 the important role of the encoding of the US in relation to the CS, as outlined in Chapter 3, is illuminated in the context of different retrieval processes. Against the background of the findings from the two presented experiments, the interplay between the encoding of CS-US contingencies and the moderation of EC via different retrieval processes will be discussed. Finally, a general discussion of the findings, their theoretical implications and future research lines will be outlined in Chapter 5.
The present thesis is devoted to a construction which defies generalisations about the prototypical English noun phrase (NP) to such an extent that it has been termed the Big Mess Construction (Berman 1974). As illustrated by the examples in (1) and (2), the NPs under study involve premodifying adjective phrases (APs) which precede the determiner (always realised in the form of the indefinite article a(n)) rather than following it.
(1) NoS had not been hijacked – that was too strong a word. (BNC: CHU 1766)
(2) He was prepared for a battle if the porter turned out to be as difficult a customer as his wife. (BNC: CJX 1755)
Previous research on the construction is largely limited to contributions from the realms of theoretical syntax and a number of cursory accounts in reference grammars. No comprehensive investigation of its realisations and uses has as yet been conducted. My thesis fills this gap by means of an exhaustive analysis of the construction on the basis of authentic language data retrieved from the British National Corpus (BNC). The corpus-based approach allows me to examine not only the possible but also the most typical uses of the construction. Moreover, while previous work has almost exclusively focused on the formal realisations of the construction, I investigate both its forms and functions.
It is demonstrated that, while the construction is remarkably flexible as concerns its possible realisations, its use is governed by probabilistic constraints. For example, some items occur much more frequently inside the degree item slot than others (as, too and so stand out for their particularly high frequency). Contrary to what is assumed in most previous descriptions, the slot is not restricted in its realisation to a fixed number of items. Rather than representing a specialised structure, the construction is furthermore shown to be distributed over a wide range of possible text types and syntactic functions. On the other hand, it is found to be much less typical of spontaneous conversation than of written language; Big Mess NPs further display a strong preference for the function of subject complement. Investigations of the internal structural complexity of the construction indicate that its obligatory components can optionally be enriched by a remarkably wide range of optional (if infrequent) elements. In an additional analysis of the realisations of the obligatory but lexically variable slots (head noun and head of AP), the construction is highlighted to represent a productive pattern. With the help of the methods of Collexeme Analysis (Stefanowitsch and Gries 2003) and Co-varying Collexeme Analysis (Gries and Stefanowitsch 2004b, Stefanowitsch and Gries 2005), the two slots are, however, revealed to be strongly associated with general nouns and ‘evaluative’ and ‘dimension’ adjectives, respectively. On the basis of an inspection of the most typical adjective-noun combinations, I identify the prototypical semantics of the Big Mess Construction.
The analyses of the constructional functions centre on two distinct functional areas. First, I investigate Bolinger’s (1972) hypothesis that the construction fulfils functions in line with the Principle of Rhythmic Alternation (e.g. Selkirk 1984: 11, Schlüter 2005). It is established that rhythmic preferences co-determine the use of the construction to some extent, but that they clearly do not suffice to explain the phenomenon under study. In a next step, the discourse-pragmatic functions of the construction are scrutinised. Big Mess NPs are demonstrated to perform distinct information-structural functions in that the non-canonical position of the AP serves to highlight focal information (compare De Mönnink 2000: 134-35). Additionally, the construction is shown to place emphasis on acts of evaluation. I conclude the construction to represent a contrastive focus construction.
My investigations of the formal and functional characteristics of Big Mess NPs each include analyses which compare individual versions of the construction to one another (e.g. the As Big a Mess, Too Big a Mess and So Big a Mess Constructions). It is revealed that the versions are united by a shared core of properties while differing from one another at more abstract levels of description. The question of the status of the constructional versions as separate constructions further receives special emphasis as part of a discussion in which I integrate my results into the framework of usage-based Construction Grammar (e.g. Goldberg 1995, 2006).
Diese Arbeit konzentriert sich auf die Darstellung gemeinsamer Projekte von Hotelunternehmen und Hochschulen mit hotelspezifischen Studienangeboten. Infolge der demografischen Entwicklungen sowie des Wertewandels gewinnen Personalgewinnung und Mitarbeiterloyalisierung zunehmend an Bedeutung und werden zu einem Wettbewerbsparameter der Hotellerie. Für diese essentielle Herausforderung sind Hotelbetriebe mit engagierter Mitarbeiterförderung gefragt. Viele Hochschulen haben neue Studiengänge im Tourismus, Event- oder Hotelmanagementbereich praxisorientiert aufgelegt, um der Skepsis der Hotellerie entgegen zu wirken und um zugleich den Erwartungen der Studenten gerecht zu werden. Viele der Studenten wären potenzielle Auszubildende, die sich bei der Abwägung allerdings für die Studienoption entschieden haben. Daher ist es wichtig, in enger Kooperation mit den hierzu passenden Institutionen und Bildungsträgern, vor allem praxisnahe Studienmodelle für sich verändernde Erwartungen der Bewerber mit modernen Lehrinhalten zu entwickeln und erfolgreich am Markt zu platzieren. Daher verfolgt diese Arbeit den Ansatz, adäquate Kriterien und Faktoren für den Erfolg vertraglich vereinbarter Kooperationen zwischen Hotelketten und Hochschulen zu analysieren und daraus Handlungsempfehlungen abzuleiten. Die große Anzahl an Kooperationen macht deutlich, dass die Notwendigkeit für die Hotellerie, sich im Bereich der Mitarbeitergewinnung, -bindung und -entwicklung mit akademischen Partnern zusammen zu schließen, bei einer ansteigenden Zahl von Hotelgruppen nachvollzogen wird. Durch die zurückhaltende Vermarktung vieler Kooperationsmodelle ist deren Bekanntheit jedoch begrenzt und dadurch auch deren positive Auswirkungen auf das Image der Hotellerie. Gleichwohl sind in der Bildungslandschaft steigende Studentenzahlen und eine Vermehrung der Studiengänge bei gleichzeitig gravierender Abnahme der Zahl berufsfachlich Ausgebildeter erkennbar. Die Kooperationsmodelle sind daher ein sinnvolles Instrument, um auf diese Marktentwicklungen zu reagieren, wobei ihre Bedeutung primär von Unternehmen mit strategischer Personalpolitik erkannt wird. Daraus wurde die "Typologie privilegierter Bildungspartnerschaften" mit einer Bandbreite von zehn Kooperationstypen entwickelt. Damit werden unterschiedliche Intensitäten der partnerschaftlichen Bildungselemente ebenso deutlich wie ein individualisiertes "Faktoren-Phasenmodell", dass die Prozessstruktur der Kooperationsentwicklung abbildet. Je nach Enge der Zusammenarbeit, nach Unternehmens- und Hochschulphilosophie und entsprechend der Erfahrungen mit Kooperationen entstehen vor allem Verpflichtungen und Herausforderungen in der aktiven Gestaltung und verlässlichen Kommunikation in einem Kooperationsmodell. Eine Schlüsselrolle nimmt der persönlich verantwortliche Koordinator ein, der als Garant für eine effiziente Organisation und Professionalität angesehen wird. Daraus ableitend sind die Erfolgsfaktoren im ASP-Modell herausgefiltert worden: Attraktivität, Sicherheit und Persönlichkeit machen den Erfolg einer privilegierten Bildungspartnerschaft aus. Bestätigt wurde zudem, dass die Erfahrung der beiden Partner einer Kooperation zueinander passen muss und eine klare Zielvereinbarung mit Fixierung der Pflichten und Aufgaben erforderlich ist. Ein hoher Qualitätsanspruch, Transparenz und Prozesseffizienz ergänzen dies und machen deutlich, dass der Bildungsbereich als Teil der Personalpolitik eines Unternehmens sensibel und anspruchsvoll zugleich ist. Die Verankerung auf der Führungsebene eines Unternehmens ist entscheidend, um durch ein Signal nach innen und außen den Stellenwert einer Bildungsallianz zu verdeutlichen. Wenn aus Lernen und Wissen wirtschaftliche Vorteile erarbeitet werden können, wird Bildung noch mehr als Markenkern eines guten Arbeitgebers interpretiert. Auf dieser Grundlage wird der Gedanke der Personalentwicklung durch den Ansatz fortwährender Mitarbeiterbildung perfektioniert und der Lösungsansatz einer "privilegierten Bildungspartnerschaft" legt den Grundstein dafür. Nachwuchskräfteförderung wird zum strategischen Mittel der Mitarbeiterbindung und zur Vermeidung kostenintensiver Vakanzen, zudem sichern Netzwerke Fachwissen und stärken das Unternehmensimage. Mit privilegierten Bildungspartnerschaften werden geeignete Modelle vorgestellt, um einsatzfreudige Mitarbeiter zu halten und sie gleichzeitig auf den nächsten Karriereschritt vorzubereiten. Die vorliegende Ausarbeitung liefert einen Diskussionsbeitrag zum besseren gegenseitigen Verständnis einer Symbiose aus Hotelkette und Hochschule im Bildungsbereich sowie erfolgreiche Konzeptideen für vielfältige Netzwerkstrukturen.
Mankind has dramatically influenced the nitrogen (N) fluxes between soil, vegetation, water and atmosphere " the global N cycle. Increasing intensification of agricultural land use, caused by the growing demand for agricultural products, has had major impacts on ecosystems worldwide. Particularly nitrogenous gases such as ammonia (NH3) have increased mainly due to industrial livestock farming. Countries with high N deposition rates require a variety of deposition measurements and effective N monitoring networks to assess N loads. Due to high costs, current "conventional"-deposition measurement stations are not widespread and therefore provide only a patchy picture of the real extent of the prevailing N deposition status over large areas. One tool that allows quantification of the exposure and the effects of atmospheric N impacts on an ecosystem is the use of bioindicators. Due to their specific physiology and ecology, especially lichens and mosses are suitable to reflect the atmospheric N input at ecosystem level. The present doctoral project began by investigating the general ability of epiphytic lichens to qualify and quantify N deposition by analysing both lichens and total N and δ15N along a gradient of different N emission sources and severity. The results showed that this was a viable monitoring method, and a grid-based monitoring system with nitrophytic lichens was set up in the western part of Germany. Finally, a critical appraisal of three different monitoring techniques (lichens, mosses and tree bark) was carried out to compare them with national relevant N deposition assessment programmes. In total 1057 lichen samples, 348 tree bark samples, 153 moss samples and 24 deposition water samples, were analysed in this dissertation at different investigation scales in Germany.The study identified species-specific ability and tolerance of various epiphytic lichens to accumulate N. Samples of tree bark were also collected and N accumulation ability was detected in connection with the increased intensity of agriculture, and according to the presence of reduced N compounds (NHx) in the atmosphere. Nitrophytic lichens (Xanthoria parietina, Physcia spp.) have the strongest correlations with high agriculture-related N deposition. In addition, the main N sources were revealed with the help of δ15N values along a gradient of altitude and areas affected by different types of land use (NH3 density classes, livestock units and various deposition types). Furthermore, in the first nationwide survey of Germany to compare lichens, mosses and tree bark samples as biomonitors for N deposition, it was revealed that lichens are clearly the most meaningful monitor organisms in highly N affected regions. Additionally, the study shows that dealing with different biomonitors is a difficult task due to their variety of N responses. The specific receptor surfaces of the indicators and therefore their different strategies of N uptake are responsible for the tissue N concentration of each organism group. It was also shown that the δ15N values depend on their N origin and the specific N transformations in each organism system, so that a direct comparison between atmosphere and ecosystems is not possible.In conclusion, biomonitors, and especially epiphytic lichens may serve as possible alternatives to get a spatially representative picture of the N deposition conditions. Furthermore, bioindication with lichens is a cost-efficient alternative to physico-chemical measurements to comprehensively assess different prevailing N doses and sources of N pools on a regional scale. They can at least support on-site deposition instruments by qualification and quantification of N deposition.
N-acetylation by N-acetyltransferase 1 (NAT1) is an important biotransformation pathway of the human skin and it is involved in the deactivation of the arylamine and well-known contact allergen para-phenylenediamine (PPD). Here, NAT1 expression and activity were analyzed in antigen presenting cells (monocyte-derived dendritic cells, MoDCs, a model for epidermal Langerhans cells) and human keratinocytes. The latter were used to study exogenous and endogenous NAT1 activity modulations. Within this thesis, MoDCs were found to express metabolically active NAT1. Activities were between 23.4 and 26.6 nmol/mg/min and thus comparable to peripheral blood mononuclear cells. These data suggest that epidermal Langerhans cells contribute to the cutaneous N-acetylation capacity. Keratinocytes, which are known for their efficient N-acetylation, were analyzed in a comparative study using primary keratinocytes (NHEK) and different shipments of the immortalized keratinocyte cell line HaCaT, in order to investigate the ability of the cell line to model epidermal biotransformation. N-acetylation of the substrate para-aminobenzoic acid (PABA) was 3.4-fold higher in HaCaT compared to NHEK and varied between the HaCaT shipments (range 12.0"44.5 nmol/mg/min). Since B[a]P induced cytochrome p450 1 (CYP1) activities were also higher in HaCaT compared to NHEK, the cell line can be considered as an in vitro tool to qualitatively model epidermal metabolism, regarding NAT1 and CYP1. The HaCaT shipment with the highest NAT1 activity showed only minimal reduction of cell viability after treatment with PPD and was subsequently used to study interactions between NAT1 and PPD in keratinocytes. Treatment with PPD induced expression of cyclooxygenases (COX) in HaCaT, but in parallel, PPD N-acetylation was found to saturate with increasing PPD concentration. This saturation explains the presence of the PPD induced COX induction despite the high N-acetylation capacities. A detailed analysis of the effect of PPD on NAT1 revealed that the saturation of PPD N-acetylation was caused by a PPD-induced decrease of NAT1 activity. This inhibition was found in HaCaT as well as in primary keratinocytes after treatment with PPD and PABA. Regarding the mechanism, reduced NAT1 protein level and unaffected NAT1 mRNA expression after PPD treatment adduced clear evidences for substrate-dependent NAT1 downregulation. These results expand the existing knowledge about substrate-dependent NAT1 downregulation to human epithelial skin cells and demonstrate that NAT1 activity in keratinocytes can be modulated by exogenous factors. Further analysis of HaCaT cells from different shipments revealed an accelerated progression through the cell cycle in HaCaT cells with high NAT1 activities. These findings suggest an association between NAT1 and proliferation in keratinocytes as it has been proposed earlier for tumor cells. In conclusion, N-acetylation capacity of MoDCs as well as keratinocytes contribute to the overall N-acetylation capacity of human skin. NAT1 activity of keratinocytes and consequently the detoxification capacities of human skin can be modulated by the presence of exogenous NAT1 substrates and endogenous by the cell proliferation status of keratinocytes.