Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (488) (entfernen)
Sprache
- Deutsch (488) (entfernen)
Volltext vorhanden
- ja (488) (entfernen)
Schlagworte
- Deutschland (24)
- Stress (13)
- n.a. (10)
- Bodenerosion (9)
- Tourismus (8)
- Fernerkundung (7)
- Geschichte (7)
- Modellierung (7)
- Motivation (6)
- Nachhaltigkeit (6)
Institut
- Psychologie (117)
- Raum- und Umweltwissenschaften (97)
- Wirtschaftswissenschaften (34)
- Geschichte, mittlere und neuere (28)
- Germanistik (25)
- Kunstgeschichte (21)
- Mathematik (18)
- Politikwissenschaft (15)
- Soziologie (15)
- Fachbereich 1 (10)
- Informatik (10)
- Philosophie (9)
- Fachbereich 3 (8)
- Romanistik (8)
- Anglistik (6)
- Computerlinguistik und Digital Humanities (6)
- Fachbereich 6 (6)
- Medienwissenschaft (6)
- Fachbereich 2 (5)
- Geschichte, alte (5)
- Allgemeine Sprach- und Literaturwissenschaft (4)
- Fachbereich 4 (4)
- Fachbereich 5 (4)
- Klassische Philologie (4)
- Pädagogik (4)
- Ethnologie (3)
- Archäologie (2)
- Japanologie (2)
- Rechtswissenschaft (2)
- Sinologie (2)
- Phonetik (1)
- Slavistik (1)
Die Beobachtung und Bewertung von Wäldern ist eins der zentralen Themen der Fernerkundung. Wälder sind auf der Erde die größten Speicher von Biomasse und damit, neben den Ozeanen, die größte Senke für Kohlendioxid. Eine genaue Kenntnis über Zusammensetzung, Zustand und Entwicklung der Wälder ist wegen ihrer vielfältigen Funktionen und ihres großen Anteils an der Landesfläche von großem wissenschaftlichem und gesellschaftlichem Wert. Eine flächen-deckende detaillierte Beobachtung ist nur mit fernerkundlichen Mitteln möglich. Eine vielversprechende moderne Technik für hochauflösende Waldfernerkundung ist luftgestütztes Laser-¬scanning. Für die Arbeit stand ein Laserscanner-Datensatz aus dem Idarwald bei Morbach in Einzelpunkten und als Wellenformdatensatz zur Verfügung, der zur Ableitung von strukturellen Waldparametern genutzt wurde. Als wichtigster Bestandsstrukturparameter wurde die Baumhöhe sowohl aus Einzelpunktdaten als auch aus gerasterten Bilddaten flächendeckend mit hoher Genauigkeit abgeleitet. Die Kronenuntergrenzen konnten anhand der Wellenformdaten identifiziert werden und stimmten ebenfalls in hoher Genauigkeit mit Geländemessungen überein. Aus Baumhöhen und Höhe der Kronenuntergrenzen konnte die jeweilige Kronenlänge bestimmt werden. Eine größere Herausforderung ist die Bestimmung der Anzahl der Bäume pro Hektar. Während die einzelnen Kronen älterer Nadelbäume gut erkennbar sind, lassen sich Laubbäume und jüngere Nadelbäume nur schwer identifizieren. Trotzdem konnte mit Hilfe eines adaptiven Moving-Window-Ansatzes eine hohe Übereinstimmung mit im Gelände bestimmten Stammzahlen erzielt werden. Aus dem Anteil der Laserstrahlen, die im Bestand den Boden erreichen, können der Kronenschlussgrad und der Blattflächenindex bestimmt werden. Beide Größen sind für den Strahlungstransfer im Bestand und für ökologische Fragestellungen von Bedeutung und konnten ebenfalls flächendeckend und mit hoher Genauigkeit gemessen werden. Eng verknüpft mit dem Blattflächenindex sind die Biomasse und der Holzvorrat. Der Holzvorrat kann zwar nicht direkt aus den Laser-¬scannerdaten abgeleitet werden, da aber enge Beziehungen zu Baumhöhe und Stammzahl bestehen, kann er aus diesen statistisch abgeleitet werden. Auch die Biomasse wurde indirekt bestimmt: aus den Baumhöhen und dem Bedeckungsgrad. Die detaillierteste Charakterisierung von Waldbeständen kann durch Kombination unterschiedlicher Datensätze erreicht werden. Neben dem Laserscanningdatensatz stand auch ein hyperspektrales Bild des Untersuchungsgebiets zur Verfügung. Um diese zu kombinieren, wurde aus den Wellenformen die jeweils über der Fläche eines Hyperspektralpixels zurückgestreute Laserenergie in Höhenschritten von 0.5 m berechnet. Diese Höhenprofile zeigen die Position und Dichte der Baumkronen. Der kombinierte Datensatz wurde für eine Klassifikation zwischen Fichten und Douglasien in jeweils mehreren Altersstufen verwendet und konnte gegenüber dem Hyperspektralbild alleine eine deutliche Verbesserung der Klassifikationsgenauigkeit erzielen. Als weitere Methode, die Vorteile von hyperspektraler Fernerkundung mit denen von Laser-scanning zu verbinden, wurden Methoden zur Verwendung von Laserscanning für die Invertierung von zwei Reflexionsmodellen entwickelt und getestet. Da mit Laserscanning Größen bestimmt werden können, die aus einem Reflexionsspektrum nicht eindeutig ableitbar sind, können die Daten verwendet werden, um den Parameterraum bei der Invertierung zu verkleinern und damit die Invertierung zuverlässiger zu machen.
WICHTIGER HINWEIS: Aufgrund eines Computerfehlers bei der Rohdatenaufbereitung, müssen die 5.2.3. Ergebnisse (S. 43 ff.) wie folgt korrigiert werden: Explizite Einstellungsmessung Die Ergebnisse ändern sich inhaltlich: Haupteffekt Wortvalenz F(1, 94) = 51.10, p < .001, η2 = .35, (Mpos= 5.06; Mneg= -28.51); Interaktionseffekt Wortvalenz und kognitive Belastung F(1, 94) = 7.90, p < .01, η2 = .08, (Mpos/load= -5.01; Mpos/kein load= 15.13; Mneg/load= -25.43; Mneg/kein load= -31.75); Haupteffekt Wortnegation F(1, 94) = 8.58, p < .01, η2 = .08, (Mkeine = -7.95; Mnegation= -15.58). Implizite Einstellungsmessung Die Ergebnisse bleiben inhaltlich gleich: Zweifach-Interaktion von Wortvalenz und Prime, F(1, 80) = 4.61, p < .05, η2 = .06, (Mpos/wahr= 20.33; Mpos/falsch= 3.85; Mneg/wahr= 4.44; Mneg/falsch = 14.14). ABSTRACT: Ziel der vorliegenden Arbeit war es Evidenz für die Existenz einer Antonymie-Heuristik bei der Falsifikation valenter Information zu finden. Es wird angenommen, dass die vorherige Ankündigung, dass eine nachfolgende valenzhafte Information falsch ist, zu einer Änderung der Enkodierungsstrategie der valenzhaften Information führt. Dies bedeutet, dass zu der Valenz der gegebenen Information automatisch eine Gegenvalenz oder antonyme Valenz aktiviert werden sollte. Dementsprechend sollten falsche positive Informationen negativer und falsche negative Informationen positiver beurteilt werden als ihre wahren Entsprechungen. In vier Studien konnte dieser Effekt nachgewiesen werden. Die Ankündigung, dass eine valenzhafte Information falsch ist, beeinflusst, unabhängig von kognitiver Belastung, die Valenzübertragung in einem evaluativen Konditionierungsparadigma in vorhergesagter Weise (Experiment1). Ebenso führen generierte Gegenvalenzen, wenn eine Information als falsch angekündigt wurde, zu einem Verarbeitungsvorteil in einer Valenzkategorisierungs-Aufgabe, bei welcher positive Informationen als negativ und negative Informationen als positiv eingeschätzt werden sollten (Experiment 2). Die Ankündigung, dass eine nachfolgende Information falsch ist, führt außerdem dazu, dass positive (negative) Eigenschaften schnell und effizient negativer (positiver) eingeschätzt werden als bei einer Ankündigung der Informationen als wahr (Experiment 3 und 4). Zusammenfassend werden diese Befunde als Evidenz für die Existenz einer Antonymie-Heuristik im Zuge der Falsifikation valenter Information interpretiert.
Monatelange Wartezeiten auf einen ambulanten Psychotherapieplatz sind der Regelfall im deutschen Gesundheitssystem. Die Veränderung der Symptombelastung der Patienten in der Wartezeit ist bislang allerdings kaum empirisch untersucht worden. In der vorliegenden Arbeit wurden an einer Stichprobe ambulanter Psychotherapiepatienten die Ausprägungen und Veränderungen der allgemeinen psychischen Symptombelastung während der durchschnittlich sechsmonatigen Wartezeit auf den Psychotherapieplatz untersucht. Zudem wurde überprüft, mit welchen Merkmalen die Symptombelastungen zum Zeitpunkt der Anmeldung zur Therapie und zum Zeitpunkt des Erstgesprächs sowie ihre Veränderungen in der Wartezeit zusammenhängen. Die dabei untersuchten Persönlichkeitsmerkmale wurden aus theoretischen Rahmenmodellen abgeleitet. Hierzu gehören die aktionale Entwicklungspsychologie, das handlungstheoretische Partialmodell der Persönlichkeit mit der darin eingeordneten Vertrauens-Trias und das Androgynie-Modell der psychischen Gesundheit. Nach einem direkten Veränderungskriterium zeigten 48 % der Patienten in der Wartezeit keine bedeutsame Veränderung, 29 % eine Verbesserung und 23 % eine Verschlechterung. Durch die bei der Anmeldung erfassten Persönlichkeitsmerkmale konnten Verbesserungen, Verschlechterungen und gleichbleibende Symptombelastungen in der Wartezeit anhand einer multinomialen logistischen Regressionsanalyse für 60 % der Patienten korrekt vorausgesagt werden. Eine traditionelle normative Geschlechtsrollen-Orientierung stellt einen negativen Prädiktor für eine Verbesserung dar. Soziales Vertrauen konnte Verschlechterungen negativ vorhersagen. Bei Hoffnungslosigkeit handelt es sich um einen marginal negativen Prädiktor für eine Verbesserung. Ein hoch ausgeprägtes Selbstkonzept eigener Fähigkeiten ist ein positiver Prädiktor für eine Verschlechterung. Hinsichtlich der soziodemografischen und störungsbezogenen Merkmale konnten das Alter, das Geschlecht und die Anzahl der Diagnosen die Veränderungen der Symptombelastung in der Wartezeit zu 54 % korrekt vorhersagen. Das Alter ist ein positiver Prädiktor für eine Verschlechterung. Weibliches Geschlecht und die Anzahl an Diagnosen sind negative Prädiktoren für eine Verbesserung. Darüber hinaus wurden differenzierte Zusammenhänge zwischen den Persönlichkeitsmerkmalen und der Symptombelastung exploratorisch untersucht.
Wilhelm Windelband (1848-1915) gilt als ein wegbereitender Denker, der die wertphilosophische Ausrichtung der sogenannten Südwestdeutschen Schule vorzeichnet. Aufgrund dieser Vorreiterrolle sowie seiner fragmentarischen Denkweise gerät die Eigenständigkeit seines Philosophierens oft in Vergessenheit oder wird meistens im Schatten der Rezeptionsgeschichte gesehen. Die vorliegende Arbeit macht sich zur Aufgabe, Windelbands Philosophie zunächst in ihrer Eigentümlichkeit wiederherzustellen, um anschließend nach ihrer systematischen Bedeutung fragen zu können. Neben den entwicklungsgeschichtlichen Aspekten, anhand derer Windelbands gedanklicher Werdegang in drei Phasen (Psychologismus, Wertphilosophie und Kulturphilosophie) eingeteilt wird, geht die vorliegende Arbeit vor allem der Frage nach, in wie fern die von ihm konzipierte Wertphilosophie als Kulturphilosophie zu verstehen ist. Die Forderung des späten Windelbands, den Kantischen Kritizismus zu einer umfassenden Kulturphilosophie zu erweitern, dient dabei als roter Faden dieses Interpretationsversuchs. Die Herausarbeitung möglicher systematischer Ansatzpunkte innerhalb seiner Werttheorie, die dieser Forderung genügen, soll Windelbands Status als Kulturphilosoph untermauern.
Die vorliegende Arbeit untersucht das Bild der "Kernfamilie", das hier definitorisch wie folgt umrissen wurde: Auf einem geschlossenen Bildträger müssen beide Elternteile mit mindestens einem Nachkommen dargestellt sein, in einem reduzierten, nicht-narrativen Kontext. Als Hypothese wurde als Bezeichnung für dieses Bild der Begriff des "dynastischen Familienbildes" gewählt. Der Schwerpunkt lag auf kleinformatigen, nicht-sepulkralen Denkmälern, da gerade bei Grabdenkmälern sowohl regionale Traditionen sowie eine völlig andere Bedeutungsebene zu untersuchen wären. Die Untersuchung der römischen Familie und ihre Beurteilung in literarischen, epigraphischen, juristischen, numismatischen und archäologischen Quellen von der Republik bis in die Spätantike hat ergeben, dass sich einige Entwicklungslinien vom weit gefassten Familienverband der gens hin zur Kernfamilie" fassen lassen. Anders als in der Sepulkralkunst, wo eine ununterbrochene Tradition der Bilder der 'Kernfamilie' von den spätrepublikanischen Freigelassenenreliefs bis zu den Grabmedaillons vor allem in Dakien und Pannonien bis ins 4. Jahrhundert n. Chr. hinein besteht, setzt in der Kleinkunst eine dichte Überlieferung für diese Bilder erst in severischer Zeit ein. Seit dem 3. Jahrhundert wurden nun aber neben den Goldgläsern vor allem Gemmen, Ringe und Kameen mit Bildern der "Kernfamilie" geschaffen. In der Kleinkunst sind Aussagen zur Identifizierung der meist nicht benannten Familien schwierig; trotzdem ist es in den meisten Fällen möglich, die Personen in den Verwandtschaftsverhältnissen zueinander sicher zu bestimmen. Die Bilder folgen klaren Regeln, die in vier Deutungsebenen herausgestellt wurden: Das Deutungsmuster des "formalisierten Familienbildes" verweist auf die Regelhaftigkeit der Bildtypen. Die Anordnung der Personen erfolgte nicht willkürlich, jedem wird der ihm gebührende Platz zugewiesen. Damit ist das Bild auf den ersten Blick erfassbar. Nutzbar gemacht hat man sich bei der Schaffung dieser Bilder bereits bestehende Bildtypen; sie zeigten nämlich Ehepaare, Väter mit Nachkommen, Mütter mit Nachkommen oder nur die Kinder. Die Kleinkunst und die Münzen zeigen die Personen sowohl en face als auch im Profil. Allen gemeinsam ist jedoch die Tatsache, dass die Personen weder mit dem Betrachter, noch untereinander Blickkontakt aufnehmen wollen. Es geht also nicht um die Darstellung einer liebevollen Familie, die sich dem Betrachter präsentieren will und die in irgend einer Form interagiert. Das Bild ist stark repräsentativ und nicht-narrativ; es sollen Werte und Tugenden dargestellt werden. Daher kann von einem "hieratischen Familienbild" gesprochen werden. Der "hierarchische" Charakter zeigt sich, wenn die Rangfolge innerhalb der Familie gezeigt werden sollte. Hierzu dienten nicht nur die Position im Bild, die Anordnung im Verhältnis zu den anderen Familienmitgliedern, sondern auch Tracht und Insignien. Insgesamt kulminieren die Deutungsansätze im "programmatischen Familienbild". Das Bild der "Kernfamilie" ist trotz der sehr reduzierten Form in der Lage, eine Vielzahl an Werten und allgemeingültigen Tugenden zu verdeutlichen; Concordia, aeternitas, fecunditas und pietas sind nur die wichtigsten. Der bedeutsamste hinter den Bildern stehende Gedanke ist der der "Dynastie". Diese Absicht bzw. diese Hoffnung auf Fortdauer der Familie konnte durch das Bild der "Kernfamilie" einfach und wirkungsvoll transportiert werden. Aus diesem Grunde kann von einem "dynastischen Familienbild" gesprochen werden. Es wurde die Hypothese aufgestellt, dass die Bilder der "Kernfamilie" nicht nur als Bilder realer Familien zu deuten sind, sondern auch topischen Charakter haben konnten. Es wird häufig nur ein Familienmitglied benannt, andere Personen werden unter Begriffen wie "cum parentibus" subsummiert. In diesen Fällen ist eine Entscheidung, ob die konkrete Familie gezeigt wird oder ob nur der Wert der Familie allgemein angezeigt werden soll, quasi unmöglich. Nur selten zeigen die dargestellten Personen wirklich individuelle Züge. Es handelt sich dabei aber wohl eher nicht um Porträts, sondern vielmehr um Bilder der "Rolle", welche die jeweilige Person in der Familie inne hatte. Es war also wichtiger, die Eltern von den Kindern unterscheiden zu können, als exakte Gesichtszüge wiederzugeben. Daher scheint es mir legitim zu sein, von einem "Kernfamilientopos" zu sprechen, der aber sehr wohl auch eine reale Familie zeigen kann. Zusammenfassend bleibt festzuhalten, dass es zwar keinen Begriff für die "Kernfamilie" gab, dass man aber nach Auswertung aller Quellen und des "Kernfamilientopos" davon ausgehen kann, dass diese Familieneinheit nicht nur die Lebenswirklichkeit der meisten Menschen darstellte, sondern auch als Symbol für eine ganze Anzahl von Kerntugenden dienen konnte, die für den Fortbestand der Dynastie, nicht nur im kaiserlichen, sondern auch im privaten Bereich, sowie für die Stabilität des Reiches von elementarer Bedeutung waren.
Der Schwarzmeerraum stellte am Ende des Mittelalters einen Schnittpunkt unterschiedlichster Kulturbereiche dar. Hier trafen das zerfallende Byzantinische Reich, die Reste der Kreuzfahrerstaaten, verschiedene mongolische Reiche und das aufsteigende Osmanische Reich aufeinander. Wie sich aus diesem Aufeinandertreffen ein über Jahrzehnte trotz immer wieder entstehender Konflikte fruchtbares und bei aller Dynamik relativ stabiles Miteinander entwickelte, wird anhand der aufschlussreichen Register der genuesischen Massaria von Caffa untersucht. Dabei liegt der Fokus sowohl auf der Organisation des italienischen Netzwerks in der Region als auch auf dem Umgang mit den tatarischen und türkischen Nachbarn, auf deren Gebiet die Genuesen operierten, insbesondere auf den diplomatischen Aktivitäten. Wie sich unter diesen Umständen der Handel als Hauptaktivität entfaltete, wird am Beispiel des Sklavenhandels verdeutlicht.
Die Einführung leistungsorientierter Entgeltsysteme stellt Mitarbeiter und Unternehmen vor besondere Herausforderungen. Dabei verändert sich vor allem die Rolle des Mitarbeiters. War er vormals Ausführender der ihm übertragenen Arbeitsaufgaben, wird er zunehmend zum eigenverantwortlichen Gestalter und Mitunternehmer. Im Rahmen einer multiplen Fallstudie wird zunächst der Frage nachgegangen, wie die Mitarbeiter in drei karitativen Einrichtungen die Einführung einer leistungsorientierten Vergütungskomponente erleben. Dazu werden inhaltliche Gestaltungsmerkmale der Entgeltsysteme, Merkmale des Einführungsprozesses und ihre Auswirkungen untersucht. Die Ergebnisse zeigen, dass die Mitarbeiter in allen Einrichtungen dem Aspekt der Finanzierung des variablen Vergütungsanteils eine wesentliche Bedeutung beimessen. Wird dieser Anteil durch die Variabilisierung bisher garantierter, fixer Vergütungsanteile finanziert, entstehen unsichere Gehalts-anteile und es erhöht sich das Risiko von möglichen Gehaltsverlusten. In der Einrichtung mit dem höchsten Entgeltrisiko führte dieser Umstand dazu, dass Mitarbeiter und Vorgesetzte durch informelle Absprachen versucht haben, mögliche Verluste zu vermeiden. Wird der variable Entgeltanteil durch die Einrichtungen mitfinanziert, erhöhen sich hingegen die Chancen auf Einkommensgewinne, was auch zu einer höheren Akzeptanz der neuen Entgeltsysteme beiträgt. Aufbauend auf den Ergebnissen der Fallstudie werden in einer quantitativen Analyse die Auswirkungen eines erhöhten Entgeltrisikos auf die Zufriedenheit der Mitarbeiter mit ihrem variablen Vergütungsanteil (Bonuszufriedenheit) untersucht. Dabei wird das Entgeltrisiko durch drei konzeptuelle Facetten operationalisiert: die Variabilität der Entlohnung, das Ausmaß möglicher Verluste und das Verhältnis von Risiko und Chance (RCV). Entgegen der bisherigen Annahme in der Forschungsliteratur, dass vor allem die Variabilität der Entlohnung ausschlaggebend für die Auswirkungen von Entgeltrisiko ist, zeigen regressionsanalytische Ergebnisse, dass in der Einführungsphase neuer Entgeltsysteme vor allem das RCV einen signifikanten Effekt auf die Bonuszufriedenheit der Mitarbeiter hat. Die Ergebnisse einer multiplen Mediationsanalyse legen nahe, dass der Effekt von RCV auf die Bonuszufriedenheit zum Teil von Einstellungen der distributiven und prozeduralen Gerechtigkeit vermittelt wird. Wei-terführende Analysen ergeben, dass der Zusammenhang zwischen dem RCV und der Bonuszufriedenheit durch zwei moderierende Variablen beeinflusst wird: zum einen durch die partizipative Beteiligung der Mitarbeiter am Einführungsprozess und zum anderen durch die individuelle Präferenz für leistungsorientierte Entlohnung. Vor allem bei hoher partizipativer Beteiligung wirkt sich ein günstiges RCV positiv auf die Bonuszufriedenheit der Mitarbeiter aus. Außerdem sind jene Mitarbeiter unzufriedener mit einem risiko-reichen Entgeltsystem, die eine stark ausgeprägte Präferenz für leistungsorientierte Entlohnung besitzen.
Die Dissertation ist der Kuünstlerpersönlichkeit und dem Werk des Kubaners Wifredo Lam gewidmet. Lam wurde 1902 auf Kuba als Sohn eines Chinesen und einer Kubanerin geboren und starb 1982 in Paris. Die vielen unterschiedlichen Lebensstationen des Künstlers bezeugen seine Mobilität und Reiselust, zeichnen aber auch gleichzeitig die historischen Turbulenzen und Umbrüche des 20. Jahrhunderts nach. Lam gilt heute als einer der Hauptvertreter der lateinamerikanischen Kunst des 20. Jahrhunderts und als Künstlerikone Kubas. Zu Lams Freunden und Bekannten gehörten unter anderem Pablo Picasso, André Breton, Michel Leiris, Pierre Mabille, Alejo Carpentier, Lydia Cabrera, Aimé Césaire, Benjamin Perét und Asger Jorn. Sein Werk ist durch den Kubismus und den Surrealismus beeinflusst. Auch interessierte er sich für die lokalen Gegebenheiten, Kulturen und Traditionen seiner jeweiligen Aufenthaltsorte. Er setzte sich unter anderem mit der Rezeption des "Primitiven" der europäischen Avantgarde vor dem Zweiten Weltkrieg, wie auch - zurück in der Heimat Kuba - mit der afrokubanischen Mischreligion Santeria auseinander und fühlte sich politisch wie intellektuell mit der karibischen Négritude verbunden. Diese und andere Eindrücke und Einflüsse hinterließen Spuren in Lams Werk, die er in eine Formensprache umsetzte, die seinem Œuvre einen unverwechselbaren Ausdruck verleiht. Dem poliperspektivistischen und semantisch mehrfach aufgeladenen Werk jedoch stehen eine erstaunlich einseitige und nicht selten stereotype internationale Repräsentation und Rezeption gegenüber. Die Dissertation jedoch stellt eine andere, eine neue Positionierung des Künstlers und seines Werkes vor, die ohne primitivistische Zuschreibungen und biografische Bezeugungen auskommt. Dies gelingt zum einen durch die Auseinandersetzung mit den Rezeptions- und Repräsentationsmechanismen, die den Künstlermythos Lam ausgebildet haben. Daran schließt sich eine detaillierte Analyse repräsentativ ausgewählter Einzelbildbeispiele an. Aber auch die Auseinandersetzung mit dem Gesamtwerk des Künstlers ist relevant. Denn es zeigt sich, dass die über Jahrzehnte hin praktizierte Wiederholung von Bildformeln und die Homogenität in der Darstellungsweise Teil des künstlerischen Programms von Wifredo Lam sind. Diese stilistische Formalität wurde von den Kritikern des Lamschen Werkes bisher nicht beachtet. Auf der Basis dieser neu erarbeiteten Erkenntnisse kann Wifredo Lam als Fallbeispiel für übergeordnete Fragestellungen dienen und zentrale Aspekte der cultural studies illustrieren. Denn Lams künstlerische Formgestaltung verweist auf ein alternatives ästhetisches Identitätsmodell, das Synkretismus und Hybridität nicht als Verlust von Identität, sondern als eine Praxis von Differenz versteht. Diese Ausrichtung der Lesart ermöglicht es, das Gesamtwerk als eine künstlerische Antwort auf Fragen kultureller Identität und Multikulturalität zu deuten.
Das erste Beispiel einer so genannten universellen holomorphen Funktion stammt von Birkhoff, welcher im Jahre 1929 die Existenz einer ganzen Funktion beweisen konnte, die gewissermaßen jede ganze Funktion durch geeignete Translationen approximieren kann. In der Folgezeit hat sich der Bereich der "universellen Approximation" zu einem eigenständigen Gebiet innerhalb der komplexen Approximationstheorie entwickelt, und es gibt eine Vielzahl an Ergebnissen über universelle Funktionen. Hierbei wurde sich allerdings fast ausschließlich auf das Studium holomorpher und ganzer Funktionen beschränkt, insbesondere die Klasse der meromorphen Funktionen wurde bisher kaum auf das Phänomen der Universalität hin untersucht. Die vorliegende Arbeit beschäftigt sich mit universeller meromorpher Approximation, und geht der Fragestellung nach, ob meromorphe Funktionen mit gewissen Universalitätseigenschaften existieren, und ob die klassischen Ergebnisse aus der universellen holomorphen Approximation auf den meromorphen Fall erweiterbar sind. Hierbei wird zunächst zwischen Translations- und Streckungsuniversalität unterschieden und bewiesen, dass in beiden Fällen jeweils eine im Raum der meromorphen Funktionen residuale Menge an universellen Funktionen existiert. Weiterhin werden die Eigenschaften dieser Funktionen ausführlich studiert. Anschließend werden meromorphe Funktionen auf Ableitungsuniversalität hin untersucht. Hierbei wird einerseits gezeigt, dass im Allgemeinen keine positiven Ergebnisse möglich sind, während andererseits eine spezielle Klasse meromorpher Funktionen betrachtet wird, für welche universelles Verhalten der sukzessiven Ableitungen nachgewiesen werden kann.
Der Titel der Dissertation enthält bereits die inhaltlichen Vorgaben, die zu Grund gelegt werden. Wie nämlich gelingt es Eckhart insbesondere in seinen deutschen Predigten, den Erfahrungsbereich Gott zu verbalisieren? Bei der Untersuchung der Frage, wie Gott - dem eine eigene, den Menschen nur bedingt erfahrbare Wirklichkeit zugrunde liegt - wie er also zur Sprache gebracht werden kann, ist es erforderlich, sich über die Wirklichkeit und ihre Beziehungen zu Gott und den Menschen klar zu werden. Mir geht es darum, die Problematik des Verhältnisses von Mensch und Gott in Beziehung zum Glaubensleben in einer tiefen geistig-geistlichen Durchdringung transparent zu machen. Konkreter: Bei der Textuntersuchung geht es um die Interpretation sprachlicher Äußerungen im Hinblick auf die darin zur Sprache gebrachte Erfahrung der Wirklichkeit Gottes. Bereits in dieser groben Skizzierung wird deutlich, dass sich die Untersuchung nicht alleine auf eine wissenschaftliche Disziplin beschränkt, sondern in ihrem interdisziplinären Charakter Fragen der Germanistik, der Philosophie und Theologie gleichermaßen berührt. Die Aufgabenstellung der Dissertation an sich und der Versuch, sich Meister Eckhart und seiner Gedankenwelt in seinen deutschen Predigten zu nähern, implizierte bereits die dann zugrunde gelegte methodische Vorgehensweise. Im Mittelpunkt der Untersuchung stand zwangsläufig Eckharts deutsches Predigtkorpus. Als textliche Grundlage habe ich mich für die Largier-Ausgabe entschieden, weil sie m. E. die am besten handhabbare Ausgabe war. Wichtig war für mich, Eckhart so oft als möglich selbst zu Wort kommen zu lassen. Das bedeutete eine dezidiert intensive Auseinandersetzung mit seinen Predigten einerseits und andererseits einer kritischen Würdigung der Sekundärliteratur. Den Gedankengang dieser weiter zu verfolgen und neue Deutungsebenen zu erschließen, gehörten ebenso zum methodischen Procedere. Zuerst war aber das geistig-geistliche Umfeld ME-´s in den Blick zu nehmen. Grundsätzlich ist zum Gesamtverständnis seines Werkes wichtig, ihn als Dominikaner zu begreifen. Zum Selbstverständnis dieses Bettelordens gehört seine intellektuelle Ausrichtung, die für Eckharts Erkenntnislehre fundamental ist: Demnach ist das Erkennen die Grundlage von Gottes Sein und steht sogar höher als das Sein. Wort und Intellekt haben Vorrang vor dem Sein. Gott ist das Sein dadurch, weil er denkt. Alles Sein ist abgeleitet vom Intellekt. Die Auseinandersetzung mit den theologisch-philosophischen Strömungen seiner Zeit war maßgebend für das weitere Verständnis von Eckharts Gedankenwelt. So wurden zunächst Fragen geklärt, wie Eckhart in seiner Zeit, nämlich der Schwelle zum 14. Jahrhundert, zu verorten ist. Ebenso wurden die Denker in ihrer Beziehung und Rezeption Eckharts vorgestellt: Plotin, Dionysius Areopagita, auf theologischer Seite insbesondere Augustinus und Albertus Magnus. Gleiches gilt für die weiblichen Vordenkerinnen Margarete Porete, Mechthild von Magdeburg und Schwester Hadewijch von Antwerpen. Wie sich Eckharts Christologie und theologische Anthropologie in seinen Predigten niederschlägt, welche Bedeutung er des Menschen Durchbruch und Sprung in Gottes Sphäre zubilligt, wie sich Gottesgeburt im Menschen ereignet und damit neue Wirklichkeiten konstituiert, wurden weiterhin dargelegt. ME ist nicht leicht zu fassen und festzulegen. Er, der selbst kein eigenes Lehrsystem und keine Dogmen entwickelt hat, lässt sich in keine Schablone pressen. Am ehesten greifbar ist Eckhart, wenn man erkennt, dass für ihn Sprache mehr ist als ein Vehikel, um göttliche Botschaften in Alltägliche zu transformieren. Bei Eckhart transzendiert Sprache selbst: Sprache beschreibt eine Wirklichkeit, die selbst wiederum Teil der Wirklichkeit ist. Gott kommuniziert nicht nur informierend, sondern sich selbst, Kommunikation ist Beziehungstheologie im trinitarischen Sinne, die gleichzeitig neue Wirklichkeiten schafft.
Die Ménage-Polynome (engl.: ménage hit polynomials) ergeben sich in natürlicher Weise aus den in der Kombinatorik auftretenden Ménage-Zahlen. Eine Verbindung zu einer gewissen Klasse hypergeometrischer Polynome führt auf die Untersuchung spezieller Folgen von Polynomen vom Typ 3-F-1. Unter Verwendung einer Modifikation der komplexen Laplace-Methode zur gleichmäßigen asymptotischen Auswertung von Parameterintegralen sowie einiger Hilfsmittel aus der Potentialtheorie der komplexen Ebene werden starke und schwache Asymptotiken für die in Rede stehenden Polynomfolgen hergeleitet.
Die Auswirkungen von Rahmenfehlern in Zensen werden bereits seit vielen Jahren untersucht. Eine Methode, um aktuelle Bevölkerungszahlen zu gewinnen, basiert auf Fortschreibung. Wegen Ungenauigkeiten in der Fortschreibung wurden aber auch andere Modelle entwickelt - die capture-recapture-Modelle. Am 29. August 2006 hat die Bundesregierung beschlossen, dass in Deutschland 2011 ein registergestützter Zensus durchgeführt wird. Der Schwerpunkt dieser Dissertation liegt in der Anwendung des capture-recapture-Modelles im deutschen Zensus 2011. Die Dissertation vergleicht den dual system estimator (DSE) und alternative Schätzer (Verallgemeinerter-Regressionsschätzer, Verhältnis-synthetischer Schätzer, Schätzer basierend auf dem Unit-level Modell) für die Schätzung der Anzahl der tatsächlich vorhandenen Personen. Die empirische Untersuchung der Güte der Schätzer basiert auf Monte Carlo Simulationen synthetischer Populationen des Bundeslandes Saarland.
Die Vertrauens-Trias erlaubt salutogentische Aussagen über personale Ressourcen. Die kulturvergleichende Anwendung der Vertrauens-Trias wurde bei Jugendlichen in drei Ländern (Deutschland, Luxemburg, Spanien) überprüft. Dabei wurde die Konstruktvalidität der Vertrauens-Trias als auch Zusammenhänge zu symptomatischen Belastungen insgesamt bestätigt. Vergleiche zwischen den Kulturen zeigen keine Unterschiede zwischen deutschen und luxemburgischen Schülern, jedoch zwischen deutschen und spanischen Schülern.
Virtuelle Umgebungen erfreuen sich in den letzten Jahren einer großen Beliebtheit und können kontinuierlich wachsende Nutzerzahlen vorweisen. Deshalb wird erwartet, dass die ohnehin große Nutzergemeinde weiterhin wächst. Dieses Wachstum stellt jedoch die Entwickler und die Betreiber von virtuellen Umgebungen vor eine Herausforderung. Die meisten heutzutage erfolgreichen virtuellen Umgebungen basieren auf einer Client-Server-Infrastruktur, in der der Server für die Verwaltung der gesamten Umgebung zuständig ist. Bei einer gleichzeitigen Inanspruchnahme durch viele Nutzer werden die serverbasierten Umgebungen jedoch massiven Skalierbarkeits- und Lastverteilungsproblemen ausgesetzt. Diese Probleme führen beispielsweise dazu, dass Nutzer Wartezeiten beim Einloggen in Kauf nehmen müssen bzw. selbst im Falle eines erfolgreichen Logins die "überfüllten" virtuellen Regionen nicht betreten dürfen. Deshalb wird in dieser Arbeit untersucht, ob eine Verbesserung der Skalierbarkeit und der Lastverteilung in virtuellen Umgebungen durch die Verwendung alternativer Infrastrukturansätze erreicht werden kann. Außerdem werden Maßnahmen zur weiteren Entlastung der Basis-Infrastruktur entwickelt. Diese Verbesserung soll zum einen dadurch erzielt werden, dass anstelle eines Servers ein Server-Verbund (Peer-to-Peer-System) als eine Art Management-Schicht agieren soll, in der jeder Knoten nur einen bestimmten Teil der virtuellen Umgebung verwaltet. Dabei wird die gewünschte Lastverteilung durch die Aufteilung der Verantwortungsbereiche auf die Knoten der Management-Schicht erreicht. Gleichzeitig entsteht aber ein Mehraufwand für die Konstruktion bzw. Erhaltung einer solchen Management-Schicht. Deshalb werden in dieser Arbeit die Vor- und Nachteile eines Infrastrukturwechsels hin zu dezentralisierten Infrastruktur-Ansätzen untersucht. Zum anderen wird eine spürbare Entlastung der Management-Schicht und somit eine Verbesserung der Skalierbarkeit und der Lastverteilung durch die Übertragung einiger Verwaltungsaufgaben an die Clients angestrebt. Zu diesen Verwaltungsaufgaben zählen die Gruppenkommunikation und das Konsistenz-Handling. Dazu wird in dieser Arbeit erforscht, inwiefern die Clients, die sich innerhalb derselben virtuellen Region befinden, selbst die Gruppenkommunikation über eine Multicast-Infrastruktur regeln können bzw. in die Wahrung der Konsistenz eines gemeinsamen Zustandes und der gemeinsam genutzten Objekte involviert werden können. Bei dem clientbasierten Konsistenz-Handling sollte vor allem auf die besonderen Interaktivitäts- und Konsistenzanforderungen, die Nutzer an die virtuellen Umgebungen stellen, geachtet werden. Dazu wird ein neues Konsistenzmodell definiert, welches die Einhaltung der strengen Interaktivitätsanforderungen erzwingt und die Konsistenz mit einer bestimmten Wahrscheinlichkeit garantieren kann.
Aus dem Wunsch, die zentralen Prozesse im System Boden"Pflanze"Atmosphäre einschließlich der Auswirkungen verschiedener Bewirtschaftungspraktiken zu verstehen und nachzubilden, resultiert die Entwicklung verschiedener Pflanzenwachstumsmodelle. Ziel der vorliegenden Untersuchung ist zum einen, die im Realsystem auftretenden räumlichen Ertragsmuster zu identifizieren und zu charakterisieren. Mithilfe der Semivariogramm-Analyse ist eine räumliche Autokorrelation der Ertragsdaten von maximal 48 Meter abzuleiten. Die räumliche Analyse (GIS) zeigt, dass die Sommergerste ein leicht abweichendes Verhalten im Vergleich zu den Winterkulturen (Winterweizen, Winterraps) aufweist. Schließlich werden mithilfe der selbstorganisierenden Merkmalskarten die primär und sekundär für das Ertragsverhalten verantwortlichen Ursachen identifiziert. Eine abschließende hierarchische Clusteranalyse gliedert die in die Untersuchung eingehenden Standorte in vier spezifische Cluster mit charakteristischen Eigenschaften. Ein zweites Ziel ist die Klärung der Frage, ob die Pflanzenwachstumsmodelle STICS und DAISY bei entsprechender Parametrisierung in der Lage sind, das für ein detektiertes Muster charakteristische Verhalten von Pflanzenwachstum und Ertrag realitätsnah abzubilden. Den Modellanwendungen gehen eine Sensitivitätsanalyse und verschiedene Parametrisierungsansätze zur Erfassung des jeweiligen Modellverhaltens voraus. In beiden Modellen übt der Bodenwasserhaushalt einen starken Einfluss auf die Ertragsbildung aus. Des weiteren kommt in beiden Modellen den Stressfaktoren eine zentrale Bedeutung zu. Die Parametrisierung der Modelle auf der Grundlage der im Feld erhobenen Daten führt bei beiden Modellen nicht zu einem dem Realsystem entsprechenden Bild. Eine über die Sensitivitätsanalyse hinausreichende, vertiefte Modellkenntnis ist erforderlich, um die in die Modelle eingehenden Parameter bzw. deren spezifischen Einfluss auf das Modellverhalten beurteilen und interpretieren zu können. Dies betrifft insbesondere die Modellgrößen der Bodenmodule. Dieser Aspekt erschwert eine einfache räumliche Übertragung der Modelle STICS und DAISY.
Japanische Touristen in Deutschland : Analyse der Wahrnehmung der Destination Deutschland und der Kundenansprüche im interkulturellen Kontext. Auf der Angebotsseite steht die noch mittelständisch geprägte deutsche Hotellerie, mit der Tendenz einer zunehmenden Konzentration zur Groß- und Kettenhotellerie. Der japanische Kunde auf der Nachfragerseite wird aufgrund seiner kulturellen, sozialen, politischen und geschichtlichen Umgebung analysiert. Er bewegt sich in einer vorwiegend kollektivistisch und stark kontextorientierten, durch dichte Informationsnetze geprägten, maskulinen Gesellschaft. Beeinflusst durch die Lehre von Konfuzius bilden heute noch mora-lisches Handeln, Rechtschaffenheit, Höflichkeit, die Beachtung hierarchischer Beziehungen und Harmonie Handlungsgrundlage des gesellschaftlichen Lebens. Daneben hat Japan, als entwickeltes Industrieland, mit denselben Problemen wie westliche Industrienationen zu kämpfen, wie Überalterung, Wertewandel und konjunkturelle Auf- und Abschwünge. Der japanische Kunde stellt hohe Ansprüche an die Qualität des angebotenen Produktes und an den Service. Während die Hardware, z.B. die Qualität der Hotelzimmer in Deutschland positiv beurteilt wird, wird die Servicequalität hier oft als unzureichend empfunden. Dabei setzt der japanische Kunde, der an dichte Informationsnetze gewöhnt ist, viele Dinge als selbstverständlich voraus. Der Deutsche, der über diese Informationen nicht verfügt und sich stur an das Vereinbarte hält, wird als unhöflich empfunden. Als Einkaufsdestination hat Deutschland aufgrund fehlender Marken kaum Bedeutung. Japaner sind leidenschaftliche und experimentierfreudige Esser, die oft in Deutschland aufgrund der mangelnden Beachtung und Vermarktung lokaler Spezialitäten zu kurz kommen. Mittels der Methode Importance Grid konnten abgefragte Attribute in Basis-, Leistungs- und Begeisterungsfaktoren eingeteilt werden. Grundlegend und Ausschlusskriterium für einen Reiseantritt sind die öffentliche Sicherheit, die der Japaner nicht nur auf die Kriminalität sondern auch auf Lebensmittelsicherheit und Gesundheitswesen bezieht. Sehenswürdigkeiten sind wichtige Leistungsfaktoren. Das Hotelangebot, als Begeisterungsfaktor hat einen enormen Einfluss und damit großes Entwicklungspotential auf die Reisezufriedenheit. Begeisterung lösen weiterhin individuelle Begegnungen, eine originale und stimmige Atmo-sphäre und lokale Besonderheiten, aus. Der hoch kontextorientierte Japaner nimmt die Reise als Gesamterlebnis wahr und gibt seine Erinnerungen gern über Mund zu Mund Propaganda weiter. Folgereisen können sich wie ein Schneeballsystem entwickeln. Als Trends sind die zunehmende Bedeutung von Seniorenreisen, Hube-and-Spoke Reisen, Skeleton-Touren, der Furosato Trend und Honeymoonreisen zu nennen.
Die Zielsetzung der vorliegenden Arbeit war die raumdifferenzierte und skalenübergreifende Untersuchung der Hochwasserentstehungsprozesse im Frankelbach-Einzugsgebiet, das ein Beispiel eines land- und forstwirtschaftlich genutzten Kleineinzugsgebiets in Mittelgebirgen der gemäßigten Breiten ist. Eine Kernaufgabe war die Quantifizierung der Beiträge einzelner Abflusskomponenten während des Scheiteldurchflusses eines Hochwassers. Zudem sollten Zusammenhänge zwischen der Bodenfeuchtedynamik und der Abflussreaktion herausgearbeitet werden. Zur Bodenfeuchtemessung wurde ein neu entwickeltes Spatial-TDR-Messsystem eingesetzt. Im Rahmen dieses pilothaften Einsatzes war zudem die Tauglichkeit des Messsystems zu überprüfen und zu bewerten. Das im Rotliegenden gelegene 5 km2 große Frankelbachgebiet mit Jahresniederschlägen von 750 mm a-1, steil eingeschnittenen, bewaldeten Kerbtälern und ackerwirtschaftlich genutzten Hochflächen liegt zwischen 200 und 450 m ü. NN. Auf schuttführenden Sand- und Schlufflehmen, deren Genese auf periglaziale Solifluktionsprozesse zurückgeht, sind hangabwärts mächtiger werdende Braunerden zu finden. Bemerkenswert sind die zahlreichen Quellen auf gleicher Höhenlage, die teilweise als Pipequellen ausgebildet sind. Beregnungs- und Infiltrationsversuche dienten der Beurteilung der Oberflächenabflussreaktion unterschiedlich bewirtschafteter Flächen. Durch stündliche Spatial-TDR-Messungen an 13 Standorten (60 cm lange vertikal installierte Dreistabsonden) konnten Hangwasserflüsse identifiziert werden. Zwischen 2005 und 2009 wurden die Abflüsse vier geschachtelter Einzugsgebiete sowie einer Quelle in 10min-Intervallen erfasst und 87 Hochwasserereignisse analysiert. Mittels Messungen der elektrischen Leitfähigkeit und eines Zweikomponenten-Mischungsmodells wurde der Ereigniswasseranteil für die höchsten Hochwasser abgeschätzt. Ergänzend zu den Geländeexperimenten wurde ein einfaches Modell konzipiert, das eine quantitative Abschätzung der ober- und unterirdischen Wasserflüsse in einen Gewässereinschnitt erlaubt. Zum Vergleich mit 31 anderen Untersuchungsgebieten wurde eine Codierung entwickelt, die eine Einordnung sowohl hinsichtlich der Geofaktoren der Gebiete als auch bezüglich der untersuchten Hochwasserereignisse ermöglicht. Das im hanghydrologischen Forschungsbereich als eher trocken einzuordnende Frankelbachgebiet, zeigte ein jahreszeitlich sehr unterschiedliches Abflussverhalten. Während in trockenen Sommern hohe Niederschläge im Gebiet gespeichert werden, liegen die Abflusskoeffizienten für einige schneeschmelzfreie Frühjahrsereignisse über 50 %. Das höchste beobachtete Hochwasser weist einen Abflusskoeffizient von 55 % bei einer relativ niedrigen Abflussspende von 140 l s-1 km-2 auf. Die Großberegnungsversuche, die Quellabflussmessungen, die Ereignisanalysen und die Modellierungsergebnisse weisen darauf hin, dass Dauerregen- und Schneeschmelz-Hochwasser zum Großteil aus Zwischenabfluss bestehen. Hier konnten zwei Abflusskomponenten differenziert werden: (i) eine oberflächen- und gerinnenahe Komponenten, die aufgrund des hohen Ereigniswasseranteils von etwa 60 % durch präferentielles Fließen erklärt werden kann, und (ii) eine ein bis zwei Tage verzögerte tiefere Komponente, die durch unterirdische Abflusskonzentration auf stauenden Schichten generiert wird. Letztere war in den Quellabfluss- und Spatial-TDR-Messungen erkennbar, hatte jedoch an den am Pegel beobachteten Scheiteldurchflüssen nur einen sehr kleinen Anteil. Während sehr intensiver Niederschläge könnte zusätzlich der Horton'sche Oberflächenabfluss von offen liegenden, hydraulisch angeschlossenen Äckern zum Scheiteldurchfluss beitragen. Für sämtliche Spatial-TDR-Messstandorte ist von hohen Infiltrations- und Sickerraten auszugehen. Eine Aufsättigung der Standorte war nicht erkennbar, für die nassen Wintermonate liegen jedoch nur sehr wenige Spatial-TDR-Messwerte vor. Eine in einer Tiefenlinie installierte Sonde (A08) zeigte das Umschalten des Gesamtgebiets in relativ nasse Zustände an. Hier nahm die Bodenfeuchte während zwei größerer Dauerregenereignisse infolge der unterirdischen Abflusskonzentration stark zu. In der vorliegenden Arbeit wurden die einbau- und substratbedingten Unsicherheiten sowie die Schwächen des Algorithmus zur Rekonstruktion der absoluten Bodenfeuchtewerte konkretisiert. Demzufolge wurde lediglich das Spatial-TDR-Rohsignal als Indikator für die aktuelle Bodenfeuchte verwendet. Durch eine Transformation des Spatial-TDR-Signals von der Zeit auf den Sondenort können dennoch Aussagen zur relativen Änderung der Bodenfeuchte in einer bestimmten Tiefe gemacht werden können. Diese Informationen sind hinreichend genau für die Untersuchung hanghydrologischer Prozesse und für die Ableitung von Gebietsfeuchtezuständen.
Durch Bodendegradation werden jedes Jahr weltweit große Schäden verursacht. Die beiden Hauptverursacher für die globale Bodendegradation sind die Wind- und die Wassererosion. Für die Planung von effizienten Schutzmaßnahmen oder regionalen Managementplänen ist es deshalb wichtig zu verstehen, dass die beiden Prozesse nicht nur als abgekoppelte Phänomene auftreten. Auch wenn seit einiger Zeit das Bewusstsein hierfür zugenommen hat und eine steigende Anzahl von Bodenerosionsstudien auf diesen Sachverhalt eingehen, so bestehen vor allem bei der Abschätzung der relativen Bedeutung und dem Verständnis der vorhandenen Interaktionen zwischen der Wind- und Wassererosion noch substantielle Wissenslücken. Da indirekte Messverfahren, wie beispielsweise die Luftbildauswertung oder die Fernerkundung, für mikro-skalige Prozessstudien ungeeignet sind, beschränken sich die Studien zur Erfassung der Interaktion beider Prozesse zumeist auf die direkten und/oder experimentellen Messungen. Ein Vergleich der Abtragsraten und eine Untersuchung der Interaktionen zwischen der Wind- und der Wassererosion ist jedoch sehr schwierig, da es bislang kein Messinstrument gibt, dass einfach und schnell, die durch Wind, Wasser oder deren Zusammenwirken verursachten Erosionsraten auf natürlichen Oberflächen bestimmen kann. Aus diesem Grund wurde im Rahmen dieses Dissertationsprojekts erstmals, ein mobiler Windkanal mit integrierter Beregnungsanlage konzipiert und umgesetzt. Seine simulierten Wind- und Niederschlagseigenschaften wurden in Labormessungen mit einem Laserdistrometer, Niederschlagssammlern, Anemometern und Nebelversuchen bestimmt. Die beim Einsatz der Anlage in unterschiedlichen Messkampagnen gewonnenen Erkenntnisse zu seinem Aufbau flossen stetig in die Weiterentwicklung des Kanals ein. Die Qualität der simulierten Bedingungen im Kanal können nach den Modifikationen und unter Einbeziehung der Anforderungen an einen geländefähigen Kanal mit guter Mobilität, als sehr gut bezeichnet werden. Insbesondere die Reproduzierbarkeit der simulierten Bedingungen treten hier positiv hervor. Die angestrebten Ziele dieser Arbeit konnten weitestgehend erfüllt werden. Mit dem mobilen Windkanal mit integrierter Beregnungsanlage steht in Zukunft eine Anlage zur Verfügung, mit der die Abtragsraten der Wind- und Wassererosion im Gelände, getrennt und in ihrer gemeinsamen Wirkung, gemessen werden können. Durch den Einsatz der Anlage ist es möglich, einige der noch offenen wissenschaftlichen Fragen zur relativen Bedeutung und Interaktion der beiden Prozesse zukünftig zu untersuchen, um weitere Erkenntnisse über Ihren Einfluss auf die Bodendegradation, in Abhängigkeit von Landnutzungsänderungen und dem Klimawandel, zu erhalten.
Im Fokus der Dissertation steht das Spannungsfeld zwischen betriebswirtschaftlichen Zielen und unternehmerischer Sozialverantwortung. Dieses wird im Hinblick auf die Ebene des Arbeitsmarktes und die Beschäftigung von Menschen mit Behinderung im Tourismus untersucht. Das Ziel der Untersuchung ist die Identifikation des durch die sozialwirtschaftlichen Intentionen integrativer Hotels entstehenden gesamtgesellschaftlichen Nutzens. Ob integrativen Hotels der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt, wird hierbei ermittelt. Bei dem herangezogenen Untersuchungsobjekt integrativer Hotelbetrieb handelt es sich um Hotels, die Menschen mit und ohne Behinderung beschäftigen, als Integrationsprojekte anerkannt sind und vom Gesetzgeber als Unternehmen des allgemeinen Arbeitsmarktes definiert werden. Da es sich um ein in der Tourismuswissenschaft weitgehend unbekanntes Untersuchungsobjekt handelt, wird dieses grundlegend erläutert, sodass neben dem Konzept, den rechtlichen Rahmenbedingungen und den Fördermöglichkeiten auch eine situative Beschreibung integrativer Hotels in Deutschland Bestandteil der Arbeit ist. Da es sich um Betriebe handelt, die im Rahmen der Beschäftigung von Menschen mit Behinderung staatlich gefördert werden, ist darüber hinaus die fiskalische Bilanz der Beschäftigungssituation Integrationshotel Gegenstand der Untersuchung. Des Weiteren stehen die Werte, die integrative Hotels über monetär messbare Werte hinaus schaffen, im Mittelpunkt. Neben der sozial- und volkswirtschaftlichen Ebene findet auch die betriebswirtschaftliche Ebene Berücksichtigung. Sowohl Merkmale und interne Strukturen integrativer Hotelbetriebe als auch deren betriebswirtschaftliche Situation und deren Gäste werden in diesem Zusammenhang behandelt. Das Methodenspektrum der Untersuchung ist entsprechend des erläuterten Inhaltes der Arbeit vielschichtig. Neben der Analyse relevanter Literatur liefern Experteninterviews wesentliche Ergebnisse. Die Analyse der sozial- und volkswirtschaftlichen Ebene basiert zunächst auf der Sekundäranalyse vorhandener Daten und darüber hinaus auf der Analyse und Weiterentwicklung eines Bewertungsmodells. Im Rahmen der betriebswirtschaftlichen Analyse werden betriebliche/betriebsinterne Daten analysiert und die Methode der standardisierten Gästebefragung angewendet. Als Abschluss der Arbeit werden die Untersuchungsergebnisse zusammengefasst und die Übertragbarkeit sowie die gesellschaftliche Relevanz des Themas diskutiert. Durch die Zusammenfassung der zentralen Befunde wird der Nutzen, der durch das Wirken integrativer Hotels auf verschiedenen Ebenen entsteht, benannt. Mit der Identifikation des durch integrative Hotels entstehenden gesamtgesellschaftlichen Nutzens liefert die Arbeit einen erweiterten theoretischen Ansatz der Argumentationslinie für Integrationsprojekte in der Hotellerie und weist nach, dass diesen ein Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt. Die Balance zwischen den parallelen Motiven Wirtschaftlichkeit und Gemeinnützigkeit bzw. der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen ist zugleich der kritischste als auch der für den Erfolg integrativer Hotels entscheidendste Punkt. Die Herstellung eines Ausgleiches zwischen konträren Zielen ist dementsprechend die Voraussetzung für den maximal erreichbaren Zusatznutzen. Die Schlussfolgerung der Arbeit zielt jedoch nicht auf die ausnahmslos überall umzusetzende Integration von Menschen mit Behinderung im Teilarbeitsmarkt Tourismus ab, sondern weist auf das Potential eines erfolgreichen Ansatzes hin, der für die Entstehung eines eigenständigen Hoteltyps geeignet ist. Die Wahrnehmung der sozialen Verantwortung sollte hierbei jedoch nicht in den Vordergrund rücken, denn auch unter Einsatz des Alleinstellungsmerkmals Beschäftigung von Menschen mit Behinderung muss die vom Gast gebuchte touristische Dienstleistung vordergründig sein.
Caenorhabditis elegans Modelsysteme für Freiland und Labor Caenorhabditis elegans ist eines der am intensivsten untersuchten Tiermodelle, dabei weisen die nur unzureichenden Informationen über sein ursprüngliches Habitat eine Vielzahl offener Fragen auf. Deshalb beschäftigt sich der erste Teil vorliegender Arbeit mit einer Überprüfung der Freilandökologie und Biogeographie des Taxons. Nach den Untersuchungen spricht vieles dafür, dass die Ursprungsart der C. elegans Gruppe ein Begleiter von Gastropoden war, welche auch für ihre Ausbreitung häufig verantwortlich sind. Als Folge der Verschleppung durch Wirtstiere (u.a. die Weinbergschnecke Helix aspersa) erreichte sie ihr heutiges Areal, in allen Kontinenten. Ein nicht weniger wichtiges Ziel der vorliegenden Arbeit war die Etablierung von C. elegans als Biotest-System für die Indikation von Chemikalien-Wirkungen. In dieser Arbeit wurden ein ökotoxikologisches Testsystem entwickelt mit den C. elegans als Modellorganismus, das durch Messung von umweltbedingten intrazellulär gebildeten ROS im Gesamtorganismus eine Einschätzung der biologischen Aktivität von Chemikalien und Umweltmedien ermöglichen sollte. Als grundlegender biochemischer Parameter ist eine, die Kapazität der antioxidativen Schutzmechanismen übersteigende, ROS-Bildung ursächlich für oxidative Schädigungen der Zelle verantwortlich und damit Basis für zahlreiche pathologische Effekte. Aus den Resultaten als Bewertungsgrundlage lässt sich folgern, dass sich das erarbeitete Biotestsystem als adäquates Verfahren zur Messung von oxidativem Stress, als Folge exogener Belastung, einsetzen lässt. Damit leistet es einen Beitrag zur Beurteilung des Toxizitätspotentials von Chemikalien und Umweltproben. Zur Eignung des Einsatzes von C. elegans für Toxizitätstest wurden weitere Untersuchungen mit verschiedenen Chemikalien durchgeführt. Dabei ergibt sich bezogen auf molare Einheiten eine immer gleich bleibende Reihenfolge der Sensitivitäten gegenüber BaP > Cu2+ > AcL, ein Ergebnis welches mit Testergebnissen von anderen Versuchsorganismen zu vergleichen war. Die Wirkung von Atrazin auf die Entwicklung von C. elegans wurde auch untersucht. Es wurde festgestellt, dass Atrazin auf Wachstum und Reproduktion von C. elegans konzentrationsabhängig toxisch wirkt. Die bisherigen Ergebnisse zeigen jedoch, dass das Testsystem C. elegans hervorragend geeignet ist, um Chemikalienwirkungen frühzeitig sichtbar zu machen.
Eine Vielzahl hydrophiler Xenobiotika wird in kommunalen Kläranlagen nur unvollständig abgebaut und stellt ein potentielles Risiko für aquatische Ökosysteme dar. Die Eliminationsleistung von Kläranlagen hat sich deshalb während des letzten Jahrzehnts zu einem Schwerpunkt in der aquatischen Umweltchemie entwickelt. Die vorliegende Arbeit untersucht in diesem Zusammenhang die Variation biologischer Abbauleistungen kommunaler Kläranlagen für polare Xenobiotika. Es soll überprüft werden, ob die Abbauleistung von Xenobiotika mit derer klassischer Nährstoffe in Beziehung gesetzt werden kann. Als zusätzlicher Faktor zur Erklärung von unterschiedlichen Eliminationsleistungen wurden Probenahmestrategien hinsichtlich der Erstellung von Massenbilanzen analysiert. Fünf Pharmaka sowie drei Aminopolycarbonsäuren wurden als Testsubstanzen ausgewählt. Diese umfassen ein Spektrum an mikrobiologischer Abbaubarkeit bedingt durch die Reaktivität ihrer unterschiedlichen molekularen Strukturen. Ein kombinierter Versuchsaufbau aus Respirometrie und Abbautests ermöglichte, neben der Bestimmung von Abbaukinetiken, auch die Charakterisierung von Belebtschlamm. Der Einfluss von Mischungsprozessen auf die Abbauleistungen von Kläranlagen wurde mittels hydraulischer Aufenthaltszeitverteilungen modelliert. Darauf basierend wurde eine Methode zur Beurteilung und Erstellung von Eliminationsleistungen aus Zulauf-Ablauf Massenbilanzen entwickelt. Die Resultate zeigen deutliche Unterschiede in den Belebtschlammcharakteristika und dem Abbaupotential von Xenobiotika zwischen verschiedenen Kläranlagen. Die aktive heterotrophe Biomasse wurde als steuernder Faktor für die Biodegradation der untersuchten leicht und moderat abbaubaren Xenobiotika identifiziert. Dies kann als Hinweis auf kometabolische Abbauprozesse durch unspezifische Enzymaktivitäten gewertet werden. Die beobachtete Abnahme der Eliminationsleistung mit steigendem Schlammalter konnte anhand modifizierter Kinetiken pseudo-erster Ordnung beschrieben werden. Die Modellierung von Mischungsprozessen mittels hydraulischer Aufenthaltszeitverteilungen macht deutlich, mit welcher Unsicherheit Massenbilanzen in Kläranlagen behaftet sind. Die Ergebnisse demonstrieren, dass dies vor allem auf inadäquate Probenahmestrategien zurückzuführen ist. Insbesondere Massenbilanzen auf der Basis von kurzen Probenahmezeiträumen und 24-h Mischproben resultieren in fehlerhafte Eliminationsraten. Der vorgestellte Ansatz benutzt die Verteilungen von Aufenthaltszeiten als Leitprinzip, um Zulauf- und Ablauffrachten zueinander in Beziehung zu setzen. Die Methode kann als Grundlage zur akkuraten Schätzung von Eliminationsleistungen herangezogen werden und bietet eine Erklärung für das Vorkommen negativer Eliminationsleistungen.
Die Dissertation untersucht die Vorstellungen über „kranke Pflanzen“ in der griechisch-römischen Antike. Ziel der Arbeit ist es, diese anhand der Schriftzeugnisse von Homer bis Boethius am Anfang des 6. Jahrhunderts darzustellen. Die Darstellung der Phytomedizin der Antike erfolgt dabei in vier Themenkomplexen: in einem lexikalischen Teil werden die konkreten Schäden und der Umgang mit ihnen aufgezeigt; in der Folge werden deren Stellenwert in wissenschaftlicher, gesellschaftlicher und poetologischer Hinsicht beleuchtet. Kern der Arbeit ist die systematische Darstellung der antiken phytomedizinischen Kenntnisse zu den einzelnen Pflanzenkrankheiten und sonstigen Schadfaktoren sowie eine Darstellung der in der antiken Literatur verankerten Gegenmaßnahmen.
Volition als psychische Funktion, Schwierigkeiten in der Handlungsausführung zu überwinden, spielt eine bedeutende Rolle in der psychosomatischen Rehabilitation. In einer Gruppentherapie über maximal 4 Sitzungen zeigte sich, dass sich volitionale Kompetenzen signifikant verbesserten. Zusätzlich ergaben sich Verbesserungen in anderen Therapie-Outcome-Maßen.
Die Arbeit verteidigt zwei Thesen: 1. Der Realismus ist eine semantische These; 2. Religiöse Sprache muß realistisch interpretiert werden. Der erste Teil von Kapitel 1 bis 4 widmet sich der ersten These, der zweite Teil in Kapitel 5 und 6 der zweiten. Zuerst wird ein Überblick über die Problematik von Realismus und Antirealismus in der Philosophie überhaupt geben und erläutert, was das Kernproblem dieser Debatten ist, das eine adäquate Interpretation der realistischen These lösen muß. Dann wird eine Lösung mit Michael Dummetts Theorie des semantischen Realismus entwickelt, so daß sich die metaphysischen Probleme in sprachphilosophische übersetzen lassen und eine semantische Formulierung des Realismus möglich wird. Danach werden verschiedene Einwände gegen diese Theorie diskutiert, um in der Folge eine eigene, verbesserte Formulierung des semantischen Realismus zu entwickeln, die fähig ist, der Kritik standzuhalten. Schließlich werden zwei von Dummett selbst vorgebrachte Argumente gegen den Realismus behandelt und widerlegt. Mit diesen sprachphilosophischen Werkzeugen wird dann gezeigt, wie sich die religionsphilosophischen Debatten mit den Mitteln des semantischen Realismus beschreiben und klassifizieren lassen und wie sich anhand semantischer Kriterien Klarheit schaffen läßt, was genau einen religiösen Antirealismus charakterisiert und was nicht. Abschließend werden die bisher in der Debatte für und wider den religiösen Antirealismus vorgebrachten Argumente analysiert und dann auf der Basis der semantischen Interpretation des Realismus einige eigene Argumente entwickelt, um die Unmöglichkeit eines religiösen Antirealismus nachzuweisen.
Die Evangelische Kirche in Deutschland (EKD) ist eine der größten Nonprofit-Organisationen in Deutschland. Sie ist ein sehr heterogenes Gebilde aus (zum Zeitpunkt der Untersuchung) 22 Landeskirchen unterschiedlichen Bekenntnisses mit jeweils eigenen Organisationsstatuten und rechtlichen Regelungen. Lokale Anlaufpunkte für ihre 23,9 Millionen Mitglieder (Stand Ende 2010) sind die Gemeinden. Sie verwalten sich weitgehend selbständig und werden von gewählten und berufenen Ehrenamtlichen sowie dem oder den Geistlichen der Gemeinde geleitet. Ein Mitglieder- und Einnahmerückgang bewirkt steigende Anforderungen an die Gemeindeleitung und die Notwendigkeit umfassender organisatorischer Veränderungen, die einen groß angelegten Reformprozess in der EKD angestoßen hat. Dies führt u.a. zu Zusammenlegungen von Landeskirchen und Kirchengemeinden, Pfarrstellenkürzungen und einer Reduzierung kirchlicher Gebäude. Auch hiervon sind die Gemeinden und ihre Leitungsgremien betroffen. Ziel der Arbeit ist, vor diesem Hintergrund die Gemeindeleitung (mit Fokus auf den ehrenamtlichen Gemeindeleitern) und die Entscheidungsprozesse in den Leitungsgremien explorativ zu beleuchten. Die Betrachtung erfolgt aus einer verfügungsrechtlichen Perspektive und rückt damit die Handlungsspielräume, die Einstellungen und das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter in den Fokus. Zunächst werden die aktuellen Herausforderungen für die Gemeinden sowie die Themen und unterschiedlichen Ansätze in der Reformdebatte betrachtet. Es folgt eine Darlegung der Einflussmöglichkeiten der Gemeindeleiter auf die Situation ihrer Gemeinde. Hierzu werden die für die Dienstleistungsproduktion von Gemeinden relevanten Entscheidungsfelder, wichtige Kenngrößen für die Gemeindearbeit und die von den Gemeindeleitern beeinflussbaren Entscheidungsvariablen ermittelt. Es folgt eine Analyse der verfügungsrechtlichen Arrangements der 22 Landeskirchen der EKD für die Gemeindeleitung. Für den angestrebten Organisationsvergleich sind Regelungsaspekte von Interesse, deren Ausgestaltung in einzelnen Landeskirchen stark voneinander abweicht. Für die empirische Untersuchung werden konkret die drei Aspekte 'Grad der Selbständigkeit des Gemeindeleitungsgremiums', 'Einflussverteilung zwischen Pfarrern und Ehrenamtlichen im Gremium' sowie 'Haftungsregelungen für die ehrenamtlichen Gemeindeleiter' ausgewählt. Zu den Auswirkungen der unterschiedlichen Ausgestaltung dieser drei Regelungsaspekte werden Hypothesen aufgestellt, die anhand von Fallstudien überprüft werden sollen. Hierfür wurden mit der Evangelischen Kirche in Hessen und Nassau, der Evangelischen Kirche von Kurhessen-Waldeck und der Evangelisch-reformierten Kirche drei Landeskirchen selektiert, die in den genannten Bereichen sehr unterschiedliche Regelungen aufweisen. Den Kern der Arbeit bildet eine explorative vergleichende Untersuchung der unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den ausgewählten Landeskirchen und ihrer Auswirkung auf das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter. Auf der Basis von Interviews mit rechtlich versierten Vertretern der drei Landeskirchen werden die historischen Hintergründe für die unterschiedliche rechtliche Ausgestaltung sowie die praktische Relevanz und Anwendbarkeit der einzelnen Regelungen analysiert. Zusätzlich werden für die gemeindlichen Fallstudien wichtige Veränderungs- / Entscheidungsprozesse mit aktuell großer Bedeutung für die Gemeinden ermittelt. Dies sind konkret der Gemeindezusammenschluss, die Pfarrstellenbesetzung und die Durchführung einer großen Baumaßnahme. Für die gemeindliche Untersuchung wurden für jede der drei Landeskirchen drei bis vier Gemeinden (insgesamt 11) ausgewählt, die mindestens einen der drei genannten Prozesse gerade durchliefen oder abgeschlossen hatten. Für jeden ausgewählten Prozess wird damit in jeder Landeskirche mindestens ein Fall betrachtet. An die ehrenamtlichen Gemeindeleiter der selektierten Gemeinden adressierte Fragebögen geben Aufschluss zu ihren Motivstrukturen. Mittels eine Clusteranalyse werden dabei sechs unterschiedliche Gemeindeleitertypen mit verschiedenen Motiven und Schwerpunkten ermittelt und vorgestellt. Anhand von mit den ehrenamtlichen Vorsitzenden der Gemeinden geführten Interviews werden schließlich die durchlaufenen Entscheidungsprozesse beleuchtet. Auf Basis der Erkenntnisse aus den Interviews und den Fragebögen wird analysiert, wie sich die unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den drei Landeskirchen auf das Entscheidungsverhalten verschiedener Gemeindeleitertypen und damit auf die Entscheidungsprozesse und -ergebnisse in den Gemeinden auswirken. Dabei werden die zuvor aufgestellten Hypothesen anhand der vornehmlich qualitativen Auswertungen überprüft. Abschließend werden die gewonnenen Erkenntnisse in die Reformdebatte eingeordnet und konkrete organisatorische Gestaltungsvorschläge abgeleitet.
Dieser Fragebogenstudie im Längsschnittdesign liegen die Antworten von initial 169 stationären Patienten mit chronischen Schmerzen aus der orthopädischen Rehabilitation zugrunde. Anhand dessen wurden Aspekte religiöser Krankheitsverarbeitung bei der psychischen Anpassung an chronische Schmerzen untersucht. An der Verbesserung des körperlichen Befindens über die Zeit zeigte "negatives religiöses Coping" einen inversen Beitrag, der durch die Mediatorvariable "Hilflosigkeit" vermittelt wird. Für "positives religiöses Coping" war kein Beitrag zur Anpassung nachzuweisen. In der Behandlung von Schmerzpatienten gilt es von daher, religiöses Hadern sowie dahinterliegende psychologischen Mechanismen zu berücksichtigen.
Die Kritische Theorie entstand in den 1930er Jahren und wurde seit den fünfziger Jahren mit der "Frankfurter Schule" identifiziert. In der Dissertation wird dieser Schulzusammenhang durch Porträts der dreizehn Angehörigen der zweiten Generation kritischer Theoretiker(innen) dargestellt. Auf diese Weise wird demonstriert, dass sich die Weiterentwicklung der Kritischen Theorie seit den sechziger Jahren nicht nur auf Jürgen Habermas beschränkt. Die zweite Generation stellt sich als eine zerstrittene Interpretationsgemeinschaft dar, deren unterschiedliche Vertreter verschiedenartige aktuelle Versionen von "Kritischer Theorie" entwickelt haben.
Psychotherapeutische Maßnahmen wirken im Mittel, doch ist unklar, ob eine Therapie bei einem konkreten Patienten auch ihre (maximale) Wirkung zeigt. Befunde der Patientenorientierten Versorgungsforschung zur Wirksamkeit von Feedback zeigen, dass eine Verbesserung des Therapieergebnisses durch Qualitätssicherungsmaßnahmen wie z.B. kontinuierliches Monitoring möglich ist. Diese Forschung und ihre praktische Anwendung machen es nötig, Daten am Einzelfall wiederholt zu erheben. Damit wird es unumgänglich, die Messungen effizienter zu gestalten. Diese Arbeit widmet sich der Frage, wie Mischverteilungsmodelle (Item Response/ Rasch-Modell sowie Latent Profile Analysis) dazu genutzt werden können, Fragebögen (weiter-) zu entwickeln, die mit kürzerem Umfang für diese Zwecke besser eingesetzt werden können. Gegen die Verwendung von Mischverteilungsmodellen sprach lange, dass spezielle Software und Training erforderlich waren und dies im Praxiskontext nicht machbar war. Mit R steht eine freie Softwareumgebung zur Verfügung, die die Schätzung einer ganzen Fülle von Modellen möglich macht, auch von Mischverteilungsmodellen. Da Qualitätssicherung bei frei verfügbarer Software nötig ist, widmet sich Studie I der Frage, ob drei zentrale Pakete zur Schätzung von Rasch-Modellen in der R-Umgebung (eRm, ltm, mixRasch; Details siehe unten) zu akzeptablen Schätzergebnissen führen, d.h. zur Nutzung empfohlen werden können. Hierzu wurden in einer Simulationsstudie die Itemzahl, Stichprobengröße und Verteilung der Stichprobe systematisch variiert und der Effekt auf die Schätzgenauigkeit geprüft. Es zeigte sich, dass alle drei Schätzalgorithmen unter den realisierten Bedingungen zu zufriedenstellenden Genauigkeiten kommen und die Verteilungsform unter den gewählten Bedingungen keinen Einfluss auf die Genauigkeit hatte. Studie II nutzte das Rasch-Modell um für ein Maß psychischer Belastung Kurzformen für spezifische Erhebungszwecke zu entwickeln: (1) verkürzte Erhebung beim Screening und (2) verkürzte Erfassung im hohen Belastungsbereich. Die Kurzformen wurden mittels Bootstrap und Kreuzvalidierung dahingehend geprüft, ob sie replizierbar eine bessere Messqualität erbrachten als andere Itemauswahlen aus dem Fragebogen, was sich bestätigte. Durch die Verwendung des Rasch-Modells sind die so erstellten Kurzformen miteinander und auch mit der Vollversion vergleichbar. Dies macht auch ohne die Verwendung spezieller Software (teil-)adaptives Testen möglich. Studie III untersuchte wie drei Methoden genutzt werden können um festzustellen, welche Items eines Tests sich über den Verlauf einer Therapie als veränderungssensitiv erweisen. Hierzu wurden mittels einer Bevölkerungsstichprobe und den Prä- und Post-Erhebungen einer ambulanten Behandlungsstichprobe Items aus einer Beschwerden-Skala verwendet. Die drei Methoden waren (1) herkömmliche Mittelwertsvergleiche, (2) Auswahl über Bootstrap-Konfidenzintervalle und (3) Auswahl mittels einer Latent Profile Analysis, die latente Klassen von Varianzmustern um die Itemmittelwerte schätzte. Das Bootstrap-Verfahren erwies sich am Konservativsten (4 Items) während die Auswahl mittels herkömmlicher Mittelwertsvergleiche am liberalsten war (9 Items). Die Effektstärken und Reliabilitäten der Kurzfassungen waren alle im akzeptablen Bereich. Die Diskussion beginnt mit einer knappen Zusammenfassung der Ergebnisse der drei Studien. Im Anschluss werden die Ergebnisse der Studien auf übergreifende Aspekte bezogen. Dies sind faktorielle Validität, die Angemessenheit von Item Response Modellen zur Repräsentation psychische Belastung und die Anforderungen, die Kurzversionen letztlich erfüllen können. Insgesamt lässt sich festhalten, dass die Methoden nützliche Werkzeuge zur spezifischen Untersuchung von Skalen und zur Erstellung von Kurzformen darstellen. Besonders der in Studie II vorgestellte Bootstrap-Test der Itemauswahl stellt eine relevante Ergänzung der etablierten Vorgehensweise dar, da er empirisch belegt, dass die Auswahl für den jeweiligen Zweck einer Kurzform besser geeignet ist, als andere Items. Klinisch lässt sich festhalten, dass mit statischen Kurzversionen etablierter Messinstrumente auch in Erhebungskontexten ohne computerisierte Erhebungsmethoden hochqualitative Erhebungen durchgeführt werden können.
Untersucht wurde der Zusammenhang zwischen körperlichen sowie psychischen Beschwerden und kulturellen Wertvorstellungen, Akkulturationsorientierungen, Kompetenz- und Kontrollüberzeugungen, Vertrauen in direkte Bezugspersonen und Hoffnungslosigkeit bei 172 türkischstämmigen Menschen in Deutschland im Alter von 16 bis 73 Jahren. Die deutschen Erhebungsinstrumente wurden mit Ausnahme eines Fragebogens, der bereits in türkischer Sprache vorlag, von der Autorin und einer staatlich anerkannten Dolmetscherin in die türkische Sprache übersetzt. Für die deutschen und türkischen Messinstrumente wurden anschließend Item- und Skalenanalysen durchgeführt, um sie hinsichtlich ihrer psychometrischen Tauglichkeit zu überprüfen. Weiterhin wurde die türkischstämmige Gesamtstichprobe in eine türkisch orientierte und eine deutsch orientierte Subgruppe unterteilt, zwischen denen einige Mittelwertsvergleiche berechnet wurden, um einerseits inhaltlich relevante Unterschiede explorativ zu erforschen und um andererseits zu überprüfen, ob die Variablen Nationalität, Sprache oder Geburtsort für die stärkere Symptomausprägung bei in Deutschland lebenden Türken entscheidend sind.
Gegenstand der Dissertation ist die Rolle ideologischer Deutungsmuster in der politischen Auseinandersetzung um Arbeitsbeziehungen in Deutschland. Zunächst wird untersucht, inwiefern tendenziöses Entscheidungsverhalten von Richtern an deutschen Landesarbeitsgerichten und politische Einflussnahme auf die Rechtsprechung empirisch zu belegen sind. Mittels rechtsempirischer Analyse kann gezeigt werden, dass systematische Zusammenhänge zwischen persönlichen Merkmalen von LAG-Richtern und ihrem Entscheidungsverhalten bestehen. Während Einflussnahme von Seiten der Politik im Rahmen der verfügbaren Daten nicht nachweisbar ist, spricht die empirische Evidenz mithin dafür, dass neben rechtsimmanenten Kriterien auch individuelle Überzeugungen die Arbeitsrechtsprechung beeinflussen. Der zweite Teil der Dissertation befasst sich mit der Arena der Massenmedien. Anhand einer Inhaltsanalyse, die den Diskurs über Mitbestimmung in drei überregionalen deutschen Tageszeitungen für den Zeitraum von 1998 bis 2007 rekonstruiert, soll die Frage beantwortet werden, inwieweit die deutschen Massenmedien selbst als autonome politische Akteure in der Auseinandersetzung um Mitbestimmung zu betrachten sind. Die Ergebnisse deuten darauf hin, dass für das Agenda-Setting im Untersuchungszeitraum zwar eher generelle Nachrichtenfaktoren maßgeblich waren. Doch sowohl das Standing der verschiedenen Akteursgruppen als auch die Deutungsrahmen und Handlungsempfehlungen weisen zum Teil Differenzen zwischen den untersuchten Zeitungen auf, die nur als Ausdruck unterschiedlicher ideologischer Positionen erklärbar sind. Ob die Betriebswirtschaftslehre ihren eigenen wissenschaftstheoretischen Ansprüchen gerecht wird, ist Gegenstand des dritten Papiers. Mittels multivariater Analyse wird untersucht, inwieweit die Inhalte der marktführenden betriebswirtschaftlichen Zeitschriften in Deutschland von außerwissenschaftlichen Faktoren beeinflusst werden. Wie die Analyse ihrer Auseinandersetzung mit dem Shareholder-Value-Prinzip zeigt, ist die Betriebswirtschaftslehre offenbar nur bedingt in der Lage, dem Wertfreiheitspostulat zu genügen. Wirtschaftswissenschaftliches Denken muss zumindest in Teilen als Ausdruck subjektiver Maßstäbe und soziokultureller Rahmenbedingungen betrachtet werden, wird also von außerwissenschaftlichen Wertungen beeinflusst, die auch durch innerwissenschaftliche Diskussionsprozesse nicht eliminierbar sind.
Sklaverei und Demokratie? Für viele Plantagenbesitzer auf Kuba wurden die Vereinigten Staaten vor dem amerikanischen Bürgerkrieg zu einer attraktiven Alternative zur despotischen Kolonialmacht Spanien. Kubanische Emigranten in den USA versuchten um 1850 mit Hilfe von amerikanischen Expansionisten und Sklavereibefürwortern Kuba durch Militärexpeditionen Spanien zu entreißen und die Insel an seinen großen Nachbarn im Norden zu annektieren. Um für ihr Unternehmen zu werben, brachten Exilkubaner zahlreiche Zeitungen in US-Metropolen wie New York oder New Orleans heraus, in welchen sie ihren Lesern die Vorteile einer Annexion erläuterten. Im Fokus der Dissertation stehen die Argumente der kubanischen Exilpresse und ihrer Gegner.
Diese Arbeit stellt die Ergebnisse eines abgeschlossenen Dissertationsprojektes zur sozialen Einbettung eines ländlichen Kreditmarktes im 19. Jahrhundert dar. Das Hauptziel der Untersuchung war es, herauszufinden, ob die soziale Einbettung von Akteuren einen messbaren positiven oder negativen Effekt auf ihren ökonomischen Erfolg im Rahmen eines historischen Kreditmarktes hatte. Das Fallbeispiel der Untersuchung ist der ländliche Kreditmarkt des in der Nähe von Reutlingen im Königreich von Württemberg im Südwesten Deutschlands gelegenen Dorfes Ohmenhausen. Die Datengrundlage der Untersuchung sind die Hypothekenbücher, Vermögensinventare, Steuerlisten und Kirchenbücher des Dorfes. In Übereinstimmung mit der Neuen Institutionenökonomik werden Kreditmärkte als soziale Netzwerke von Schuldnern und Gläubigern betrachtet. Die soziale Einbettung der Dorfbewohner ist über die (Re-)Konstruktion ihrer dorfinternen Verwandtschaftsnetzwerke operationalisiert worden. Die Akteure in diesen Verwandtschaftsnetzwerken sind alle Haushalte, die Grundsteuern bezahlt haben. Diese Haushalte besaßen Land und waren deshalb in der Lage Hypotheken aufzunehmen. Die Untersuchung wird durch den Vergleich der Verteilung der Kredite innerhalb der Verwandtschaftsnetzwerke der Stichjahre von 1825 und 1850 durchgeführt. Im Jahr 1830 trat eine signifikante Reform der Pfandgesetzgebung in Kraft. Deshalb wurde jeweils ein Stichjahr vor dem Inkrafttreten der Reform mit einem Stichjahr nach Inkrafttreten der Reform verglichen. Dies geschah um zu untersuchen, ob die Reform einen Einfluss auf die Marktstruktur hatte und ob sich im Rahmen der Reform auch die Verteilung der Kredite innerhalb der Verwandtschaftsnetzwerke änderte.
Diese Arbeit betrachtet die formalen, semantischen und pragmatischen Eigenschaften produktiv gebildeter Partikelverben mit präpositionenähnlichen Verbzusätzen. Der empirische Teil basiert auf zahlreichen Belegen für mehr als 2500 Partikelverb-Neubildungen mit "ab-", "an-", "auf-", "aus-" und "ein-", die im Zuge einer exhaustiven Korpusstudie mitsamt ihren Kontexten in einem pressesprachlichen Korpus erhoben wurden. Im Zentrum steht die Untersuchung von mehr als 500 neologistischen Partikelverben mit "an-". Zunächst anhand von formalen Kriterien (vorrangig der Argumentstruktur) in fünf Gruppen sortiert, werden die semantischen und pragmatischen Eigenschaften dieser Gruppen mittels einer Betrachtung der einzelnen Verbvorkommen in ihren authentischen Gebrauchskontexten untersucht. Dabei wird insbesondere eine pragmatische Funktionalisierung der ursprünglichen Richtungssemantik nachvollzogen. Zwei offene Fragen der Partikelverb-Forschung werden in ergänzenden Fallstudien detailliert untersucht. Die erste widmet sich sogenannten "Kontaminationsbildungen" und zeigt, dass diese im Bereich der Partikelverben präzise angebbaren Regularitäten folgen. Die zweite beleuchtet anhand von 99 neologistischen Analogiebildungen zum lexikalisierten Verb "aufwerten" formale und semantisch-pragmatische Aspekte der Bildung von Partikelverben und revidiert damit das problematische Verhältnis von Analogie und Produktivität in der Wortbildungstheorie. Die an den Neubildungen gewonnenen Erkenntnisse werden schließlich auf den Wortschatzausschnitt der etablierten, lexikalisierten Partikelverben abgebildet. Dabei wird gezeigt, wie die Untersuchung produktiver Schemata anhand von Neubildungen zur Entwicklung von Objektivierungsheuristiken führen kann, die auch bei den lexikalisierten Formen die systematisch-regelhaften von den irregulär-idiosynkratischen zu trennen vermögen. Von unmittelbarem praktischem Nutzen ist das beispielsweise für die Sprachdidaktik, wie abschließend erläutert wird.
Im Mittelpunkt der Arbeit steht der spätgotische Kirchenbau der 2. Hälfte des 15. Jahrhunderts im alten Erzbistum Trier. Dabei soll besonderes Augenmerk auf die unter Erzbischof und Kurfürst Johann II. von Baden (1456-1503) neu entstandenen und/oder umgebauten bzw. "modernisierten" Kirchen gelegt werden. Diese wurden in der bisherigen Forschung, bis auf Einzelmonographien, nicht in einer Zusammenschau betrachtet. Auch auf die Bau- und Stiftungspolitik Johanns II. von Baden, der scheinbar sämtliche in seiner Regierungszeit entstandenen Baumaßnahmen durch sein Wappen kennzeichnete, und deren Hintergründe, soll näher eingegangen werden. Neben den bekannteren Bauten in den Zentren des Erzstiftes Trier " Trier und Koblenz - entstanden in der 2. Hälfte des 15. Jahrhunderts im gesamten Erzbistum bedeutende spätgotische Bauten, so etwa in St. Wendel, in Klausen oder die Kirche des ehem. Kreuzherrenklosters Helenenberg. Neben den allgemein bekannteren Bauten sollen in der geplanten Dissertation aber vor allem auch die zahlreichen ländlichen Pfarrkirchen in Eifel, Hunsrück, Westerwald und Rhein-Lahn-Kreis gewürdigt werden. Diese blieben in der bisherigen kunsthistorischen Forschung außen vor, obwohl sie zum Teil von großer künstlerischer Qualität zeugen und einen wesentlichen Beitrag der Kunst- und Kulturgeschichte des Trierer Raumes leisten. Mit einer solchen Arbeit könnte eine Lücke der bisherigen Forschung zum spätmittelalterlichen Kirchenbau in Westdeutschland geschlossen werden, was nicht nur aus kunsthistorischer Sicht, sondern auch aus lokal-historischer, sozial- und kirchengeschichtlicher Sicht dringend erforderlich wäre.
Die vorliegende Arbeit verbindet die Konzepte Komorbidität und naturalistische Forschung, indem hier Mehrfachdiagnosen in einer großen längsschnittlich angelegten Studie zur Qualitätssicherung in der ambulanten Psychotherapie betrachtet wurden. Untersucht wurde die Frage, ob und inwieweit Mehrfachdiagnosen im Vergleich zu einfachen Diagnosen Einfluss auf den Status zu Beginn einer Therapie, den Therapieverlauf, ihre Dauer und das Ergebnis ausüben und ob daraus Ableitungen für eine differenzielle Anpassung therapeutischer Interventionen getroffen werden können. Die in dieser Arbeit analysierten Daten stammen aus dem Modellprojekt "Qualitätsmonitoring in der ambulanten Psychotherapie" der Techniker Krankenkasse und umfassen Eingangsinformationen von N=1154 verhaltenstherapeutisch behandelten ambulanten Psychotherapiepatienten. Zur Überprüfung der Fragestellungen kamen regressions- und korrelationsanalytische Verfahren, Latente Wachstumsmodelle sowie Verfahren zur Klassifikation von Personen in latente Subgruppen zur Anwendung. Es resultierten höhere Komorbiditätsraten unter strukturierter Diagnostik. Bei komorbider Persönlichkeitsstörung oder einer Kombination aus Angst- und Affektiven Störungen wurde in vergleichbarem Ausmaß wie bei Vorliegen nur einer Diagnose profitiert, allerdings wiesen diese Patienten aufgrund einer höheren Ausgangsbelastung ein schlechteres absolutes Therapieergebnis auf. Die Variable Komorbidität erwies sich als bedeutsam für die Prädiktion der Sitzungsanzahl, indem komorbide Patienten und insbesondere solche mit Persönlichkeitsstörungen längere Therapiedauern aufwiesen. Die sich auf mehreren Ebenen manifestierenden Besonderheiten komorbider im Vergleich zu monomorbiden Patienten weisen darauf hin, dass das Konzept Komorbidität nicht ausschließlich als Artefakt bestehender Diagnosesysteme gesehen werden kann. Der längere Verbleib komorbider Patienten in der Psychotherapie lässt auf ein differenzielles Vorgehen der Therapeuten schließen. Dieses könnte durch individualisierte Rückmeldungen noch unterstützt werden, im Rahmen derer von vornherein Abschätzungen für spezifische Subgruppen von Patienten vorgenommen werden und in welchen Komorbidität als ein Indikator zu besseren Ressourcensteuerung in der Psychotherapie genutzt werden könnte.
In dieser Dissertation wird das bürgerliche Trauerspiel von Lessing bis Hebbel aus Sicht der Gender Studies und der Kulturwissenschaft untersucht. Zuerst lässt sich das Folgende über den Zusammenhang von Geschlechterdifferenz und bürgerlichem Trauerspiel erschließen: Die dramatis personae in den bürgerlichen Dramen inkarnieren in extremer Weise die männlich-orientierte Geschlechterdifferenz der bürgerlichen Zeit und demonstrieren deutlich die allumfassende Bedeutung von Vaterschaft und Männlichkeit. Trotzdem ist es von Nöten, die Tochterfiguren, die in Konflikt mit diesen Vaterfiguren geraten, hinsichtlich ihrer Bestrebung die männlich-dominierte Geschlechterdifferenz zu überwinden und ihrer aufklärerischen Ideale wie Selbstständigkeit und Selbstbewusstsein zu betrachten. Die abwesenden, unmündigen und gesellschaftsorientierten Mütter (mater societastis) sowie die grausamen Mütter bzw. bösen Frauen (mater et mulier male) werden in extremer Weise durch die männlich-orientierte Tradition und Kultur dargestellt. Deshalb gilt es bei allem emanzipatorischem Potenzial, das durch die Darstellungen der guten Mutterschaft (mater domestica) durch die Ersatzmutterfiguren und die Adoptionsidee verwirklicht wird, zu betonen, dass diese neuen Verwandtschaftsformen nicht aus neutraler Sicht bzw. nicht aus dem Interesse des Weiblichen, sondern aus männlicher Sicht dargestellt und vorgestellt werden.
In dieser Arbeit präsentieren wir einen systematischen Ansatz zur Multithread Implementierung von Divide und Conquer sowie inkrementellen Algorithmen. Wir stellen für beide Kategorien von Algorithmen ein Framework vor. Beide Frameworks sollen die Behandlung von Threads erleichtern, die Implementierung von parallelen Algorithmen beschleunigen und die Rechenzeit verringern. Mit Hilfe der Frameworks parallelisieren wir beispielhaft zahlreiche Algorithmen insbesondere aus dem Bereich Computational Geometry, unter anderem: Sortieralgorithmen, konvexe Hülle Algorithmen und Triangulierungen. Der Programmcode zu diese Arbeit ist in C++ unter Verwendung templatisierter Klassen implementiert und basiert auf der LEDA Bibliothek.
Bei der Preisberechnung von Finanzderivaten bieten sogenannte Jump-diffusion-Modelle mit lokaler Volatilität viele Vorteile. Aus mathematischer Sicht jedoch sind sie sehr aufwendig, da die zugehörigen Modellpreise mittels einer partiellen Integro-Differentialgleichung (PIDG) berechnet werden. Wir beschäftigen uns mit der Kalibrierung der Parameter eines solchen Modells. In einem kleinste-Quadrate-Ansatz werden hierzu Marktpreise von europäischen Standardoptionen mit den Modellpreisen verglichen, was zu einem Problem optimaler Steuerung führt. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit der Lösung der PIDG aus theoretischer und vor allem aus numerischer Sicht. Die durch ein implizites Zeitdiskretisierungsverfahren entstandenen, dicht besetzten Gleichungssysteme werden mit einem präkonditionierten GMRES-Verfahren gelöst, was zu beinahe linearem Aufwand bezüglich Orts- und Zeitdiskretisierung führt. Trotz dieser effizienten Lösungsmethode sind Funktionsauswertungen der kleinste-Quadrate-Zielfunktion immer noch teuer, so dass im Hauptteil der Arbeit Modelle reduzierter Ordnung basierend auf Proper Orthogonal Decomposition Anwendung finden. Lokale a priori Fehlerabschätzungen für die reduzierte Differentialgleichung sowie für die reduzierte Zielfunktion, kombiniert mit einem Trust-Region-Ansatz zur Globalisierung liefern einen effizienten Algorithmus, der die Rechenzeit deutlich verkürzt. Das Hauptresultat der Arbeit ist ein Konvergenzbeweis für diesen Algorithmus für eine weite Klasse von Optimierungsproblemen, in die auch das betrachtete Kalibrierungsproblem fällt.
Seit dem Godesberger Programm 1959 entwickelte sich aus dem Umgang der SPD mit Geschichte und Geschichtswissenschaft eine sozialdemokratische Geschichtskultur. Sie manifestierte sich in zweierlei Hinsicht. Zum einen wurde auf geschichtspolitischer Ebene das national-konservative Geschichtsbild und insbesondere die staats- und kontinuitätszentrierten Vorstellungen von Nation und Nationalstaat kritisiert und die Stellung des Nationalsozialismus in der deutschen Geschichte neu bewertet. Zum anderen wurde auf geschichtswissenschaftlicher Ebene das Forschungsfeld der Geschichte der Arbeiterbewegung und der Sozialdemokratie erfolgreich etabliert. Parallel dazu entstand eine große Gruppe akademischer Historiker, die der SPD angehörten oder ihr nahestanden. Sie beschäftigten sich mit Themen der Partei-, der Arbeiter- und der Sozialgeschichte, unterstützten die Geschichtspolitik der SPD, kümmerten sich um Geschichtsbewusstsein dieser Partei und nahmen - zuweilen auch kritisch - an den Diskussionen ihrer Tagespolitik teil. Aus diesen beiderseitigen Aktivitäten bildeten sich vielfältige Kommunikationswege und personelle Netzwerke zwischen SPD und Historikern. Von 1959 bis 1969 vermied die SPD im Zuge ihrer Strategie der Regierungsbeteiligung eine deutliche Profilierung ihrer eigenen Geschichtspolitik, gleichzeitig lenkte nur eine kleine und fachlich eher marginale Gruppe von Historikern die Aufmerksamkeit auf die sozialdemokratische Geschichtsschreibung und ihre Themen. Aber inzwischen wurden seitens der SPD die organisatorischen Rahmenbedingungen für die Intensivierung der Kommunikation gelegt und wurden Kontakte zu einer wachsenden Zahl jüngerer Historiker geknüpft. Trotzdem waren die damaligen Kommunikationsnetzwerke räumlich und personell beschränkt. Seit 1969 erweiterten sich die Verbindungen zwischen beiden Seiten dank des politischen Aufschwungs der Sozialdemokratie und des Generationswechsels der Historikerschaft. Bis 1982 kommunizierten SPD und Historiker miteinander über viele aktuelle Themen: das Spektrum reichte von den historischen Gedenktagen über den Geschichtsunterricht in den Schulen bis hin zur Neuen Ostpolitik der sozialliberalen Koalition. Parallel dazu erlebte die sozialdemokratische Historiographie eine Konjunktur der Arbeiterbewegungsgeschichte, eine sozialgeschichtliche Neuorientierung und einen Erfolg der Sonderwegsthese. Die Kommunikationsnetzwerke umfassten immer mehr jüngere Fachhistoriker. In den Jahren 1983 bis 1989 wurden die Verbindungen der Sozialdemokratie mit den ihr nahestehenden Historikern auf politischer Ebene wegen ihrer geschichtspolitischen Auseinandersetzung mit der Christdemokratie immer enger, während die sozialdemokratische Geschichtsschreibung vor allem von der Strömung der Alltagsgeschichte und -»Geschichte von unten-« gefördert wurde. Haupttendenzen der dreißigjährigen Entwicklung der Kommunikation zwischen SPD und Geschichtswissenschaft waren wechselseitiger Austausch und Zusammenarbeit. Dabei darf jedoch nicht vernachlässigt werden, dass nicht nur die Historiker, die der Sozialdemokratie nahestanden, sondern auch die, die sich von ihr entfremdeten bzw. kritisch gegenüberstanden, Einfluss auf die Kommunikationslandschaft ausübten.
Die Studie untersucht, wie in Deutschland und Frankreich die beiden Politikbereiche Entwicklungszusammenarbeit und Migrationspolitik miteinander verbunden werden. Hintergrund ist eine seit etwa fünfzehn Jahren laufende intensive internationale Debatte über Möglichkeiten einer kohärenten Verknüpfung der beiden Politikfelder. Dabei wurden Vorschläge gemacht, wie Migration so gestaltet werden kann, dass allen Beteiligten, d.h. Herkunftsländern, Aufnahmeländern und den Migranten selbst, möglichst große Vorteile daraus erwachsen (Schlagwort Triple-Win). Positive Effekte der Migration auf die Entwicklung der Herkunftsländer sollen verstärkt und negative minimiert werden. Bisher stand staatliches Handeln in diesem Zusammenhang selten im Fokus der Forschung. Dieser Mangel ist umso eklatanter, als die an der Debatte beteiligten Internationalen Organisation vielfach staatliches Handeln zu beeinflussen suchen. Musekamps Studie stellt daher die politische Verknüpfung von Migration und Entwicklung in den Mittelpunkt und zeigt anhand der zwei Länderfallstudien Deutschland und Frankreich, warum bestimmte Vorschläge zur politischen Verknüpfung von Migration und Entwicklung in staatliches Handeln umgesetzt worden sind, andere hingegen nicht. Zur Erklärung dient der politikwissenschaftliche Ansatz des Policy Transfer. Musekamp kommt in seiner Studie zu dem Ergebnis, dass es insbesondere politische Gründe sind, die eine Aufnahme von Vorschlägen in politisches Handeln bedingen. Diese sind etwa das Konfliktpotenzial der Vorschläge und ihre Kompatibilität mit dem Status quo. Sachlich-inhaltliche Gründe, auf die sich die bisherige Debatte und Forschung konzentrieren, sind weniger ausschlaggebend. Die Arbeit zeigt eindrücklich, dass ein Erreichen der erwarteten "Triple-Win-Situationen" wesentlich voraussetzungsreicher ist, als dies manche Beiträge der internationalen Debatte suggerieren. So stehen viele Vorhaben zur Zeit auf sehr niedrigem Umsetzungsniveau. Deutlich wird dies am deutschen Fall, bei dem bislang vor allem Pilotprojekte umgesetzt wurden, die sich weitgehend auf jene Bereiche beschränken, die die Entwicklungszusammenarbeit allein umsetzen kann. Auch in der französischen Fallstudie zeigt sich dies etwa daran, dass die Zahl staatlich unterstützter Kleinprojekte von Migrantenorganisationen stagniert. Zudem ist der dreiseitige Vorteil selbst dort, wo Migration und Entwicklung in politischem Handeln verknüpft werden, keineswegs sicher. So wurde in Frankreich Migrationspolitik zwar verstärkt in Kooperation mit den Herkunftsländern auf Basis umfassender Partnerschaftsverträge geregelt. Gerade hier zeigt sich aber weniger ein ausgewogener partnerschaftlicher Ansatz als vielmehr eine Instrumentalisierung der EZ und des Engagements von Migrantengruppen für Zwecke der Migrationssteuerung. Die Einzelergebnisse der Länderanalyse und deren systematischer Vergleich setzen neue Impulse für eine praktische Umsetzung von Politik im Schnittfeld von Migration und Entwicklung, die der Komplexität des Feldes angemessen ist.
Zum Problem eines Bewusstseins bei Tieren am Paradigma der kantischen Theorie des Bewusstseins
(2012)
In einem ersten längeren Teil wird die These begründet und verteidigt, dass vor dem Hintergrund der Bewusstseins- bzw. Erkenntnislehre Kants, die vornehmlich den Menschen in den Blick nimmt, auch die Tiere als Züge transzendentaler Subjektivität aufweisend verstanden werden müssen. Im Anschluss daran wird diese Einsicht kritisch auf Kants Theorie menschlichen Bewusstseins und Erkennens bezogen. Es sind vornehmlich zwei Gesichtspunkte der Bewusstseins- bzw. Erkenntnistheorie Kants, die zur Begründung genannter These herangezogen werden: Zum einen die Lehre Kants von der Apriorität von Zeit und Raum als Formen der Anschauung eines transzendentalen Subjekts - insofern Tiere in Zeit und Raum anschauen, müssen auch sie über die apriorischen Anschauungsformen der Zeit und des Raumes verfügen; zum anderen die mit Kant aufzuweisende Abhängigkeit des Wahrnehmungsbewusstseins von nicht dem Vermögen der Sinnlichkeit zuzurechnenden Synthesisleistungen. Letztere sind vielmehr als von der Einheit eines transzendentalen Subjekts abhängig anzusehen, welche bzw. welches mithin auch bei Tieren zu veranschlagen ist. Vor dem skizzierten Hintergrund - und nachdem noch Kants Begriff des Organismus, des Lebens und seine Position zum Vorstellungsleben von Tieren nähere Betrachtung gefunden haben - werden in einem abschließenden Teil der Arbeit zwei Gesichtspunkte der kantischen Theorie menschlichen Bewusstseins kritisch diskutiert. Zunächst wird problematisiert, inwiefern Kants mindestens implizite These zu verteidigen ist, Vernunft weise gleichsam eine organologische Einheit auf, in der die einzelnen "Glieder" wechselseitig aufeinander bezogen sind und somit eine unauflösbare Einheit bilden. Die Notwendigkeit, auch Tieren transzendentale Subjektivität in bestimmtem Ausmaß zuzusprechen, scheint eine Aufspaltung besagter organologischer Einheit zur Folge zu haben. Des Weiteren wird erwogen, ob bei Tieren " nämlich insofern bei ihnen offenbar die Bewusstseinsebene vorliegt, die Kant beim Menschen die empirische Apperzeption oder den inneren Sinn nennt - nicht auch schon von Selbstbewusstsein zu sprechen ist. Es ist doch in ihrem wie in unserem Fall ein transzendentales Subjekt, das, insofern Zeit und Raum lediglich apriorische Anschauungsformen sind, sich selbst anschaut bzw. sich auch seiner selbst insofern bewusst ist. Es ist, so wird argumentiert, allererst Selbsterkenntnis, die den Menschen wesentlich vom Tier unterscheidet, nicht aber schon Selbstbewusstsein.
Als Möglichkeiten zur Steigerung der Nachhaltigkeit einer stationären Rehabilitation stehen aktuell vor allem zwei Varianten der Nachbehandlung im Mittelpunkt des wissenschaftlichen Interesses - einerseits wird eine solche Nachsorge häufig über persönliche (Telefon)Kontakte realisiert, andererseits werden auch immer öfter die Möglichkeiten des Einsatzes neuer Medien untersucht. Um eine vergleichende Betrachtung dieser beiden Nachsorgevarianten zu ermöglichen, wurde im Rahmen der vorliegenden Arbeit ein individuelles, indikationsübergreifendes und ortsunabhängiges Nachsorgeangebot entwickelt und parallel auf eben diese beiden Arten realisiert (persönlich-telefonisch vs. web-basiert), die Untersuchung der Effektivität erfolgte mittels einer randomisierten kontrollierten Mehrzeitpunktbefragung. Alle teilnehmenden Patientinnen und Patienten wurden noch während ihres Rehabilitationsaufenthalts zu einer von drei Gruppen randomisiert: eine Gruppe wurde persönlich-telefonisch nachbetreut, eine Gruppe erhielt Zugang zu einer für diesen Zweck erstellten Internet-Plattform, die dritte Gruppe erhielt keinerlei Nachsorge und diente als Kontrollgruppe. Zu insgesamt vier Messzeitpunkten (Aufnahme, Entlassung, 3-monats- und 12-monats Katamnese) wurde die berichtete Symptombelastung hinsichtlich Depressivität, psychosomatischer Beschwerden und gesundheitsbezogener Lebensqualität erfasst. Aufgrund der vorliegenden Ergebnisse scheint vornehmlich die minimale Intervention der automatisierten web-basierten Nachsorge einen statistisch abgesicherten positiven Effekt auf die Nachhaltigkeit der betrachteten Ergebnismaße nach einer stationären psychosomatischen Rehabilitation zu haben und kann folglich als der vielversprechendere Ansatz zur Verbesserung der Nachhaltigkeit von erzielten Rehabilitationseffekten gesehen werden.
Seit Mitte der 1970er Jahre engagiert sich das Land Nordrhein-Westfalen, in Folge des sozial/ökologischen Wertewandels der 1960er und 1970er Jahre, in der Radverkehrsförderung. Damals wie heute ist die systematische Realisierung von Radverkehrsnetzen, die durchgängig mit einem Leitsystem gekennzeichnet werden, ein zentrales Landesziel. Hierzu entwickelte das Land NRW unterschiedliche Strategien: Ende der 1970er Jahre wurde landesweit ein touristisches Netz erarbeitet, das jedoch seitens der Kommunen nur wenig Akzeptanz fand. Anschließend führte das Land NRW mit zwei Modellvorhaben den Nachweis, dass zur Förderung des Radverkehrs eine systematische Zielnetzplanung verbunden mit einer Kennzeichnung des Netzes mittels Leitsystem zielführend ist. Doch auch dies fand seitens der Kommunen nur wenig Nachahmer. Daher leitete das Land NRW einen weiteren Strategiewechsel von der Bottom-up-Strategie zur Top-down-Strategie ein: 1995 wurde im Koalitionsvertrag der Landesregierung die Realsierung des Radverkehrsnetz Nordrhein-Westfalen (RVN NRW) politisch beschlossen. Landesweit sollte ein Radverkehrsnetz geplant und anschließend mit einem Leitsystem vor Ort gekennzeichnet werden. Das RVN NRW wurde zwischen 1996 und 2007 unter vollständiger Finanzierung des Landes NRW in enger Abstimmung mit den 427 Kommunen und ca. 2.000 Projektpartnern erfolgreich umgesetzt. Es hat eine Länge von 14.155 km. Heute wird das RVN NRW durch viele Kommunen weiter lokal verdichtet. Bereits im Rahmen der Projektkonzeption waren auf Grundlage des RVN NRW umfangreiche Synergien vorgesehen, indem u. a. der Radroutenplaner NRW entwickelt wurde. Dieser wird mittels Internet/Smartphone kommuniziert und enthält sowohl alle Informationen zur Planung der Strecke vor der Fahrt, als auch zur Wegefindung während der Fahrt. Mit diesem innovativen Projekt wurden zahlreiche Mehrwerte und Synergien erzielt, indem z. B. radtouristischen Netze neu geordnet, ein landeseinheitliches Qualitätsmanagement zur Pflege entwickelt, ein Repertoire zur Sicherung des Radverkehrs außerorts geschaffen und insbesondere die Verkehrsmittel des Umweltverbunds sowohl in den Netzen (Hardware) als auch in der Informationsvermittlung (Software) miteinander verknüpft wurden. Unter Berücksichtigung der ökologischen, energetischen, demographischen und volkswirtschaftlichen Anforderungen an die Mobilität der Zukunft, muss ein nachhaltiges selbsterklärendes multimodales Mobilitätssystem mit dem Rückgrat Öffentlicher Verkehr entwickelt werden. Mit der Realisierung des RVN NRW hat das Land NRW bereits eine wesentliche Komponente fertiggestellt. Um die Systemvorteile der jeweiligen Verkehrsarten optimal nutzen zu können, sind umfangreiche weitere Maßnahmen erforderlich, die wiederum einer Landesinitiative bedürfen. Das mit der Konzeption des RVN NRW erfolgreich praktizierte Umsetzungsverfahren lässt sich auf eine Vielzahl von weiteren Zukunftsaufgaben übertragen. Allgemeingültige Handlungsempfehlungen zeigen den Weg auf, wie auch diese Visionen in die Realität übergeleitet werden können.
Die vorliegende Arbeit entstand im Rahmen des EU INTERREG NWE IVB Projektes "ForeStClim - Transnational Forestry Management Strategies in Response to Regional Climate Change Impacts". Zum Zweck der Verbesserung des Prozessverständnisses von Abflussprozessen in Wäldern sowie zur Validierung und Weiterentwicklung eines GIS-basierten Tools (GIS-DRP) zur Erstellung von Abflussprozesskarten wurden auf 25 Test-Plots in vier Einzugsgebieten in Rheinland-Pfalz und dem Großherzogtum Luxemburg boden-hydrologische Untersuchungen durchgeführt. Auf Grundlage dieser Untersuchungen konnten große intraspezifische Unterschiede im Abflussverhalten von Waldstandorten erhoben werden. Die Differenzen werden dabei hauptsächlich durch das Substrat, die bodenphysikalischen Eigenschaften, die Nutzung bzw. deren Intensität und die Vorfeuchte bedingt. Es wurde nachgewiesen, dass Wälder generell hohe Infiltrationsraten aufweisen und verzögerte Zwischenabflussprozesse begünstigen. Durch einen prinzipiell naturnahen Waldbau und etwaige Meliorationsmaßnahmen auf Niederertragsstandorten bestehen zudem Möglichkeiten positiv auf die Wasserretention und das Wasserspeichervermögen eines Forstbestandes einzuwirken. Die mittels GIS-DRP erstellten Abflussprozesskarten der vier Testgebiete wurden durch die Ergebnisse der Geländeuntersuchungen sowie der Abflussprozesskartierung nach SCHERRER (2006) validiert. Hierdurch wurden für die Abflussgenerierung wichtige Parameter ermittelt und Optimierungsansätze erarbeitet, welche anschließend in GIS-DRP implementiert werden konnten. Verschlämmungsprozesse auf Ackerflächen können nun durch das modifizierte GIS-DRP-Werkzeug identifiziert werden. Zudem war es möglich, Extrem-Ereignis basierte Abflussprozesskarten zu etablieren, die Hot Spots der Abflussgenerierung identifizieren können. Die Einführung des Abflussprozesses "dSSF" (tiefer Zwischenabfluss) wurde durch eine neue Klassifizierung des geologischen Ausgangssubstrates erreicht. Forstwirten und Entscheidungsträgern im Waldmanagement wird somit die Möglichkeit geboten, Expertenwissen in ihre Planungen einfließen zu lassen. Hierdurch kann zum einen positiv auf den Landschaftswasserhaushalt eingewirkt werden, da gezielt auf Flächen nachteiliger Abflussbildung geeignete Maßnahmen des dezentralen Hochwasserschutzes angewandt werden können. Zum anderen werden Potentiale für bestmögliche Waldwachstumsvoraussetzungen in einem Landschaftsraum aufgezeigt. Der nachhaltigen Nutzung von Wäldern wird somit auch im Kontext des Klimawandels Rechnung getragen.
Öffentlichkeitsarbeit ist in der politischen Arbeit unabdingbar geworden, die Wirkungen von Kommunikationsmaßnahmen in die Bevölkerung sind Gegenstand zahlreicher Untersuchungen. Die Wirkungen auf die Durchführenden selber, also auf die Politik und die Verwaltung, sind hingegen noch nicht untersucht worden. Hier setzt diese Arbeit an. Im Zentrum der Untersuchung steht dementsprechend die "interne" Wirkung (auf Verwaltung, Politik) einer Kommunikationsmaßnahme, weniger die "externe" (in die Bevölkerung). Zentrale These ist, dass eine an die Öffentlichkeit gerichtete Maßnahme eine interne Wirkung entfaltet, die die politischen, gesellschaftlichen und verwaltungstechnischen Rahmenbedingungen wesentlich zugunsten des beworbenen Themas verändert. Am Beispiel des Radverkehrs wird diese These überprüft. Als Untersuchungsrahmen dient die "Kopf-an" Kampagne des Bundesumweltministeriums, welche, durchgeführt in neun Kommunen Deutschlands, die Förderung des Alltagsradverkehrs zum Ziel hatte. Mittels einer vergleichenden Untersuchung von Hemmnissen und Erfolgsfaktoren kommunaler Radverkehrspolitik werden Erfolgsfaktoren für den kommunalen Radverkehr extrahiert, die die Kernthesen der Untersuchung bilden. Inwieweit diese Erfolgsfaktoren durch die "Kopf an" Kampagne positiv beeinflusst werden konnten, wird mittels Experteninterviews untersucht. Es wird gezeigt, dass eine Reihe von Faktoren positiv beeinflusst wurde und sich so aufgrund der Kampagne ein positiveres Klima für den Radverkehr in Politik und Verwaltung entwickelt hat.
Die vorliegende Arbeit hat die zunehmende Bedeutung des Social Web und die daraus resultierenden Auswirkungen auf das Informations- und Reiseverhalten von Städtetouristen zum Thema. Hauptfragestellung ist, inwiefern sich die gestiegene Bedeutung des Social Web auf das Informationsverhalten von Reisenden und ihr Verhalten vor Ort, insbesondere hinsichtlich des Interesses an Nischenattraktionen, auswirkt. Große Städte, vor allem Metropolen, verfügen über eine fast unüberschaubare Zahl von touristischen Attraktionen und Angeboten. Dazu zählen auch jene, die abseits der Haupttouristenrouten in weniger touristisch geprägten Stadtteilen liegen. Trotz dieser Angebotsvielfalt ist die Mehrzahl der Städtetouristen meist auf der sogenannten "Straße der Ameisen" anzutreffen. Eine Ausnahme stellen jedoch die sogenannten neuen Städtetouristen dar, die weniger an klassischen Mainstream-Sehenswürdigkeiten, sondern mehr am Entdecken authentischer und einzigartiger Plätze abseits der Touristenpfade und am Erleben des Alltags der Einheimischen interessiert sind. Für die vorliegende Untersuchung der Fragestellung wurden insgesamt drei methodische Bausteine herangezogen: 1) Eine Inhaltsanalyse für den Vergleich von Social-Web-Anwendungen und klassischen Reisemedien hinsichtlich ihrer thematischen Schwerpunktsetzung; 2) eine Touristenbefragung mit dem Ziel, mehr über die Nutzung des Social Web als Reiseinformationsquelle und über das Verhalten der Social-Web-Nutzer im Allgemeinen, und ihr Interesse an Nischen und Orten abseits der Touristenpfade im Besonderen, zu erfahren. Schließlich sollten 3) Interviews mit städtetouristischen Nischenunternehmen weitere Erkenntnisse über die Nutzung sozialer Medien durch Anbieter im Städtetourismus liefern. Die Ergebnisse machen deutlich, dass die Auswirkungen des Social Web " sowohl durch die Nutzung als Reiseinformationsquelle durch die Nachfrager, als auch durch die Verwendung als Marketing- und Vertriebskanal von Seiten der Anbieter " bislang geringer sind als zunächst angenommen. Auch wenn Nischenangebote und Alltagskultur zum Teil in sozialen Medien stärker präsent sind als z. B. in Reiseführern, und einige kleine Nischenanbieter die Möglichkeiten, die ihnen das Social Web bietet, schon optimal nutzen, so hat eine verstärkte Social-Web-Nutzung bislang doch keine grundlegenden Verhaltensänderungen auf Seiten der Reisenden bewirkt. Die Straße der Ameisen ist trotz der gestiegenen Social-Web-Nutzung nach wie vor existent. Dass das Social Web als ein Filter fungiert, der Interessierte in Richtung der Long-Tail-Angebote "schickt", konnte im Rahmen der vorliegenden Dissertation nur zum Teil bestätigt werden. Neben der Informationsquelle Social Web üben doch auch viele andere Faktoren einen Einfluss auf das Interesse von Reisenden an Lokalkolorit, authentischen Erlebnissen und besonderen Nischenangeboten aus. Trotzdem dürfte gerade für den sogenannten neuen Touristen das Social Web neue Möglichkeiten der Informationsgewinnung über einzigartige Örtlichkeiten an den Reisezielen bereitstellen. So ist es heutzutage einfacher als je zuvor, an Hinweise und Tipps zu ganz spezifischen Reisezielen und -aktivitäten zu kommen, die zudem meist noch sehr persönlich und authentisch wirken, da sie größtenteils von anderen Nutzern stammen.
Während die ersten Naturwissenschaftler, wie Humboldt und Darwin, auf dem Feld der klassischen Biogeographie noch vor allem die Aufschlüsselung der Verbreitung von Arten untersuchten, entwickelte sich mit Wallace die Erkenntnis, dass es kausale Gründe für die Verbreitung von Arten gibt. Ihre Erkenntnisse erlangten Wallace oder auch de Lattin noch dadurch, dass Sie Verbreitungsmuster von Arten übereinander projizierten und Ausbreitungszentren ableiteten. In den letzten Jahrzehnten bieten die mannigfaltigen Möglichkeiten computerbasierter Analysen besondere Vorteile bei der Analyse von Verbreitungsmustern, welche in der vorliegenden Dissertation genutzt werden, um eine interdisziplinäre Arbeit im Schnittpunkt von Natur- und Rechtswissenschaften zu schreiben. In fünf Kapiteln werden verschiedene Aspekte aus dem Bereich der klassischen Biogeographie analysiert und diskutiert. Im ersten Beitrag dieser Arbeit wird die biogeographische Struktur der Libellen in der westlichen Paläarktis mittels Verbreitungsanalysen untersucht. Der zweite Beitrag vertieft die Betrachtung mit einer regionalen Analyse der Biogeographie der Odonaten und Tagfalter in Rumänien. Ein dritter Beitrag schließt diesen westpaläarktischen Block mit einer Analyse der Inselbiogeographie des westlichen Mittelmeergebietes ab. In einem zweiten eurasischen Block werden in der vierten Arbeit die biogeographischen Muster Eurasiens herausgearbeitet. Abschließend wird im fünften Beitrag die Phylogeographie der Zwerglibelle (Nehalennia speciosa) als ein Beispiel für trans-paläarktisch verbreitete Arten untersucht. Neben ihrer Bedeutung in der Grundlagenforschung stellen diese fünf Arbeiten eine wesentliche Grundlage für die Ausarbeitung der juristischen Abhandlung dar. In der juristischen Abhandlung werden verschiedene Aspekte unter zu Hilfenahme, der zuvor erarbeiteten Erkenntnisse erläutert, die dazu geführt haben dürften, dass Libellen in der FFH-Gesetzgebung eher unterrepräsentiert sind. Es sind dies eine fehlende europaeinheitliche Gefährdungsbewertung, das Fehlen eines Schutzkriteriums Ausbreitungsfähigkeit und eine fragwürdige Herangehensweise bei den Überlegungen, welche Arten überhaupt auf ihre Schutzwürdigkeit hin untersucht werden sollen.
Der Anstieg der Weltbevölkerung, der Mobilität und des Warenhandels fördert die zunehmende Einschleppung von Biota. Ein Teil dieser gebietsfremden Arten kann sich etablieren, ausbreiten und die heimische Biodiversität gefährden ("invasive Arten"). In Mitteleuropa haben sich mehr als 150 gebietsfremde Populationen der ursprünglich submediterran verbreiteten Mauereidechse (Podarcis muralis) etabliert. Diese verkörpern ein ideales Modellsystem zur Untersuchung der Rolle des geografischen Ursprungs für den Etablierungserfolg, zur Überprüfung genetischer Konsequenzen von biologischen Invasionen sowie zur Untersuchung der Auswirkungen intraspezifischer Hybridisierung auf heimische Linien. Über eine mtDNA-Sequenzierung wurden in dieser Dissertation 77 eingeschleppte Populationen in Mitteleuropa acht geografisch abgrenzbaren evolutionären Linien zugeordnet (Kapitel I). Dieser Datensatz wurde in Kombination mit Artverbreitungsmodellen zur Überprüfung intraspezifischer Nischendivergenz genutzt. Trotz deutlicher Nischendifferenzierung zwischen den Linien, wurde nur eine schwache Korrelation zwischen geographischem Ursprung und invasivem Vorkommen gefunden. Linien mit enger realisierter Nische sind vermutlich aufgrund ihrer breiten fundamentalen Nische dennoch fähig erfolgreich Gebiete weit außerhalb ihres Areals zu kolonisieren. Für die populationsgenetischen Analysen dieser Arbeit bewährten sich, alternativ zu Gewebeproben, nicht-invasiv gewonnene Mundschleimhautproben zur DNA-Analyse (Kapitel II). Über eine DNA-Sequenzierung konnte der Ursprung (Poebene und nördliche Adriaregion) der nördlichsten eingeschleppten Ruineneidechsen-Population (Podarcis siculus) bestimmt werden (Kapitel III). Zudem wurde eine syntop in eine P. muralis Population eingeschleppte Podarcis liolepis Population erstmals in Deutschland nachgewiesen (Kapitel IV). Beide stammen vermutlich aus den Ost-Pyrenäen. Die Mikrosatelliten-Analyse zeigte keinen Genfluss zwischen beiden Arten. Verglichen mit natürlichen Populationen aus Süd-Frankreich konnten die eingeschleppten Populationen beider Arten aufgrund von hohem Aussetzungsdruck eine hohe genetische Diversität erhalten. Entlang des Oberrheingrabens treffen heimische Mauereidechsen auf eingeschleppte italienische Linien. In diesen Populationen wurde eine schnelle genetische Assimilation durch Hybridisierung mit gebietsfremden Mauereidechsen nachgewiesen (Kapitel V). Die genetische Diversität dieser Hybridpopulationen war wesentlich höher als die reiner eingeschleppter oder reiner natürlicher Populationen. Der Zusammenhang zwischen genetischer Diversität und Durchmischungsgrad war nicht-linear und erreichte frühzeitig ein Plateau hoher genetischer Diversität bei einer Vermischung von zwei Linien. Das Ausmaß an Introgression und die schnelle Bildung von Hybridschwärmen zeigt, dass Einschleppungen die genetische Integrität natürlicher Populationen stark gefährden. Die kleinräumige, genetische Analyse einer expandierenden Population in Passau (Kapitel VI) zeigt, dass eine signifikante Strukturierung schnell und kleinräumig entstehen kann. Die genetische Differenzierung wurde unter Abnahme der genetischen Diversität vom Einschleppungszentrum zum Expansionsrand stärker. Das abschließende Kapitel VII fasst die wichtigsten Resultate für die Naturschutzpraxis zusammen. Die Schwierigkeiten der phänotypischen Zuordnung von Populationen zu evolutionären Linien sowie der naturschutzrechtliche Umgangs mit Einschleppungen werden diskutiert.
Ziel der Studie war es, die Wirksamkeit zweier psychotherapeutischer Mikrointerventionen zur Emotionsregulation und zur progressiven Relaxation und die damit einhergehenden Veränderungen auf psychometrischer und elektrokortikaler Ebene zu untersuchen. Die Stichprobe bestand aus 65 klinischen Versuchspersonen der Warteliste der Poliklinischen Psychotherapieambulanz der Universität Trier. In einer EEG-Erhebung vor und nach den Mikrointerventionen wurden neben dem Ruhe-EEG ereigniskorrelierte Potentiale (EKPs) aufgezeichnet. Im EKP-Paradigma wurden die Probanden instruiert negativ-valente Bilder aus dem IAPS-System entweder anzuschauen oder die gezeigte Situation kognitiv zu einer weniger negativen Interpretation der Bilder umzudeuten. Nach der EEG-Aufzeichnung wurden die Probanden randomisiert einer standardisierten 90-minütigen psychotherapeutischen Intervention zum kognitiven Reframing bzw. zur progressiven Relaxation zugewiesen. Im Anschluss wurde die EEG-Erhebung mit dem Ruhe-EEG und dem EKP mit einem parallelisierten Pool negativ valenter Bilder erneut durchgeführt. Auf psychometrischer Ebene wurde u.a. der positive und negative Affekt mit dem PANAS im Verlauf der Untersuchung zu insgesamt vier Messzeitpunkten erfasst. Neben dem Alpha-Frequenzband des Ruhe-EEGs wurde bei den EKPs die P3 und das Späte Positive Potential (LPP) untersucht. Die Ergebnisse geben Hinweise darauf, dass die psychotherapeutischen Mikrointerventionen zu differentiellen Effekten auf psychometrischer und elektrokortikaler Ebene führten. Auf der psychometrischen Ebene zeigte sich bei den Teilnehmern der Entspannungsintervention direkt nach der Intervention eine Abnahme des negativen Affekts, während sich dies bei den Teilnehmern der Reframing-Intervention erst im Verlauf der zweiten EEG-Messung mit dem Umdeuten der negativ valenten Bilder zeigte. Auf der elektrokortikalen Ebene waren die Ergebnisse weniger einheitlich. Durch die Entspannungs-Intervention konnte im Verlauf der Untersuchung eine Zunahme der P3-Amplituden festgestellt werden, während die Reframing-Teilnehmer über die Messzeitpunkte eine Abnahme der P3-Amplituden aufwiesen. Dies könnte so interpretiert werden, dass durch das Erlernen des Reframings das emotionale Arousal reduziert werden konnte. Bei dem LPP waren hingegen keine differentiellen Effekte der Mikrointerventionen nachweisbar. Bei beiden Interventionen kam es zu einer Zunahme der LPP-Amplituden. Bei der Analyse der Alpha-Aktivität des Ruhe-EEGs wurde bei den Entspannungs-Teilnehmern im Vergleich zu den Reframing-Teilnehmern nach der Mikrointervention eine größere Alpha-Aktivität gefunden. Diese Unterschiede wurden am deutlichsten in der linken Hemisphäre sowie in den zentralen und parietalen Hirnregionen. Eine höhere Alpha-Aktivität geht mit einer niedrigeren kortikalen Aktivität einher, so dass man davon ausgehen kann, dass die Entspannungs-Teilnehmer diese Hirnregionen während der Intervention weniger ausgeprägt nutzten. Zusammenfassend geben die Befunde erste Hinweise auf eine differentielle Wirkung der beiden Mikrointerventionen.
Ausgangspunkt der vorliegenden Untersuchung sind die deutlichen Unterschiede in den Ukrainepolitiken Polens und Tschechiens. Das Erkenntnisinteresse ist, worauf diese Unterschiede im außenpolitischen Verhalten zweier Staaten, die in der Außenpolitikforschung meistens als Vertreter einer relativ homogenen Gruppe betrachtet werden, zurückzuführen sind. Die Studie geht auf Basis bisheriger konstruktivistischer Forschung zur polnischen Sicherheitspolitik von der Hypothese aus, dass dies mit kulturellen Faktoren zu tun hat, speziell der unterschiedlichen sicherheitspolitischen Bewertung der Ukraine und Osteuropas im Allgemeinen sowie unterschiedlichen ukrainepolitischen Rollenkonzeptionen, die sich hieraus ergeben. Die Fragestellung lautet daher, welche ukrainebezogenen, sicherheitspolitisch motivierten Rollenkonzeptionen sich in Polen und Tschechien nach 1989 herausgebildet haben.Zur Beantwortung dieser Fragestellung wird zunächst auf Grundlage der Forschung zur politischen und zur strategischen Kultur das Konzept der sicherheitspolitischen Kultur entwickelt und die Rollentheorie als bislang in der diesbezüglichen Forschung kaum rezipiertes Analyseinstrument vorgestellt, das aus mehreren Gründen Vorteile gegenüber anderen Ansätzen hat. Methodisch wird eine wissenssoziologische Diskursanalyse durchgeführt, die als Instrument zur Erfassung von sozial konstruierter Wirklichkeit dient, sich aufgrund derselben metatheoretischen Grundlagen hervorragend in das Modell sicherheitspolitischer Kultur einfügt und daher für eine Analyse der Entstehung von Rollenkonzeptionen geeignet ist. Die Untersuchung ergibt, dass in Polen die Bedrohungskonstruktion einer möglichen Wiederkehr des russischen Imperiums zentral ist und eine unabhängige, stabilisierte Ukraine als Schutz hiergegen aufgefasst wird. Die sich ergebenden ukrainepolitischen Rollenkonzeptionen sind Teil eines weitgehend konsensuellen Komplexes sicherheitspolitischer Rollenkonzeptionen, die abgesehen von rollenspezifischen sicherheitspolitischen Zielen auch zentral durch die Bedrohungskonstruktion der politischen Marginalisierung motiviert und daher häufig als Führungsrollen charakterisierbar sind. Tschechien zeichnet sich hingegen durch das weitgehende Fehlen einer Bedrohungskonstruktion des russischen Imperialismus aus, stattdessen wird die Ukraine stärker als Quelle von Gefahren konstruiert. Zudem ist die sicherheitspolitische Kultur Tschechiens von einer konzeptionellen Unterkomplexität, einem Mangel an Konsens, einer Konstruktion Tschechiens als machtloser Akteur sowie einer Unterordnung der Außenpolitik unter innenpolitische Fragen gekennzeichnet. Daher fehlen im tschechischen Falle nicht nur jegliche ukrainepolitische Rollenkonzeptionen, es ist grundsätzlich ein Mangel an klaren Vorstellungen darüber festzustellen, welche Rollen Tschechien in der internationalen Politik spielen soll.
Die Frage, wie und in welche Richtung sich Wohlfahrtsstaaten entwickeln ist seit gut zwei Jahrzehnten zentraler Gegenstand der wissenschaftlichen Auseinandersetzung. Insbesondere dem konservativen Wohlfahrtsstaat, zu dem u.a. Österreich und Deutschland gezählt werden, wird dabei eine gewisse Reformresistenz nachgesagt. Besonders bei der Bewältigung neuer sozialer Risiken, wie Pflegebedürftigkeit, zeigt sich, dass der Wohlfahrtsstaat an tradierten sozialstaatlichen Leitprinzipien und kulturellen Leitbildern festhält und damit die tatsächlichen Anforderungen und Bedürfnisse sich wandelnder gesellschaftlicher Verhältnisse vernachlässigt. Auf dieses institutionelle Setting ist auch die Entstehung sogenannter Grauer Pflegemärkte in konservativen Wohlfahrtsstaaten zurückzuführen. Auf diesen Grauen Pflegemärkten bieten Migrantinnen Betreuungs- und Pflegedienstleistungen an, die überwiegend unter Umgehung nationaler arbeits- und sozialrechtlicher Standards erbracht und deshalb als irregulär eingestuft werden. Versuche der Regulierung Grauer Pflegemärkte müssen deshalb beim bisherigen sozialstaatlichen institutionellen Setting der Bereitstellung formeller/informeller Betreuungsdienstleistungen in Frage gestellt werden " aus diesem Grund können sie auch Hinweise auf die Entwicklung von Wohlfahrtsstaaten geben. Gerade hier mangelt es den zahlreichen Analysen zu den Ursachen und Folgen der Entstehung Grauer Pflegemärkte die Regulierungsversuche und -diskurse in einen größeren politikübergreifenden Forschungskontext zu setzen und zu analysieren. Dieses Dissertationsprojekt setzt an dieser Forschungslücke an und geht der Frage nach, was der parlamentarische Diskurs um die Legalisierung der 24-Stunden-Betreuung über die Richtung des wohlfahrtsstaatlichen Wandels konservativer Wohlfahrtsstaaten aussagt. Hierbei werden die wohlfahrtsstaatlichen Entwicklungen der vergangenen zwei Jahrzehnte sowie die sozialpolitischen Leitprinzipien des konservativen Wohlfahrtsstaates in die Untersuchung mit einbezogen. In theoretischer Hinsicht knüpft das Vorhaben an Theorieansätze der Wissenspolitologie und Wissenssoziologie an und verbindet sie mit dem Ansatz der Theorie der sozialen Probleme. Wissenspolitologie erlaubt es wohlfahrtsstaatliche Veränderungsprozesse vor dem Hintergrund von Deutungen, Ideen oder Argumenten, also dem, was politische Akteure sagen, zu analysieren und sehen gleichzeitig hierin den Ausgangspunkt eben jener wohlfahrtsstaatlichen Veränderungsprozesse und Entwicklungen. Der wissenssoziologische Zugang in dieser Arbeit begründet sich über die Beobachtung, dass Graue Pflegemärkte rund zwanzig Jahre unbeachtet von Politik und Gesellschaft existieren konnten. Erst die Problematisierung der Grauen Pflegemärkte bzw. der auf ihnen irregulär erbrachten Betreuungsdienstleistungen ermöglichte einen Diskurs um die Frage, wie und in welchem Rahmen Betreuungsdienstleistungen zukünftig erbracht werden sollen. Insofern kann die Problematisierung als Ausgangspunkt für einen sozialpolitischen Veränderungsprozess gesehen werden. Die Analyse stützt sich dabei auf qualitative Methoden und wertet hierzu wichtige Parlamentsdebatten, Gesetzesentwürfe, Parteiendokumente sowie Zeitungsartikel die im Rahmen der Problematisierung und öffentlichen Diskussion zur Legalisierung der 24-Stunden-Betreuung geführt wurden aus. Ziel dieser Arbeit ist es, den Wandel des konservativen Wohlfahrtsstaates (1) durch das bislang wenig beachtete Politikfeld Betreuungsarbeit und Pflege zu ergänzen und (2) die Analyse um die Bedeutung von Deutungen und sozialpolitischen Leitprinzipien für sozialpolitische Reformprozesse zu erweitern.
Nicht von einer Hand Fallbeispiele der künstlerischen Zusammenarbeit in der Gemäldeproduktion vom 17. bis 19. Jahrhundert Das Phänomen der künstlerischen Zusammenarbeit mehrerer Maler auf einem Bildträger wurde in den vergangenen zehn Jahren in der Forschung und in der praktischen Museumsarbeit mit immer größerem Interesse betrachtet. Das hängt mit dem generellen Wandel in der Wahrnehmung von historischen Sammlungen und der Hinterfragung von tradierten Wahrnehmungsmustern in der Kunstgeschichte zusammen. Diese Dissertation hat sich die Frage nach der Entstehung dieser Form der Zusammenarbeit in verschiedenen Regionen und deren Rezeption im 18. und 19. Jahrhundert gestellt. Wenngleich in der Forschung die Kooperationstätigkeiten einzelner Künstler zunehmend Beachtung finden, so war es mein Anliegen, das Phänomen der Kooperationspraxis umfassend anhand verschiedener Fallbeispiele zu beschreiben. In vielen Fällen können diese Beispiele ergänzt und erweitert werden. Im Kern aber bleibt die Feststellung, dass die Kooperationspraxis als künstlerische Produktionsweise eine Entwicklung vollzogen hat. Kooperationen im beschriebenen Umfang hat es immer gegeben. Die produktive Phase der niederländischen und flämischen Malerei wäre im 17. Jahrhundert nicht möglich gewesen, hätten sich vor allem in Antwerpen die Maler nicht zu Kooperationsgemeinschaften zusammengeschlossen. Die Entwicklung der Genres, der Transfer unterschiedlichster Bildthemen und Motive hängt im engen Maße mit der Kooperationstätigkeit zusammen. Entscheidend für die horizontale Kooperation, also die Kooperation unter (mehr oder minder) gleichgestellten autonomen Meistern, war die Entwicklung dieser verschiedenen Genres. Einige dieser Gattungen eigneten sich besonders gut für die Praxis der Künstlerkooperation. Sie wurden zum Teil überhaupt erst durch diesen intensiven Austausch unter den Malern so erfolgreich und konnten erst durch eine ökonomische Produktionsweise in großer Menge für den freien Kunstmarkt hergestellt werden. Bei der Gegenüberstellung der Kooperationsbedingungen in Deutschland und in den Niederlanden wurden signifikante Gründe für die unterschiedliche Entwicklung der künstlerischen Zusammenarbeit herausgestellt. Im Alten Reich unterschieden sich im 16. und 17. Jahrhundert die sozial-ökonomischen Verhältnisse deutlich von denen in den südlichen und nördlichen Niederlanden. Die Grenzen zwischen der werkstattinternen Arbeitsteilung und der Kooperation zwischen autonomen Meistern verliefen fließend. Die Entwicklung in der Arbeitsweise der Maler verlief über einen langen Zeitraum und kann nicht als homogener Entwicklungsstrang festgeschrieben werden. Waren es anfangs die herrschaftlich motivierten Ansprüche für die Ausstattung der Residenzen oder für exorbitante Memorialprojekte, welche die bekanntesten Maler an einem Projekt unter der Koordination eines Höflings wirken ließen, so ging mit dem Erstarken des freien Kunstmarktes die Künstlerkooperation mit dem Ziel einer effektiven und absatzstarken Gemäldeproduktion einher. Die Produktionsverfahren des 18. und 19. Jahrhunderts folgten, mehr und mehr politischen, gesellschaftlichen und ökonomischen Motiven, wobei die Künstlerkooperation als soziales Arbeitsmodell bestätigt wurde. Damit wurde gleichsam der Weg für Künstlergemeinschaften und Künstlerkolonien geebnet, die vor allem im 20. Jahrhundert ein globales Phänomen darstellten und das künstlerische Selbstverständnis bis zum heutigen Tag prägen.
In der modernen Survey-Statistik treten immer häufifiger Optimierungsprobleme auf, die es zu lösen gilt. Diese sind oft von hoher Dimension und Simulationsstudien erfordern das mehrmalige Lösen dieser Optimierungsprobleme. Um dies in angemessener Zeit durchführen zu können, sind spezielle Algorithmen und Lösungsansätze erforderlich, welche in dieser Arbeit entwickelt und untersucht werden. Bei den Optimierungsproblemen handelt es sich zum einen um Allokationsprobleme zur Bestimmung optimaler Teilstichprobenumfänge. Hierbei werden neben auf einem Nullstellenproblem basierende, stetige Lösungsmethoden auch ganzzahlige, auf der Greedy-Idee basierende Lösungsmethoden untersucht und die sich ergebenden Optimallösungen miteinander verglichen.Zum anderen beschäftigt sich diese Arbeit mit verschiedenen Kalibrierungsproblemen. Hierzu wird ein alternativer Lösungsansatz zu den bisher praktizierten Methoden vorgestellt. Dieser macht das Lösen eines nichtglatten Nullstellenproblemes erforderlich, was mittels desrnnichtglatten Newton Verfahrens erfolgt. Im Zusammenhang mit nichtglatten Optimierungsalgorithmen spielt die Schrittweitensteuerung eine große Rolle. Hierzu wird ein allgemeiner Ansatz zur nichtmonotonen Schrittweitensteuerung bei Bouligand-differenzierbaren Funktionen betrachtet. Neben der klassischen Kalibrierung wird ferner ein Kalibrierungsproblem zur kohärenten Small Area Schätzung unter relaxierten Nebenbedingungen und zusätzlicher Beschränkung der Variation der Designgewichte betrachtet. Dieses Problem lässt sich in ein hochdimensionales quadratisches Optimierungsproblem umwandeln, welches die Verwendung von Lösern für dünn besetzte Optimierungsprobleme erfordert.Die in dieser Arbeit betrachteten numerischen Probleme können beispielsweise bei Zensen auftreten. In diesem Zusammenhang werden die vorgestellten Ansätze abschließend in Simulationsstudien auf eine mögliche Anwendung auf den Zensus 2011 untersucht, die im Rahmen des Zensus-Stichprobenforschungsprojektes untersucht wurden.
Preisvergleiche zwischen verschiedenen Regionen spielen in zahlreichen wirtschaftlichen und politischen Zusammenhängen eine wichtige Rolle. Unabhängig davon, ob es darum geht, die Wirtschaftskraft von Regionen oder Ländern gegenüber zu stellen, die Lebensverhältnisse innerhalb eines Landes zu vergleichen, oder aber die Wirkungsweise sozial- und lohnpolitischer Entscheidungen einzuschätzen: Interregionale Preisvergleiche dienen in erster Linie als Instrument, um gesamtwirtschaftliche und ökonomische Größen zwischen verschiedenen Regionen oder Ländern real vergleichbar zu machen. Interregionale Preisvergleiche sind allgemeinhin besser bekannt als sogenannte Kaufkraftparitäten. Die enorme Bedeutung von Kaufkraftparitäten wurde in der Vergangenheit lange unterschätzt. Insbesondere bei Preisvergleichen innerhalb eines Landes mangelt es oftmals an einer soliden Datenbasis, sodass verlässliche Schätzungen regionaler Preisniveauunterschiede häufig nicht möglich sind. Die vorliegende Arbeit zeigt allerdings, dass ein breites Angebot verschiedener multilateraler Aggregationsmethoden bereit. Im Mittelpunkt des ersten Teils Arbeit steht die methodische Ausarbeitung verschiedener Aggregationsverfahren, mit deren Hilfe sich erhobene Daten zu verlässlichen und aussagekräftigen Preisvergleichskennzahlen aggregieren lassen. Im Unterschied zu intertemporalen Vergleichen sind gewöhnliche bilaterale Preisindizes für diesen Zweck nur begrenzt einsetzbar. Vielmehr sind spezielle multilaterale methodische Instrumente nötig, die den speziellen Anforderungen regionaler Preisvergleiche gerecht zu werden. Im Rahmen der Arbeit werden die verschiedenen multilateralen Aggregationsverfahren unterschiedlichen Berechnungsansätzen zugeordnet, wobei jeder dieser Ansätze durch bestimmte Eigenschaften charakterisiert ist. Neben den Mitgliedern der Klasse des Gini-Eltetö-Köves-Szulc (GEKS) und Minimum Spannning Tree (MST) Ansatzes sowie des Regressionsansatzes, widmet sich diese Arbeit schwerpunktmäßig den unterschiedlichen Verfahren des sogenannten Standardisierungsansatzes. Es stellt sich heraus, dass der Standardisierungsansatz grundsätzlich sehr dem Konstruktionsprinzip bilateraler Durchschnittswertindizes (GUV-Indizes) ähnelt, weshalb sich die Mitglieder dieser Klasse auch als multilaterale GUV-Indizes auffassen lassen. Darüber hinaus wird eine neue Unterklasse des Standardisierungsansatzes definiert, deren Mitglieder die breite Palette bereits existierender Verfahren ergänzen. Allerdings wird den Aggregationsverfahren des Standardisierungsansatzes nachgesagt, unter den Auswirkungen des sogenannten Gerschenkron-Effekts zu leiden und im Gegensatz zu anderen Aggregationsverfahren häufig verzerrte Preisvergleiche hervorzubringen. Der zweite Teil der Arbeit ist einem empirischen Vergleich der zuvor erörterten Aggregationsverfahren vorbehalten. Grundlage für die Berechnungen (auf und unterhalb der elementaren Güterebene) sind Daten des Europäischen Vergleichsprogramms (EVP). Eine wichtige Erkenntnis des empirischen Teils der Arbeit ist, dass viele der unterschiedlichen Aggregationsmethoden für die Berechnungen auf der Elementarebene sehr ähnliche Ergebnisse für die Preisvergleiche zwischen den Ländern im EVP generieren. Die Sorge verzerrter Preisvergleiche infolge der Auswirkungen des Gerschenkron-Effektes lässt sich auf Grundlage der empirischen Untersuchungen nicht (zweifelsfrei) bestätigen. Ferner zeigen die empirischen Untersuchungen, dass weitaus größere Schwierigkeiten bei der Berechnung von Preisvergleichen unterhalb der Elementarebene bestehen. Die Berechnungen offenbaren, dass die häufig in der Praxis eingesetzten Verfahren der GEKS-Methode in Situationen, in denen nur wenige Daten vorhanden sind, keine plausiblen Ergebnisse liefern. Es stellt sich heraus, dass in diesen Fällen die Verfahren des Regressionsansatzes eine unkompliziertere und verlässlichere Berechnung von Preisvergleichen erlauben. Nichtsdestotrotz decken die Ergebnisse schonungslos die Probleme und Schwächen interregionaler Preisvergleiche auf. Trotz intensiver Anstrengungen der internationalen statistischen Organisationen, eine vergleichbare und fundierte Datenbasis zu schaffen, sind die Dateninformationen einiger Regionen bzw. Länder nach wie vor sehr lückenhaft. Da verlässliche und aussagekräftige Preisvergleiche im Wesentlichen von der Verfügbarkeit und der Qualität der Daten abhängig sind, sollte der Forschungsschwerpunkt zukünftig daher mehr an der Bereitstellung eines soliden Datenfundaments ausgerichtet werden.
Die Frage, wie die Lesekompetenz der Lernenden effizienter entwickelt werden kann, beschäftigt die Leseforschung im Bereich Chinesisch als Fremdsprache (ChaF) seit vielen Jahren. Bis heute werden dabei schriftstrukturelle Aspekte in den Vordergrund gestellt, so z. B. die Frage, wie den Lernenden der Aufbau der Schriftzeichen systematisch näher gebracht werden kann oder auch korpusrelevante Ansätze, die in Sammlungen hochfrequenter Schriftzeichen und Wörter ihren Niederschlag finden. So sinnvoll diese Herangehensweisen beispielsweise für die Entwicklung von Lehrwerken sind, so bleibt doch festzuhalten, dass die Wortebene (Wortschatzkenntnis und Worterkennung), die den Befunden der L1- und L2-Leseforschung zufolge der Schlüssel für das Verstehen von Texten ist, bis heute sowohl in der lesedidaktischen Diskussion als auch in den Lehrwerken stark vernachlässigt wird. In den letzten zwanzig Jahren ist von Seiten der ChaF-Leseforschung, insbesondere in den USA und in China, eine Reihe von psycholinguistischen Studien zur Entwicklung der Lesekompetenz, der Worterkennung und von Wortschatzkenntnissen sowie zur Beziehung dieser Kompetenz- und Wissensbereiche publiziert worden. Auch der Leseprozess geübter L1-Leser ist inzwischen gut erforscht. Allerdings lassen sich aus den Ergebnissen einzelner psycholinguistischer Studien, in denen unter Anwendung unterschiedlicher Forschungsparadigmen bestimmte Subprozesse des Lesens untersucht werden, nicht direkt Schlussfolgerungen für die nach kohärenten Erklärungen des Leseprozesses verlangende Lesedidaktik ziehen. Für die Entwicklung eines evidenzbasierten Ansatzes zur wortschatzzentrierten Lesevermittlung in ChaF wurde daher in der vorliegenden interdisziplinären Studie die gesamte relevante empirische Evidenz zum Lesen und zur Wortverarbeitung in ChaF kritisch im Rahmen konsensfähiger Theorien zur Sprachverarbeitung analysiert. Ergebnis dieser Analyse war, dass " ebenso wie in anderen Fremdsprachen auch " umfassende und gut vernetzte Wortschatzkenntnisse sowie eine automatisierte Worterkennung, die den zuverlässigen Abruf phonologischer Informationen mit einschließt, Grundvoraussetzungen für das fließende Lesen chinesischer Texte sind. Gleichzeitig verdeutlichen die empirischen Befunde auch, dass der Erwerb vertiefter Wortschatzkenntnisse aufgrund der sprachlichen Distanz des Chinesischen für westliche ChaF-Lernende eine große Herausforderung darstellt. Auch die Entwicklung der Worterkennung ist aufgrund der phonologischen Intransparenz der chinesischen Schrift und auch weil beim Lesen eine zusätzliche Wortsegmentierung vorgenommen werden muss, mit großen Schwierigkeiten verbunden. Im letzten Kapitel der Dissertation werden Empfehlungen für eine wortschatzzentrierte Lesedidaktik formuliert, die Ansätze aus der evidenzbasierten westlichen L2-Lesedidaktik mit der traditionellen Methode des lauten Lesens verbindet und die den Lernenden gleichzeitig die Möglichkeit bietet, im Rahmen inhaltsbezogener rezeptiver, reflexiver und produktiver Übungen aktiv mit chinesischen Wörtern umzugehen und deren Verwendung wiederholt einzuüben.
Im querschnittlichen Vergleich zwischen 10- bis 18-jährigen Mädchen mit Major Depression und gleichaltrigen gesunden Probandinnen wiesen die depressiven Mädchen mehr Probleme, mehr körperliche und psychische Stresssymptome, erhöhte Cortisolsekretion sowie eine ungünstigere Stressverarbeitung auf. Im Längsschnitt zeigte sich die Bedeutsamkeit von psychischer Stressbelastung und der Einfluss von Bewältigungsstrategien auf den Verlauf der Depression.
Im Leistungssport ist ein gesunder Körper die Hauptvoraussetzung für das Erbringen sportlicher Höchstleistungen. Allerdings müssen Leistungssportler tagtäglich in Training und Wettkampf gesundheitliche Risiken eingehen. Aus diesem Dilemma wird ein Trilemma, sobald es sich um jugendliche Leistungssportler handelt, da das Jugendalter mit all den Veränderungen auf psychischer, physischer und sozialer Ebene, die es mit sich bringt, häufig das Einstiegsalter für gesundheitsrelevante Risikoverhaltensweisen wie den Konsum von Alkohol, Tabak und Marihuana bildet. Diese können zusätzlich Auswirkungen auf die Gesundheit und damit das Erbringen sportlicher Leistung haben. Aus diesem Grund war es das Ziel dieser Dissertation, das gesundheitsrelevante Risikoverhalten und die subjektive Gesundheit in der speziellen Gruppe jugendlicher Leistungssportler zu untersuchen, mit einer jugendlicher Referenzstichprobe bestehend aus Nicht-Leistungssportlern zu vergleichen und assoziierte Determinanten - sowohl individueller als auch kontextueller Natur - zu identifizieren. Dazu wurden im Rahmen der GOAL Study (German Young Olympic Athletes" Lifestyle and Health Management Study) 1.138 jugendliche Leistungssportler aller olympischer Disziplinen schriftlich befragt. Ausgewertet wurden neben der subjektiven Gesundheit der Konsum von Alkohol, Tabak und Marihuana, das Ernährungsverhalten und die Nutzung von Nahrungsergänzungsmitteln. Als Vergleichspopulation wurde der KiGGS (Kinder- und Jugendgesundheitssurvey) des Robert Koch-Instituts herangezogen. Es zeigte sich, dass jugendliche Leistungssportler zwar selten rauchten (3%) oder Marihuana konsumierten (3%), aber dass sie durchaus Alkohol zu sich nahmen (86%) und insbesondere Binge Drinking betrieben (24%). Bezüglich des Rauchverhaltens, des Konsums von Marihuana und des Jemalskonsums von Alkohol zeigten sie jedoch niedrigere Prävalenzen als jugendliche Nicht-Leistungssportler. Bei der Ernährung der Athleten ergaben sich teilweise Defizite. Lediglich 52% der Athleten nahmen täglich eine Auswahl an vitamin- und ballaststoffreichen Nahrungsmitteln zu sich, jedoch waren dies mehr als in der Referenzpopulation. Neun von zehn Athleten nutzten Nahrungsergänzungsmittel, davon konsumierten rund 30% täglich Supplemente. Die Mehrheit der Athleten bezeichnete ihre Gesundheit als gut oder sehr gut (89%), was einem größeren Anteil entspricht als in der Referenzgruppe (86%). Es fanden sich eine Vielzahl an individuellen und kontextuellen Determinanten mit den einzelnen Risikoverhaltensweisen und der subjektiven Gesundheit verknüpft. Insgesamt lässt sich festhalten, dass Beratung und Aufklärung bezüglich der einzelnen Risikoverhaltensweisen immens wichtig erscheinen. Beispiele für bestehenden Aufklärungsbedarf sind der übermäßige Alkoholkonsum, welcher Auswirkungen auf die Leistungsfähigkeit haben kann, die Einnahme von Nahrungsergänzungsmitteln wie Kreatin, welche für Jugendliche nicht unbedenklich ist, und der häufig vorliegende nicht-tägliche Konsum von vitamin- und ballaststoffreichen Lebensmitteln, welcher wichtig für eine adäquate Ernährung ist. Daher sollten bereits Athleten in niedrigeren Kaderstufen Experten (z. B. Ernährungsberater) zur Seite gestellt werden. Aber nicht nur die Athleten sollten besser geschult werden sondern auch deren Trainer, Betreuer und Eltern, die allesamt wichtige Bezugspersonen darstellen.
Die Arbeit setzt sich mit den theoretischen und praktischen Aspekten der Analyse und Edition eines literarisch wichtigen Textes mit Methoden der Digital Humanities sowie der Korpus- und Computerlinguistik auseinander. Als Materialgrundlage dient das luxemburgischsprachige Werk des Michel Rodange. Hierzu gehören die Werke "Renert oder de Fuuss am Frack an a Maansgréisst" - ca. 35.000 Tokens, "Dem Léiweckerche säi Lidd" - ca. 5.000 Tokens, "Dem Grof Sigfrid seng Goldkuemer" - ca. 10.000 Tokens und zwei Gedichte - ca. 500 Tokens. Auf der empirischen Seite handelt es sich um die Erstellung eines elektronischen Korpus mit historisch-kritischen und linguistischen Annotationen und dessen Darstellung im Internet als Webportal. Dabei entsteht eine Wechselwirkung zwischen Theorie und Praxis, so werden die erstellten Annotationen verwendet, um das Werk aus sprach- und literaturwissenschaftlicher Perspektive zu untersuchen; diese Erkenntnisse können dann wiederum bei der Implementierung der Tools eingesetzt werden, um den Korrektheitsgrad der automatischen Annotation zu erhöhen. Die historisch-kritischen Annotationen beinhalten beispielsweise Lesarten, Korrekturen sowie Worterklärungen, wohingegen die linguistischen Annotationen die Orthographie, Morphologie (Wortklassen und Lemmata) und Phraseologie betreffen. Die Annotationen werden in der Markup-Sprache XML kodiert. Der erste Schritt der Erstellung eines elektronischen Korpus ist die Digitalisierung der Texte. Bei den Handschriften geschah dies mithilfe einer manuellen Transkription, bei den Drucken wurde auf eine OCR-Software zurückgegriffen. Es empfiehlt sich, bereits in dieser Phase den Text gut zu strukturieren und mit Annotationen zu versehen. Dabei wurden zunächst Metadaten festgehalten. Anschließend wurden Informationen wie Seitenzahl, Zeilenumbrüche etc. als Annotationen hinzugefügt. Von besonderer Bedeutung für die Erstellung eines Korpus aus einem historisch und literarisch wichtigen Text ist jedoch seine Anreicherung mit historisch-kritischen Kommentaren. Die Untersuchung und Berücksichtigung der literarischen bzw. wissenschaftlichen Gattung historisch-kritische Edition stellt die theoretische Grundlage für solche Annotationen dar. Alle für die Editionswissenschaft relevanten Texthinweise, -bruchstücke und vom Autor durchgestrichene und gelöschte Stellen wurden dokumentiert. Bei schlecht lesbaren Stellen wurden Lesemöglichkeiten vorgeschlagen und die anderer Editionen diskutiert. Die Text Incoding Initiative (TEI) bietet eine Fülle von XML-Elementen, um solche Annotationen zu speichern. Um diese Arbeit nicht manuell ausführen zu müssen, wurde auf Tools wie TUSTEP, oXygen oder Skriptsprachen wie beispielsweise Perl zurückgegriffen. Diese können u. a. die Such- und Ersetzen-Arbeiten mithilfe der Regulären Ausdrücke bedeutend erleichtern. Den nächsten Schritt der Korpus-Erstellung stellt die Tokenisierung dar. Hierbei gehen die historisch-kritischen Annotationen in linguistische Annotationen über. Die Grenzen eines Wortes werden festgelegt und jedes Wort mit seinem eigenen Element versehen. Aus der digitalen Verarbeitung nicht wegzudenken ist dabei die Berücksichtigung und Untersuchung der Sprache des Autors. In diesem Fall wurde auf Aspekte wie die Dichtungsstile des Luxemburgischen im 19. Jahrhundert, die literarischen Gattungen der Texte sowie die Schreibung des Autors geachtet. Der empirische Anteil der Analyse mit EDV-technischen Methoden und die Speicherung der Ergebnisse als Annotationen stellt die wissenschaftliche Basis für die spätere digitale Präsentation dar. In der Arbeit werden die Ergebnisse der quantitativen und qualitativen Analyse der Sprache des Werks mithilfe von selbstimplementierten Programmen diskutiert. Dabei werden die vorhandenen Theorien sowohl der klassischen Linguistik z. B. aus der Morphologie oder der Phraseologieforschung, als auch der Korpuslinguistik besprochen und evaluiert. Die Implementierung und Ergebnisse folgender Programme für das Michel Rodange Korpus werden thematisiert: Tokeniser, FreqList, POS-Trainer, POS-Tagger, Lemmatisierer und Programme zur morphologischen und phraseologischen Analyse des Korpus. Der POS-Tagger kann die Wortarten im Korpus bestimmen. Grundlage dafür sind die sogenannten Hidden Markov Modelle, die auf der Wahrscheinlichkeitstheorie basieren. Der Lemmatisierer und das Programm zur morphologischen Analyse arbeiten hauptsächlich regelbasiert, wohingegen das Programm für die phraseologische Analyse anhand statistischer Verfahren wie dem Z-Test, dem Chi-Quadrat-Test und dem Exakten Test von Fisher implementiert wurde. So widmet sich beispielsweise Kapitel 3.4 dem Output der morphologischen Analyse und diskutiert die Wortbildung. Kapitel 3.6 beschäftigt sich mit der Interpretation der Phraseologismen. Hierbei zeigte sich, dass viele der automatisch identifizierten Phraseologismen aus Michel Rodanges Werken in der Tat ein fester Bestandteil nicht nur der luxemburgischen Sprache und Kultur sind, sondern sich auch in der gesamten westlichen Kultur wiederfinden.
Handeln in der Organisation Schule - Eine Fallstudie zur Selbstgestaltung der Realschule plus unter Einbezug politischer Rahmenbedingungen. Die in der rheinland-pfälzischen Schulstrukturreform von 2008 festgelegte Einführung der Realschule plus und damit verbundene schulische Fusionierungsprozesse wurden in der vorliegenden Dissertation mittels eines qualitativen Methodenmixes fallanalytisch untersucht. Im Zentrum stand dabei zum einen die Beleuchtung der schulischen Binnenstruktur, zum anderen wurde der Frage nachgegangen, welche Handlungsspielräume bzw. Entwicklungsstrategien zur individuellen Selbstgestaltung die einzelne Schule für sich erarbeiten kann. Forschungsleitend ist dabei der Befund aus schulübergreifenden Untersuchungen der "Agentur für Qualitätssicherung, Evaluation und Selbstständigkeit von Schulen" (AQS) gewesen, der besagt, dass sich unterschiedliche Schularten insgesamt nur wenig voneinander unterscheiden, jedoch die Differenzen zwischen einzelnen Schulen eine ausgedehnte Vielfalt aufweisen und im Kontext einzelschulischer Qualitätsentwicklung eine Fülle unterschiedlicher Merkmale und Handlungsstrategien offenbaren. Zur Operationalisierung sind dementsprechend folgende Forschungsfragen formuliert worden: Inwieweit gelingt es politische Rahmenbedingungen zum Schultyp der Realschule plus umzusetzen? Wie wird schulische Selbstverwaltung als Programmatik von Schulentwicklung verstanden? Welche Handlungsmuster und -strategien der Beteiligten können in diesem Zusammenhang herausgearbeitet werden? Abschließend wurde der Versuch unternommen, Handlungsempfehlungen aus den wichtigsten Ergebnissen der Arbeit abzuleiten, die aus Sicht der Verfasserin eine Relevanz für einen möglichst positiven Vollzug der gegenwärtigen Reformbemühungen besitzen.
Bei synthetischen Simulationsgesamtheiten handelt es sich um künstlichernDaten, die zur Nachbildung von realen Phänomenen in Simulationen verwendetrnwerden. In der vorliegenden Arbeit werden Anforderungen und Methoden zur Erzeugung dieser Daten vorgestellt. Anhand von drei Beispielen wird gezeigt, wie erzeugte synthetische Daten in einer Simulation zur Anwendung kommen.
Im Zentrum der Dissertation steht der in Augsburg geborene Maler Joseph Heintz d.J. (1600-1678), der Anfang der 1620er Jahre nach Venedig auswanderte, wo er über fünfzig Jahre bis zu seinem Tod lebte und arbeitete, und zum Hauptvertreter der venezianischen Festmalerei des 17. Jahrhunderts avancierte. Der erste Teil widmet sich der Rekonstruktion der bisher nahezu unbekannten Biographie Joseph Heintz' d.J., sowie seines Kunden- und Auftraggeberkreises, und somit der sozialen Verortung des Künstlers in Venedig. Im zweiten Teil erfolgt die Analyse der Festmalerei Joseph Heintz' d.J. unter besonderer Berücksichtigung der venezianischen Festkultur als Manifestation der Staatsidentität. Heintz d.J. stellte in seinen Gemälden festliche Prozessionen und die Investiturzeremonien des Dogen ebenso dar wie weltliche Spektakel und volkstümliche Wettkämpfe. Durch die quellenbasierte Recherche, sowie die Kontextualisierung der Festgemälde, konnte eine Neubewertung Joseph Heintz" d.J. als bedeutender, gut vernetzter Künstler erfolgen, dessen Werke einen nicht zu unterschätzenden Einfluss auf die venezianischen Vedutisten des 18. Jahrhunderts hatten.
Die Arbeit thematisiert die Weiterentwicklung des touristischen Angebots der Deutschen Bahn, das derzeit über den Reiseveranstaltervertrieb am Markt platziert wird. Kunden, die im Reisebüro oder Internet eine Städtereise über ihren Veranstalter buchen, erhalten mit dem RIT (Rail Inclusive Tours)-Angebot ein spezielles Kooperationsticket für ihre Zugfahrt. Im ersten Abschnitt der Arbeit wird zunächst auf die Besonderheiten des Dienstleistungsbereichs inklusive Auswirkungen auf die Angebotsgestaltung von Unternehmen eingegangen. In diesem Zusammenhang werden Hintergründe von Kundenzufriedenheit und Kundenbindung skizziert sowie deren Wechselwirkungen dargestellt. Über die Einordnung der Deutschen Bahn als Dienstleistungsunternehmen im Schienenpersonenfernverkehr wird deren Positionierung im zunehmenden Wettbewerbsmarkt in einer Umfeldanalyse erarbeitet und die Bedeutsamkeit für den Unternehmenserfolg aufgezeigt. Der praktische Teil der Arbeit befasst sich mit den Befragungsergebnissen von Bestandskunden in der fokussierten Zielgruppe der Städtereisenden. Neben der Analyse von Nutzerstruktur, Reisegewohnheiten und alternativer Verkehrsmittelwahl, werden Kundenzufriedenheiten und Wichtigkeiten einzelner Leistungsbestandteile der Bahnreise näher betrachtet. Durch die Identifizierung von Kundensegmenten lassen sich Ansatzpunkte für die Weiterentwicklung des Angebots ableiten, die eine Attraktivitätssteigerung der Bahnfahrt herbeiführen und die Kundenzufriedenheit nachhaltig erhöhen können. Einbindung von Essensgutscheinen, das Angebot von Kuriergepäck oder die Integration des City-Tickets sind denkbare, nutzensteigernde Maßnahmen für die Anreisealternative Bahnfahrt. Weiterer Forschungsbedarf für die betrachtete Zielgruppe besteht in der Erfassung von Hinderungsgründen für eine bevorzugte Bahnwahl in der Verkehrsmittelentscheidung. Darüber hinaus ist das Potenzial für eine Einbindung solcher Services zu erfassen, die sich auf Seiten der Reiseveranstalter in ein Leistungspaket integrieren lassen, um weitere Indikatoren zur Attraktivitätssteigerung der Bahnfahrt ableiten zu können. Zusammenfassend stellt die Arbeit eine Analyse der skizzierten Zielgruppe der Städtereisenden der Deutschen Bahn über den Veranstaltervertrieb dar und liefert einen Beitrag, der die Ableitung einiger relevanter Handlungsempfehlungen erlaubt. Denn nur durch attraktive Angebote und die Erzielung einer hohen Kundenzufriedenheit kann sich die Bahn als bevorzugtes Transportmittel behaupten und neue Kunden für die Zugfahrt begeistern.
Rinnen werden als effektive Sedimentquellen und als Transportwege für große Sedimentmengen angesehen, zusätzlich agieren sie als bevorzugte Fließwege für den Oberflächenabfluss. Sie können sich zu irreversiblen Formen (Gullys) weiterentwickeln. Trotz Fortschritten in der Modellierung bleibt insbesondere die Modellierung von Rinnenerosion schwierig. Daher ist es wichtig, experimentelle Daten aus Geländeversuchen zu erheben, um das Prozesswissen zu verbessern und bessere Modelle zu entwickeln. In den Experimenten sollte eine standardisierte Methode verwendet werden, um eine gewisse Vergleichbarkeit der Ergebnisse zwischen unterschiedlichen Testgebieten zu gewährleisten. Die meisten Experimente zur Rinnenerosion, die unter Labor- oder Geländebedingungen durchgeführt wurden, verwendeten Substrate mit unterschiedlichen Korngrößen und natürlichen oder simulierten Niederschlag. Ziel war meist die Entstehung von Rinnennetzwerken zu beobachten, Startbedingungen für Rinnenbildung zu definieren, die Entwicklung der Rinnenmorphologie zu untersuchen, die wichtigsten hydraulischen Parameter wie Fließquerschnitt, benetzten Umfang, hydraulischen Radius, mittlere Fließgeschwindigkeit und shear stress abzuschätzen oder mathematische Modelle zu kreieren, um den Bodenabtrag durch Rinnenerosion abschätzen zu können. Aber es fehlen Untersuchungen zum Verhalten von existierenden Rinnen, natürlichen oder anthropogen entwickelten, unter Geländebedingungen. Um diese Lücke zu schließen wurde eine reproduzierbare Versuchsanordnung entworfen und in verschiedenen Rinnen angewendet um folgende Fragen zu beantworten: Wie hoch ist der Anteil der Rinnenerosion am Bodenabtrag? 2) Wie effektiv sind Rinnen beim Transport von Wasser und Sediment durch ihr Einzugsgebiet? In prozess-basierten Modellen werden verschiedene Prozesse durch mathematische Gleichungen beschrieben. Die Grundlage dieser Formeln ist meist ein hydraulischer Parameter, der in Verbindung zum Abtrag gebracht wird. Der am häufigsten verwendete Parameter ist der shear stress, von dem angenommen wird, dass er ein lineares Verhältnis zu Erosionsparametern wie detachment rate, detachment capacity oder Sedimentkonzentration aufweist. Aus dem shear stress lassen sich weitere Parameter wie unit length shear force oder verschiedene Varianten der stream power berechnen. Die verwendeten Erosions- und hydraulischen Parameter ändern sich je nach Forschergruppe. Eine weitere Modellannahme ist, dass die transport rate die trasnport capacity nicht übersteigen kann. Wenn das transport rate vs. transport capacity - Verhältnis 1 übersteigt, verringern Sedimentationsprozesse die Rate bis die transport capacity wieder erreicht ist. Wir untersuchten in Geländeversuchen die folgenden Annahmen: 1) Ist das Verhältnis zwischen transport rate und transport capacity immer kleiner 1? 2) Besteht die lineare Beziehung zwischen verschiedenen hydraulischen Parametern und Bodenabrtagsparametern? 3)Verursachen die selben hydraulischen Parameter, die in verschiedenen Versuchen aufgenommen wurden, auch immer die selben Erosionsparameter?
In der Forschung zur aktuellen Prozessdynamik der Bodenerosion sind Niederschlagssimulationen mit kleinen mobilen Beregnungsanlagen (KBA) ein unverzichtbarer Bestandteil. Weltweit werden sehr viele KBA unterschiedlicher Bauart, Plotgrößen, Tropfenerzeugung, Niederschlagsintensitäten, und -spektren eingesetzt. Eine Standardisierung der Anlagen ist aufgrund der Verschiedenheit der Forschungsfelder und -fragen nicht in Sicht. Darüber hinaus sind die erzeugten Niederschläge (Nd) der Anlagen unzureichend genau charakterisiert und es liegt keine einheitliche Datenbasis aller relevanten Parameter vor. Zudem werden mit KBA bisher ausschließlich Starkregen unter windstillen Bedingungen simuliert, obwohl Wind einen deutlichen Einfluss auf fallende Regentropfen ausübt. Die vorliegende Arbeit gliedert sich in drei Teile: (1) Weiterentwicklung und Anwendung von KBA: Wie lässt sich die Performance der Trierer KBA optimieren und eine einheitliche Mess- und Kalibrierungsmethode für den simulierten Niederschlag definieren? Welche Anforderungen, Möglichkeiten, Grenzen und Anwendungsbereiche gibt es? (2) Vergleich verschiedener Typen von KBA im Gelände: Inwieweit sind Nd-Charakteristika, Oberflächen-¬abflussgenerierungen und Bodenabträge europäischer KBA vergleichbar? (3) Implemen-¬tierung von windbeschleunigtem Regen in KBA mit dem neuen mobilen Trierer Windregenkanal (WiReKa): Wie kann Wind in ein KBA-Setting integriert werden? Wie sind Unterschiede von Erosionsraten mit und ohne Windeinfluss in-situ zu quantifizieren und wie hoch fallen sie aus? Im ersten Teil der Arbeit wurde zunächst die Nd-Charakteristik der langjährig von der Physischen Geographie eingesetzten KBA mit unterschiedlichen, weltweit angewandten Messmethoden untersucht. Dabei zeigten sich einige Schwächen der KBA bezüglich ihrer Funktionalität. Der Einsatz verschiedener Mess-¬methoden zur Charakterisierung des künstlich erzeugten Nd führte zu sehr unterschiedlichen Ergebnissen. Mittels Laser-Niederschlags-Monitor (LNM) und Nd-Sammlern wurde daher ein einheitliches Testverfahren entwickelt, das eine detaillierte Aufnahme, Auswertung und Darstellung der relevanten Nd-Parameter nahezu aller KBA-Designs ermöglicht. Mit Hilfe dieses Testverfahrens wurden Nd-Charakteristik, Funktionalität und Mobilität der Trierer KBA durch technische Veränderungen deutlich verbessert. Alle Parameter dieser Anlage sind nun bekannt und lassen sich zuverlässig reproduzieren. Die Anforderungen, Möglichkeiten und Grenzen des Einsatzes von KBA wurden detailliert erarbeitet und beschrieben. Auf dem "International Rainfall Simulator Workshop" in Trier konnte mit 40 Wissenschaftlern aus 11 Nationen Einigkeit über grundlegende Aspekte beim Bau und Einsatz von KBA erzielt werden. Der zweite Teil der Arbeit stellt die Arbeitsmethoden und Ergebnisse eines in internationaler Kooperation durchgeführten Projektes zu Messmethoden und Vergleichbarkeit von Simulatordesigns und Nd-Charakteristika unterschiedlicher europäischer KBA vor. An 13 Instituten in Deutschland, den Niederlanden, der Schweiz und Spanien wurde mit dem Trierer Testverfahren eine einheitliche Datenbasis aller wesentlichen Nd-Parameter erstellt. Im praktischen Teil des Rainfall Simulator Workshop in Trier wurden dann vergleichende Versuche mit sieben KBA auf einer universitätsnahen Versuchsfläche zur Oberflächenabflussgenerierung und zum Bodenabtrag durchgeführt. Vor allem die (maximale) Sedimentkonzentration einer Simulation hat sich dabei als gute Vergleichsgröße herausgestellt. Differenzen in den gemessenen Oberflachenabfluss- und Sedimentmengen sind ganz klar unterschiedlichen Nd zuzuordnen. Der zeitliche Ablauf des Oberflächenabfluss- und Erosionsverhalten differiert dagegen nur bei zunehmender Plotgröße. Im dritten Teil der Arbeit wird analysiert, wie windbeschleunigter Regen in einer KBA simuliert werden kann. Darüber hinaus wurde eine spezielle Testreihenfolge für die Erosionsmessungen entwickelt, deren Praktikabilität sich in der Anwendung bewährt hat. Es konnten stark erhöhte Abtragsraten aufgrund der Zuschaltung von Wind zu der Regensimulation auf kohäsionslosem sandigen Substrat quantifiziert werden. Das Dissertationsprojekt kann auf mehreren Ebenen als erfolgreich angesehen werden: Die Arbeit mit den Trierer KBA konnte qualitativ verbessert werden insofern, als die Anlagenparameter optimiert und die Güte der produzierten Daten gewährleistet werden konnte. Darüber hinaus konnten die gewonnenen Erkenntnisse durch eine gezielte internationale Vernetzung in Wert gesetzt und die Zusammenarbeit auf der operationalen Ebene gestärkt werden.
Die Zweckbestimmung der modernen Clustertheorie liegt in der Analyse regional-sektoraler Verbundsysteme von ökonomischen Aktivitäten. Erst seit kurzem wird der Versuch einer Übertragung auf touristische Destinationen in Entwicklungsländern unternommen. Die vorliegende Dissertation untersucht theoretische, methodische und praktische Implikationen dieser Übertragung anhand des Fallbeispiels der touristischen Clusterentwicklung in der Napo-Provinz Ecuadors. Hierbei stehen insbesondere die Rahmenbedingungen für die Genese wissensbasierter (kompetitiver) Wettbewerbsvorteile als Quelle der Clusterdynamik im Zentrum. Anhand einer quantitativen Methodik wird in diesem Rahmen sowohl ein Nachweis zur Gültigkeit eines vorab abgeleiteten Clusterentwicklungsmodells geführt, als auch auf dieser Grundlage ein Beitrag zur Verbesserung bestehender Diagnosesysteme geleistet.
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
Der Aufbau einer Klassifikation von Einzugsgebieten (EZG) auf Basis des Abflussverhaltens und der Gebietseigenschaften sowie die Regionalisierung von Abflussparametern sind Kernthemen der Hydrologie. Die Ziele dieser Arbeit sind der Aufbau einer Klassifikation für EZGs mit hoher räumlicher Auflösung nach dem Abflussverhalten und der Gebietseigenschaften, die Identifikation abflussrelevanter, physiogeografischer und klimatischer Gebietseigenschaften und die Regionalisierung von Abflussverhalten und Modellparametern auf Basis von Klassifikationen. Dabei wird untersucht, ob sich 53 häufig benachbarte und z.T. ineinander geschachtelte Einzugsgebiete in Rheinland-Pfalz für eine Klassifikation eignen und wie das Abflussverhalten für die Beurteilung von Ähnlichkeiten beschrieben werden kann. Das Abflussverhalten der EZGs wird mit einer großen Anzahl von Ereignis-Abflussbeiwerten je EZG und Abflussdauerlinien (Flow-Duration Curves) der EZGs beschrieben, die das Abflussverhalten umfassend und mit einer ausreichenden Trennschärfe abbilden. Gebietseigenschaften, die das Abflussgeschehen dieser EZG dominieren, sind langjährige, mittlere Niederschlagssummen, die mittlere potentielle Verdunstung, die Topografie und die Speichermöglichkeiten im EZG. Für den Aufbau und die Anwendung der EZG-Klassifikationen wird ein hierfür entwickeltes Verfahren eingesetzt, dass auf Selbstorganisierenden Merkmalskarten (Self-Organizing Maps, SOM) basiert. Vorteile dieses Verfahrens gegenüber vielen konventionellen Verfahren sind Qualitätsmaße, die datenbasierte Bestimmung wichtiger Parameter, aussagestarke Visualisierungen der Ergebnisse und die Klassifikation und Regionalisierung mit einer Methode. Die Auswertung von zwei separaten Klassifikationen, nach dem Abflussverhalten und nach den physiogeografischen und klimatischen Gebietseigenschaften, stellen einen direkten Zusammenhang zwischen Abfluss- und Gebietseigenschaften her. Der Überschneidungsbereich der beiden Klassifikationen ist die Grundlage für die Übertragung von Abflussinformationen auf unbeobachtete Gebiete (Regionalisierung). Die Ergebnisse zeigen, dass die Methode der Clusteranalyse, Klassifikation und Regionalisierung mit SOM und den genannten Abfluss- und Gebietskennwerten geeignet ist, EZGs mit einer hohen räumlichen Auflösung treffend und detailliert zu klassifizieren sowie Abflussparameter zu regionalisieren.
Die Notwendigkeit einer ökologischen Aufwertung kleiner urbaner Gewässer und damit einer effektiven Siedlungswasserwirtschaft ist in den Fokus gerückt und wurde zum Bestandteil der Wasserrahmenrichtlinie ( 2000/60/EG). Die Zunahme von Regenwassermanagementsystemen und die Renaturierung kanalisierter Gewässerabschnitte führt zu einer Integration von Flüssen und Bächen in das städtische Umfeld. Diese Arbeit fokussiert die zeitlich hochaufgelöste Analyse des Stofftransports während Abflussereignissen in mesoskaligen Einzugsgebieten. Es wird untersucht, ob die Landnutzung und die Entwässerungssysteme von Siedlungsflächen, die Abflusssdynamik und die Stoffkonzentrationen beeinflussen. Beleuchtet wird, inwieweit naturnahe Regenwassermanagementsysteme in Siedlungsgebieten den natürlichen Wasserhaushalt erhalten und eine Gewässerbelastung reduzieren. Untersucht werden die Schadstoffdynamiken und -frachten dreier verschiedener Einzugsgebiete, ähnlich hinsichtlich Einzugsgebietsgröße, Topographie und klimatischen Bedingungen, aber unterschiedlich in Landnutzung und Entwässerungssystemen. Darüber hinaus wird der Einfluss der Ableitungsart des Regenwassers aus den Siedlungsgebieten auf die Abflussdynamik und die Schadstoffverlagerung auf unterschiedlichen Skalen untersucht. Abflussganglinien und Chemographen aller Gewässer zeigen große Schwankungen während und zwischen Hochwasserereignissen. Kurzfristige Konzentrationen sind sehr hoch und können nur mittels zeitlich hochaufgelöster Beprobung bestimmt werden. Frachten und mittlere Ereigniskonzentrationen weisen eine hohe Variabilität in Abhängigkeit von vorangehenden hydro-klimatischen Bedingungen auf. Erhöhte Schadstoffkonzentrationen treten in einem ländlich geprägten Einzugsgebiet in Verbindung mit Regenfällen durch Remobilisierung von Schadstoffen aus der Kanalisation auf. In einem städtisch geprägten Vorfluter sind Schadstoffbelastungen mit dem Basisabfluss aufgrund sanitärer Fehlanschlüsse und Kläranlageneinleitungen das ganze Jahr über bedeutsam. Ein biologischer Test zur Bestimmung östrogener Aktivität zeigt, dass die Toxizität von der Kläranlagentechnologie und deren Elimination östrogener Wirkstoffe abhängt. Saisonale Effekte, durch steigende östrogene Aktivität im Sommer und abnehmende Aktivität im Winter aufgrund der Verdünnung durch Boden- und Grundwasser, konnten beobachtet werden. Dezentrale Regenrückhalte führen zum Erhalt des quasi-natürlichen Wasserhaushaltes und zur Dämpfung von Abflussspitzen im Vorfluter. Die Beprobung der Zuläufe und des Ablaufes einer Retentionsfläche zeigt die Reduktion der Maximalkonzentrationen sowie der jährlichen Frachten von Xenobiotika. Mit zunehmender Einzugsgebietsgröße nimmt die Anzahl und Diversität der Entwässerungssysteme zu. Die Skalenabhängigkeit der Gewässerbelastung ergibt sich aus dem Vorhandensein und Zusammenwirken von Misch- und Trennkanalisationen, sowie Regenwassermanagementsysteme, und Kläranlageneinläufen. Vor allem Mischwasserkanalüberläufe führen zu einer hydraulischen Belastung sowie zu hohen Momentankonzentrationen der Xenobiotika. Regenwassermanagementsysteme tragen zu einer deutlichen Reduktion der chemischen und hydraulischen Belastung des Gewässers bei. Dies führt zu einer Entlastung der Vorfluter und zu einem besseren ökologischen Zustand, wie durch die Wasserrahmenrichtlinie gefordert.
Die Dissertation beschäftigt sich mit der Wahrnehmung ländlicher Armut als räumlichem Phänomen und untersucht die Maßnahmen der Agrar-, Sozial- und Raumordnungspolitik, die als strukturpolitisch wirksam zur Bekämpfung sowie Vermeidung ländlicher Armut in den zeitgenössischen Diskursen angenommen wurden. Im Mittelpunkt der Analyse stehen dabei die traditionell landwirtschaftlich geprägten Bundesländer Rheinland-Pfalz und Baden-Württemberg. Untersucht wird, wie das ländliche Armutsproblem in Aussagen von Agrar- und Sozialpolitikern sowie Experten definiert und beschrieben wurde und welche Maßnahmen aufgrund dieser Annahmen als geeignet erschienen, Armut in den agrarwirtschaftlich geprägten Regionen zu bekämpfen. Die Forschungsarbeit basiert auf der Analyse und Bewertung von Förderprogrammen und Förderungshilfen von Bund, Ländern und Kommunen und untersucht diese auf ihre Wirksamkeit hinsichtlich der Existenzsicherung landwirtschaftlicher Betriebe im südwestdeutschen Raum zwischen 1949 und 1974. Ländliche Armut wird so als vor allem bäuerliche Armut beschrieben, die in den zeitgenössischen Diskursen als räumlich abgrenzbare Existenzgefährdung in sogenannten "strukturschwachen" Räumen konstruiert wurde. Im Zusammenhang mit der Untersuchung wirtschaftspolitischer Debatten werden die sozialpolitischen Probleme diskutiert, gesetzliche Durchführungsbestimmungen der Sozialpolitik auf ihre konkreten Ziele hinsichtlich Armutsbekämpfung auf dem Land untersucht sowie die Verflechtungen von Wirtschafts- und Sozialpolitik analysiert.
Selbstregulation beschreibt die Fähigkeit, eigene Bedürfnisse, Werte und Interessen in die willentliche Handlungssteuerung einzubeziehen und so das eigene Handeln auf die Verwirklichung selbstkongruenter Ziele auszurichten. Die Arbeit beleuchtet die Bedeutung der Selbstregulation im Bildungskontext und überprüft die Wirksamkeit von Fördermaßnahmen, z.B. die eines selbstkonzipierten Schülertrainings für Schülerinnen und Schüler der Orientierungsstufe. Die Ergebnisse der empirischen Untersuchungen zeigen, dass selbstregulatorische Kompetenzen durch gezielte Maßnahmen gefördert werden können.
Mit der Globalisierung der Märkte und dem weitverbreiteten Einsatz von Kommunikations- und Informationstechnologien in Unternehmen sind in vielen Organisationen geographisch verteilt arbeitende Teams zum Standard geworden. Gleichzeitig gehören multiple Teammitgliedschaften (MTM), d.h. die simultane Zugehörigkeit zu mehreren Teams, für viele Mitarbeitende bereits zum Arbeitsalltag. Mit der Zuordnung von Personen zu multiplen Teams wollen Organisationen einen effektiven Einsatz ihrer personellen Ressourcen ermöglichen. Ob dies tatsächlich gelingt, ist bislang noch ungeklärt. Eine bedeutende Folge dieser Arbeitsstrukturen ist zudem die zunehmende Durchlässigkeit der Grenzen von Teams. Klare Teamgrenzen bleiben aber auch weiterhin ein wichtiger Faktor, um den Zusammenhalt eines Teams und eine effektive Zusammenarbeit der Teammitglieder sicherzustellen. Bislang gibt es keine empirischen Studien zum Zusammenhang von MTM und Teamgrenzen und nur wenige zu den Auswirkungen von MTM auf virtuelle Teamarbeit. Diese Arbeit ging in zwei Studien der Frage nach, in welchem Zusammenhang MTM mit Teamgrenzen und mit emotionalen und kognitiven Zuständen in virtuellen Teams steht und welche Effekte MTM und Teamgrenzen auf verhaltensbezogene Ergebnisse von Teamarbeit haben. Feldstudie: In einer querschnittlichen Online-Fragebogenstudie mit 105 Mitarbeitenden zweier globaler Unternehmen wurde der Zusammenhang von MTM mit Teamgrenzen sowie mit Commitment (emotionaler Zustand) und Team Mentalen Modellen (kognitiver Zustand) untersucht. Neben der Anzahl an Teammitgliedschaften wurden der prozentuale Arbeitszeitanteil im Team und der Virtualitätsgrad in der Zusammenarbeit als Indikatoren von MTM erfasst. Die Prüfung der Zusammenhänge über den Partial-Least-Square Ansatz ergab positive Zusammenhänge von MTM sowie Prozentanteil Arbeitszeit mit Commitment und Team Mentalen Modellen. Ein Zusammenhang von MTM und Teamgrenzen blieb überraschenderweise aus. Ein höherer Virtualitätsgrad ging mit einem geringeren Commitment zum Team und mit als schwächer wahrgenommenen Teamgrenzen einher. Laborstudie: In einer laborexperimentellen Studie mit 178 Studierenden wurden die Effekte von MTM (vier vs. eine Teammitgliedschaft) und Teamgrenzen (gestärkt vs. nicht gestärkt) auf Informationsflut, Koordinationserfolg und Leistung als verhaltensbezogene Ergebnisse virtueller Teamarbeit getestet. MTM zeigte in den Regressionsanalysen weder einen Effekt auf Informationsflut noch auf Koordinationserfolg. Die objektive Leistung viel jedoch bei Versuchspersonen mit vier Teammitgliedschaften signifikant schlechter aus als bei Versuchspersonen mit einer Teammitgliedschaft. Für subjektive Leistungsmaße blieb ein entsprechender negativer Effekt aus. Die Stärkung der Teamgrenzen führte zu einer positiveren Einschätzung des Koordinationserfolgs und der Leistung und reduzierte die Wahrnehmung von Informationsflut. Die Ergebnisse der beiden Studien deuten darauf hin, dass MTM in Abhängigkeit von den betrachteten Indikatoren sowohl positive als auch negative Zusammenhänge mit Prozessen und Ergebnissen in Teams hat. Für MTM haben sich unter den kontrollierten Bedingungen des Experimentes kaum direkte Effekte eingestellt, während in der Feldstudie positive Zusammenhänge mit emotionalen und kognitiven Zuständen eine (mittelfristig) positive Wirkung von MTM andeuten. Dies kann als Hinweis interpretiert werden, dass MTM eher zeitlich versetzte oder über indirekte Mechanismen vermittelte Effekte auf virtuelle Teamarbeit hat. Die im Experiment durch MTM reduzierte objektive Leistung bei gleichbleibender subjektiver Leistungsbewertung deutet darauf hin, dass ein Leistungsabfall durch MTM von den betroffenen Personen möglicherweise nicht bewusst wahrgenommen wird. Teamgrenzen scheint hingegen einen insgesamt förderlichen Faktor für die Zusammenarbeit in virtuellen Teams darzustellen.
Psychotherapien verlaufen selten linear. Ein Ansatz zur Beschreibung plötzlicher Veränderungen sind Sudden Gains und Losses. Dabei handelt es sich um reliable, bedeutsame und relativ stabile Veränderungen in Therapieverlauf, die mithilfe kontinuierlicher Verlaufsmessung zwischen zwei Sitzungen feststellbar sind.rnBislang liegen nur wenige naturalistisch angelegte Studien vor, die das Auftreten von Sudden Gains und Losses an störungsheterogenen Patientengruppen unter praxisnahen Bedingungen untersuchen. Zudem sind bisherige Forschungsbefunde wenig aussagekräftig bezüglich möglicher Ursachen und Moderatoren von Sudden Gains und Losses.rnZwar sprechen bisherige Forschungsbefunde dafür, dass Sudden Gains im Therapieverlauf ein wünschenswertes Behandlungsergebnis begünstigen. Allerdings gibt es nur wenige Hinweise darauf, ob und wie sich diskontinuierliche Therapieverläufe vorhersagen, fördern oder abmildern lassen. Zudem ist wenig über das konkrete psychotherapeutische Geschehen, das den Sudden Gains und Losses vorausgeht, bekannt. Dies aber könnte einen wichtigen Beitrag zum Verständnis psychotherapeutischer Veränderungsprozesse liefern. Auch eröffnen sich dadurch Perspektiven der Optimierung von Therapeuten-Feedback und der Erstellung von Entscheidungsregeln und klinischen Handlungsempfehlungen.rnDie vorliegende Arbeit verbindet Outcome- und Prozessforschung in ambulanten psychotherapeutischen Versorgung, indem zunächst auf Grundlage von Fragebogen-Daten Sudden Gains und Losses in der Symptombelastung und im Therapiefortschritt identifiziert werden. Die so gewonnen Klassifikationen werden verglichen hinsichtlich psychometrischer Erhebungen zu Behandlungsbeginn, zu Behandlungsdauer und Therapierfolg. Die Verteilung diskontinuierlicher Therapieverläufe über verschiedene Diagnosen wird untersucht. Mithilfe von Fragebogen-Daten und Videoanalysen werden Aspekte der therapeutischen Beziehungsgestaltung und das Vorliegen außertherapeutischer Ereignisse in ihrem Zusammenhang mit Diskontinuitäten im Therapieverlauf verglichen.rnDie in dieser Arbeit analysierten Status- und Verlaufsdaten stammen aus der Poliklinischen Psychotherapieambulanz der Universität Trier, wo neben umfangreichen Statuserhebungen auch eine intensive kontinuierliche Verlaufsmessung die Therapien begleitet und standardmäßig alle Therapien audiovisuell aufgezeichnet werden. Die Stichprobe umfasste damit 314 Patienten, die mit bewältigungsorientierter Verhaltenstherapie unter Betonung einer ergänzenden motivationalen, interpersonalen und Ressourcen-Perspektive behandelt wurden. Therapievideos zweier Teilstichproben (ausgewählt anhand von Symptom- bzw. Fortschrittsmaß) wurden mithilfe eines bestehenden Manuals zur Erkennung von Brüchen in der therapeutischen Allianz und deren Reparatur genutzt. Eine weitere Videostichprobe aus einem vorangegangen Forschungsprojekt wurde mit einem selbst zusammengestellten Ratinginventar untersucht.rnEs zeigt sich, dass rund ein Drittel aller Patienten einen diskontinuierlichen Behandlungsverlauf zeigen. Im Fortschrittsmaß lassen sich an der Poliklinischen Psychotherapieambulanz deutlich weniger Sudden Losses feststellen als in einer Vorgängerstudie, in der vor allem Daten aus anderen Ambulanzen genutzt wurden. Es treten keine überzufälligen Häufungen von diskontinuierlichen Therapieverläufen in verschiedenen Störungsgruppen, auch nicht in Hinblick auf Persönlichkeitsakzentuierungen, auf. Insgesamt zeigen Patienten, die Sudden Gains erleben, höhere Belastung und geringeres Wohlbefinden bei Behandlungsbeginn, wobei sich nur Patienten mit Sudden Gains im Symptommaß auch hinsichtlich ihres initialen Symptomstatus als schwerer belastet erweisen. Das Auftreten von Sudden Gains im Fortschrittsmaß und im Symptommaß hängt überzufällig miteinander zusammen, wobei Sudden Gains im Therapiefortschritt plötzlichen Symptomlinderungen häufiger vorausgehen. Sudden Gains hängen ungeachtet des Messinstruments mit größerem Behandlungserfolg zusammen. Mit einem geringeren Behandlungserfolg assoziiert sind Verläufe, die durch plötzliche Symptom-verschärfungen oder ein Auf und Ab im wahrgenommenen Therapiefortschritt assoziiert sind, wobei letzteres lediglich eine nicht signifikante Tendenz beschreibt, die sich jedoch weitgehend mit bisherigen Forschungsbefunden deckt. Dabei nehmen Patienten mit diskontinuierlichen Verläufen gleich welcher Art mehr Therapie in Anspruch als Patienten mit kontinuierlichem Verlauf. rnZudem zeigt sich um Sudden Gains im Therapiefortschritt ein deutlicher Anstieg der therapeutischen Allianz, während diese um Sudden Losses abnimmt. Hingegen sinkt um Sudden Gains in der Symptombelastung die Belastung durch außertherapeutische Ereignisse, während sie um Sudden Losses zunimmt. In den Videoanalysen zeigen sich teils signifikante Unterschiede im Umgang der Therapeuten mit auftretenden Beziehungsbrüchen.rn
An einer Stichprobe mit insgesamt N = 204 Psychotherapiepatienten einer stationären Rehabilitationseinrichtung wurden die Auswirkungen der Posttraumatischen Verbitterungsstörung (Posttraumatic Embitterment Disorder; PTED) auf die berufliche Vertrauens-Trias untersucht und eine Emotionsanalyse zur Verbitterung durchgeführt. Als weitere Persönlichkeitsmerkmale wurden Ärgerneigung, Ärgerbewältigung, Zielanpassung und das arbeitsbezogene Verhaltens- und Erlebensmuster erfasst. Ein Vergleich der Patientengruppen "mit Verbitterungsaffekt" und "ohne Verbitterungsaffekt" belegt die ätiologische Relevanz der Faktoren Zielblockierung, Attribution der Verantwortung, anhaltender Ärger und misslungene Situationsbewältigung bei der Entstehung der Emotion Verbitterung. Nach den Ergebnissen einer durchgeführten MANOVA mit den drei Gruppen (PTED aufgrund eines Arbeitsplatzereignisses vorhanden; PTED aufgrund eines Arbeitsplatzereignisses nicht vorhanden; kein Arbeitsplatzereignis) unterscheiden sich die beiden Patientengruppen mit einem Arbeitsplatzereignis nicht signifikant voneinander in Bezug auf ihre berufliche Vertrauens-Trias, ihre Ärgerneigung und -bewältigung sowie ihre Zielanpassung. Allerdings haben Patienten mit Arbeitsplatzereignis eine geringere berufliche internale Kontrollüberzeugung, besitzen weniger interpersonales Vertrauen am Arbeitsplatz und ihr Vertrauen in die eigene berufliche Zukunft ist niedriger als bei Patienten ohne Arbeitsplatzereignis. Ein weiterer Unterschied sind die höheren Arbeitsunfähigkeitszahlen bei Patienten mit Arbeitsplatzereignis " mit den meisten Krankschreibungen in der Gruppe der PTED-Patienten. Im arbeitsbezogenen Verhaltens- und Erlebensmuster unterscheiden sich die drei Patientengruppen in den Skalen Ehrgeiz, Verausgabungsbereitschaft, Distanzierungsfähigkeit, Offensive Problembewältigung und Soziale Unterstützung. Auch hier unterscheiden sich hauptsächlich die beiden Gruppen mit Arbeitsplatzereignis von der Gruppe ohne Arbeitsplatzereignis, einzige Ausnahme ist das Erleben sozialer Unterstützung.
Wegen der vielfältigen Kenntnisse und Perspektiven, die die Mitglieder von Gruppen besitzen, werden anstelle von Individuen oft Gruppen an Verhandlungen beteiligt. Allerdings konzentrierte sich die bisherige Forschung auf den Austausch und die Integration von Informationen zwischen Verhandlungsgruppen. Informationen innerhalb von Verhandlungsgruppen wurden dagegen als von den Gruppenmitgliedern geteilt angesehen. Daher wurde Informationsverarbeitung innerhalb von Verhandlungruppen und ihre Folgen für die gemeinsamen Ergebnisse der Parteien in integrativen Win-Win-Verhandlungen vernachlässigt. Im Rahmen dieser Dissertation wird angenommen, dass ein Unterschieds-Mindset (d.h. eine besondere Sensibilität für Unterschiede) (1) durch eine hohe Diversität in Gruppen aktiviert wird, (2) die Projektion von Gruppenmitgliedern auf andere Gruppenmitglieder reduziert, (3) die Qualität der ersten Forderung durch eine verbesserte Informationsverarbeitung innerhalb der Gruppen erhöht und (4) die gemeinsamen Verhandlungsergebnisse durch eine verbesserte Informationsverarbeitung innerhalb der Gruppen (5a) vor und während Zwischen-Gruppen-Verhandlungen und (5b) vor Repräsentantenverhandlungen steigert. These 1 wurde durch eine experimentelle Onlinestudie mit manipulierter Rückmeldung über hohe (vs. niedrige) Gruppendiversität (Studie 1) bestätigt. These 2 wurde durch eine experimentelle Studie mit manipulierten Online-Gruppen und komparativen Mindsets (Ähnlichkeiten vs. Unterschiede) als unabhängige Variablen (Studie 2) bestätigt. These 3 konnte von einer experimentellen Laborstudie mit Zwischen-Gruppen-Verhandlungen (Studie 3) nicht gestützt werden, wohl aber durch eine experimentelle Laborstudie mit Repräsentantenverhandlungen (Studie 4). Beide Studien unterstützen ebenfalls These 4 und 5, mit der Einschränkung, dass ein Unterschieds-Mindset die gemeinsamen Ergebnisse in einer Zwischen-Gruppen-Verhandlung nur durch die Informationsverarbeitung während der Verhandlung beeinflusst, nicht durch die Verarbeitung zuvor. Beiträge, Grenzen und Implikationen für die zukünftige Forschung werden diskutiert.
Nicht erst seit Einleitung der "Energiewende" im Jahr 2011 gehören Fragen der Energie- und Klimapolitik zu den politisch kontrovers diskutierten Themen in Deutschland. In Folge des europäischen Integrationsprozesses gewinnt dabei zunehmend auch die Europäische Union als Handlungsebene an Bedeutung. In dieser Arbeit wird der Frage nachgegangen, wie deutsche Akteure die Energie- und Klimapolitik der EU seit dem Gipfel des Europäischen Rates 2007 beeinflusst haben und welche Auswirkungen die Entscheidungen auf EU-Ebene für die Politikgestaltung im nationalen Kontext hatten. Anhand von drei Fallstudien wird eine Prozessanalyse in den Bereichen Strombinnenmarkt, Erneuerbare-Energien-Politik und Klimaschutz im Zeitraum der Jahre 2007 bis 2013 vorgenommen.
Zu den klassischen Verteilungen der mathematischen Statistik zählen die zentralen F- und t-Verteilungen. Die vorliegende Arbeit untersucht Verallgemeinerungen dieser Verteilungen, die sogenannten doppelt nichtzentralen F- und t-Verteilungen, welche in der statistischen Testtheorie von Bedeutung sind. Die Tatsache, dass die zugehörigen Wahrscheinlichkeitsdichten nur in Form von Parameterintegral- bzw. Doppelreihendarstellungen gegeben sind, stellt eine große Herausforderung bei der Untersuchung analytischer Eigenschaften dar. Unter Verwendung von Techniken aus der Theorie der vorzeichenregulären Funktionen gelingt es, die bisher vermutete, jedoch lediglich aus Approximationen abgeleitete, strikt unimodale Gestalt der Dichtefunktion für eine große Klasse doppelt nichtzentraler Verteilungen zu zeigen. Dieses Resultat gestattet die Untersuchung des eindeutig bestimmten Modus als Funktion gewisser Nichtzentralitätsparameter. Hier erweist sich die Theorie der vorzeichenregulären Funktionen als wichtiges Hilfsmittel, um monotone Abhängigkeiten nachzuweisen.
Die Fragestellung der Dissertation lautet: Welche Rolle spielten die politische Repräsentation, ihr Wandel und die Auseinandersetzung um die Teilhabe an ihr für das Entstehen einer gemeinsamen Vorstellung der Nation? Diese Frage kombiniert ein historisches und ein politikwissenschaftliches Interesse. Auf Seiten der Geschichtswissenschaft ist die Dissertation Teil des Forschungsprojekts "Nationenbildung und Demokratie" an der Universität Luxemburg. Auf Seiten der Politikwissenschaft ist sie im Bereich der Politischen Theorie angesiedelt. Im Anschluss an das abgeschlossene Forschungsprojekt "Formen und Funktionsweisen politischer Repräsentation von Fremden und Armen" im Sonderforschungsbereich 600 an der Universität Trier sind dabei primär repräsentationstheoretische Fragen von Interesse. Das Fallbeispiel Luxemburg erlaubt in diesem Zusammenhang einen neuen Blick auf Probleme, die in der Literatur bislang eher im französischen oder angelsächsischen Kontext diskutiert werden. In Auseinandersetzung mit gängigen Theorien der Nation wird in der Arbeit zunächst argumentiert, dass die Nation weder als ethnische Identität noch als Willenseinheit angemessen verstanden werden kann. Diese Überlegungen münden in die These, dass die erfolgreiche Verhandlung von Konflikten auf einer gemeinsamen politischen Bühne die Vorstellung eines gemeinsamen Schicksals mit erzeugen kann. Diese Vermutung wird in einem zweiten Schritt demokratieheoretisch begründet. Das Volk der modernen Demokratie ist kein einheitliches Subjekt, das einfach an die Stelle des alten Souveräns treten könnte. Zum einen verunmöglicht die Tatsache, dass die Demokratie durch multiple Zeitlichkeiten konstituiert ist, ihre Reduktion auf einen ursprünglichen Moment der Präsenz. Zum anderen ist der Demos selbst von Differenzen durchzogen. Doch indem gesellschaftliche Konflikte auf der Bühne der Macht symbolisch dargestellt werden, verlagert Repräsentation den Konflikt in ein politisches Kontinuum, auf das alle Bürger in gleicher Weise bezogen sind. Die Bürger erfahren, beurteilen und unterstellen sich wechselseitig als Teilnehmer an demselben Gemeinwesen, auch wenn sie unterschiedlicher Meinung sind. Diese These wird in einem dritten Schritt anhand einer Genealogie der verschiedenen Versuche " von Hobbes und Rousseau über Sieyès, Hegel und Proudhon bis zu Carl Schmitt und Hans Kelsen ", den Demos und den korrekten Modus seiner Vergegenwärtigung zu identifizieren, historisch fundiert. Das empirische Fallbeispiel steht im Zentrum des zweiten Teils der Arbeit. Zunächst wird das Entstehen einer landesweiten politischen Öffentlichkeit herausgearbeitet. In der Folge der Protest- und Petitionsbewegung von 1848 wurde das Parlament zur politischen Bühne, auf der vor aller Augen öffentliche Angelegenheiten diskutiert wurden. Die anschließende Entwicklung hin zum allgemeinen Wahlrecht führte zu einem qualitativen Wandel des Politischen. Das Wahlrecht nahm den Charakter eines Rechts an, das jedem Staatsbürger als solchem zustand, die einzig legitime Grenze des neuen Raums der Gleichheit wurde durch die Nation gestiftet. Die vorgestellte Gemeinschaft der Staatsbürger verselbstständigte sich dabei auch gegenüber dem Fürsten und trat zuletzt an dessen Stelle. Statt als über der Gesellschaft und den Bürgern thronende Hüterin der staatlichen Einheit wurde die Monarchie seit 1918 im Namen des Volkswillens begründet. Doch in demselben Augenblick, in dem das Volk als Gemeinschaft der Gleichen zum neuen Souverän erklärt wurde, wurden auch gesellschaftliche Konfliktlinien politisiert und durch ein landesweites Parteiensystem dauerhaft abgebildet. Durch die repräsentative Politisierung des Konflikts wurde die Frage, was denn das Gemeinsame sei, das sich durch die verschiedenen Teilungen hindurch zeige, dramatisiert. Anhand von zwei Fallbeispielen wird in der Arbeit gezeigt, wie auch diejenigen, die sich als Repräsentanten der Arbeiterklasse verstanden, im Kampf um Hegemonie auf eine nationale Rhetorik zurückgriffen und ein Narrativ der Nation als Solidaritätsgemeinschaft entwarfen. Zusammenfassend kommt die Dissertation zum Ergebnis, dass die Erfahrung der Politisierung und der öffentlichen Auseinandersetzung um politische Teilhabe innerhalb bestehender, ursprünglich aber keineswegs national oder demokratisch legitimierter Institutionen maßgeblich dazu beitrug, dass ein großer Teil der Bevölkerung Luxemburgs sich nach und nach als Teil einer vorgestellten Gemeinschaft verstand.
Die Untersuchung beschäftigt sich mit den Prozessen und Mechanismen, die dem NATO-Beitritt Polens zugrunde liegen, insbesondere mit den Gründen für die Transformation der zivil-militärischen Beziehungen in Polen. Die Demokratisierung der zivil-militärischen Beziehungen war eines der Hauptkriterien für den Beitritt Polens in die NATO. rnVor diesem Hintergrund geht die Arbeit der Frage nach, ob nachzuweisen ist, dass der Einfluss der NATO primär für die Demokratisierung der zivil-militärischen Beziehungen Polens verantwortlich ist. Dabei stützt sich die Arbeit auf den aktuellen Forschungsstand der Theorien internationaler Sozialisation, deren Ziel es ist, die Prozesse und Mechanismen der Normübernahme von Staaten zu erklären. Der theoretische Rahmen wurde in ein Forschungsdesign eingebettet, das vielfältige Methoden für die detaillierte empirische Analyse einbezieht. Ergänzend wurden alternative und ergänzende Erklärungen überprüft, die nicht durch die Theorie abgedeckt werden. Entgegen der vorherrschenden Meinung in der Fachliteratur kommt die Untersuchung zu dem Ergebnis, dass die NATO nicht primär für die Sozialisation und damit Demokratisierung der zivil-militärischen Beziehungen in Polen verantwortlich ist. Polen ist erfolgreich in der Demokratisierung seiner zivil-militärischen Beziehungen, jedoch ist die NATO nicht erfolgreich in der Sozialisation Polens in diesem Bereich, sondern eher darin, den Demokratisierungsprozess in Polen mit Erfahrung und Expertise zu flankieren. Dieser Prozess wurde maßgeblich innenpolitisch und durch Akteure in Polen angestoßen, angetrieben, getragen und schlussendlich entschieden. Obgleich die NATO das Beitrittskriterium vorgab und die polnischen Akteure durchaus begleitete, kann darüber hinaus der Einfluss der NATO als nicht maßgeblich bewertet werden. Im Gegenteil, die Ergebnisse zeigen, dass es nicht das Ziel der NATO war, die Prozesse direkt zu beeinflussen oder zu steuern, sondern vielmehr, den Transformationsprozess der zivil-militärischen Beziehungen in Polen, insbesondere die praktische Umsetzung, durch Expertise und Erfahrungen zu begleiten und eigene Lernprozesse anzustoßen.
Die Arbeit analysiert Bedeutungen von Körperlichkeit im Straßenprotest. Ausgehend von den Selbstwahrnehmungen von Aktivist_innen wird dabei der Frage nachgegangen, wie Erfahrungen den reflexiven Umgang mit Verletzlichkeit und Verletzungsmacht prägen. Zunächst wird dafür eine theoretische Konzeption einer leibkörperlich gebundenen Reflexivität entwickelt. Pierre Bourdieus Theorie der Praxis, die sich der Verkörperung von Wissen widmet, wird ergänzt durch den Rückbezug auf Maurice Merlau-Ponty, der konsequenter herausstellt, dass jegliche Wahrnehmung immer nur körperlich-leiblich möglich ist. Während Merleau-Pontys Fokus auf dem wahrnehmenden Leib liegt, wird mit der philosophischen Anthropologie Helmuth Plessners die Verschränkung von wahrnehmendem Leib und wahrgenommenem Körper, bzw. wie Wahrgenommenes reflexiv auf das Spüren und Erleben zurückwirkt, nachvollziehbar. Aufbauend auf Plessner hat Heinrich Popitz eine Phänomenologie der Macht entwickelt, in deren Zentrum die anthropologischen Grundkonstanten von menschlicher Verletzungsoffenheit und Verletzungsmacht stehen. Diese Konzeption, verbunden mit Ergebnissen aus verschiedenen Vorstudien zur vorliegenden Arbeit, leitet die empirische Analyse von zehn leitfadengestützten Interviews, in denen Aktivist_innen mit teilweise langjähriger Straßenprotestbiographie zu ihren Erfahrungen und Praktiken in Straßenprotesten befragt werden. Die Arbeit ist an der Schnittstelle der drei Teildisziplinen Politische Soziologie, Körpersoziologie und Wissenssoziologie angesiedelt. Innerhalb der Politischen Soziologie liegen die Anknüpfungspunkte insbesondere in der sozial- und kulturwissenschaftlichen Protestforschung. Hier ist der Körper nach wie vor weitgehend marginalisiert und es existieren bisher in Anbetracht des insgesamt kaum noch überschaubaren Umfangs der Protestforschung vergleichsweise wenige Studien. Hinsichtlich der Körpersoziologie zielt die Arbeit - insbesondere mit der Bezugnahme auf Plessners philosophische Anthropologie - auf einen Erkenntnisgewinn hinsichtlich der Verbindung von Körpersoziologie und politischer Soziologie. Es lässt sich vor allem in den letzten Jahren eine deutliche Renaissance Plessners innerhalb der allerdings fast ausschließlich deutschsprachigen Körpersoziologie feststellen. Die körpersoziologischen Arbeiten sind bisher jedoch kaum im Rahmen einer politischen Soziologie aufgegriffen worden. Eine solche Brücke möchte die vorliegende Arbeit insbesondere via Popitz (und z.T. Michel Foucault) schlagen. Wissenssoziologisch folgt die Arbeit dem Verständnis eines verkörperten Wissens, wie es vor allem in Bezug auf Bourdieu konzeptionalisiert wird. Es werden Überlegungen aufgegriffen, die sich u.a. auch Analysen und Konzepten der Dance Studies oder der Sportsoziologie hinsichtlich körperlicher Reflexion verdanken. Im Anschluss an die phänomenologisch orientierten Arbeiten Bourdieus und Merleau-Pontys sowie an Plessners philosophische Anthropologie werden dabei sogenanntes kognitives und körperliches Wissen integriert und die unmittelbare Verschränkung beider Wissensformen aufgezeigt.
Hartmann von Aue hat das Präteritum des Verbs "komen" in seinem Frühwerk 'Erec' und noch am Anfang seines letzten Werks 'Iwein' häufig, nach dessen ersten tausend Versen aber kaum mehr gereimt. Vom Standpunkt der einschlägigen Forschung aus soll Hartmann Reime mit seinen alemannischen Formen "kam", "kâmen" und "kæme(n)" nun aus Rücksicht auf denjenigen Dialektraum gemieden haben, in dem die schwer zu reimenden Formen "kom", "kâmen" und "kæme(n)" heimisch waren und den man somit am ehesten als den bairischen identifiziert hat. Die vorliegende Arbeit befasst sich mit diesem für den Etablierungsprozess der Literatursprache um 1200 relevanten Befund der traditionellen mittelhochdeutschen Reimuntersuchungen. Nach einem Referat über die bisherigen Forschungsergebnisse wird zunächst beobachtet, dass der späte Hartmann im Unterschied zu seinen beiden ebenfalls das Präteritum von "komen" vereinzelt reimenden Vergleichsgrößen Wolfram von Eschenbach und Wirnt von Grafenberg die entsprechenden Reimtypen "-am", "-âmen" und "-æme(n)" überhaupt nur selten oder nie benutzt hat. Der folgende Hauptteil behandelt das Vorkommen der präteritalen Formen von "komen" und ihrer gängigen Reimpartner (vor allem der entsprechenden Formen weiterer drei Verben derselben Ablautreihe "nëmen", "vernëmen" und "zëmen" und von Adjektiven auf "-sam") in den Werken der drei Dichter sowie in vier Werken von Hartmanns noch bedenkenlos "quam" / "kam" usw. reimenden Vorgängern und Zeitgenossen ('Straßburger Alexander', Heinrichs von Veldeke 'Eneit', Ulrichs von Zatzikhoven 'Lanzelet' und Gottfrieds von Straßburg 'Tristan') ausführlich, indem u. a. die Verhältnisse im Versinnern mit berücksichtigt werden. Die Untersuchungen haben ergeben, dass das Seltenerwerden oder Verschwinden der besagten Reimtypen beim späten Hartmann mit der Umsetzung seines Stilideals wie der prosaischen Wortstellung nur bis zu einem gewissen Grade begründet werden kann: Nach den festgestellten Verhältnissen hat er offenbar tatsächlich das Reimen mit seinen "kam"-Formen gemieden, und zwar wahrscheinlich erst allmählich. Das zentrale Ergebnis der vorliegenden Arbeit besteht in der durch eine Reihe von Häufigkeitstabellen und durch eine umfassende Belegpräsentation in den Anhängen abgesicherten Beobachtung, dass der späte Hartmann dem neuen Trend zum Nichtreimen der präteritalen Formen von "komen" vorausgegangen ist, sein eigentlich damit gut vereinbares neues Stilideal aber, vermutlich wegen des überwältigenden Einflusses Wolframs, ohne unmittelbare Nachfolge geblieben ist.
Anlass dieser vorliegenden Arbeit ist die genannte Reformierung der Lehrerausbildung in Deutschland im Zusammenhang mit der europäischen Bologna-Reform an den Universitäten und pädagogischen Hochschulen während der letzten zehn Jahre. Nach einer Auseinandersetzung mit den Zielen und den daraus resultierenden Reformbestrebungen wird der Fokus der Forschungsarbeit auf das Bundesland Rheinland-Pfalz gerichtet, um dort das Duale Studien- und Ausbildungskonzept für angehende Lehrerinnen und Lehrer genauer zu beleuchten. Die Vorgehensweise der Forschungsarbeit gliedert sich in drei Bereiche. Auf der einen Seite wird durch die Arbeit die strukturelle Umsetzung der Lehrerausbildungsreform an den vier Universitäten in Rheinland-Pfalz (Kaiserslautern, Koblenz-Landau, Mainz und Trier) transparent gemacht. Dieser Schritt ist erforderlich, um zunächst den Ist-Stand der Ausbildung im Fach Geographie zu erfassen und damit sowohl die Gemeinsamkeiten als auch die spezifischen Merkmale der einzelnen Studienstandorte abbilden zu können. Eine sich anschließende Befragung der Studierenden liefert als Ergänzung zur ermittelten deskriptiven Grundlage zur Studiensituation weitere Erkenntnisse aus den Bereichen der Modularisierung des Studiums, der fachlichen und fachdidaktischen Grundlagenvermittlung, den praktischen Studienanteilen und der eigenen Kompetenzeinschätzung. Die Rückmeldungen der Experten, die das Reformkonzept an den Standorten landesweit umsetzen, geben im Rahmen dieser Arbeit weitere ergänzende Impulse. Gerade im Hinblick auf die Diskussion um die Stärken und Schwächen der bisher umgesetzten Reformziele und die Einschätzung zu den Entwicklungsmöglichkeiten können direkte Rückmeldungen der Akteure aus der ersten und zweiten Phase der Ausbildung wichtige Ergänzungen liefern. Dazu werden einige Ergebnisse der Experteninterviews zusammenfassend dargestellt. Abschließend werden wesentliche Schlussfolgerungen der gesamten Forschungsarbeit, insbesondere Empfehlungen für zukünftige Entwicklungsperspektiven und Forschungsfelder dargelegt.
Um die weiterhin ansteigende Weltbevölkerung auch zukünftig mit Nahrungsmitteln und anderen wichtigen Rohstoffen zu versorgen, bedarf es einer immer größeren Nutzungsausweitung der Landwirtschaft auf natürliche Flächen. Im Jahre 2009 wurde ein Drittel der Landoberfläche der Erde bereits landwirtschaftlich genutzt. In jüngster Zeit kommt der Landwirtschaft zusätzlich eine wichtige Bedeutung als Energielieferant zu. Ein weiter steigender Flächenbedarf ist die Konsequenz dieser Entwicklung. Dies führt zum Verlust von Habitaten und somit zu einer starken Fragmentierung der Landschaft. Die direkten und indirekten Auswirkungen dieser Entwicklung auf den weltweiten Biodiversitätsrückgang werden mittlerweile als eine der Hauptursachen für den Rückgang vieler Arten anerkannt. Auch der Gesetzgeber hat dieses Problem erkannt und versucht dem entgegenzuwirken. In der vorliegenden Arbeit wird durch einen multiplen Methodenansatz der Einfluss der Habitatfragmentierung auf die Konnektivität der Populationen von zwei unterschiedlich mobilen Insektenarten untersucht. Als Modelarten wurden eine wenig mobile Heuschreckenart (Chorthippus montanus) und ein hoch mobiler Tagfalter (Brenthis ino) ausgewählt, welche beide an feuchte Grünländer gebunden sind. Für C. montanus wurde gezeigt, dass die Art nur ein sehr eingeschränktes Mobilitätspotenzial besitzt und stark an ihr Habitat gebunden ist. Daher ist eine Durchquerung von ungeeigneten Lebensräumen als äußerst unwahrscheinlich zu erachten. Eine Studie zur Mobilität und dem Verhalten von Brenthis ino belegt eine starke Philopatrie für eine nicht territoriale Insektenart. Zusätzlich zu den Fang-Wiederfang-Untersuchungen im Freiland wurden populations- und landschaftsgenetische Analysen durchgeführt. Die populationsgenetischen Analysen zeigen eine starke Isolation der Populationen von C. montanus, während zwischen den untersuchten Populationen von B. ino eine gute Konnektivität besteht. Mittels der landschaftsgenetischen Analyse wird gezeigt, dass Wälder und bebaute Flächen für beide Arten substanzielle Genefluss-Barrieren darstellen. Basierend auf einer GIS gestützten Analyse wird dargelegt, dass eine lokal ausreichende Vernetzung von Grünländern in Rheinland-Pfalz durch den Biotopverbund existiert. Die Berücksichtigung der Konnektivität bei der Auswahl und Ausgestaltung der Instrumente zur rechtlichen Sicherung und Umsetzung des Biotopverbundes (-§ 21 BNatSchG) bergen großes Potenzial zum Schutz von Grünländern. Ferner wird gezeigt, dass die Landschaftsplanung zwar ein geeignetes Instrument zur Erarbeitung des Biotopverbundes ist, aber kein Instrument zur rechtlichen Sicherung desselbigen im Sinne des -§ 21 Abs. 4 BNatSchG sein kann.
Die Dissertation widmet sich der Eisenbahninfrastruktur des Raumes Saarland-Lothringen-Luxemburg mit ihrer hohen Netzdichte sowie der Frage, wie diese Bahnstrecken besser genutzt werden können. Möglichkeiten, wie diese Strecken durch innovative, insbesondere aber durch grenzüberschreitende Angebote im Schienen-¬verkehr besser genutzt werden können, werden aufgezeigt. Ziel ist es zu zeigen, welche Potenziale der Schienenverkehr auf Basis der vorhandenen Bahninfrastruktur als Alternative zum dominierenden Straßenverkehr bieten könnte. Der Grenzraum SaarLorLux wird dazu porträtiert, einschließlich einer historischen Genese des Bahnsystems. Dieser historische Rückblick ist kartographisch aufbereitet. Die wechselhafte politische und wirtschaftliche Geschichte des Grenzraumes, insbesondere seine Montanindustrie haben den Untersuchungsraum und die Entwicklung seiner Eisenbahnen entscheidend geprägt. Neben den neuen und schnellen Korridor-Verbindungen nach Paris und Frankfurt wird auch eine gegenläufige Entwicklung aufgezeigt, die zu einem Einbruch der Fernverkehrsqualität für SaarLorLux geführt hat. Auch beim Güterverkehr ist ein Niedergang zu beobachten, gerade im Bereich der Güter in der Montanindustrie. Die Analyse des Bestandsnetzes der gesamten Verkehrsinfrastruktur einschließlich Luftfahrt, Schifffahrt und Straßenverkehr im SaarLorLux-Raum zeigt auf, welche Standards und Verbindungsqualitäten hier vorhanden sind. Ein Schwerpunkt der Betrachtung ist der Frage gewidmet, wie durch angebotsorientierte, aber auch durch organisatorische Maßnahmen die grenzüberschreitende Zusammenarbeit im Schienenregionalverkehr optimiert werden kann. Am Beispiel eines Ringverkehrs Luxemburg-Metz-Saarbrücken-Trier-Luxemburg (Q_Intracity) zeigt der Autor, welche Chancen sich ergäben, wenn die grenzüberschreitende Kooperation ausgeweitet würde. Weitere Vorschläge betreffen die Reaktivierung von derzeit kaum genutzten oder stillgelegten Bahnstrecken sowie die Verlängerung des bestehenden Nahverkehrs über die Grenze hinweg. Für den Saar-Rossel-Raum im Eurodistrikt Saarbrücken-Forbach erläutert die Abhandlung beispielhaft, wie ein neues Stadtbahnangebot die grenzüberschreitende und umwelt-¬freundliche Mobilität stärken kann. Dabei spielt die Wiedernutzung stillgelegter Bahnstrecken der ehemaligen lothringischen Kohlebahn HBL und des Bahnnetzes links der Saar eine große Rolle. Die vorgelegte Arbeit skizziert auch Verbesserungen für den Fernverkehr: Die Abhandlung umreißt die technischen Möglichkeiten, um vorhandene Bahnstrecken zeitgemäß auszurüsten. Die Elektromobilität spielt hierbei eine besondere Rolle Das Schließen von Lücken bei der Elektrifizierung vermag die Kapazitäten der Bahnstrecken deutlich auszudehnen und gerade auch dem Güterverkehr neue und günstigere Wege zu erschließen. Die ermittelte Elektrifizierung von rund dreihundert Kilometern an bestehenden Strecken im Unter-¬suchungsraum ermöglichte beispielsweise, den regelmäßigen Dieselbetrieb auf einem Netz von fast 500 Kilometern durch elektrische Traktion zu ersetzen. Ausgehend von der Analyse der Organisationsstruktur im Schienenverkehr und mit Blick auf die heterogene Struktur der Aufgabenträger im Schienenpersonennahverkehr schlägt der Autor vor, eine grenzüberschreitend agierende Instanz mit Verantwortung für den regionalen Nahverkehr zu schaffen. Diese sollte sich an dem Rechtsrahmen eines Europäischen Verbundes für Territoriale Zusammenarbeit (EVTZ) ausrichten und dazu beitragen, dass Angebote im bestellten Schienen-¬personennahverkehr nicht mehr an den Grenzen der Zuständigkeitsbereiche von Aufgabenträgern enden. Ein weiterer Vorschlag umfasst die Schaffung einer Infrastruktur-Sicherungs- und Entwicklungs-¬gesellschaft für den Schienen-verkehr. Ihre Aufgabe sollte die akteursüber-¬greifende Initiative sein mit dem Ziel, vorhandene aber aus der Nutzung genommene Bahnstrecken vor dem Verfall zu retten und für eine spätere Nutzung aufzuwerten. Die Abhandlung beinhaltet eine erste Kostenschätzung und eine erste Priorisierung der vorgeschlagenen technischen, infrastrukturellen und administrativen Maßnahmen. Das Leitmotiv ist dabei Erhalt vor Neubau. Neubaustrecken sind nur in geringem Umfang von 32 Kilometern vorgesehen, wohingegen auf rund 165 Kilometern bestehender Trassen ein Personen-¬verkehrsangebot wieder aufgenommen werden sollte und mindestens 50 neue Bahnhöfe und Haltestellen zu errichten sind. Der Autor ermittelt einen Bedarf von rund 500 Kilometern, um Strecken mit moderner Leit- und Sicherungstechnik, Funkbetrieb und Gleiswechselbetrieb zu modernisieren. Die Dissertation versteht sich als ersten Beitrag, um für den SaarLorLux-Raum einen Masterplan Schiene zu verwirklichen. Die Abhandlung beinhaltet 147 überwiegend kartographische Abbildungen und 23 Tabellen. Im Anhang greift ein Kartendossier im Format DIN A 3 15 Karten aus der Abhandlung großformatig auf.
Das übergeordnete Ziel dieser Dissertation ist die Untersuchung der aktuellen Geomorphodynamik in den Gullyeinzugsgebieten der Souss-Ebene, Südmarokko. Eine Sonderstellung nehmen besonders in der Taroudant-Region die durch land-levelling Maßnahmen beeinflussten Flächen ein. Anhand von experimentellen Feldmethoden werden verschiedene Prozesse der Bodenerosion aufgenommen und bewertet. Mittels Luftbildmonitoring mit einer Drohne erfolgt eine Analyse des Gullywachstums. Durch eine Zusammenführung der Methodenkombination kann ein Gesamtbild der aktuellen geomorphologischen Prozessdynamik im Souss erstellt werden. Mit Zerfall der Zuckerindustrie Ende des 17. Jahrhunderts setzt im Souss Becken aufgrund der nahezu vollständigen Abholzung der Arganwälder die lineare Bodenerosion ein. Mit der Transformation von traditioneller Landwirtschaft zu modernen Zitrusfrucht- und Gemüseplantagen, beginnt Anfang der 1960er Jahre ein sehr dynamischer Landnutzungswandel. Die Expansion der Anbauflächen, die von Wadi- und Gullysystemen tief zerschnittenen sind, wird durch Planierungsmaßnahmen vorangetrieben. Auf den planierten Flächen entwickeln sich durch die Verdichtung des Bodens, das Entfernen von Vegetationsbedeckung sowie Krustenbildung auf dem schluffig-lehmigen Substrat bei Starkniederschlagsereignissen zumeist erneut Gullys. Die rasche lineare Zerschneidung bedroht weitere Anbauflächen. Eine nachhaltige Entwicklung auf diesen Flächen ist daher fraglich. Durch starke Verschlämmung nach Niederschlägen bilden sich auf den planierten Flächen sehr schnell physikalische Bodenkrusten aus. Ihre Mikromorphologie ist aufgrund der Belastungen mit schwerem Gerät sowie mehrfacher Erosions- und Akkumulationszyklen durch Plattenstruktur und Vesikel geprägt, wodurch die Infiltrationskapazität des Bodens verringert wird. Diese Auswirkungen können durch Messungen mit dem Einringinfiltrometer bestätigt werden. Sie zeigen auf ungestörten Flächen durchschnittlich eine 2,6-fach höhere Infiltrationsrate als auf planierten Flächen. Durch eine Inventarisierung der Bodeneigenschaften und Oberflächencharakteristika kann ihre signifikante Veränderung nach Planierungsmaßnahmen identifiziert werden. So zeigen planierte Flächen hohe Anteile an Bodenverkrustung und wenig Vegetationsbedeckung auf. Ungestörte Flächen sind dagegen weniger verkrustet und stärker mit Vegetation bedeckt. Zudem kann eine Kompaktion der oberen Bodenschicht nachgewiesen werden. Diese Faktoren wirken auf die Oberflächenabflussbildung und den Sedimentabtrag ein. Die Ergebnisse von 122 Niederschlagssimulationen mit einer Kleinberegnungsanlage zeigen einen signifikanten Anstieg der mittleren Oberflächenabflüsse und Sedimentfrachten (1,4-, bzw. 3,5-mal höher) auf planierten im Gegensatz zu ungestörten Testflächen. Mithilfe des Gullymonitorings wird die Entwicklung eines kompletten Gullys durch Starkniederschlagsereignisse auf einer planierten Fläche detektiert. Dabei wird in einem 3,5 ha großen Einzugsgebiet etwa 1080 t Bodenmaterial erodiert. Hier wurde errechnet, dass Gullyerosion für 91 % des gesamten Bodenverlustes im Einzugsgebiet verantwortlich ist. Die Fläche dient nur als Lieferant des Erosionsagens Wasser. Das Verfüllen des ursprünglichen Gullysystems mit Material der umliegenden Hänge führt zu einer Erniedrigung der Geländehöhe von durchschnittlich über 5 cm. Auf ungestörten Flächen wird dagegen nur ein geringes Gullywachstum verzeichnet. Die vorgestellte Methodenkombination lässt eine gezielte Beschreibung der aktuellen Geomorphodynamik in den Einzugsgebieten der Souss-Ebene zu. Durch die land-levelling Maßnahmen wird die Prozessdynamik signifikant erhöht. Eine Verminderung der Vegetationsbedeckung, schnelle Krustenbildung sowie Bodenkompaktion unterstützen hohe Oberflächenabflussbildung und Sedimentabtrag. Durch lineare Konzentration des Abflusses wird rapide Gullyerosion gefördert. Ganze Gullysysteme können sich auf Planierungsflächen durch nur ein einziges Starkniederschlagsereignis ausbilden. Dadurch sind Anbauflächen, Gebäude und Infrastruktur gefährdet.
In der Dissertation "Kartographische Medien zur Entscheidungsunterstützung: empirische Untersuchungen georäumlicher Visualisierungen im Rahmen des Trierer Kommunalhaushalts" werden kartographische Medien im Hinblick auf die Funktion der Entscheidungsunterstützung bei der Aufstellung eines Kommunalhaushalts untersucht. Die Akteure der Haushaltsaufstellung können in drei Gruppen aufgeteilt werden: Bürger, Politiker und Verwaltungsmitarbeiter. Die grundlegende Fragestellung der Arbeit lautet: Wie muss ein räumliches Finanzauskunftssystem gestaltet sein, um die Beteiligten in verschiedenen Phasen des Entscheidungsprozesses bestmöglich zu unterstützen? Ziel ist dabei die modellhafte Entwicklung eines nutzerorientierten kommunalen Finanzauskunftssystems. Zur Erstellung der kartographischen Medien werden zunächst die Ausgaben des Trierer Kommunalhaushalts georeferenziert und mit Hilfe von Karten visualisiert. Die Georeferenzierung erfolgt dabei über die theoretische Herleitung der Raumwirkung einzelner Haushaltspositionen, die vom Grundsatz her sehr kleinräumig, gesamtstädtisch oder auch regional wirken können. Theoretisch lassen sich 79% der Ausgabepositionen des Finanzhaushalts und 45% der Ausgabepositionen des Ergebnishaushalts 2009 räumlich verorten. Einschränkungen der Georeferenzierungsquote ergeben sich aus der Datenverfügbarkeit der Stadtverwaltung Trier. Die erzeugten Kartendarstellungen unterscheiden sich im Hinblick auf die Komplexität der dargestellten Inhalte. Zum Einsatz kommen verschiedene kartographische Modellformen sowie unterschiedliche Darstellungsformen der Legende (verbal und numerisch). Der Studie besteht aus zwei empirischen Untersuchungsreihen: einer Online-Befragung und einem Bildschirmexperiment mit eye tracking und Logfile-Aufzeichnung. Diese haben gezeigt, dass die Unterschiede zwischen den drei Akteursgruppen nicht entscheidend sind. Die generelle Haltung der Probanden zur Relevanz des Raumbezugs ist vielmehr ausschlaggebend dafür, ob das Medium Karte positiv angenommen wird oder nicht. Während die Relevanz des Kriteriums "Raum" bei Entscheidungen nachgewiesen wurde, bleibt die Frage nach dessen Gewichtung innerhalb diverser Einflussgrößen kommunal-politischer Entscheidungen offen. Kartographische Medien können eine sinnvolle Unterstützung im Entscheidungsprozess darstellen, bedürfen jedoch je nach Art der Fragestellung und dementsprechend vom Nutzer durchzuführenden räumlichen Operationen einer Kombination mit Texten und/oder Tabellen. Der Bedarf an Nutzerunterstützung steigt mit der Komplexität der räumlichen Operationen: das Bilden von Mustern ist für die Nutzer mit erheblich mehr Blickaufwand verbunden als das Identifizieren von Werten in der Karte. Generell stellt die Komplexität des Informationsgehalts für die Probanden keinen Hinderungsgrund dar, mit kartographischen Medien zu arbeiten. Vielmehr müssen sich die dargestellten Inhalte an den Interessen der Akteure orientieren. Beim Betrachten der Kartendarstellungen spielen Erfahrungen im Georaum eine wesentliche Rolle. Die Untersuchung konnte zeigen, dass das Raumwissen der Probanden jedoch oft mangelhaft ist. Kartographische Medien können dabei helfen, das Raumwissen auch in Bezug auf die Verteilung von Merkmalen im Raum zu steigern. Die Probanden steuerten in der empirischen Erhebung viele Anregungen zur Gestaltung eines interaktiven Systems bei, die darauf hinweisen, dass eine nutzerorientierte Systemgestaltung zwingend erforderlich ist, wenn möglichst viele Akteure von einem kommunalen Finanzauskunftssystem profitieren sollen.
Die Dissertation beschreibt den Bewerber als Kunden eines Unternehmens und das damit verbundene Erleben während der Bewerbungsphase. Die Gesamteindrücke des Bewerbers werden auch als Candidate Experience bezeichnet. Die theoretische Herangehensweise der Arbeit orientiert sich am Marketingkonzept Customer Experience Management (CEM), welches den Kunden in den Mittelpunkt der Betrachtung stellt. Neben der theoretischen Herleitung wurde für die empirische Datengrundlage ein vielfältiges Methodenspektrum gewählt, um sowohl die Kundensicht zu beleuchten als auch die Unternehmensseite. Die Analyse zeigt, dass Standards bzw. selbstverständliche Verhaltensregeln (Recruiting-Basics) in der Interaktion mit dem Bewerber noch lange nicht von allen Unternehmen eingehalten werden, was teilweise zu Unzufriedenheit und negativen Kommentaren im Social Web führt. Die unmittelbare Veröffentlichung und Verbreitung von Kommentaren im Internet bieten aus Sicht der Unternehmen Risiken, aber auch Chancen. Die Ergebnisse der Arbeit zeigen, dass Candidate Experience in einem durch den Fachkräftemangel bedingten "Arbeitnehmermarkt" zur Notwendigkeit wird. Es entsteht ein Umwerben von Talenten, wodurch sich der bisherige Recruiting-Ansatz umdreht. Ein modernes Recruiting kennzeichnet sich dabei durch eine aktive Ansprache der potentiellen Bewerber. Als Konsequenz dieser Entwicklung sollte das Recruiting ganzheitlich auf Maßnahmen ausgerichtet werden, die gemäß eines abgeleiteten Candidate-Experience-Management-Ansatz den persönlichen Dialog mit dem Kandidaten fördern, Orientierung und Transparenz schaffen sowie relevante Informationen aus Kundensicht bereitstellen. Dazu kann bereits eine Karriereseite mit kundenorientierten Inhalten beitragen. Weiterhin gilt der erlebte persönliche Dialog mit den Unternehmensvertretern als entscheidend. Im Hinblick auf die Erkenntnisse der Arbeit ist es für die Zukunft empfehlenswert, sowohl im Wettbewerb um die besten Talente als auch hinsichtlich einer positiven Reputation on und offline alle Kontaktpunkte des Bewerbers mit dem Unternehmen zu identifizieren und zu analysieren. Das positive Bewerbererlebnis kann dabei auf Basis der Identifizierung kritischer Kundenkontaktpunkte und gleichzeitiger Implementierung von Maßnahmen gestaltet werden. Als Strukturierungshilfe dient ein durch den Verfasser entwickeltes Prozessmodell, welches in der Praxis auf Basis einer Fallstudie angewendet wurde. Um Erwartungen von Bewerbern nicht nur zu erfüllen, sondern zu übertreffen, gilt es zusätzlich kreative Maßnahmen zu implementieren, die auch eine zunehmende Weiterempfehlungs-bereitschaft fördern. Insgesamt lässt sich hinsichtlich der Erwartungshaltung der Bewerber konstatieren, dass ein Unternehmen auch bei den jungen Akademikern der Generation Y punkten kann, wenn es sich in einem ersten Schritt zunächst auf die Einhaltung der Recruiting-Basics konzentriert.
Mechanisch-biologisch behandelte Abfälle zeigen im Vergleich mit unbehandelten Siedlungsabfällen völlig veränderte geomechanische Eigenschaften auf. Das Emissionspotenzial ist weitgehend reduziert. Dies erforderte eine Anpassung der Deponietechnik bezüglich Materialeinbau und Deponiebetrieb. Um sowohl das Deponieverhalten der mechanisch-biologisch behandelten Abfälle sowie das verbleibende Emissionspotenzial beurteilen zu können, wurde in dieser Arbeit ein breit angelegtes Untersuchungsprogramm im Deponiefeld umgesetzt, welches zum Ziel hat, das Langzeitverhalten des mechanisch-biologisch behandelten Abfalls im Deponiefeld zu beschreiben. Hieraus wurden Empfehlungen für Deponiebetreiber abgeleitet, die eine langfristige Sicherung der gesetzlichen Anforderungen an das Ablagern von MBA-Material gewährleisten. Somit wird der Forderung nach einem nachhaltigen Schutz der Umwelt Rechnung getragen. Eine solche Sicherung ermöglicht einen langfristig ökonomisch und ökologisch tragbaren Deponiebetrieb und somit die nötige Planungssicherheit für Deponiebetreiber. rnDie bisherigen Erfahrungen haben gezeigt, dass MBA-Deponien unter den beschriebenen Bedingungen ohne größere Probleme betrieben werden können. Durch die mechanisch-biologische Behandlung wurde jedoch der gesamte Bereich der Ablagerung neu definiert. rnSchwerpunkt des Untersuchungsprogramms war die Untersuchung der Temperatur- und Feuchtigkeitsentwicklung im Deponiekörper, der daraus resultierenden Auswirkungen auf die Zusammensetzung und Menge des Deponiegases sowie die Beurteilung der geotechnischen Erfordernisse an das abzulagernde Material und das Deponiefeld. Hierbei stand die Untersuchung von Porenwasserdrücken im Vordergrund. Die Ergebnisse haben gezeigt, dass die Temperaturniveaus im Deponiekörper mit ca. 16-25-°C etwas unter den von DSR lagen. Die Deponiegaszusammensetzung weicht ebenfalls etwas von den Ergebnissen aus DSR ab. Die Deponiegasmenge liegt im erwarteten Bereich und lässt Rückschlüsse auf das Gasphasenmodell zu. An den Zuordnungskriterien konnten keine wesentlichen Veränderungen oder Abbauraten bezogen auf das Ursprungsmaterial beobachtet werden. Die Anforderungen an den Einbau von mechanisch-biologisch behandelten Abfällen sollten weiterhin unter der Maßgabe: verdichteter Dünnschichteinbau, Profilierung mit 5-10% Gefälle, Einbauwassergehalt 30-35 %, geringstmögliche Einbaufläche und einer arbeitstägigen Abdeckung des Deponiefeldes mit wasserundurchlässigem Material in regenintensiven Monaten und im Winter erfolgen. Ein Deponiebetrieb nach den Vorgaben des Anhanges 5, Nr. 6 der Deponieverord-nung, nach dem ein Deponiebetreiber den Anfall von Sickerwasser so gering zu halten hat, wie dies nach dem Stand der Technik möglich ist, ist somit umsetzbar. Aufgrund der geringen Sickerwassermengen und des verdichteten Materialeinbaus stellt der Deponiekörper mit MBA-Material kein umweltrelevantes Gefährdungspotenzial bezogen auf die Deponiegasemissionen dar, insofern nach Abschluss des Deponiekörpers eine Methanoxidationsschicht als Oberflächenabdichtung aufgebracht wird.
Die Dissertation untersucht den Anteil der Armutsthematik an der Etablierung des Kinos in Deutschland. Der Untersuchungsschwerpunkt konzentriert sich auf die Jahre 1907 bis 1913, einer entscheidenden Zeitspanne für die Institutionalisierung des Kinos als Medium sui generis. Ziel der Untersuchung ist es, anhand von Filmanalysen wiederkehrende Muster medialer Praktiken der kinematographischen Artikulation der Sozialen Frage zu eruieren und ihre thematische Relevanz bzw. ihren Anteil für die Etablierung des Kinos in Deutschland zu bestimmen. Im Fokus stehen die Medienprodukte, ihre Motivgestaltung und Inszenierungspraktiken.
Stressinduzierte Veränderungen gastrointestinaler Peptidhormone könnten eine biologische Grundlage für Überessen und einen Faktor bei der Entstehung von Adipositas darstellen. Darum wurden die Veränderungen der Plasmakonzentrationen von Ghrelin und Peptid YY (PYY) durch akuten Stress bei 85 adipösen und normalgewichtigen Frauen untersucht. Im Vergleich zu normalgewichtigen Frauen hatten adipöse Frauen eine geringere pre- als auch postprandiale Ghrelin-Sekretion. Darüber hinaus fiel auch der postprandiale Ghrelin-Abfall bei den adipösen Frauen geringer aus als bei der normalgewichtigen Vergleichsgruppe. Akuter Stress inhibierte die PYY-Sekretion in beiden Gruppen. Außerdem wurde der Effekt von akutem Stress auf das Essverhalten erfasst. Stress inhibierte die Nahrungsaufnahme in beiden Gruppen.
Mittels Querschnittserhebungen ist es möglich Populationsparameter zu einem bestimmten Zeitpunkt zu schätzen. Jedoch ist meist die Veränderung von Populationsparametern von besonderem Interesse. So ist es zur Evaluation von politischen Zielvorgaben erforderlich die Veränderung von Indikatoren, wie Armutsmaßen, über die Zeit zu verfolgen. Um zu testen ob eine gemessene Veränderung sich signifikant von Null unterscheidet bedarf es einer Varianzschätzung für Veränderungen von Querschnitten. In diesem Zusammenhang ergeben sich oft zwei Probleme; Zum einen sind die relevanten Statistiken meist nicht-linear und zum anderen basieren die untersuchten Querschnittserhebungen auf Stichproben die nicht unabhängig voneinander gezogen wurden. Ziel der vorliegenden Dissertation ist es einen theoretischen Rahmen zur Herleitung und Schätzung der Varianz einer geschätzten Veränderung von nicht-linearen Statistiken zu geben. Hierzu werden die Eigenschaften von Stichprobendesigns erarbeitetet, die zur Koordination von Stichprobenziehungen in einer zeitlichen Abfolge verwendet werden. Insbesondere werden Ziehungsalgorithmen zur Koordination von Stichproben vorgestellt, erarbeitet und deren Eigenschaften beschrieben. Die Problematik der Varianzschätzung im Querschnitt für nicht-lineare Schätzer bei komplexen Stichprobendesigns wird ebenfalls behandelt. Schließlich wird ein allgemeiner Ansatz zur Schätzung von Veränderungen aufgezeigt und es werden Varianzschätzer für die Veränderung von Querschnittschätzern basierend auf koordinierten Querschnittstichproben untersucht. Insbesondere dem Fall einer sich über die Zeit verändernden Population wird eine besondere Bedeutung im Rahmen der Arbeit beigemessen, da diese im Anwendungsfall die Regel darstellen.
Zum Einfluss von Transformationen schiefer Verteilungen auf die Analyse mit imputierten Daten
(2015)
Die korrekte Behandlung fehlender Daten in empirischen Untersuchungen spielt zunehmend eine wichtige Rolle in der anwendungsorientierten, quantitativen Forschung. Als zentrales flexibles Instrument wurde von Rubin (1987) die multiple Imputation entwickelt, welche unter regulären Bedingungen eine korrekte Inferenz der eigentlichen Schätzungen ermöglicht. Eine Reihe von Imputationsmethoden beruht im Wesentlichen auf der Normalverteilungsannahme. In der Empirie wird diese Annahme normalverteilter Daten zunehmend kritisiert. So erweisen sich Variablen auf Grund ihrer sehr schiefen Verteilungen für die Imputation als besonders problematisch. In dieser Arbeit steht die korrekte Behandlung fehlender Werte mit der Intention einer validen Inferenz der eigentlichen Schätzung im Vordergrund. Ein Instrument ist die Transformation schiefer Verteilungen, um mit Hilfe der transformierten und approximativ normalverteilten Daten Imputationen unter regulären Bedingungen durchzuführen. In der Arbeit wird ein multivariater Ansatz eingeführt. Anschließend wird im Rahmen mehrerer Monte-Carlo-Simulationsstudien gezeigt, dass der neue Ansatz bereits bekannte Verfahren dominiert und sich die Transformation positiv auf die Analyse mit imputierten Daten auswirkt.
Die vorliegende empirische Untersuchung nimmt eine gezielte Betrachtung der Auswirkungen des Working Capital Managements als Ganzem sowie seiner Teilkomponenten für die operative Profitabilität und das Bonitätsrating (d.h. im Ergebnis über seine Bedeutung für die Innen- und die Außenfinanzierung) deutscher mittelständischer Unternehmen vor. Darüber hinaus wird untersucht, in wie weit größenspezifische Unterschiede bei der Wirkung der einzelnen Komponenten des Working Capital Managements auf die operative Profitabilität und das Bonitätsrating bestehen, ob also die Stärke der ggf. zu beobachtenden Effekte für kleinere Unternehmen anders ausgeprägt ist als für größere Unternehmen. Zudem wird untersucht, ob sich die Stärke der zu beobachtenden Effekte in unterschiedlichen konjunkturellen Rahmenbedingungen jeweils verändert, um Erkenntnisse darüber zu gewinnen, ob und in wie weit Working Capital Management zur Verbesserung der Krisenresistenz mittelständischer Unternehmen beitragen kann.
Mit fachlicher Informationskompetenz werden die Fähigkeiten bezeichnet, die notwendig sind, um effektiv Fachinformationen (z.B. Zeitschriftenartikel) finden und bewerten zu können. Informationskompetenz gilt als wichtige Voraussetzung für ein erfolgreiches Studium und Erfolg auf dem Arbeitsmarkt. Ziel dieser Arbeit ist es, Messinstrumente für fachliche Informationskompetenz bei Psychologiestudierenden zu entwickeln. Dabei wird davon ausgegangen, dass Informationskompetenz sowohl deklarative, als auch prozedurale Wissenskomponenten (Hintergrundwissen über Konzepte und die Beherrschung von Strategien und Vorgehensweisen) enthält. Um diese erfassen zu können, wurde ein Multiple-Choice-Test und Rechercheaufgaben entwickelt; beide Instrumente wurden zur Evaluation eines Trainings für Informationskompetenz eingesetzt. Mittlere Korrelationen zwischen den Instrumenten und die Ergebnisse einer Clusteranalyse zeigen, dass mit beiden Instrumenten unterschiedliche Wissenskomponenten erfasst werden.
Die Arbeit versucht einen Beitrag zum besseren Verständnis von Identitifikations- und Migrationsprozessen von Russlandddeutschen zu leisten. Dabei werden die folgenden zentralen Froschungsfragen behandelt:rnGibt es die Gruppe der Russlanddeutschen aus einer Binnenperspektive? Was führt dazu, dass sich jemand als Mitglied der Gemeinschaft der Russlanddeutschen fühlt? Welche Parameter üben entscheidenden Einfluss auf Migrationsprozesse aus? Welchen Einfluss üben Identitätskonstrukte auf soziale Handlungen, wie Migration aus?
Die vorliegende Arbeit teilt sich in die zwei titelgebenden Themengebiete. Inhalt des ersten Teils dieser Arbeit ist die Untersuchung der Proximität, also einer gewissen Messung der Nähe, von Binomial- und Poisson-Verteilungen. Speziell wird die uniforme Struktur des Totalvariationsabstandes auf der abgeschlossenen Menge aller Binomial- und Poisson-Verteilungen charakterisiert, und zwar mit Hilfe der die Verteilungen eindeutig bestimmenden zugehörigen Erwartungswerte und Varianzen. Insbesondere wird eine obere Abschätzung des Totalvariationsabstandes auf der Menge der Binomial- und Poisson-Verteilungen durch eine entsprechende Funktion der zugehörigen Erwartungswerte und Varianzen angegeben. Der zweite Teil der Arbeit widmet sich Konfidenzintervallen für Durchschnitte von Erfolgswahrscheinlichkeiten. Eine der ersten und bekanntesten Arbeiten zu Konfidenzintervallen von Erfolgswahrscheinlichkeiten ist die von Clopper und Pearson (1934). Im Binomialmodell werden hier bei bekanntem Stichprobenumfang und Konfidenzniveau Konfidenzintervalle für die unbekannte Erfolgswahrscheinlichkeit entwickelt. Betrachtet man bei festem Stichprobenumfang statt einer Binomialverteilung, also dem Bildmaß einer homogenen Bernoulli-Kette unter der Summationsabbildung, das entsprechende Bildmaß einer inhomogenen Bernoulli-Kette, so erhält man eine Bernoulli-Faltung mit den entsprechenden Erfolgswahrscheinlichkeiten. Für das Schätzen der durchschnittlichen Erfolgswahrscheinlichkeit im größeren Bernoulli-Faltungs-Modell sind z. B. die einseitigen Clopper-Pearson-Intervalle im Allgemeinen nicht gültig. Es werden hier optimale einseitige und gültige zweiseitige Konfidenzintervalle für die durchschnittliche Erfolgswahrscheinlichkeit im Bernoulli-Faltungs-Modell entwickelt. Die einseitigen Clopper-Pearson-Intervalle sind im Allgemeinen auch nicht gültig für das Schätzen der Erfolgswahrscheinlichkeit im hypergeometrischen Modell, das ein Teilmodell des Bernoulli-Faltungs-Modells ist. Für das hypergeometrische Modell mit festem Stichprobenumfang und bekannter Urnengröße sind die optimalen einseitigen Konfidenzintervalle bekannt. Bei festem Stichprobenumfang und unbekannter Urnengröße werden aus den im Bernoulli-Faltungs-Modell optimalen Konfidenzintervallen optimale Konfidenzintervalle für das hypergeometrische Modell entwickelt. Außerdem wird der Fall betrachtet, dass eine obere Schranke für die unbekannte Urnengröße gegeben ist.
Kooperationen sind in den unterschiedlichsten Industrien und Wirtschaftszweigen ein fester Bestandteil zur Entwicklung von Unternehmensstrategien und vielfach die Reaktion auf branchenspezifische wie auch -übergreifende Bedingungen des Unternehmensumfeldes. Durch das Eingehen von Kooperationen wird sich erhofft Zugang zu Ressourcen zu gewinnen, Marktbarrieren zu umgehen, Kostensenkungspotenziale durch Synergieeffekte zu realisieren, spezifisches Know-how zu erlangen, Informations- und Wissenstransfer zu ermöglichen oder integrativ Kompetenzen in einem technologisierten Umfeld aufzubauen. Angesichts seit Jahren steigender weltweiter Tourismusausgaben für Urlaubsreisen, einem zunehmendem Wettbewerbsdruck zwischen Reisezielen und touristischen Anbietern sowie branchenspezifisch hoher Krisenanfälligkeit sind Kooperationen auch in der Tourismuswirtschaft omnipräsent. Vor dem Hintergrund sich wandelnder Aufgaben traditioneller Tourismusorganisationen (Touristen Info) einerseits sowie der den Kooperationen inhärenten Spannung zwischen Zusammenarbeit und Wettbewerb der beteiligten Akteure (Leistungsträger, Stakeholder) andererseits, steht im Mittelpunkt dieser Untersuchung die Frage: "Kooperationen von Destinationen: zufällige Einzelphänomen oder Entscheidungen eines strategischen Destinationsmanagements?" Dabei beschränkt sich der Untersuchungsgegenstand nicht auf Kooperationen zwischen Leistungsträgern innerhalb einer Destination, sondern setzt jene Kooperationen in den Fokus, die sowohl zwischen konkurrierenden Touristenorganisationen als auch zwischen Touristenorganisationen und nicht-originär touristischen Unternehmen zu beobachten sind. Ziel der Arbeit ist die theorie- und empiriegeleitete Exploration von Zielsystemen und Erfolgsfaktoren, um so einen Beitrag zum effektiven Kooperationsmanagement von Tourismusorganisationen liefern zu können. Somit positioniert sich diese Arbeit im Kontext der wirtschaftswissenschaftlichen Kooperationsforschung im strategischen Dienstleistungs- sowie Tourismus- und Destinationsmanagement. Basierend auf einem kritisch-reflektierenden Literaturüberblick wird ein konzeptioneller Bezugsrahmen entwickelt und die verfolgte qualitative Forschungsstrategie einer Fallanalyse in ein konkretes empirisches Untersuchungsdesign umgesetzt: die im Rahmen der Datenerhebung geführten Experteninterviews mit Geschäftsführern ausgewählter Unternehmen wurden transkribiert und mittels einer strukturierenden Inhaltsanalyse untersucht. Neben der Konzeption einer Systematisierung zu Kooperationen im Destinationskontext dienen die zentralen empirischen Ergebnisse der Identifikation neun eigenständiger Zielkategorien sowie sieben Erfolgsfaktoren. Davon abgeleitetes wird ein phasenorientiertes Entscheidungsmodell für Entscheidungsträger im Destinationsmanagement entwickelt.
Auf der Grundlage großer Datensätze bereits behandelter Psychotherapiepatienten werden typische Veränderungsmuster identifiziert, die Therapeuten dabei unterstützen sollen, den beobachteten Verlauf ihrer Patienten besser einordnen und Erfolgswahrscheinlichkeiten ableiten zu können. Dabei werden Unterschiede und Gemeinsamkeiten dieser Muster und deren Implikationen in Bezug auf Therapieerfolg und -länge für verschiedene Störungsbilder, Erhebungsinstrumente, Therapiephasen und Untersuchungsdesigns herausgearbeitet sowie rechenintensive Identifikationsmethoden mit einfacheren verglichen.
Zum wechselseitigen Einfluss epistemologischer Überzeugungen und Förderung von Informationskompetenz
(2015)
Die Dissertation zielt darauf ab, den wechselseitigen Zusammenhang zwischen epistemologischen Überzeugungen und der Förderung von Informationskompetenz im Hochschulbereich zu untersuchen. Hinsichtlich der aktuellen Literatur zu epistemologischen Überzeugungen wird dabei zunächst ein Mangel an Fragebogen-Verfahren zur Erfassung epistemologischer Überzeugungen bei Hochschulstudierenden identifiziert. Demnach unterscheiden bisher verfügbare Fragebögen lediglich zwischen absoluten und nicht-absoluten Überzeugungen, nicht aber zwischen undifferenzierten und differenzierten multiplistischen Überzeugungen. Die Arbeit ist daher in zwei Teile untergliedert. Im ersten Teil wird ein epistemologischer Fragebogen, bestehend aus Items mit absoluten und multiplistischen Aussagen entwickelt (vier Studien, Gesamt-N = 416). Im zweiten Teil werden mittels dieses Fragebogens und eines Informationskompetenz-Wissenstests der Einfluss absoluter und multiplistischer Überzeugungen auf den Lerngewinn in einem Blended-Learning Training zur Förderung von Informationskompetenz Psychologie-Studierender (N = 67) sowie die kurzzeitigen Veränderungen dieser Überzeugungen infolge der Trainingsteilnahme untersucht. Faktorenanalysen zeigen, dass Items mit absoluten und multiplistischen Aussagen auf unterschiedlichen Faktoren laden. Die finale Faktoren-Lösung umfasst k = 23 (von ursprünglich k = 35) Items mit zwei Faktoren, wobei Items mit absoluten Aussagen hauptsächlich auf dem ersten und Items mit multiplistischen Aussagen hauptsächlich auf dem zweiten Faktor laden. Die daraus abgeleiteten Skalen zeigen eine zufriedenstellende interne Konsistenz. Die konvergente Validität der Skalen wird durch signifikante Korrelationen mit den beiden Skalen des Fragebogens "Connotative Aspects of Epistemological Beliefs" (CAEB) und der Skala "Need for Cognitive Closure" (NCC) belegt. Querschnittsanalysen zeigen signifikant niedrigere Mittelwerte der multiplistischen Skala bei zunehmendem Studienfortschritt, wohingegen sich auf der absoluten Skala keine signifikanten Unterschiede zeigen. Multiple Regressionsanalysen zeigen, dass höhere Werte auf der multiplistischen Skala mit einem signifikant geringeren Lernerfolg im Informationskompetenz-Training einhergehen. Hinsichtlich der absoluten Skala zeigt sich demgegenüber kein signifikanter Zusammenhang. Abhängig von der Teilnahme am Informationskompetenz-Training lässt sich eine signifikante Zunahme absoluter Überzeugungen nachweisen. Multiplistische Überzeugungen hingegen verändern sich nicht in Abhängigkeit der Trainingsteilnahme. Ausgehend von den Ergebnissen wird diskutiert, dass durch die messtheoretische Differenzierung zwischen absoluten und multiplistischen Überzeugungen zusätzliche Informationen (z.B. über die Entwicklung epistemologischer Überzeugungen) gewonnen werden können, die mit herkömmlichen Fragebögen nicht abgebildet werden. Die Ergebnisse stützen überdies die Annahme eines wechselseitigen Zusammenhangs zwischen epistemologischen Überzeugungen und Informationskompetenz. Es wird vermutet, dass dieser wechselseitige Zusammenhang auf einen tendenziell absoluten Charakter von Lerninhalten zur Informationskompetenz zurückführbar ist.
Die Arbeit untersucht das Potential kleiner unbemannter Luftfahrtsysteme (UAS) in Landwirtschaft und Archäologie. Der Begriff UAS beinhaltet dabei: Fluggerät, Antriebsmechanismus, Sensorik, Bodenstation, Kommunikationsmittel zwischen Bodenstation und Fluggerät und weiteres Equipment. Aufgrund ihrer Flexibilität, fanden UAS seit der Jahrtausendwende eine blühende Entwicklung. Um die wachsende Weltbevölkerung zu ernähren, muss die landwirtschaftliche Produktion sensibel und nachhaltig intensiviert werden, um Nahrungssicherheit für alle zu gewährleisten und weitere Boden- und Landdegradation zu vermeiden. Präzisionslandwirtschaft umfasst technologische Verbesserungen hin zur effizienteren und weniger schädlichen landwirtschaftlichen Praxis. Hierbei ist die Verfügung über zeitnahe, leicht zugängliche hoch aufgelöste räumliche Daten eine Voraussetzung für die Nahrungsmittelproduktion. UAS schließen hier die Lücke zwischen Bodendaten und teuren bemannten Luftfahrtsysteme und selteneren Satellitenbildern. Die Vorteile der UAS-Daten liegen in der ad-hoc Akquisition großmaßstäbiger Fernerkundungsdaten, den geringeren Kosten gegenüber der bemannten Systeme und einer relativen Wetterunabhängigkeit, da auch unter Wolken geflogen werden kann. Den größten Anteil innerhalb der UAS stellen die Mini-UAS (Abfluggewicht von 5kg) und dabei vertikale Start- und Landesysteme. Diese können über Untersuchungsgebieten schweben, sind dadurch jedoch langsamer und eher geeignet für kleinere Flächen. Flugregularien und die Integration in den bemannten Luftraum werden derzeit europaweit harmonisiert und in den Mitgliedstaaten umgesetzt. Die Hauptziele dieser Arbeit lagen in der Evaluierung wie Schlüsselparametern landwirtschaftlicher Nutzpflanzen (Chlorophyll-, Stickstoffgehalt, Erntemenge, sonnendinduzierter Chlorophyll-Fluoreszenz) mittels UAS abgeleitet und wie UAS-Daten für archäologische Aufklärung genutzt werden können. Dazu wurde ein Quadrokopter (md4-1000, microdrones GmbH) mit einer digitalen Spiegelreflexkamera, einem Multispektralsensor (MiniMCA-6, Tetracam Inc.) und einer Thermalkamera (UCM, Zeiss) ausgestattet. Eine Sensitivitätsanalyse führte zur Ableitung geeigneter Wellenlängenbereiche und untersuchte bidirektionale und Flughöheneffekte auf das Multispektralsignal. Die Studie beschreibt außerdem die Vorgehensweise bei Bildaufnahme und Vorprozessierung mit besonderem Schwerpunkt auf die Multispektralkamera (530-900 nm). Die Vorprozessierung beinhaltet die Korrektur von Sensorfehlern (Linsenverzeichnung, Vignettierung, Kanalkalibrierung), die radiometrische Kalibrierung über eine empirische Korrektur mit Hilfe von Referenzspektren, Atmosphärenkorrektur und schließlich die geometrische Verarbeitung unter Verwendung von Structure from Motion Programme zur Generierung von Punktwolkenmodellen bis hin zum digitalen Orthophotomosaik und Höhenmodell in Zentimeterauflösung. In einer Weinbergsstudie (2011, 2012) wurden geeignete Beobachtungswinkel für die Untersuchung des Einflusses von Bodenbearbeitungsstrategien auf das Multispektralsignal evaluiert. Schrägichtaufnahmen von 45-° Beobachtungswinkel gegenüber Nadir waren am besten geeignet zur Ableitung pflanzenphysiolgischer Parameter und multispektraler Unterscheidung von Bodenbearbeitungstypen. So konnten Chlorophyll-Gehalte über Regressionsanalysen über mehrere saisonale Aufnahmen mit einem kreuzvalidierten R-² von 0.65, Stickstoffgehaltsindex von 0.76 (2012) und Ernte mit 0.84 (2011) und für verschiedene Zeitpunkte nach der Blüte (0.87) und während der Reifephase (0.73) ermittelt werden. Desweiteren wurde die (Fs) in einem Stickstoff-Düngung-Experiment bei Zuckerrüben von Multispektral-, Indizes und Thermaldaten untersucht (HyFlex-Kampagne 2012). Zuckerrübenvarietäten konnten spektral und thermal unterschieden werden, die Fluoreszenzindizes waren wetterbedingt, weniger erfolgreich. Außerdem konnte der Tagesgang der Fs trotz instabiler Einstrahlungsverhältnisse am Morgen abgeleitet werden. Die Werte waren jedoch gegenüber Bodenmessungen um ein Vielfaches erhöht. Archäologische Fernerkundung durch UAS wird bereits seit Jahren (z.B. mit Fesselballons) durchgeführt. Die Mustererkennung profitiert von der spektralen Ausdehnung vom menschlichen Auge hin zu multispektralen, neuerdings auch hyperspektralen Sensoren. Studien in Los Bañales, Spanien, zeigten die Möglichkeiten des Informationsgewinns durch Bildverarbeitung von UAS-Daten: vermutliche historische Siedlungsmuster konnten durch Landoberflächenklassifikation von Multispektraldaten mittels Support Vector Machines und Bestandsmusterdetektion beschrieben werden. Um qualitative hochwertige, hochaufgelöste UAS-Daten zu erhalten, sollten die Daten mit hoher Überlappung (80%) und auch Schrägsicht akquiriert und ggf. durch Referenzmessungen zur radiometrischen Kalibrierung und GPS-Messungen für geometrische Referenzierung ergänzt werden.