Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (488) (entfernen)
Sprache
- Deutsch (488) (entfernen)
Schlagworte
- Deutschland (24)
- Stress (13)
- n.a. (10)
- Bodenerosion (9)
- Tourismus (8)
- Fernerkundung (7)
- Geschichte (7)
- Modellierung (7)
- Motivation (6)
- Nachhaltigkeit (6)
Institut
- Psychologie (117)
- Raum- und Umweltwissenschaften (98)
- Wirtschaftswissenschaften (34)
- Geschichte, mittlere und neuere (28)
- Germanistik (25)
- Kunstgeschichte (21)
- Mathematik (18)
- Politikwissenschaft (15)
- Soziologie (15)
- Fachbereich 1 (10)
Bei der Preisberechnung von Finanzderivaten bieten sogenannte Jump-diffusion-Modelle mit lokaler Volatilität viele Vorteile. Aus mathematischer Sicht jedoch sind sie sehr aufwendig, da die zugehörigen Modellpreise mittels einer partiellen Integro-Differentialgleichung (PIDG) berechnet werden. Wir beschäftigen uns mit der Kalibrierung der Parameter eines solchen Modells. In einem kleinste-Quadrate-Ansatz werden hierzu Marktpreise von europäischen Standardoptionen mit den Modellpreisen verglichen, was zu einem Problem optimaler Steuerung führt. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit der Lösung der PIDG aus theoretischer und vor allem aus numerischer Sicht. Die durch ein implizites Zeitdiskretisierungsverfahren entstandenen, dicht besetzten Gleichungssysteme werden mit einem präkonditionierten GMRES-Verfahren gelöst, was zu beinahe linearem Aufwand bezüglich Orts- und Zeitdiskretisierung führt. Trotz dieser effizienten Lösungsmethode sind Funktionsauswertungen der kleinste-Quadrate-Zielfunktion immer noch teuer, so dass im Hauptteil der Arbeit Modelle reduzierter Ordnung basierend auf Proper Orthogonal Decomposition Anwendung finden. Lokale a priori Fehlerabschätzungen für die reduzierte Differentialgleichung sowie für die reduzierte Zielfunktion, kombiniert mit einem Trust-Region-Ansatz zur Globalisierung liefern einen effizienten Algorithmus, der die Rechenzeit deutlich verkürzt. Das Hauptresultat der Arbeit ist ein Konvergenzbeweis für diesen Algorithmus für eine weite Klasse von Optimierungsproblemen, in die auch das betrachtete Kalibrierungsproblem fällt.
Im Rahmen dieser Arbeit wurde die agrarklimatische und phänologische Situation in der zweiten Hälfte des vergangenen 20. Jahrhunderts für das Mittlere Moseltal am Beispiel der Moselregion im Umfeld der Stadt Bernkastel-Kues ausgewertet. Es konnten erhebliche klimatische und phänologische Veränderungen festgestellt und deren Auswirkungen auf den regionsprägenden Weinbau aufgezeigt werden. Der zeitliche Verlauf der Jahresmittel der Lufttemperatur zeigt eine deutliche Zweiteilung der Entwicklung in den Jahren 1945 bis 2000. Eine Abnahme (- 0.7 K) in der ersten Hälfte und eine deutliche Zunahme (+1.1 K) in der zweiten Hälfte der Zeitreihe. Einen vergleichbaren Verlauf zeigen die Jahresmittel der Tagestemperaturmaxima und -minima. Eine erhebliche Erwärmung lässt sich im April und Mai, August und Oktober und Januar und Dezember beobachten. Die geringsten Veränderungen zeigen Februar, Juli und November. Die Jahresniederschläge lassen keinen Trend im Gesamtabschnitt erkennen. Saisonale Verschiebungen weisen jedoch auf Änderungen in der Niederschlagscharakteristik hin. Die niederschlagsreichste Zeit im Jahr hat sich vom August auf Juni/Juli verschoben (starke Abnahme im August) und der regenärmste Monat vom März auf den Februar. Zunahmen zeigen v. a. September und Oktober. Die Jahressummen der Sonnen-scheindauer zeigen einen starken Rückgang in den Jahren 1945 bis 1981 und eine Trendumkehr in den Jahren bis 2000. Insbesondere der Monat August weist eine starke Zunahme der Sonnenscheindauer auf. Der mittlere jährliche Wachstumsverlauf der Weinrebe beginnt Anfang/Mitte April. Austrieb und Ergrünen folgen bis Mitte Mai. Die Rebe blüht im Durchschnitt zwischen dem 21.6. und 26.6. Mitte Juli sind die Beeren erbsengroß. Das Beerenwachstum und die Fruchtreife dauern in der Regel bis Anfang Oktober. Die Herbsttermine Laubfärbung und Laubfall finden zwischen Mitte Oktober und Anfang November statt. Alle in Bernkastel beobachteten phänologischen Merkmale zeigen eine Vorverlagerung der Eintrittstermine zwischen -6 Tagen und -15 Tagen in den Jahren 1967 bis 2001. Die Beerenentwicklung bzw. Reifephase im Sommer und Frühherbst verlängert sich um rund 10 Tage. Die wärmer gewordenen Monate März und April (geringere Spätfrostgefahr) äußern sich anhand eines früheren Vegetationsbeginns der Rebe. Die wärmeren, trockeneren und sonnenscheinreicheren Monate Mai und Juni führen zu einer erheblichen Vorverlagerung des Blühtermins und zu einer günstigen Verschiebung der Fruchtentwicklungs- und Reifephasen in den trockeneren, wärmeren und strahlungsreicheren Hochsommer. Die optimale Ausreife der Trauben im September und Oktober wird einerseits durch eine Temperaturzunahme gefördert, anderseits durch höhere Niederschlagswerte verzögert oder behindert. Die phänologischen Termine Knospung, Austriebs, Blüte und Reifegrad eignen sich somit hervorra-gend als Indikator für die Veränderung der klimatischen Bedingungen im Jahresverlauf. Ein starker Zusammenhang zwischen den Terminen des Blühbeginns der Rebe mit den Temperaturfaktoren und zwischen dem Reifegrad 60 -°Oe und kumulierten Temperatursummen bzw. den Sonnenscheindauern zwischen Mai und August ist ein weiterer Beleg für die stattgefundenen klimatischen Veränderungen im Mittleren Moseltal besonders in den Monaten März bis Juni und August und Oktober.
Das übergeordnete Ziel dieser Dissertation ist die Untersuchung der aktuellen Geomorphodynamik in den Gullyeinzugsgebieten der Souss-Ebene, Südmarokko. Eine Sonderstellung nehmen besonders in der Taroudant-Region die durch land-levelling Maßnahmen beeinflussten Flächen ein. Anhand von experimentellen Feldmethoden werden verschiedene Prozesse der Bodenerosion aufgenommen und bewertet. Mittels Luftbildmonitoring mit einer Drohne erfolgt eine Analyse des Gullywachstums. Durch eine Zusammenführung der Methodenkombination kann ein Gesamtbild der aktuellen geomorphologischen Prozessdynamik im Souss erstellt werden. Mit Zerfall der Zuckerindustrie Ende des 17. Jahrhunderts setzt im Souss Becken aufgrund der nahezu vollständigen Abholzung der Arganwälder die lineare Bodenerosion ein. Mit der Transformation von traditioneller Landwirtschaft zu modernen Zitrusfrucht- und Gemüseplantagen, beginnt Anfang der 1960er Jahre ein sehr dynamischer Landnutzungswandel. Die Expansion der Anbauflächen, die von Wadi- und Gullysystemen tief zerschnittenen sind, wird durch Planierungsmaßnahmen vorangetrieben. Auf den planierten Flächen entwickeln sich durch die Verdichtung des Bodens, das Entfernen von Vegetationsbedeckung sowie Krustenbildung auf dem schluffig-lehmigen Substrat bei Starkniederschlagsereignissen zumeist erneut Gullys. Die rasche lineare Zerschneidung bedroht weitere Anbauflächen. Eine nachhaltige Entwicklung auf diesen Flächen ist daher fraglich. Durch starke Verschlämmung nach Niederschlägen bilden sich auf den planierten Flächen sehr schnell physikalische Bodenkrusten aus. Ihre Mikromorphologie ist aufgrund der Belastungen mit schwerem Gerät sowie mehrfacher Erosions- und Akkumulationszyklen durch Plattenstruktur und Vesikel geprägt, wodurch die Infiltrationskapazität des Bodens verringert wird. Diese Auswirkungen können durch Messungen mit dem Einringinfiltrometer bestätigt werden. Sie zeigen auf ungestörten Flächen durchschnittlich eine 2,6-fach höhere Infiltrationsrate als auf planierten Flächen. Durch eine Inventarisierung der Bodeneigenschaften und Oberflächencharakteristika kann ihre signifikante Veränderung nach Planierungsmaßnahmen identifiziert werden. So zeigen planierte Flächen hohe Anteile an Bodenverkrustung und wenig Vegetationsbedeckung auf. Ungestörte Flächen sind dagegen weniger verkrustet und stärker mit Vegetation bedeckt. Zudem kann eine Kompaktion der oberen Bodenschicht nachgewiesen werden. Diese Faktoren wirken auf die Oberflächenabflussbildung und den Sedimentabtrag ein. Die Ergebnisse von 122 Niederschlagssimulationen mit einer Kleinberegnungsanlage zeigen einen signifikanten Anstieg der mittleren Oberflächenabflüsse und Sedimentfrachten (1,4-, bzw. 3,5-mal höher) auf planierten im Gegensatz zu ungestörten Testflächen. Mithilfe des Gullymonitorings wird die Entwicklung eines kompletten Gullys durch Starkniederschlagsereignisse auf einer planierten Fläche detektiert. Dabei wird in einem 3,5 ha großen Einzugsgebiet etwa 1080 t Bodenmaterial erodiert. Hier wurde errechnet, dass Gullyerosion für 91 % des gesamten Bodenverlustes im Einzugsgebiet verantwortlich ist. Die Fläche dient nur als Lieferant des Erosionsagens Wasser. Das Verfüllen des ursprünglichen Gullysystems mit Material der umliegenden Hänge führt zu einer Erniedrigung der Geländehöhe von durchschnittlich über 5 cm. Auf ungestörten Flächen wird dagegen nur ein geringes Gullywachstum verzeichnet. Die vorgestellte Methodenkombination lässt eine gezielte Beschreibung der aktuellen Geomorphodynamik in den Einzugsgebieten der Souss-Ebene zu. Durch die land-levelling Maßnahmen wird die Prozessdynamik signifikant erhöht. Eine Verminderung der Vegetationsbedeckung, schnelle Krustenbildung sowie Bodenkompaktion unterstützen hohe Oberflächenabflussbildung und Sedimentabtrag. Durch lineare Konzentration des Abflusses wird rapide Gullyerosion gefördert. Ganze Gullysysteme können sich auf Planierungsflächen durch nur ein einziges Starkniederschlagsereignis ausbilden. Dadurch sind Anbauflächen, Gebäude und Infrastruktur gefährdet.
Algorithmen als Richter
(2022)
Die menschliche Entscheidungsgewalt wird durch algorithmische
Entscheidungssysteme herausgefordert. Verfassungsrechtlich besonders
problematisch ist dies in Bereichen, die das staatliche Handeln betreffen.
Eine herausgehobene Stellung nimmt durch den besonderen Schutz der
Art. 92 ff. GG die rechtsprechende Gewalt ein. Lydia Wolff fragt daher danach, welche Antworten das Grundgesetz auf digitale Veränderungen in diesem Bereich bereithält und wie sich ein Eigenwert menschlicher Entscheidungen in der Rechtsprechung angesichts technischen Wandels darstellen lässt.
Das Werk erörtert hierzu einen Beitrag zum verfassungsrechtlichen
Richterbegriff und stellt diesen etablierten Begriff in einen Kontext neuer digitaler Herausforderungen durch algorithmische Konkurrenz.
Ziel der vorliegenden Dissertation war es, in einem gesamtspektralen Porträt als Momentaufnahme darzustellen, welche Themen in den japanischen allgemeinen Tageszeitungen wie strukturiert dargestellt werden und in welcher gestalterischen Form dies geschieht. Anhand einer umfassenden Stichtagssammlung galt es dabei vornehmlich, Antworten auf die Fragen zu finden, ob Unterschiede in der Themenwahl und deren gestalterischer Darstellung auszumachen sind, und welche Grundmuster vorherrschen. Vor allem bezüglich der formalen Gestaltung musste einer Diskussion der bislang nur unzureichend erarbeiteten Grundlagen der japanischen Layout-Theorie gebührender Platz eingeräumt werden. Am Soll-Zustand des Mediums wurde dann im Zuge der genannten Fragestellung mittels einer Kombination von Formstruktur- und Themen- bzw. Themensenquenzanalyse der Stichtagssammlung der Ist-Zustand gemessen. Die Autopsie des Samples ergab große Übereinstimmungen bei der Seitengestaltung. Bezüglich der Themenselektion konnte zudem eine hohe Konveregenz konstatiert werden. Hier kristallisierten sich im Laufe der Betrachtung hauptsächlich zwei Zeitungstypen heraus: als dominierender Typ Erst- bzw. Hauptzeitungen, auflagenstarke nationale und regionale Set- wie Morgenzeitungen, die eine weite Bandbreite von Themen in überwiegend übereinstimmender Sequenz präsentieren, sowie Zweit- bzw. Nebenzeitungen, die nur Teile des Themenspektrums in unterschiedlicher Sequenz vorweisen. Die Analyseergebnisse führen zu dem Schluss, dass im japanischen Zeitungswesen auf breiter Basis ein bisher erfolgreiches Businessmodell kopiert wird und auch im allgegenwärtigen Wettbewerb der regionalen Zeitungen mit den nationalen Blättern nur ansatzweise Abwechslung zu erkennen ist. Die Fortsetzung der traditionellen gestalterischen Form, wie auch die Beibehaltung althergebrachter inhaltlicher Strukturen und thematischer Tendenzen beweisen, dass sich die allgemeinen japanischen Tageszeitungen eindeutig auf die älteren Leser als Zielgruppe konzentrieren und sich so zu einem Seniorenmedium wandeln.
Alt und Jung im Dialog
(2001)
Besonderheiten, die den intergenerationellen Dialog innerhalb wie auch außerhalb von Familien kennzeichnen, wurden in zwei empirischen Studien untersucht. Im Anschluß an eine umfangreiche Übersicht der einschlägigen Forschungsliteratur werden die Studien präsentiert, in denen Zusammenhänge zwischen Merkmalen dyadischer Beziehungskontexte und Aspekten des Dialogs, der in ihnen stattfindet, explorativ analysiert wurden. In der quasi-experimentellen Studie A wurde geprüft, ob Wahrnehmungen und Bewertungen eines fiktiven intergenerationellen Dialogs in Abhängigkeit seines Beziehungskontexts variieren. Jüngere (M = 22 Jahre; n = 164) und ältere Erwachsene (M = 74 Jahre; n = 139) bearbeiteten Textvignetten, in denen ein Dialog zwischen einer älteren Frau und ihrer Tochter oder aber einer professionellen Altenpflegerin wiedergegeben wurde. Die jüngere Protagonistin zeigte dabei entweder ein bevormundendes oder ein aufgabenorientiertes Sprechverhalten. Das Verhalten einer (fiktiven) Tochter wurde als respektvoller und wertschätzender beurteilt als das einer professionellen Altenpflegerin. Dies galt in der Stichprobe der älteren Erwachsenen vor allem für bevormundendes, in der Stichprobe der jüngeren Erwachsenen für aufgabenorientiertes Sprechverhalten. Im Einklang mit bisherigen Studien urteilten ältere Erwachsene generell milder über die Vignetten als jüngere, und bevormundendes Sprechverhalten wurde negativer bewertet als aufgabenorientiertes. Der Funktionsstatus der älteren Protagonistin erwies sich hingegen als irrelevant für Urteile über das an sie gerichtete Sprechverhalten. In der zweiten, explorativ angelegten Fragebogenstudie B wurden Aspekte der inhaltlichen Gestaltung des intergenerationellen Dialogs und deren systematische Zusammenhänge mit Indikatoren der Qualität intrafamilialer Generationenbeziehungen analysiert. In unabhängigen Stichproben von Erwachsenen im mittleren ("Kinder"; M = 45 Jahre, n = 299) und im höheren Lebensalter ("Eltern"; M = 71 Jahre, n = 244) wurde die perzipierte Häufigkeit erfaßt, mit der 15 ausgewählte Themen (z.B. "politische und gesellschaftliche Fragen", "Lebensführung des Kindes") im Gespräch mit einer der beiden Elternpersonen resp. mit dem ältesten Kind zur Sprache kommen. Aufgrund exploratorischer Faktorenanalysen wurden diese Angaben zu den Dimensionen "Narrativer Austausch" und "Regulativer Austausch" aggregiert. In multivariaten Auswertungen erwies sich ein häufiger narrativer Austausch als charakteristisch für "gute" Eltern-Kind-Beziehungen, die durch Zuneigung und hohe erlebte Wertschätzung seitens der anderen Generation gekennzeichnet waren. Ein häufiger regulativer Austausch deutete hingegen - vor allem in Verbindung mit einem reduzierten narrativen Austausch - auf eine eher konflikthafte Eltern-Kind-Beziehung hin.
Die Auswirkungen von Rahmenfehlern in Zensen werden bereits seit vielen Jahren untersucht. Eine Methode, um aktuelle Bevölkerungszahlen zu gewinnen, basiert auf Fortschreibung. Wegen Ungenauigkeiten in der Fortschreibung wurden aber auch andere Modelle entwickelt - die capture-recapture-Modelle. Am 29. August 2006 hat die Bundesregierung beschlossen, dass in Deutschland 2011 ein registergestützter Zensus durchgeführt wird. Der Schwerpunkt dieser Dissertation liegt in der Anwendung des capture-recapture-Modelles im deutschen Zensus 2011. Die Dissertation vergleicht den dual system estimator (DSE) und alternative Schätzer (Verallgemeinerter-Regressionsschätzer, Verhältnis-synthetischer Schätzer, Schätzer basierend auf dem Unit-level Modell) für die Schätzung der Anzahl der tatsächlich vorhandenen Personen. Die empirische Untersuchung der Güte der Schätzer basiert auf Monte Carlo Simulationen synthetischer Populationen des Bundeslandes Saarland.
In the past twenty years considerable research has focused on the distinction between implicit and explicit measures of retention. In implicit memory tests, subjects are asked to perform a task that is apparently not related to a previous study phase, e.g. to produce category exemplars or to complete word stems. Implicit memory is revealed when the previous exposure to stimuli facilitates later performance in the implicit memory task relative to a nonstudied baseline performance. Implicit memory tests are contrasted with explicit memory tests, such as recall or recognition that require an intentional recollection of previous experiences. So far, only few studies on the development of implicit memory have been published. Despite the relative paucity of research with children, findings have been quite consistent: While explicit memory improves with age, no age differences were found in implicit memory tests. In these studies, however, mainly perceptual implicit memory tests have been employed. In recent studies with adults, dissociations have been observed between different implicit tests, especially between perceptual and conceptual ones. To draw conclusions about the developmental invariance of priming from findings using only one single type of test thus seems premature. In the present study, six experiments have been conducted that compared the memory performances of preschoolers and school-aged children using conceptual implicit tests (category production and word association). Conceptual priming effects rely on conceptual knowledge and conceptual processes (e.g., organization, semantic elaboration). Age-related improvements were found in both conceptual tests. This finding is interpreted in the context of a more elaborated knowledge base and enhanced processing abilities of older children. In contrast to the hypothesis that implicit memory is in general age-invariant, the results of this study suggest that at least conceptual implicit memory is influenced by developmental changes.
Falsche Erinnerungen sind eine Gedächtnisillusion und dadurch gekennzeichnet, dass Ereignisse oder Informationen erinnert werden, die gar nicht stattgefunden haben bzw. präsentiert wurden. In der vorliegenden Arbeit wurde in insgesamt fünf Experimenten anhand des Deese/Roediger-McDermott- (DRM) Paradigmas untersucht, ob Vorschulkinder empfänglicher für falsche Erinnerungen sind als ältere Grundschulkinder und junge Erwachsene. Ausgehend von dem Aktivierungs-Monitoring Ansatz wurde darüber hinaus geprüft, inwieweit etwaige alterskorrelierte Veränderungen in falschen Erinnerungen auf Unterschiede in den Fähigkeiten zur Quellenkontrolle und/oder auf Unterschiede in der Wahrscheinlichkeit der Aktivierung der kritischen Wörter zurückgehen. Im ersten Experiment wurden neben einem abschließenden Wiedererkennenstest zwei verschiedene implizite Testverfahren eingesetzt, die nur Aktivierung ohne Quellenkontrolle erfassen. Da sich aus den Ergebnissen von Experiment 1 keine eindeutigen Schlüsse über alterskorrelierte Veränderungen der Aktivierungsstärke ziehen ließen und ein Indikator für die Quellenkontrolle eingesetzt werden sollte, wurden in den folgenden drei Experimenten explizite Testverfahren verwendet (Experiment 2: Freie Reproduktion, Experiment 3A und Experiment 3B: Wiedererkennenstest). Um die Aktivierung der kritischen Items ohne entgegenwirkende Quellenkontrolle zu prüfen, wurden Inklusionsinstruktionen erteilt. Die Quellenkontrolle wurde separat durch Nachbefragungen erfasst. Zur Förderung der Aktivierung bei Kindern, wurden in Experiment 3B und 4 spezielle Lerninstruktionen erteilt, die eine semantisch-relationale (3B) bzw. eine itemspezifische und semantisch-relationale Verarbeitung der Wortlisten verlangten (4). Im letzten Experiment (4) sollte die Quellenkontrolle differenzierter untersucht werden, in dem ein Quellentest eingesetzt wurde, der nach beiden möglichen Quellen fragte. In allen Experimenten zeigte sich eine geringe alterskorrelierte Zunahme der Aktivierung kritischer Items, aber deutliche alterskorrelierte Verbesserungen der Quellenkontrolle. Die Befunde zu falschen Erinnerungen in den verschiedenen Experimenten waren je nach Lern- und Testbedingung unterschiedlich: Die Ergebnisse deuteten sowohl auf eine alterskorrelierte Zunahme als auch auf eine alterskorrelierte Abnahme hin.
Zu den klassischen Verteilungen der mathematischen Statistik zählen die zentralen F- und t-Verteilungen. Die vorliegende Arbeit untersucht Verallgemeinerungen dieser Verteilungen, die sogenannten doppelt nichtzentralen F- und t-Verteilungen, welche in der statistischen Testtheorie von Bedeutung sind. Die Tatsache, dass die zugehörigen Wahrscheinlichkeitsdichten nur in Form von Parameterintegral- bzw. Doppelreihendarstellungen gegeben sind, stellt eine große Herausforderung bei der Untersuchung analytischer Eigenschaften dar. Unter Verwendung von Techniken aus der Theorie der vorzeichenregulären Funktionen gelingt es, die bisher vermutete, jedoch lediglich aus Approximationen abgeleitete, strikt unimodale Gestalt der Dichtefunktion für eine große Klasse doppelt nichtzentraler Verteilungen zu zeigen. Dieses Resultat gestattet die Untersuchung des eindeutig bestimmten Modus als Funktion gewisser Nichtzentralitätsparameter. Hier erweist sich die Theorie der vorzeichenregulären Funktionen als wichtiges Hilfsmittel, um monotone Abhängigkeiten nachzuweisen.
Psychotherapie hat sich in der Behandlung psychischer Störungen als wirksam erwiesen. Im Rahmen der klinisch-psychologischen Forschung und der Psychotherapieforschung sind die Erforschung von Ursachen und Mechanismen psychischer Störungen sowie die Identifikation von Wirkmechanismen von Psychotherapie von zentraler Bedeutung. Wichtiges Element in der Psychotherapie ist die Sprache, sodass die Betrachtung von Sprache bereits sehr früh Eingang in die Forschung fand. Beschäftigten sich frühe Forschungsarbeiten jedoch hauptsächlich mit der sehr zeitaufwendigen qualitativen Auswertung von Sprache, ermöglichen Entwicklungen im Bereich der Computer neue Ansätze wie beispielsweise die quantitative Sprachanalyse mittels Programmen wie dem Linguistic Inquiry and Word Count (LIWC). Dieses wörterbuchbasierte Auswertungsprogramm fand Anwendung in den unterschiedlichsten Bereichen wie beispielsweise der Erforschung von Motiven, Gruppenprozessen, Sprache in sozialen Netzwerken und ersten subklinischen Untersuchungen psychischer Störungen. Eine systematische Anwendung auf die Sprache von Patienten und Therapeuten im Rahmen vollständiger Therapiesitzung ist bislang jedoch nicht bekannt. Ziel der vorliegenden Arbeit war es deshalb in drei Projekten die Anwendbarkeit des Programmes in der klinisch-psychologischen Forschung und Psychotherapieforschung zu untersuchen. Das erste Projekt beschäftigte sich mit der Psychometrie von mittels LIWC ausgewerteter Sprache und fand, dass die Erkennungsraten des Wörterbuchs für die Sprache in Therapiesitzungen über den in der Literatur für das deutsche LIWC berichteten Erkennungsraten jedoch unter denen der aktuellsten englischen Versionen lag. Außerdem wurde angenommen, dass Sprache sowohl eine zeitlich stabile Komponente im Sinne eines Persönlichkeitsmerkmals als auch eine situative Komponente besitzt. Dies ist insbesondere vor dem Hintergrund relevant in der Psychotherapieforschung sowohl Patientenmerkmale als auch Veränderungen abbilden zu wollen. Die Arbeit ging davon aus, dass insbesondere Funktionsworte, also Worte, die Sprache strukturieren jedoch keine inhaltliche Bedeutung besitzen, eher individuell stabil sind, als Inhaltsworte. Entsprechend konnten für einige Wortkategorien ein Bifaktor-Modell mit einem Personen- sowie einem Zeitfaktor und adäquate Omega-Werte als Maß der Messgenauigkeit gefunden werden, für andere Kategorien zeigte sich dies nicht. Hypothesenkonform zeigten die Modelle bessere Passungen für Funktionsworte. Bezüglich der Frage nach der benötigten Länge von Sprachausschnitten aus Therapiesitzung erwies sich die Verwendung der gesamten Sitzung als beste Lösung. Im zweiten Projekt wurden Unterschiede in der Verwendung von Sprache zwischen depressiven Patienten, Patienten mit Angststörung und solchen mit beiden Störungsbildern untersucht. Es zeigten sich Unterschiede in Bezug auf Worte im Zusammenhang mit Traurigkeit und Worte im Zusammenhang mit Angst. Die Unterschiede zeigten sich derart, dass Depressive vermehrt mit Traurigkeit assoziierte Worte verwendeten, wohingegen Angstpatienten verstärkt Worte aus dem Bereich Angst verwendeten. Dies spricht für eine unterschiedliche inhaltliche Orientierung der beiden Störungsbilder. Darüber hinaus zeigten sich bei dimensionaler Betrachtung negative Zusammenhänge zwischen der Gesamtbelastung und Optimismus, positive Zusammenhänge Depression und Pronomengebrauch sowie negative Zusammenhänge zwischen Angst und unterschiedlichen Kategorien sozialer Worte. Im dritten Projekt wurden unterschiedliche weitere Fragestellungen der Psychotherapieforschung wie beispielsweise die Prädiktion von Therapieerfolgt mittels Sprache oder Zusammenhänge zwischen sprachlicher Synchronizität und der therapeutischen Beziehung untersucht. Es zeigten sich einzelne Zusammenhänge allerdings ergab sich kein einheitliches Muster. Die vorliegende Arbeit kommt zusammenfassend zu dem Schluss, dass quantitative Sprachanalyse eine Bereicherung der Psychotherapieforschung darstellt und Sprache als Datenquelle Berücksichtigung finden sollte. Allerdings bedarf es der Weiterentwicklung des LIWC sowie der Erprobung weiterer Verfahren und eine routinemäßige Erhebung von Sprache wird voraussichtlich erst im Zuge neuerer Entwicklungen im Bereich der automatischen Spracherkennung möglich werden.
Gegenstand der Dissertation ist die Rolle ideologischer Deutungsmuster in der politischen Auseinandersetzung um Arbeitsbeziehungen in Deutschland. Zunächst wird untersucht, inwiefern tendenziöses Entscheidungsverhalten von Richtern an deutschen Landesarbeitsgerichten und politische Einflussnahme auf die Rechtsprechung empirisch zu belegen sind. Mittels rechtsempirischer Analyse kann gezeigt werden, dass systematische Zusammenhänge zwischen persönlichen Merkmalen von LAG-Richtern und ihrem Entscheidungsverhalten bestehen. Während Einflussnahme von Seiten der Politik im Rahmen der verfügbaren Daten nicht nachweisbar ist, spricht die empirische Evidenz mithin dafür, dass neben rechtsimmanenten Kriterien auch individuelle Überzeugungen die Arbeitsrechtsprechung beeinflussen. Der zweite Teil der Dissertation befasst sich mit der Arena der Massenmedien. Anhand einer Inhaltsanalyse, die den Diskurs über Mitbestimmung in drei überregionalen deutschen Tageszeitungen für den Zeitraum von 1998 bis 2007 rekonstruiert, soll die Frage beantwortet werden, inwieweit die deutschen Massenmedien selbst als autonome politische Akteure in der Auseinandersetzung um Mitbestimmung zu betrachten sind. Die Ergebnisse deuten darauf hin, dass für das Agenda-Setting im Untersuchungszeitraum zwar eher generelle Nachrichtenfaktoren maßgeblich waren. Doch sowohl das Standing der verschiedenen Akteursgruppen als auch die Deutungsrahmen und Handlungsempfehlungen weisen zum Teil Differenzen zwischen den untersuchten Zeitungen auf, die nur als Ausdruck unterschiedlicher ideologischer Positionen erklärbar sind. Ob die Betriebswirtschaftslehre ihren eigenen wissenschaftstheoretischen Ansprüchen gerecht wird, ist Gegenstand des dritten Papiers. Mittels multivariater Analyse wird untersucht, inwieweit die Inhalte der marktführenden betriebswirtschaftlichen Zeitschriften in Deutschland von außerwissenschaftlichen Faktoren beeinflusst werden. Wie die Analyse ihrer Auseinandersetzung mit dem Shareholder-Value-Prinzip zeigt, ist die Betriebswirtschaftslehre offenbar nur bedingt in der Lage, dem Wertfreiheitspostulat zu genügen. Wirtschaftswissenschaftliches Denken muss zumindest in Teilen als Ausdruck subjektiver Maßstäbe und soziokultureller Rahmenbedingungen betrachtet werden, wird also von außerwissenschaftlichen Wertungen beeinflusst, die auch durch innerwissenschaftliche Diskussionsprozesse nicht eliminierbar sind.
In einer Fragebogenstudie (N = 694) wurden vollzeitbeschäftigte Arbeitnehmer online oder klassisch schriftlich befragt, welche Verzichte zugunsten der Schaffung neuer Arbeitsplätze in Deutschland sie aus welchen Motiven leisten würden. Die Arbeit geht in Abgrenzung zu dominierenden Rational-Choice-Modellen von einem Motivpluralismus aus, der das Spannungsfeld zwischen Eigeninteresse und Gemeinwohl fokussiert. Die Befunde zeigen, dass beide Motivgruppen unabhängig voneinander zur Prädiktion der Bereitschaften beitragen. Überdies zeigt sich eine systematische Überschätzung des Eigeninteresses für das Handeln anderer. Bei anderen wahrgenommene Motivationen haben nachweislich Einfluss auf die eigenen Handlungsbereitschaften. Eine spezifische Form der Ausbeutung gemeinsinnigen Handelns ist das Trittbrettfahren als Profitieren vom Engagement und Einsatz anderer, ohne selbst etwas beizutragen. Die Untersuchung zeigt, dass phänotypisch eigennütziges Verhalten wie Trittbrettfahren aus dem Motiv resultieren kann, individuelle Ungerechtigkeit gegenüber anderen zu vermeiden oder unsolidarisches Handeln anderer zu bestrafen.
Bauen und Wohnen sind Bereiche, aus denen ganz erhebliche Ressourcenbelastungen erwachsen. Daher sind Optimierungen in diesem Feld von großer gesellschaftlicher Bedeutung. Nach über 25 Jahren des Experimentierens und Forschens stehen genügend ausgereifte, finanzierbare Techniken und Maßnahmen zur Reduktion der Umweltbelastungen durch das Bauen und Wohnen zur Verfügung. Eine breite Umsetzung dieser Techniken und Maßnahmen beim Wohnungsneubau ist demgegenüber nicht auszumachen. Diese Arbeit beschäftigt sich mit der Erklärung dieser Kluft zwischen "Wissen und Handeln", am Beispiel des selbstgenutzten Wohnungsneubaus bei der Akteurgruppe der Architekten. Für die Erklärung dieser Lücke wird ein bereits vorhandenes individualpsychologisches Akteurmodell um Konstrukte aus der Ökonomie, der Planungswissenschaften und der Soziologie erweitert und spezifiziert bzw. für den speziellen Anwendungskontext modifiziert. Mit Hilfe von qualitativen Interviews (N = 25) werden die neuen und die angepassten Variablen und Itemsets auf ihre Verwendbarkeit bzw. Praktikabilität geprüft. Als Interviewpartner dienten Wissenschaftler, Architekten, Bauträger, Entscheider aus der Bauwirtschaft, Bauherren und Planer. Nach Abschluss dieser qualitativen Befragung wird ein Instrument für die quantitative Befragung, ein standardisierter Fragebogen für die Akteurgruppe Architekten, eingesetzt. Es werden 15 Konstrukte operationalisiert, der Fragebogen umfasst 192 Items. Für die Probandenakquise der Architekten stellte die Architektenkammer Rheinland-Pfalz die Adressen aller in der Kammer als Mitglieder eingetragenen Architekten der Regionen Trier, Westpfalz und Koblenz zur Verfügung. Insgesamt wurden 300 Fragebögen versandt und der Rücklauf bestand aus 220 verwertbaren Fragebögen. Die Auswertung der Erhebung erfolgt multivariat mit einer Koppelung von Faktorenanalyse, Korrelationsanalyse und Regressionsanalyse, A-priori werden verschiedene Hypothesen bezüglich der Ausprägung und Wirkungsweise der Variablen bzw. der Struktur des Modells getroffen. Allerdings herrscht keine Sicherheit über diese Beziehungszusammenhänge, dafür sind die eingesetzten Variablen zu unterschiedlich und auch zu zahlreich. Insofern sind sowohl strukturentdeckende, wie auch strukturprüfende Analysen nötig und daher wird ein mehrschrittiges Verfahren gewählt. Die Befunde widersprechen den Annahmen von Rational-Choice-Modellen, die in der Eigennutzorientierung im Sinne eines rationalen Kalküls das dominante oder gar einzige Motiv für umweltschützendes Verhalten erkennen. Bei Einsatz des gesamten erweiterten Modells, stellt sich heraus, dass eine grundsätzliche proökologische Werteinstellung ("Umweltschutz ist besonders wichtig") der stärkste Beweggrund für proökologisches Handeln von Architekten ist. Weitere wichtige Bedingungen sind die "Überlegenheit von Techniken und Maßnahmen" im Vergleich zum üblichen Standard, die "Empörung über zu wenig Umweltschutz", das Erkennen eigener Handlungsspielräume ("eigene Kontrolle") und die "technischen Risiken", die gering sein sollten. Ein ausgeprägter "Ärger über zu viel Umweltschutz" hat einen negativen Wirkungszusammenhang. Insgesamt kann festgestellt werden, dass das Handeln deutlich besser erklärt wird als die Handlungsabsichten. Außerdem ist die Menge der erklärenden Faktoren für das Handeln größer.
Die Dissertation untersucht den Anteil der Armutsthematik an der Etablierung des Kinos in Deutschland. Der Untersuchungsschwerpunkt konzentriert sich auf die Jahre 1907 bis 1913, einer entscheidenden Zeitspanne für die Institutionalisierung des Kinos als Medium sui generis. Ziel der Untersuchung ist es, anhand von Filmanalysen wiederkehrende Muster medialer Praktiken der kinematographischen Artikulation der Sozialen Frage zu eruieren und ihre thematische Relevanz bzw. ihren Anteil für die Etablierung des Kinos in Deutschland zu bestimmen. Im Fokus stehen die Medienprodukte, ihre Motivgestaltung und Inszenierungspraktiken.
In der Vorrede zur ersten Auflage von Die Welt als Wille und Vorstellung legt Arthur Schopenhauer dem Leser seines Werkes seine Absicht nahe, welche in der Mitteilung eines „einzigen Gedankens“ besteht. Doch dieser mitzuteilende Gedanke wird an keiner Stelle des Werkes explizit und direkt als solchen von Schopenhauer ausgesprochen und genannt. Dies gibt bis heute in der Schopenhauer-Forschung Anlass zu kontroversen Auseinandersetzungen: Wie lautet Schopenhauers „einziger Gedanke“? Wo befindet er sich konkret? Und ist er überhaupt mitteilbar?
Trotz zahlreicher Forschungsarbeiten zur Thematik des „einzigen Gedankens“ wurde bisher der Einfluss der indischen Philosophie, genauer des Oupnek’hat, vernachlässigt, obwohl genauestens nachgewiesen und nachgezeichnet werden kann, mit welchen Quellen sich Schopenhauer zum Zeitpunkt der Entstehung seiner Philosophie intensiv beschäftigt hat. Auch verweist er selbst immer wieder auf bestimmte Stellen aus dem Oupnek’hat und zitiert Passagen an ganz wesentlichen Stellen in seinem Werk.
Um den „einzigen Gedanken“ im Werk Schopenhauers erfassen zu können, reicht es nicht aus, nur vom Hauptwerk selbst auszugehen, sondern es müssen ebenfalls die Jahre und Schriften während der Entstehung seiner Philosophie bis zum Hauptwerk berücksichtigt werden, und damit verbunden auch die Quellen, die Schopenhauer beeinflusst haben, wozu insbesondere das Oupnek’hat samt seinen eigenen Randnotizen gehört.
Die organische Bodensubstanz (OBS) ist eine fundamentale Steuergröße aller biogeochemischen Prozesse und steht in engem Zusammenhang zu Kohlenstoffkreisläufen und globalem Klima. Die derzeitige Herausforderung der Ökosystemforschung ist die Identifizierung der für die Bodenqualität relevanten Bioindikatoren und deren Erfassung mit Methoden, die eine nachhaltige Nutzung der OBS in großem Maßstab überwachen und damit zu globalen Erderkundungsprogrammen beitragen können. Die fernerkundliche Technik der Vis-NIR Spektroskopie ist eine bewährte Methode für die Beurteilung und das Monitoring von Böden, wobei ihr Potential bezüglich der Erfassung biologischer und mikrobieller Bodenparameter bisher umstritten ist. Das Ziel der vorgestellten Arbeit war die quantitative und qualitative Untersuchung der OBS von Ackeroberböden mit unterschiedlichen Methoden und variierender raumzeitlicher Auflösung sowie die anschließende Bewertung des Potentials non-invasiver, spektroskopischer Methoden zur Erfassung ausgewählter Parameter dieser OBS. Dafür wurde zunächst eine umfassende lokale Datenbank aus chemischen, physikalischen und biologischen Bodenparametern und dazugehörigen Bodenspektren einer sehr heterogenen geologischen Region mit gemäßigten Klima im Südwesten Deutschlands erstellt. Auf dieser Grundlage wurde dann das Potential der Bodenspektroskopie zur Erfassung und Schätzung von Feld- und Geländedaten ausgewählter OBS Parameter untersucht. Zusätzlich wurde das Optimierungspotential der Vorhersagemodelle durch statistische Vorverarbeitung der spektralen Daten getestet. Die Güte der Vorhersagewahrscheinlichkeit gebräuchlicher fernerkundlicher Bodenparameter (OC, N) konnte für im Labor erhobene Hyperspektralmessungen durch statistische Optimierungstechniken wie Variablenselektion und Wavelet-Transformation verbessert werden. Ein zusätzliches Datenset mit mikrobiellen/labilen OBS Parametern und Felddaten wurde untersucht um zu beurteilen, ob Bodenspektren zur Vorhersage genutzt werden können. Hierzu wurden mikrobieller Kohlenstoff (MBC), gelöster organischer Kohlenstoff (DOC), heißwasserlöslicher Kohlenstoff (HWEC), Chlorophyll α (Chl α) und Phospholipid-Fettsäuren (PLFAs) herangezogen. Für MBC und DOC konnte abhängig von Tiefe und Jahreszeit eine mittlere Güte der Vorhersagewahrscheinlichkeit erreicht werden, wobei zwischen hohen und niedrigen Konzentration unterschieden werden konnte. Vorhersagen für OC und PLFAs (Gesamt-PLFA-Gehalt sowie die mikrobiellen Gruppen der Bakterien, Pilze und Algen) waren nicht möglich. Die beste Prognosewahrscheinlichkeit konnte für das Chlorophyll der Grünalgen an der Bodenoberfläche (0-1cm Bodentiefe) erzielt werden, welches durch Korrelation mit MBC vermutlich auch für dessen gute Vorhersagewahrscheinlichkeit verantwortlich war. Schätzungen des Gesamtgehaltes der OBS, abgeleitet durch OC, waren hingegen nicht möglich, was der hohen Dynamik der mikrobiellen OBS Parameter an der Bodenoberfläche zuzuschreiben ist. Das schränkt die Repräsentativität der spektralen Messung der Bodenoberfläche zeitlich ein. Die statistische Optimierungstechnik der Variablenselektion konnte für die Felddaten nur zu einer geringen Verbesserung der Vorhersagemodelle führen. Die Untersuchung zur Herkunft der organischen Bestandteile und ihrer Auswirkungen auf die Quantität und Qualität der OBS konnte die mikrobielle Nekromasse und die Gruppe der Bodenalgen als zwei mögliche weitere signifikante Quellen für die Entstehung und Beständigkeit der OBS identifizieren. Insgesamt wird der mikrobielle Beitrag zur OBS höher als gemeinhin angenommen eingestuft. Der Einfluss mikrobieller Bestandteile konnte für die OBS Menge, speziell in der mineralassoziierten Fraktion der OBS in Ackeroberböden, sowie für die OBS Qualität hinsichtlich der Korrelation von mikrobiellen Kohlenhydraten und OBS Stabilität gezeigt werden. Die genaue Quantifizierung dieser OBS Parameter und ihre Bedeutung für die OBS Dynamik sowie ihre Prognostizierbarkeit mittels spektroskopischer Methoden ist noch nicht vollständig geklärt. Für eine abschließende Beurteilung sind deshalb weitere Studien notwendig.
Die Ménage-Polynome (engl.: ménage hit polynomials) ergeben sich in natürlicher Weise aus den in der Kombinatorik auftretenden Ménage-Zahlen. Eine Verbindung zu einer gewissen Klasse hypergeometrischer Polynome führt auf die Untersuchung spezieller Folgen von Polynomen vom Typ 3-F-1. Unter Verwendung einer Modifikation der komplexen Laplace-Methode zur gleichmäßigen asymptotischen Auswertung von Parameterintegralen sowie einiger Hilfsmittel aus der Potentialtheorie der komplexen Ebene werden starke und schwache Asymptotiken für die in Rede stehenden Polynomfolgen hergeleitet.
Im Rahmen der vorliegenden Dissertation wurden aus den umfassenden Daten der Umweltprobenbank des Bundes relative Vergleichsstandards abgeleitet, welche als Referenzsystem die allgemeine Belastungssituation und deren zeitliche Entwicklung in der Bundesrepublik widerspiegeln, eine Bewertung von gemessenen Schadstoffkonzentrationen in biologischen Matrizes sowie biometrischer Parameter der eingesetzten Bioindikatoren ermöglichen. Anhand der biometrischen Daten des Brassen und der rückstandsanalytischen Daten der Brassenmuskulatur wurde dieses Referenzsystem für die limnischen Systeme in der Bundesrepublik konzeptioniert und umgesetzt. Es handelt sich um ein Fünf-Klassen-System, bei dem die fünf Referenzbereiche durch vier Referenzwerte voneinander abgegrenzt werden. Die Referenzwerte sind aufgrund der repräsentativen Datenbasis in der Lage, die allgemeine Belastungssituation in der Bundesrepublik abzubilden. Da sie sich nur auf einen zweijährigen Bezugszeitraum beziehen und ständig fortgeschrieben werden, kann die zeitliche Entwicklung der allgemeinen Belastungssituation hervorragend dargestellt werden. Aufgrund ihrer rein naturwissenschaftlichen Basis sind Referenzwerte als Umweltqualitätskriterien zu verstehen. Mit den rückstandsanalytischen Umweltqualitätkriterien kann der stoffbezogene Gewässerzustand anhand von Bioindikatoren qualitativ bewertet werden, was eine deutliche Optimierung im stoffbezogenen Gewässerschutz darstellt. Zudem können die Referenzwerte als eine Basis für die Ableitung von hoheitlichen Umweltqualitätsstandards in Rechtsnormen herangezogen werden. Ergänzt werden die stoffbezogenen Umweltqualitätskriterien durch biometrischen Kenngrößen, die eine qualitative Bewertung der Lebensbedingungen des Bioindikators Brassen erlauben.
Die vorliegende Arbeit beschreibt ausgewählte Bereiche des Stadtklimas von Trier. Anhand von langjährigen meteorologischen Messreihen ist eine Bewertung der klimatologischen Gegebenheiten für das Stadtgebiet von Trier möglich. Trenduntersuchungen der Datenreihen des Niederschlags zeigen positive Niederschlagstrends für die meteorologischen Wintermonate. Die Intensität der urbanen Wärmeinsel der Stadt Trier wurde mittels mehrerer Temperaturmessfahrten untersucht und bewertet. Es treten in den Wintermonaten maximale Differenzen von bis zu 5,5 -°C zwischen dem unbebauten Umland und den Innenstadtbereichen auf. Von der erhöhten thermischen Belastung während ausgewählter Wetterlagen sind vor allem die Anwohner der Innenstadtbereiche in den Sommermonaten betroffen. Zusätzlich fand eine Bewertung der thermischen Belastung mittels verschiedener thermischer Indizes statt. Die Auswertungen von Klimaprojektionen für den Untersuchungsraum zeigen eine starke Zunahme der thermischen Belastung ab Mitte des 21. Jahrhunderts. Die Auswirkungen des Sommers 2003 auf die Bevölkerung von Trier wurde anhand von Mortalitätsdaten von JUNK ET AL. (2007) analysiert. Die Kosten des Klimawandels (Temperaturzunahme bis 2100 um 4,5 -°C) in den kommenden 50 Jahren beziffert eine Studie des Deutschen Institutes für Wirtschaftsforschung auf rund 80 Milliarden Euro für Rheinland-Pfalz. Auch wenn diese Abschätzungen mit starken Unsicherheiten behaftet sind, so wird dringender Handlungsbedarf deutlich. Vor dem Hintergrund des Klimawandels und der zunehmenden Urbanisierung muss sich auch im Bereich der Stadtplanung und der Verwaltung von urbanen Agglomerationsräumen das Prinzip der Nachhaltigkeit in allen Skalenbereichen durchsetzen. Übertragen auf den Bereich der Stadtklimatologie heißt das, dass dies auf die Ressourcen saubere Luft, angemessener Flächen- und Energieverbrauch verbunden mit Luft-schadstoffemissionen, Recht auf Mobilität usw. übertragen werden muss. Im Vordergrund steht dabei eine Entkopplung des Ressourcenverbrauchs von dem wirtschaftlichen Wachstum durch technische Innovation, effizientere Technologien und verändertes individuelles Verhalten. Bezüglich der lufthygienischen Situation im Stadtbereich von Trier konnten Partikel und Stickoxide als wichtige Schadstoffe identifiziert werden. Da die Auswertungen der Luftschadstoffe auf die Datensätze des ZIMEN-Messnetzes beschränkt sind, können keine Aussagen über Inhaltsstoffe von Partikeln getroffen werden. Für die untersuchten Luftschadstoffe CO, SO2, NOx, O3 und PM10 treten in den letzten Jahren keine Grenzwertüberschreitungen auf, jedoch liegen die gemessenen Werte nur geringfügig unter diesen und überschreiten teilweise die unteren- und oberen Beurteilungsschwellen. Die Auswertungen des wirkungsbezogenen Luftqualitätsindex DAQx zeigen, dass in der Mehrheit der Fälle Feinstaub der bestimmende Luftschadstoff ist. Die Analyse der mittleren Mortali-tätszahlen zeigt, das bei DAQx-Werten > 4,0 (ausreichende Luftqualität) die Anzahl der täglichen Mortalitätsfälle über den Durchschnitt von 5,74 Fällen pro Tag steigt. Der Klimawandel wird auch direkte Auswirkungen auf die Luftschadstoffbelastung haben. Dies geschieht über die Veränderung der Windverhältnisse, Änderungen in der Höhe der Mischungsschicht sowie Änderungen in der Frequenz und Zugbahn von Tiefdruckgebieten. Veränderte Niederschlagsmuster beeinflussen die nassen und trockenen Depositionsraten, und die prognostizierte Temperaturerhöhung beeinflusst die chemischen Bildungs- und Abbauprozesse in der Atmosphäre, sowie die natürlichen Emissionsquellen. Der Einfluss des zu erwartenden Temperaturanstieges auf die Ozonkonzentrationen in urbanen Gebieten lässt sich gut einschätzen, da während Episoden mit hohen Ozonkonzentrationen eine signifikante Korrelation zwischen der Lufttemperatur und der Ozonkonzentration besteht. Studien zeigen einen Anstieg der Ozonkonzentration zwischen 2 -µg/m-³ und 20 -µg/m-³ pro Grad Kelvin in Abhängigkeit des Emissionsszenarios, der verwendeten Modelle und der untersuchten Region aus. Die urbanen Ballungsräume werden von diesem Ozonanstieg stärker betroffen sein, da dort genügend Ozonvorläufersubstanzen vorhanden sind. Der Einfluss auf die Partikelkonzentrationen ist schwieriger zu beurteilen, da keine klaren Zusammenhänge zwischen der Lufttemperatur und den Partikelkonzentrationen bestehen. Insgesamt ist tendenziell mit einer Stagnation bis hin zu einer kurzzeitigen Verschlechterung der Luftqualität zu rechnen. Deswegen reicht die bereits erwähnte alleinige Berücksichtigung der thermischen Gegebenheiten in einem Warnsystem nicht aus. Es geht vielmehr um die integrative Bewertung der potentiellen Gefahrensituation für die Bevölkerung und die situationsbezogene Auslösung von Interventionsmaßnahmen und Aktionsplänen. Ein solches System wird derzeit für die Modellregion Esch-sur-Alzette in Luxemburg erstellt und wird 2011 in die Pilotphase eintreten.
In Mitteleuropa steigt der Anteil befestigter und damit zumeist undurchlässiger Oberflächen durch Flächenerschließung und Urbanisierung stetig. Die Verdichtung und Befestigung natürlicher Oberflächen und das einhergehende Sammeln und Abführen des Niederschlagswassers vergrößert nicht nur den Oberflächenabfluss, sondern reduziert auch die Grundwasserneubildung. Das an Regenwettertagen anfallende Oberflächenwasser von befestigten Flächen wird zwar in den Kanalnetzen gesammelt, kann jedoch nicht vollständig zur Kläranlage abgeführt werden. Das überschüssige Wasser im Kanalsystem wird dann an neuralgischen Punkten dem nächstgelegenen Gewässer zugeleitet. Auf diese Weise gelangt eine große Bandbreite an Substanzen in die Gewässer und beeinflusst den natürlichen Stoffhaushalt. Häufig sind kleine und mesoskalige Gewässersysteme in Ballungsräumen mit einem hohen Versiegelungsgrad betroffen. Neben der schadlosen Ableitung des Ereignisabflusses tritt im Zuge der Umsetzung der Europäischen Wasserrahmenrichtlinie (WRRL, 2000/60/EG) das Ziel des guten ökologischen und chemischen Zustandes des Gewässers in den Vordergrund. Mit Blick auf die Reduktion von angereichertem und vermischtem Niederschlagswasser in den Gewässern ist das Niederschlagswassermanagement das wichtigste Instrument. Die vorliegende Arbeit betrachtet beispielhaft zwei mesoskalige, urban geprägte Gewässer in der Großregion Luxemburg-Trier, die luxemburgische Mess und den deutschen Olewiger Bach. Dabei werden ebenfalls zwei unmittelbar durch Trenn- und Mischwasserkanalisation beeinflusste Teileinzugsgebiete des Olewiger Bachs untersucht. Ziel ist es, die Auswirkungen der urbanen Einleitungen an Regenwettertagen in den verschiedenen Phasen der Hochwasserwelle (Anstieg, Plateau und Rezessionsast) zu analysieren. Ein Schwerpunkt wird dabei auf den Nachweis anthropogener Spurenstoffe sowie wiederkehrende Strukturen im Wellenverlauf gelegt. Die Untersuchung der urban geprägten Bäche erfolgt mit zeitlich hochaufgelösten Einzelstichproben. Im Gegensatz zur gängigen Beprobung mittels volumen-proportionaler Mischproben kann mit diesem Ansatz der Einfluss der anthropogenen Systeme auf Hydro- und Chemographen im Hochwasserereignis analysiert werden. Auch Stoßbelastungen werden besser erfasst und abgebildet. In allen Untersuchungsgebieten werden in jeder Hochwasserwelle anthropogene Spurenstoffe nachgewiesen. Die Konzentrationen variieren sowohl während eines Hochwasserereignisses, als auch im Vergleich zwischen Ereignissen erheblich. Die nachgewiesenen Maximalkonzentrationen in Mess und Olewiger Bach übersteigen die mittleren Gehalte der einzelnen Spurenstoffe um das zwei bis 30-fache. Einige Pestizidgehalte in der Mess überschreiten zudem zeitweise die Grenzwerte der Umweltqualitätsnormen Richtlinie (UQN, 2008/105/EG). Die größten stofflichen Belastungen in Form maximaler Spurenstoffgehalte treten in der Regel bei mäßigen Niederschlagsereignissen in Kombination mit geringem Basisabfluss im Gewässer auf. Die Gesamtfracht hingegen steigt meist mit der Ereignisfülle. Die hydraulischen und stoffrelevanten Auswirkungen an der Schnittstelle von Kanal und Gewässer lassen sich in vielen urban geprägten Bächen wiederfinden. Diese Einleitungen an Regenwettertagen sind bedeutsam für die Komplexität des Abflussverhaltens sowie die Chemodynamik der betroffenen Vorfluter. Die Ergebnisse zeigen, dass es zukünftig mit Blick auf ein erfolgreiches Einzugsgebietsmanagement notwendig ist, die Niederschlagswasserbewirtschaftung in die Maßnahmenplanung einzubeziehen. Bei urbanen Gewässern muss darauf geachtet werden, dass die Maßnahmen zur Verbesserung des chemischen und ökologischen Zustandes nach der WRRL nicht im Konflikt mit der schadlosen Ableitung des Niederschlagswassers stehen. Vor allem hinsichtlich der stofflichen Dynamik, welche in der Regel mittels volumenproportionaler Mischproben untersucht wird, besteht weiterer Forschungsbedarf.
Seit seiner Unabhängigkeit erfreut sich Namibia als Reiseziel weltweit wachsender Beliebtheit, wodurch der Tourismus wirtschaftlich einen hohen Stellenwert hat. Zugleich lebt ein Großteil der Bevölkerung in Armut und ist zumeist noch immer von der Landwirtschaft abhängig. Diese dominiert flächenmäßig, zur Wertschöpfung und zur Entwicklung des Landes vermag sie allerdings nur wenig beizutragen. Kam im ariden Namibia ehemals nur Ranching als Landnutzung in Frage, sehen sich Landbesitzer wegen verschlechterter Rahmenbedingungen heute gezwungen, weitere Einkommensquellen zu erschließen. Naturtourismus ist eine der Alternativen. Ausgerechnet die wirtschaftlichen Schwächen der ländlichen Regionen mit naturnahen Landschaften, geringer anthropogener Überformung und der Abwesenheit von Industrie ermöglichen einzigartige Naturerlebnisse und stellen damit die Grundlage für Naturtourismus dar. Im Fokus der vorliegenden Studie stehen daher die Landnutzungen Ranching und Naturtourismus, die beide auf dem natürlichen Potenzial des Landes basieren und zugleich räumlich um die gleichen Flächen konkurrieren. Ziel ist die Bewertung der Auswirkungen beider Landnutzungen im Vergleich, um somit die für einen Raum am besten geeignete Nutzungsoption zu identifizieren und Verbesserungspotentiale bei der Ausgestaltung der untersuchten Landnutzungen aufzuzeigen. Die Erkenntnisse aus der einschlägigen Fachliteratur legen die Hypothese nahe, dass Naturtourismus im Vergleich zum Ranching die besser geeignete Landnutzung darstellt. Den theoretischen Rahmen zur Identifizierung der besser geeigneten Landnutzung bildet das Nachhaltigkeitskonstrukt, das wie jedes andere Theorem nicht unmittelbar mess- oder beobachtbar, sondern nur indirekt mit Hilfe von Indikatoren operationalisierbar ist. Die Mehrzahl der 34 insgesamt verwendeten Indikatoren entstammt dem Set der Vereinten Nationen. Alle verwendeten Indikatoren fanden Anwendung in einer für diese Arbeit auf Unternehmensebene adaptierten Version. Um den physischen wie humangeographischen Besonderheiten Namibias (Verfügbarkeit von Wasser, Namibia als Entwicklungsland etc.) gerecht zu werden, wurden zusätzliche Indikatoren für den regionalen Kontext der Studie konzipiert. Entsprechend dem Erkenntnisinteresse, unter Nachhaltigkeitsaspekten die am besten geeignete Landnutzung zu identifizieren, wurden anhand eines umfangreichen methodischen Kanons die empirischen Untersuchungen durchgeführt. Ausgangspunkt hierfür waren Erhebungen in Namibia, die in der Etosha-Region unmittelbar südlich der Kommunalgebiete stattfanden. Methodisch kamen dafür vorrangig quantitative Methoden zum Einsatz, wobei standardisierte Fragebögen als primäre Erhebungsinstrumente konzipiert wurden. Diese wurden von Expertengesprächen, Beobachtungen, Kartierungen und Sekundärdatenanalysen flankiert. Die Erkenntnisse aus den Erhebungen erlauben Aussagen für weite Gebiete Namibias mit vergleichbaren Bedingungen. So bestehen - entsprechend der Forschungshypothese - eindeutige Vorteile des Naturtourismus gegenüber dem Ranching hinsichtlich der betrachteten Landnutzungsauswirkungen, womit der Naturtourismus unter Nachhaltigkeitsaspekten die besser geeignete Landnutzung ist. Vor allem im Bereich der Sozialindikatoren überzeugen die Auswirkungen: Soziale Sicherheit, Wohnbedingungen (Elektrizität, Sanitäreinrichtungen, Wasserversorgung etc.), sozio-ökonomische Aufstiegschancen und die Mitarbeiterzufriedenheit sind zugunsten des Naturtourismus zu werten. Auch im Ökonomischen liegen die Vorteile bei dieser Landnutzung, wobei ein Aspekt negativ auffällt: Vor allem in puncto Regionalökonomie besteht im Tourismus Verbesserungsbedarf. Denn sowohl die Angestelltenrekrutierung als auch die Versorgung mit Waren und Dienstleistungen erfolgt mehrheitlich überregional. Dahingehend sind die Auswirkungen des Ranching als vorteilhafter anzusehen. Wie die Erhebungen ferner belegen, nimmt die Bedeutung des ausschließlichen Ranching aufgrund von Rentabilitätsproblemen auf kommerziellem Farmland sukzessive ab, stattdessen weisen Ländereien zumeist mehr als nur ein wirtschaftliches Standbein auf. Daher ist hinsichtlich der Landreform zu kritisieren, dass Neufarmer - wenn überhaupt - nur auf das Ranching vorbereitet werden. Wie die Erhebungen zeigen: eine wenig zeitgemäße Landnutzungsstrategie. Ein im Rahmen der Arbeit entwickeltes und ihr beiliegendes Farmrentabilitätstool verdeutlicht auf Basis einer Vielzahl vom Nutzer veränderlicher Einstellungen, wie schwierig die rentable Bewirtschaftung von Ranches heute ist.
Insekten stellen die artenreichste Klasse des Tierreichs dar, wobei viele der Arten bedroht sind. Das liegt neben dem Klimawandel vor allem an der sich in den letzten Jahrzehnten stark verändernden landwirtschaftlichen Nutzung von Flächen, was zu Lebensraumzerstörung und Habitatfragmentierung führt. Die intensivere Bewirtschaftung von Gunstflächen einerseits, sowie die Flächenaufgabe unrentabler Flächen andererseits, hat schwerwiegende Folgen für Insekten, die an extensiv genutzte Kulturflächen angepasst sind, was besonders durch den abnehmenden Anteil an Spezialisten deutlich wird. Eine Region, die aufgrund des kleinräumigen Nebeneinanders von naturnahen Bereichen und anthropogen geschaffenen Kulturflächen (entlang eines großen Höhengradienten) eine wichtige Rolle für die Biodiversität besitzt, speziell als Lebensraum für Spezialisten aller Artengruppen, sind die Alpen. Auch hier stellt der landwirtschaftliche Nutzungswandel ein großes Problem dar, weshalb es einen nachhaltigen Schutz der extensiv genutzten Kulturlebensräume bedarf. Um zu klären, wie eine nachhaltige Berglandwirtschaft zukünftig erhalten bleiben kann, wurden im ersten Kapitel der Promotion die Regelungsrahmen der internationalen, europäischen, nationalen und regionalen Gesetze näher betrachtet. Es zeigt sich, dass der multifunktionale Ansatz der Alpenkonvention und des zugehörigen Protokolls „Berglandwirtschaft“ nur eine geringe normative Konkretisierung aufweisen und daher nicht im ausreichenden Maße in der Gemeinsamen Agrarpolitik der EU sowie im nationalen Recht umgesetzt werden; dadurch können diese einer negativen Entwicklung in der Berglandwirtschaft nicht ausreichend entgegenwirken. Neben diesen Rechtsgrundlagen fehlt es jedoch auch an naturwissenschaftlichen Grundlagen, um die Auswirkungen des landwirtschaftlichen Nutzungswandels auf alpine und arktische Tierarten zu beurteilen. Untersuchungen mit Charakterarten für diese Kulturräume sind somit erforderlich, wobei Tagfalter aufgrund ihrer Sensibilität gegenüber Umweltveränderungen geeignete Indikatoren sind. Deshalb wurden im zweiten Kapitel der Promotion die beiden Schwestertaxa Boloria pales und B. napaea untersucht, die für arktische und / oder alpine Grünlandflächen typisch sind. Die bisher unbekannte Phylogeographie beider Arten wurde daher mit zwei mitochondrialen und zwei Kerngenen über das gesamte europäische Verbreitungsgebiet untersucht. In diesem Zusammenhang die zwischen- und innerartlichen Auftrennungen analysiert und datiert sowie die ihnen unterliegenden Ausbreitungsmuster entschlüsselt. Um spezielle Anpassungsformen an die arktischen und alpinen Lebensräume der Arten zu entschlüsseln und die Folgen der landwirtschaftlichen Nutzungsänderung richtig einordnen zu können, wurden mehrere Populationen beider Arten freilandökologisch untersucht. Während B. pales über den gesamten alpinen Sommer schlüpfen kann und proterandrische Strukturen zeigt, ist B. napaea durch das Fehlen der Proterandie und ein verkürztes Schlupfzeitfenster eher an die kürzeren, arktischen Sommer angepasst. Obwohl beide Arten die gleichen Nektarquellen nutzen, gibt es aufgrund verschiedener Bedürfnisse Unterschiede in den Nektarpräferenzen zwischen den Geschlechtern; auch innerartliche Unterschiede im Dispersionsverhalten wurden gefunden. Populationen beider Arten können eine kurze Beweidung überleben, wobei der Zeitpunkt der Beweidung von Bedeutung ist; eine Nutzung gegen Ende der Schlupfphase hat einen größeren Einfluss auf die Population. Daneben wurde ein deutlicher Unterschied zwischen Flächen mit langfristiger und fehlender Beweidung gefunden. Neben einer geringen Populationsdichte, gibt es auf ganzjährig beweideten Flächen einen größeren Druck, den Lebensraum zu verlassen und die zurückgelegten Flugdistanzen sind hier auch deutlich größer.
Im Lebensrückblick wird bedeutsamen Ereignissen lebensgeschichtliche Bedeutung zugeschrieben; diese werden sodann als zugehörig zur eigenen Person und Lebensgeschichte wahrgenommen. Dieser Vorgang wurde als "Stiftung von Kohärenz" bezeichnet und für ein zurückliegendes belastendes Ereignis explorativ untersucht. In einer Fragebogenerhebung mit Daten von insgesamt N = 260 Probanden im Alter zwischen 41 und 86 Jahren wurde die Stiftung von Kohärenz für ein belastendes Ereignis daraufhin untersucht, inwieweit diese mit verschiedenen Formen der gedanklichen Auseinandersetzung mit dem Ereignis zusammenhängt. Weiterhin wurden die Zusammenhänge der Kohärenzstiftung mit ereignisbedingten Veränderungen des Selbstbildes und bestimmter Lebensumstände sowie mit Merkmalen des Ereignisses und der Person exploriert.
Ziegel waren im 19. und 20. Jahrhundert der bevorzugte Baustoff. Sie wurden für den Ausbau der Städte in heute kaum noch vorstellbaren Mengen nachgefragt, da sie preiswert und in Massen verfügbar waren. Das stabile Baumaterial erwies sich zudem in Form, Farbe und Ornamentik als vielseitig einsetzbar. Die Bedeutung des Ziegels lässt sich besonders gut an den Fassaden der gründerzeitlichen Berliner Stadtquartiere able-sen. Im Rahmen der vorliegenden Arbeit wird die städtebauliche Entwicklung Berlins einführend dargestellt, um aufzuzeigen, welche Auswirkungen sich daraus für das bran-denburgische Umland ergaben. Das an der oberen Havel in Nordbrandenburg gelegene Zehdenicker Revier profitierte von dieser Entwicklung und nahm als Standort der Ziegelindustrie im Deutschen Reich eine besondere Stellung ein. Handwerkliche Verfahren der Ziegelherstellung waren Ende des 19. Jahrhunderts zunehmend durch industrielle Massenproduktion abgelöst worden. 1887 wurden nördlich der Kleinstadt Zehdenick zufällig reichhaltige Tonlagerstätten an der Havel entdeckt. Die neugeborene Industriestadt stieg innerhalb weniger Jahre zum Zentrum der Märkischen Ziegelindustrie auf. Bis 1913 wurden 63 Hoffmannsche Ring-öfen nördlich von Zehdenick errichtet, mit denen bis zu 500 Millionen Ziegel pro Jahr gebrannt werden konnten. Nach dem Zweiten Weltkrieg entwickelte sich der VEB Zie-gelwerke Zehdenick zum bedeutendsten Ziegelhersteller in der DDR. Noch bis 1990 be-stimmten historische Ringofenziegeleien das Landschaftsbild im Revier. Die Ziegelferti-gung endete mit der Wiedervereinigung Deutschlands. Untersuchungsgegenstand der Dissertation ist das Erbe der Zehdenicker Ziegelindustrie und die von ihr geprägte Kulturlandschaft, die nicht nur erhebliche geschichtliche Bedeu-tung für den Aufbau Berlins vor 1945 sondern auch für die Baustoffindustrie in der der DDR hat. Bislang wurde dieses Kulturgut kaum erforscht. Aus diesem Grund erfolgte zunächst eine grundlegende Inventarisierung der persistenten Relikte, die erfasst, be-schrieben, in ihrer Erscheinung erklärt und hinsichtlich ihrer touristischen Verwendbarkeit bewertet wurden. Es konnte dadurch festgestellt werden, dass derzeit noch ein reichhal-tiges bauliches Erbe der Ziegelindustrie im Untersuchungsraum existiert. Dieses bedeutende Erbe wird bislang erst in Ansätzen durch den Tourismus genutzt, zumal in den westlichen Industrieländern nur noch wenige Hoffmannsche Ringöfen erhal-ten geblieben sind. Die Arbeit zeigt auf, dass die mittlerweile vollständig gefluteten Ton-tagebauten und Teile der historischen Kulturlandschaft mit ihrem Formenschatz - Relikte der Aufbereitung, der Freilufttrocknung, Produktions- und Wohngebäude oder Häfen - eine hohe Relevanz für den Erholungs- und Kulturtourismus aufweisen. Kulturtouristisch erschlossen wurde bislang einzig der Ziegeleipark Mildenberg, der pro Jahr etwa 40.000 Besucher zählt. Sein besucherorientiertes Angebot wurde im Rahmen der Dissertation analysiert und bewertet. Er stellt bislang eine inselartige Erschließung dar, die den histo-rischen Dimensionen des Reviers mit seinen vielen Standorten nicht entspricht. Die Arbeit liefert wesentliche Grundlagen für die Konzeption einer kulturtouristischen Erschließung der gesamten Zehdenicker Tonstichlandschaft unter Nutzung und Wahrung ihrer authentischen Relikte und regionalen Spezifik. Sie schließt mit konkreten Vorschlä-gen für eine gezielte Erhaltung und Pflege dieses Erbes unter besonderer Berücksichti-gung des Kulturtourismus. Dabei fließen Erfolgsmuster tourismusrelevanter Nutzungs-formen vergleichbarer Standorte in Deutschland und in Belgien, die durch eigene Re-cherchen und Expertengespräche mit Vertretern bedeutender Ziegeleimuseen ermittelt wurden, mit ein. Noch wäre es möglich, den seit 1990 fortschreitenden Verfall dieses Kulturgutes aufzu-halten, vor weiterer Zerstörung zu schützen und die wertvolle Substanz der industriellen Vergangenheit inwertzusetzen.
Die Dissertation beabsichtigt, einen Beitrag zur Verbesserung des Umweltzustands der pal. Industrie durch die Durchführung des UMS zu leisten. Auf dieser Grundlage wurde analysiert, welche Schritte und Maßnahmen unter Berücksichtigung des Umweltzustands in Palästina erforderlich sind, um ein UMS wie EMAS und ISO 14001 in der pal. Industrie implementieren zu können.
Erst seit Ende der 80er Jahre wird der bilinguale Bildungsgang, der seit nunmehr 30 Jahren in der Praxis umgesetzt wird, vor allem von der professionellen Fremdsprachendidaktik und Sprachlernforschung an Universitäten und Instituten beachtet. Die vorliegende Arbeit präsentiert mit der Exploration und Evaluation des bilingualen Geographieunterrichts Grundlagenforschung aus dem Blickwinkel der Geographiedidaktik. Dabei wird die Wahrnehmung, Einschätzung und Bewertung des bilingualen Erdkundeunterrichts an Gymnasien in Rheinland-Pfalz durch die Schülerschaft mittels quantitativer und qualitativer Methoden erforscht. Zunächst werden theoretische Überlegungen und Ansätze zum bilingualen Geographieunterricht diskutiert und mögliche Fragestellungen formuliert, die im Forschungs- bzw. Erkenntnisinteresse der Geographiedidaktik liegen könnten. Zudem wird ein Überblick zum Forschungsstand gegeben. Zum interkulturellen Lernen findet eine vertiefte Darstellung statt, da bilinguale Züge, d. h. ausgeprägtere und international als "deutsches Modell" bekannt gewordene Bildungsgänge, insbesondere als eine willkommene Möglichkeit des Erwerbs einer vertieften kommunikativen und interkulturellen Kompetenz betrachtet werden. Aus den theoretischen Überlegungen leiten sich die in den Studien untersuchten Fragestellungen ab. Die inhaltlichen Schwerpunkte der quantitativen Studie liegen in einer komparativen Betrachtung des bilingualen und regulären Erdkundeunterrichts durch bilinguale und nicht bilinguale Schüler. In der qualitativen Studie wird die durch die Fragebogenauswertung gewonnene Schülersicht durch subjektive Sichtweisen bzw. Theorien, die erfahrungs- und alltagsnah sind, vertieft. Diese subjektiven Theorien basieren auf Interviews. Aufgrund des umfangreichen Vorgehens werden in der Auswertung nur ausgewählte subjektive Theorien detailliert präsentiert und die übrigen Einzelfälle lediglich in reduzierter Form vorgestellt. In einer anschließenden Gesamtschau erfolgt die Auswertung aller Interviews in Bezug auf einzelne Aspekte des bilingualen Erdkundeunterrichts. Zudem werden Überlegungen der Interviewteilnehmer im Zusammenhang mit dem für den bilingualen Unterricht propagierten Leitziel des interkulturellen Lernens vorgestellt. Abschließend werden wesentliche Schlussfolgerungen der gesamten Forschungsarbeit, insbesondere Empfehlungen für zukünftige Forschungsfelder und -methoden, dargelegt
In der vorliegenden Dissertation wurde Belohnungssensitivität mit Spielverhalten und elektrophysiologischen Korrelaten wie dem Ruhe-EEG und ereigniskorrelierten Potenzialen auf Feedback-Reize in Verbindung gebracht. Belohnungssensitivität ist nach der zugrundeliegenden Definition als Konstrukt mit mehreren Facetten zu verstehen, die eng mit Extraversion, positiver Affektivität, dem Behavioral Activation System, Novelty Seeking, Belohnungsabhängigkeit und Selbstwirksamkeit assoziiert sind. Bei der Untersuchung einer spezifischen Spielsituation, in der 48 gesunde Studentinnen durch eigene Entscheidungen Belohnungen erhalten konnten, zeigte sich, dass das Spielverhalten mit den während des Spiels erfassten ereigniskorrelierten Potentialen (hier: FRN (feedback related negativity)und P300) auf die Belohnungssignale in Form eines Feedbacks korreliert. Belohnungssensitive Personen zeigen tendenziell nach einem Gewinn-Feedback eine weniger negative FRN-Amplitude, die wiederum positiv mit der gewählten Einsatzhöhe assoziiert ist. Auch die Amplitude der P300 scheint mit dem Spielverhalten zusammenzuhängen. So zeigte sich ein positiver Zusammenhang zwischen typisch belohnungssensitivem Verhalten und der mittleren Amplitude der P300: Gewinne gehen mit einer größeren P300-Positivierung und schnelleren Entscheidungen im Spiel einher. Dagegen konnte weder das Spielverhalten noch die über diverse Fragebögen erfasste Ausprägung der Belohnungssensitivität in der kortikalen Grundaktivierung im Ruhezustand einer Person abgebildet werden. Die vorliegenden Ergebnisse deuten darauf hin, dass Belohnungssensitivität ein Persönlichkeitsmerkmal ist, das sich sowohl im Verhalten, als auch in der elektrokortikalen Aktivität in belohnungsrelevanten Situationen widerspiegelt.
The thesis deals with online publication on the internet, particularly from a media science specific point of view. Based on a reflexion of both advantages and disadvantages of electronic publication for the World Wide Web (WWW), it makes a fresh attempt at finding solutions for information storing as well as for user-adaptive, hypertextual information presentation. These solutions and techniques should not depend on the final screen design. Rather, the focus is on how to use the WWW-specific means of communication for the access on digital information. The goal is to generate dynamic web documents, based on structured hypertext units and using technology like XML-related markup languages and metadata. A central issue is the modelling of the man-machine-dialogue: How can simple man-machine-interaction within information systems be developed so that any reader becomes an active communicator? How can individual user characteristica be determined and processed for user-adaptive online-representation? Areas of application are online reference books, journals, documentations, information systems and e-learning systems. The thesis refers on the grammatical information system GRAMMIS, located at the Institute for German Language in Mannheim. In this way, practical questions and solutions can be directly evaluated on a real-world system.
Auf Grundlage von handlungstheoretischen Modellvorstellungen wird ein Schichtenmodell des Entschlussaktes "Berufswahl" entwickelt, das chronologische und diachronische sowie prozessuale und strukturelle Perspektiven verbindet. Vier ineinander eingebettete Schichten werden differenziert: Hintergrundvariablen (etwa schulische Umwelt, Geschlecht, sozioökonomischer Status) Lernerfahrungen (Explorationen, Selektionen, Widerfahrnisse; Menschen, Medien, Ereignisse; Alternativen, Wissen, Bewertung), Entscheidungsgrundlagen (Interessen, Kompetenzüberzeugungen, berufliche Werte; berufliche Optionen; Entscheidungsstile), Entscheidung (kurzfristige und langfristige Ziele, Entscheidungsstatus, Bewertung der Entscheidung). Zur Überprüfung des Modells wird ein umfangreicher Datensatz einer Stichprobe von insgesamt 504 Schülerinnen und Schülern der Abschlussklassen von Hauptschule, Realschule und Gymnasium sowie der achten bis zehnten Hauptschulklasse analysiert. Das Schichtenmodell konnte in seinem grundlegenden Aufbau bestätigt werden. Insbesondere erwies sich die entwickelte Taxonomie von Lernerfahrungen, zu der bislang keine vergleichbare Konzeption vorlag, als effiziente Vorlage für weitere Forschungsarbeiten. Tradierte, aber auch aktuelle Erwartungen hinsichtlich der Rolle des Geschlechts für berufliche Entscheidungen werden kritisch diskutiert. Die Bedeutung der schulischen Umwelt für berufswahlrelevante Lernerfahrungen und für die Ausgestaltung des beruflichen Entschlusses wird herausgearbeitet. Abschließend werden Forschungsdesiderata sowie Empfehlungen für die Beratungs- und Unterrichtspraxis abgeleitet.
Virtuelle Umgebungen erfreuen sich in den letzten Jahren einer großen Beliebtheit und können kontinuierlich wachsende Nutzerzahlen vorweisen. Deshalb wird erwartet, dass die ohnehin große Nutzergemeinde weiterhin wächst. Dieses Wachstum stellt jedoch die Entwickler und die Betreiber von virtuellen Umgebungen vor eine Herausforderung. Die meisten heutzutage erfolgreichen virtuellen Umgebungen basieren auf einer Client-Server-Infrastruktur, in der der Server für die Verwaltung der gesamten Umgebung zuständig ist. Bei einer gleichzeitigen Inanspruchnahme durch viele Nutzer werden die serverbasierten Umgebungen jedoch massiven Skalierbarkeits- und Lastverteilungsproblemen ausgesetzt. Diese Probleme führen beispielsweise dazu, dass Nutzer Wartezeiten beim Einloggen in Kauf nehmen müssen bzw. selbst im Falle eines erfolgreichen Logins die "überfüllten" virtuellen Regionen nicht betreten dürfen. Deshalb wird in dieser Arbeit untersucht, ob eine Verbesserung der Skalierbarkeit und der Lastverteilung in virtuellen Umgebungen durch die Verwendung alternativer Infrastrukturansätze erreicht werden kann. Außerdem werden Maßnahmen zur weiteren Entlastung der Basis-Infrastruktur entwickelt. Diese Verbesserung soll zum einen dadurch erzielt werden, dass anstelle eines Servers ein Server-Verbund (Peer-to-Peer-System) als eine Art Management-Schicht agieren soll, in der jeder Knoten nur einen bestimmten Teil der virtuellen Umgebung verwaltet. Dabei wird die gewünschte Lastverteilung durch die Aufteilung der Verantwortungsbereiche auf die Knoten der Management-Schicht erreicht. Gleichzeitig entsteht aber ein Mehraufwand für die Konstruktion bzw. Erhaltung einer solchen Management-Schicht. Deshalb werden in dieser Arbeit die Vor- und Nachteile eines Infrastrukturwechsels hin zu dezentralisierten Infrastruktur-Ansätzen untersucht. Zum anderen wird eine spürbare Entlastung der Management-Schicht und somit eine Verbesserung der Skalierbarkeit und der Lastverteilung durch die Übertragung einiger Verwaltungsaufgaben an die Clients angestrebt. Zu diesen Verwaltungsaufgaben zählen die Gruppenkommunikation und das Konsistenz-Handling. Dazu wird in dieser Arbeit erforscht, inwiefern die Clients, die sich innerhalb derselben virtuellen Region befinden, selbst die Gruppenkommunikation über eine Multicast-Infrastruktur regeln können bzw. in die Wahrung der Konsistenz eines gemeinsamen Zustandes und der gemeinsam genutzten Objekte involviert werden können. Bei dem clientbasierten Konsistenz-Handling sollte vor allem auf die besonderen Interaktivitäts- und Konsistenzanforderungen, die Nutzer an die virtuellen Umgebungen stellen, geachtet werden. Dazu wird ein neues Konsistenzmodell definiert, welches die Einhaltung der strengen Interaktivitätsanforderungen erzwingt und die Konsistenz mit einer bestimmten Wahrscheinlichkeit garantieren kann.
Im Fokus der Ursachenanalyse der zunehmenden Homogenisierung von Biozönosen und des weltweiten Artenverlustes steht neben dem Flächennutzungs- und Klimawandel vorrangig auch die durch den Menschen verursachte Einbringung gebietsfremder, invasiver Arten. Aufgrund ihrer Charakteristika bilden diese Arten einen wichtigen Schnittpunkt von Ökologie, Ökonomie und Soziologie in Theorie und Praxis und erfahren folglich im Zuge der weltweit steigenden Anzahl von biologischen Invasionen zunehmend eine rechtliche Regulierung. Eine grundsätzliche Herausforderung in der Invasionsforschung liegt in der Identifikation von Faktoren, die Verbreitung, Dynamik und Erfolg der Arten erklären, um anhand dieses Wissens ihr Risiko für das Ökosystem als auch hinsichtlich ökonomischer und gesundheitlicher Aspekte abschätzen zu können. Eine Einschätzung der Invasivität der Art zur Ableitung von Handlungsstrategien und zur rechtlichen Einstufung erfolgt anhand von Risikoanalysen, deren kriterienbasierte Bewertung eine Reihe wissenschaftlicher Fakten voraussetzen. Um mögliche Ausbreitungswege- und barrieren zu identifiziert und Faktoren herauszustellen, welche die erfolgreiche Etablierung und Ausbreitung des Nordamerikanischen Waschbären in Deutschland und Europa erklären, wird in dieser Dissertation unter Verwendung populationsgenetischer Methoden die Ausbreitung der Art rekonstruiert. Darüberhinaus wird in dieser Arbeit die Bedeutung von Verbreitungsmodellen als Analyse- und Präventions-Instrument in der naturschutzfachlichen Risikoabschätzung verdeutlicht und zudem die Problematik einer Risikoabschätzung auf Grundlage einer lückenhaften Wissensbasis erläutert. Der rechtliche Schwerpunkt der Dissertation widmet sich der Regulierung der Haltung von IAS, die als ein aktiver und dominanter Einbringungsweg insbesonders für gebietsfremde Wirbeltierarten zählt und für die hier betrachtete Modellart nachweislich von hoher Bedeutung ist. Die gewonnenen Erkenntnisse geben Hilfestellung zur Einstufung der Invasivität der Art und zur Beurteilung eines Handlungsbedarfes.
Bei der Realisierung einer nachhaltigen Entwicklung kommt dem Erhalt und der Sanierung des vorhandenen Altbaubestands zentrale Bedeutung zu. Sanierungen versprechen in erster Line Einsparpotentiale beim Energieverbrauch, bei den CO2-Emissionen und den anthropogen induzierten Stoffströmen. Auch im sozialen Bereich sind Verbesserungen möglich, weil sich beispielsweise attraktive und energetisch optimierte Wohnungen positiv auf die Bleibeabsichten der Bewohner auswirken und so Wohnquartiere sozial stabilisiert werden können. In der Arbeit wird untersucht, welchen signifikanten Beitrag Bestandssanierungen zur Realisierung einer global nachhaltigen Entwicklung leisten können. Zudem wird gefragt, warum Altbausanierungen bislang nur zögerlich umgesetzt werden. So soll die Kluft zwischen Wissen und Handeln bei der Realisierung einer nachhaltigen Entwicklung erklärt werden. Um die Forschungsfragen beantworten zu können, werden vier Sanierungsmaßnahmen in den Städten Ludwigshafen und Köln als Einzelfälle untersucht: (1) Ludwigshafen Brunckviertel, (2) Ludwigshafen Ebertsiedlung, (3) Köln Vingst und (4) Köln Zollstock. Gewählt wird ein qualitativer Forschungsansatz. Zur Anwendung kommen die Erhebungsmethoden teilstrukturierte Befragung und Dokumentenanalyse.
Die Studie thematisiert die Bewältigungsbemühungen von Frauen, die von ihren Partnern misshandelt wurden. Die Gewalt des Mannes gegen seine Frau wird als ein kritisches Lebensereignis betrachtet, dessen Bewältigung die Gesundheit der Betroffenen beeinflußt. Dabei sollten Vulnerabilitäts- und Resilienzfaktoren festgestellt werden, die auf die Bewältigung der erlebten Gewalt ungünstig bzw. günstig wirken können. Eine schriftliche Befragung mit einem umfangreichen Fragebogenpaket wurde in Südkorea durchgeführt. Die Gesamtstichprobe umfasst 89 Frauen, die sich in Opferhilfseinrichtungen in südkoreanischen Großstädten aufhielten. Aus den multiplen Regressions- bzw. Pfadanalysen ergibt sich u.a., dass assertive bzw. depressive Verhaltensweisen misshandelter Frauen jeweils sowohl mit den ausgewählten Dispositionen (Persönlichkeitsmerkmale, gerechtigkeitsbezogene Disposition, traditionelle Geschlechtsrollen-Orientierung) und der Selbstwirksamkeit als auch mit situationsbezogenen Variablen, zu denen z.B. Ungerechtigkeitserlebnis, Verantwortlichkeitsattributionen und Emotionen zählen, vorhergesagt werden können. Weiterhin läßt sich festhalten, dass ein stark ausgeprägter Gerechte-Welt-Glaube und starke Extraversion mit weniger psychosomatischen Beschwerden einhergehen, hingegen eine positive Effektivitätseinschätzung depressiver Strategien mit mehr solchen Beschwerden.
Ausgehend davon, daß die nachweislich prominente Berichterstattung über bezahltes Dating sich nicht auf einen hohen Nachrichtenwert zurückführen läßt, sondern auf verkaufstechnische Faktoren und vor allem auf das "kulturelle Potential" des Themas Jugend, untersucht die folgende Arbeit, welche Normen und Werte in der Darstellung des Phänomens propagiert wurden, und ob sich in der Darstellung Muster erkennen lassen.
Kunst wird in erster Linie mittels ihrer Reproduktionen rezipiert " auch und gerade von der Kunstgeschichte. Dennoch würdigt die Wissenschaft sie nur selten einiger Aufmerksamkeit " und wenn doch, werden die Reproduktionen gegenüber den Originalen zumeist abgewertet. Die Dissertation setzt sich mit diesem eigentümlichen Verhältnis in dreifacher Hinsicht auseinander: Sie versteht sich als Skizze einer noch ungeschriebenen Geschichte der Kunstreproduktion, untersucht, wie die Industrialisierung der Bildproduktion um 1800 zur Konstitution der universitären Disziplin Kunstgeschichte beitrug und diskutiert schliesslich exemplarisch, dass die geringe Aufmerksamkeit der Kunstgeschichte für ihr Material kein unglücklicher Zufall, sondern grundlegend für die Disziplin ist.
Die Aufgabe der vorliegenden Arbeit lag darin, anhand der Quelle von Luthers Tischreden zu zeigen, welche Art von Kunstwerken Martin Luther erwähnt und welche Funktion diese in den Colloquia hatten. Sie untersucht das Corpus der über 7000 Tischreden systematisch auf Äußerungen, die im Zusammenhang mit Kunstwerken im weitesten Sinne stehen. Es erfolgte eine textkritische Bearbeitung der Tischreden. Der Anspruch der Arbeit war, diese Bildwerke zu identifizieren und in ihren historischen bzw. kunsthistorischen Kontext zu stellen. Da viele Parallelstellen gefunden und herangezogen werden konnten, ließen sich zahlreiche Irrtümer aufdecken und Fehldeutungen korrigieren. Der Fokus lag dabei nach der Auswertung und der anschließenden Beschäftigung mit den Stellen auf Luthers geradezu leitmotivisch auftretendem Thema der Superbia. Diesem Themenbereich der Todsünden wurde in der Lutherforschung bisher nur wenig Beachtung geschenkt, denn die sie galt für die Reformation als unwesentlich. Es konnte aber in dieser Arbeit dargelegt werden, wie wichtig die Todsünden und vor allem die Superbia in Luthers Tischreden und in seinem Gesamtwerk sind. Darüber hinaus hat sich die Arbeit mit der Performanz der Bilder in Luthers Werk beschäftigt. Sie leistet zudem einen Beitrag zu der Fragestellung, mit welcher Intention Luther seine eigenen Porträts in Auftrag gegeben hat. So wird dargelegt, wie Luther seine Bildstrategien verfolgt. Die Arbeit hat ferner gezeigt, wie wichtig für die effektive, interdisziplinär nutzbare Auswertung der Tischreden als Quelle eine digitale Ausgabe wäre, die mit Metadaten versehen ist und dadurch nach semantischen Kriterien durchsucht werden kann.
Es wird zunächst auf einer systemwettbewertbstheortischen Basis untersucht, inwiefern die Harmonisierung von Hochschulabschlüssen im Zuge des Bologna-Prozesses als effizient charakterisiert werden kann. Es zeigt sich, dass der Bologna-Prozess kein Instrument ist, um einen Unterbeitungswettlauf in der EU zu verhindern, sondern eher einen produktiven "race to the top"-Prozess begrenzt. Im nächsten Schritt wird überprüft, ob die Vereinheitlichung von Bildungsabschlüssen die Rekrutierung am internationalen Arbeitsmarkt wirklich erleichtern kann. Dazu wurde eine Befragung im hoch internationalen Luxemburger Finanzdienstleistungssektor durchgeführt. Es zeigt sich, dass das anglo-amerikanische Bachelor-Master-System nicht uneingeschränkt bevorzugt wird und dass die befragten Unternehmen keine deutliche Vereinfachung ihrer Personalbeschaffung durch die Vereinheitlichung von Bildungsabschlüssen erwarten.
Heterogenität ist Teil des (Schul-)Alltags, was sich in den Lerngruppen widerspiegelt, die Lehrkräfte in der Schule vorfinden. Unterschiedlichen Bedürfnissen auf Seiten der Schüler/-innenschaft soll – und das ist in zahlreichen der Öffentlichkeit zugänglichen Dokumenten, wie Schulgesetzen, Schulordnungen und Standards für die Lehrerbildung festgeschrieben – in Form von Differenzierung begegnet werden. Innerhalb dieser Dissertation wird untersucht, wie Binnendifferenzierung auf Mikroebene in der Schulpraxis implementiert wird. Dabei werden die Einsatzhäufigkeit binnendifferenzierender Maßnahmen und Kontextvariablen von Binnendifferenzierung untersucht. Anhand einer Stichprobe von N = 295 Lehrkräften verschiedener Schulformen, die die Fächer Deutsch und/oder Englisch unterrichten, wurde u.a. gezeigt, dass Binnendifferenzierung allgemein nicht (sehr) häufig eingesetzt wird, dass manche Maßnahmen häufiger Einsatz finden als andere, dass an Gymnasien Binnendifferenzierung nicht so häufig eingesetzt wird, wie an anderen Schulformen und dass die Einsatzhäufigkeit bedingende Kontextfaktoren bspw. kollegiale Zusammenarbeit bei der Unterrichtsplanung und -durchführung, die wahrgenommene Qualität der Lehramtsausbildung hinsichtlich des Umgangs mit Heterogenität und die Bereitschaft zur Implementation von Binnendifferenzierung sind und auch Einstellungen zu Binnendifferenzierung und (Lehrer/-innen)Selbstwirksamkeitserwartungen in Zusammenhang mit dem Maßnahmeneinsatz stehen. Die durchgeführte Post-hoc Analyse zeigte bzgl. Einsatzhäufigkeit weiterhin Zusammenhänge zwischen der Persönlichkeit der Lehrkräfte und der Schulform, an der diese unterrichten. Die Ergebnisse entstammen der Schulpraxis und liefern deshalb praktische Implikationen, wie bspw. Hinweise zur Steigerung der Qualität der Lehramtsausbildung, die neben zukünftigen Forschungsansätzen im Rahmen dieser Arbeit expliziert werden.
Die endemischen Arganbestände in Südmarokko sind die Quelle des wertvollen Arganöls, sind aber durch bspw. Überweidung oder illegale Feuerholzgewinnung stark übernutzt. Aufforstungsmaßnahmen sind vorhanden, sind aber aufgrund von zu kurz angelegten Bewässerungs- und Schutzverträgen häufig nicht erfolgreich. Das Aufkommen von Neuwuchs ist durch das beinahe restlose Sammeln von Kernen kaum möglich, durch Fällen oder Absterben von Bäumen verringert sich die kronenüberdeckte Fläche und unbedeckte Flächen zwischen den Bäumen nehmen zu.
Die Entwicklung der Arganbestände wurde über den Zeitraum von 1972 und 2018 mit historischen und aktuellen Satellitenbildern untersucht, ein Großteil der Bäume hat sich in dieser Zeit kaum verändert. Zustandsaufnahmen von 2018 zeigten, dass viele dieser Bäume durch Überweidung und Abholzung nur als Sträucher wachsen und so in degradiertem Zustand stabil sind.
Trotz der Degradierung einiger Bäume zeigt sich, dass der Boden unter den Bäumen die höchsten Gehalte an organischer Bodensubstanz und Nährstoffen auf den Flächen aufweist, zwischen zwei Bäumen sind die Gehalte am niedrigsten. Der Einfluss des Baumes auf den Boden geht über die Krone hinaus in Richtung Norden durch Beschattung in der Mittagssonne, Osten durch Windverwehung von Streu und Bodenpartikeln und hangabwärts durch Verspülung von Material.
Über experimentelle Methoden unter und zwischen den Arganbäumen wurden Erkenntnisse zur Bodenerosion gewonnen. Die hydraulische Leitfähigkeit unter Bäumen ist um den Faktor 1,2-1,5 höher als zwischen den Bäumen, Oberflächenabflüsse und Bodenabträge sind unter den Bäumen etwas niedriger, bei degradierten Bäumen ähnlich den Bereichen zwischen den Bäumen. Die unterschiedlichen Flächenbeschaffenheiten wurden mit einem Windkanal untersucht und zeigten, dass gerade frisch gepflügte Flächen hohe Windemissionen verursachen, während Flächen mit hoher Steinbedeckung kaum von Winderosion betroffen sind.
Die Oberflächenabflüsse von den unterschiedlichen Flächentypen werden in die Vorfluter abgeleitet. Die Sedimentdynamik in diesen Wadis wird hauptsächlich von Niederschlag zwischen den Messungen, Einzugsgebiet und Wadilänge und kaum von den verschiedenen Landnutzungen beeinflusst.
Das Landschaftssystem Argan konnte über diesen Multi-Methodenansatz auf verschiedenen Ebenen analysiert werden.
Investigation of soil water budget in the unsaturated soil zone is commonly performed for determination of the complex relationships between the different components of the water budget. A main focus of this work was on acquisition and evaluation of percolation water and soil moisture dynamics depending on the site properties (climate, soils, land use). A network consisting of 14 lysimeter and soil moisture measuring stations was established in the region of the Trier-Bitburger-Mulde (SW-Eifel, Germany). During a period of four hydrological years precipitation, infiltration, percolation water and soil moisture were collected weakly on the stations comprising the different regional characteristics of soil textures and land use patterns. The analysis of the weekly data sets enabled to point out seasonal variations of percolation water and soil water dynamics (as time-depth function). Comparison of simultaneously collected data sets of percolation water, soil moisture, and evapotranspiration shows significant fluctuations, which result from the complex relationships between the site properties. Hereby, the soil properties and in particular the secondary macropores (root channels, shrinkage- /frost cracks) have a striking influence on the variability of the water flows in the unsaturated soil zone. The results of the GIS-based regionalisation of the annual amount of percolation water prove the influence of topography (relief conditions, especially slope and aspect) on percolation and soil water dynamics in low mountain ranges.
Bürgerfernsehen
(2003)
Die vorliegende Studie befaßt sich zunächst mit der theoretischen Reflexion von Aufgaben und Potentialen Offener Kanäle. Dabei wird gezielt auf ihre Funktion für eine demokratische politische Kultur abgestellt. Die anschließende Betrachtung der deutschen Fernsehordnung als Rahmen für den Betrieb Offener Kanäle verdeutlicht zum einen die Differenzen in der immanenten Logik ihrer beiden Teilsysteme. Zum anderen wird die zunehmende Regionalisierung der Fernsehangebote beschrieben und ihr Einfluß auf die Entwicklung Offener Kanäle aufgezeigt. Die empirische Auseinandersetzung mit dem Bürgerfernsehen selbst beginnt mit einer kurzen Aufarbeitung seiner Geschichte im In- und Ausland, an die sich Überlegungen zur Gestaltbarkeit von Offenen Kanälen und zu ihrer politischen Steuerbarkeit anschließen. Nach einer Bestandsaufnahme des gegenwärtigen wissenschaftlichen Kenntnisstandes über die Bürgersender wird auf der Grundlage einer Typologie ihrer möglichen Ausprägungen das Spannungsverhältnis zwischen den Zielen des Zuschauerbezugs und des freien und gleichberechtigten Zugangs zu den Sendeplätzen thesenartig formuliert. Diese "Verhärtungsthese" bildet den Hintergrund für die beschreibende Analyse der Offenen Kanäle in Rheimland-Pfalz, die auf den Ebenen der Produzenten, der Inhalte und der Zuschauer erfolgt. Dabei wird insbesondere auf den Zielkonflikt von gleichberechtigtem Zugang und zuschauergerechter Programmgestaltung eingegangen und der Einfluß kommerzieller Interessen auf den Offenen Kanal untersucht.
Die Dissertation beschäftigt sich mit dem Denkmalkult in der aufstrebenden deutschen Indsutrieregion des Kaiserreichs (1871 - 1918). Denkmalprojekte dienten als Plattform für die Bezeugung und Selbstvergewisserung von Werten wie nationale Gesinnung und Bürgerlichkeit unter Nutzung nationaler, indstrieller und lokaler Symbole. Der zweite Teil enthält ein Verzeichnis der zwischen 1871 und 1918 errichteten kommunalen Denkmäler im Ruhrgebiet.
Caenorhabditis elegans Modelsysteme für Freiland und Labor Caenorhabditis elegans ist eines der am intensivsten untersuchten Tiermodelle, dabei weisen die nur unzureichenden Informationen über sein ursprüngliches Habitat eine Vielzahl offener Fragen auf. Deshalb beschäftigt sich der erste Teil vorliegender Arbeit mit einer Überprüfung der Freilandökologie und Biogeographie des Taxons. Nach den Untersuchungen spricht vieles dafür, dass die Ursprungsart der C. elegans Gruppe ein Begleiter von Gastropoden war, welche auch für ihre Ausbreitung häufig verantwortlich sind. Als Folge der Verschleppung durch Wirtstiere (u.a. die Weinbergschnecke Helix aspersa) erreichte sie ihr heutiges Areal, in allen Kontinenten. Ein nicht weniger wichtiges Ziel der vorliegenden Arbeit war die Etablierung von C. elegans als Biotest-System für die Indikation von Chemikalien-Wirkungen. In dieser Arbeit wurden ein ökotoxikologisches Testsystem entwickelt mit den C. elegans als Modellorganismus, das durch Messung von umweltbedingten intrazellulär gebildeten ROS im Gesamtorganismus eine Einschätzung der biologischen Aktivität von Chemikalien und Umweltmedien ermöglichen sollte. Als grundlegender biochemischer Parameter ist eine, die Kapazität der antioxidativen Schutzmechanismen übersteigende, ROS-Bildung ursächlich für oxidative Schädigungen der Zelle verantwortlich und damit Basis für zahlreiche pathologische Effekte. Aus den Resultaten als Bewertungsgrundlage lässt sich folgern, dass sich das erarbeitete Biotestsystem als adäquates Verfahren zur Messung von oxidativem Stress, als Folge exogener Belastung, einsetzen lässt. Damit leistet es einen Beitrag zur Beurteilung des Toxizitätspotentials von Chemikalien und Umweltproben. Zur Eignung des Einsatzes von C. elegans für Toxizitätstest wurden weitere Untersuchungen mit verschiedenen Chemikalien durchgeführt. Dabei ergibt sich bezogen auf molare Einheiten eine immer gleich bleibende Reihenfolge der Sensitivitäten gegenüber BaP > Cu2+ > AcL, ein Ergebnis welches mit Testergebnissen von anderen Versuchsorganismen zu vergleichen war. Die Wirkung von Atrazin auf die Entwicklung von C. elegans wurde auch untersucht. Es wurde festgestellt, dass Atrazin auf Wachstum und Reproduktion von C. elegans konzentrationsabhängig toxisch wirkt. Die bisherigen Ergebnisse zeigen jedoch, dass das Testsystem C. elegans hervorragend geeignet ist, um Chemikalienwirkungen frühzeitig sichtbar zu machen.
In der vorliegenden Arbeit wurden die Einsatzmöglichkeiten von Carbon Footprints in Großküchen untersucht. Dabei wurden sowohl methodische Aspekte und Herausforderungen ihrer Erhebung untersucht als auch mögliche Kennzeichnungsformate (Label) evaluiert.
Zunächst wurde am Beispiel Hochschulgastronomie eine vollständige Carbon Footprint Studie nach DIN 14067 für sechs exemplarische Gerichte (PCF) sowie angelehnt an DIN 14064 für den Mensabetrieb (CCF) durchgeführt. Es zeigte sich, dass die gewichteten durchschnittlichen Emissionen pro Teller, unter Einbezug der verwendeten Rohstoffe und des Energiebedarfs, 1,8 kg CO2eq pro Teller betragen (Mgew=1,78 kg CO2eq; [0,22-3,36]). Zur Vereinfachung des Erhebungsprozesses wurden anknüpfend an diese Ergebnisse Pauschalisierungsansätze zur vereinfachten Emissionsallokation im Gastrosektor evaluiert und in Form eines appgestützten Berechnungstools umgesetzt. Es konnte verifiziert werden, dass der Energiebedarf und die daraus resultierenden Emissionen unabhängig von der Beschaffenheit der Gerichte auf die Anzahl produzierter Gerichte alloziert werden können und die Ausgabewerte dennoch hinreichend belastbar sind (Abweichung <10 %).
In dieser Studie konnte gezeigt werden, dass am untersuchten Standort Skaleneffekte hinsichtlich der Anzahl produzierter Gerichte und Strombedarf pro Gericht auftreten. Beide Faktoren korrelieren stark negativ miteinander (r=-.78; p<.05). Zur Verifikation der Ergebnisse wurde eine Datenabfrage unter allen deutschen Studierendenwerken (N=57) hinsichtlich des Energiebedarfs und der Produktionsmengen in Hochschulmensen durchgeführt. Aus den Daten von 42 Standorten konnten für das Jahr 2018 prognostizierte Gesamtemissionen in Höhe von 174.275 Tonnen CO2eq, verursacht durch etwa 98 Millionen verkaufte Gerichte, ermittelt werden. Im Gegensatz zur durchgeführten Standort-Studie konnten die Skaleneffekte, d.h. sinkender Strombedarf pro Teller bei steigender Produktionszahl, bei der deutschlandweiten Datenerhebung statistisch nicht nachgewiesen werden
(r=-.29; p=.074).
Im Anschluss wurden mögliche Label-Formate für Carbon Footprints evaluiert, indem vier vorbereitete Label unterschiedlicher Beschaffenheit (absolute Zahlen, einordnend, vergleichend und wertend) in sechs Fokusgruppen mit insgesamt 17 Teilnehmer:innen im Alter zwischen 20 und 31 Jahren (M=25,12; SD=3,31) diskutiert wurden. Im Ergebnis zeigte sich, dass bei den Teilnehmer:innen ein breiter Wunsch nach der Ausweisung absoluter Zahlen bestand. Zur besseren Einordnung sollte ein Label zudem einordnende Elemente enthalten. Wertende Label in Form von Ampelsymbolen oder Smileys mit unterschiedlichen Emotionen wurden überwiegend abgelehnt. Ableitend aus den Erkenntnissen konnten zwei synthetisierende Label-Vorschläge entwickelt werden.
Die polare Kryosphäre stellt einen Schlüsselfaktor für die Erforschung des Klimawandels dar. Insbesondere das Meereis und seine Schneebedeckung, die sich durch eine äußerst hohe und Zeitskalen-übergreifende Sensitivität gegenüber atmosphärischen Einflüssen auszeichnen, können als diagnostische Parameter für die Abschätzung von Veränderungen im Klimasystem herangezogen werden. Die komplexen Rückkopplungsmechanismen, durch die das Meereis mit der globalen Zirkulation der Atmosphäre und des Ozeans in Wechselwirkung steht, werden durch eine zusätzliche Schneeauflage deutlich verstärkt. Insofern tragen die saisonalen Veränderungen der physikalischen Eigenschaften des Schnees, und insbesondere der Beginn der Schneeschmelze, massgeblich zur lokalen und regionalen Energiebilanz sowie zur Meereismassenbilanz bei. In dieser Arbeit wird nun erstmals auf der Basis langjähriger Daten der satellitengestützten Mikrowellenfernerkundung, in Kombination mit Feldmessungen aus dem Weddellmeer während des Sommers 2004/2005, die Charakteristik der sommerlichen Schmelzperiode auf antarktischem Meereis untersucht. Die sommertypischen Prozesse zeichnen sich hier durch deutliche Unterschiede im Vergleich zu arktischem Meereis aus. Wie die Messungen vor Ort zeigen, kommt es während des antarktischen Sommers nicht zu einem kompletten Abschmelzen des Schnees. Vielmehr dominieren ausgeprägte Schmelz-Gefrier-Zyklen im Tagesgang, die eine Abrundung und Vergrösserung der Schneekristalle sowie die Bildung interner Eisschichten verursachen. Dies führt radiometrisch zu Mikrowellensignalen, deren Erfassung im Vergleich zu bestehenden Schmelzerkennungs-Methoden neue Ansätze erfordert. Durch den Vergleich von zeitlich hoch aufgelösten in-situ Messungen der physikalischen Schneeeigenschaften mit parallel dazu erfassten Satellitendaten, sowie durch eine Modellierung der mikrowellenradiometrischen Eigenschaften der Schneeauflage, konnte ein neuer Indikator entwickelt werden, über den das Einsetzen der typischen sommerlichen Schmelzperiode auf antarktischem Meereis identifiziert werden kann. Der DTBA-Indikator beschreibt die Tagesschwankung der radiometrischen Eigenschaften des Schnees und zeichnet sich durch ein Werteverhalten aus, das eine eindeutige Hervorhebung der Sommerphase innerhalb eines saisonalen Zyklus erkennen lässt. Der Indikator wurde verwendet, um mittels des neu entwickelten Schwellwertalgorithmus MeDeA das Einsetzen der sommerlichen Schmelzperiode für das gesamte antarktische Meereisgebiet zu bestimmen. Durch die Anwendung der neuen Methode auf die langjährigen Reihen der Satellitenmessungen konnte ein umfassender Datensatz erstellt werden, der für den Zeitraum von 1988 bis 2006 die räumliche und zeitliche Variabilität des Einsetzens der sommerlichen Schmelzperiode auf antarktischem Meereis beinhaltet. Die Ergebnisse zeigen, dass im Untersuchungszeitraum keine signifikanten Trends im Beginn des Schmelzens der Schneeauflage festzustellen sind, und dass das Schmelzen im Vergleich zur Arktis deutlich schwächer ausgeprägt ist. Eine Untersuchung der atmosphärischen Antriebe durch die Auswertung meteorologischer Reanalysen zeigt den grundlegenden Einfluss der zirkumpolaren Strömungsmuster auf die interannualen Schwankungen des Einsetzens und der Stärke der sommerlichen Schneeschmelze.
Die Beobachtung und Bewertung von Wäldern ist eins der zentralen Themen der Fernerkundung. Wälder sind auf der Erde die größten Speicher von Biomasse und damit, neben den Ozeanen, die größte Senke für Kohlendioxid. Eine genaue Kenntnis über Zusammensetzung, Zustand und Entwicklung der Wälder ist wegen ihrer vielfältigen Funktionen und ihres großen Anteils an der Landesfläche von großem wissenschaftlichem und gesellschaftlichem Wert. Eine flächen-deckende detaillierte Beobachtung ist nur mit fernerkundlichen Mitteln möglich. Eine vielversprechende moderne Technik für hochauflösende Waldfernerkundung ist luftgestütztes Laser-¬scanning. Für die Arbeit stand ein Laserscanner-Datensatz aus dem Idarwald bei Morbach in Einzelpunkten und als Wellenformdatensatz zur Verfügung, der zur Ableitung von strukturellen Waldparametern genutzt wurde. Als wichtigster Bestandsstrukturparameter wurde die Baumhöhe sowohl aus Einzelpunktdaten als auch aus gerasterten Bilddaten flächendeckend mit hoher Genauigkeit abgeleitet. Die Kronenuntergrenzen konnten anhand der Wellenformdaten identifiziert werden und stimmten ebenfalls in hoher Genauigkeit mit Geländemessungen überein. Aus Baumhöhen und Höhe der Kronenuntergrenzen konnte die jeweilige Kronenlänge bestimmt werden. Eine größere Herausforderung ist die Bestimmung der Anzahl der Bäume pro Hektar. Während die einzelnen Kronen älterer Nadelbäume gut erkennbar sind, lassen sich Laubbäume und jüngere Nadelbäume nur schwer identifizieren. Trotzdem konnte mit Hilfe eines adaptiven Moving-Window-Ansatzes eine hohe Übereinstimmung mit im Gelände bestimmten Stammzahlen erzielt werden. Aus dem Anteil der Laserstrahlen, die im Bestand den Boden erreichen, können der Kronenschlussgrad und der Blattflächenindex bestimmt werden. Beide Größen sind für den Strahlungstransfer im Bestand und für ökologische Fragestellungen von Bedeutung und konnten ebenfalls flächendeckend und mit hoher Genauigkeit gemessen werden. Eng verknüpft mit dem Blattflächenindex sind die Biomasse und der Holzvorrat. Der Holzvorrat kann zwar nicht direkt aus den Laser-¬scannerdaten abgeleitet werden, da aber enge Beziehungen zu Baumhöhe und Stammzahl bestehen, kann er aus diesen statistisch abgeleitet werden. Auch die Biomasse wurde indirekt bestimmt: aus den Baumhöhen und dem Bedeckungsgrad. Die detaillierteste Charakterisierung von Waldbeständen kann durch Kombination unterschiedlicher Datensätze erreicht werden. Neben dem Laserscanningdatensatz stand auch ein hyperspektrales Bild des Untersuchungsgebiets zur Verfügung. Um diese zu kombinieren, wurde aus den Wellenformen die jeweils über der Fläche eines Hyperspektralpixels zurückgestreute Laserenergie in Höhenschritten von 0.5 m berechnet. Diese Höhenprofile zeigen die Position und Dichte der Baumkronen. Der kombinierte Datensatz wurde für eine Klassifikation zwischen Fichten und Douglasien in jeweils mehreren Altersstufen verwendet und konnte gegenüber dem Hyperspektralbild alleine eine deutliche Verbesserung der Klassifikationsgenauigkeit erzielen. Als weitere Methode, die Vorteile von hyperspektraler Fernerkundung mit denen von Laser-scanning zu verbinden, wurden Methoden zur Verwendung von Laserscanning für die Invertierung von zwei Reflexionsmodellen entwickelt und getestet. Da mit Laserscanning Größen bestimmt werden können, die aus einem Reflexionsspektrum nicht eindeutig ableitbar sind, können die Daten verwendet werden, um den Parameterraum bei der Invertierung zu verkleinern und damit die Invertierung zuverlässiger zu machen.
α2-adrenerge Rezeptoren sind entscheidende Strukturen für den Ablauf einer physiologischen Stressreaktion. Verschiedene Ursachen sind bekannt, welche die Funktionalität/Effektivität der vorwiegend inhibitorischen α2-adrenergen Wirkung einschränken. Darunter fallen frühe und lebenszeitliche Stressbelastung, genetische Faktoren sowie pharmakologische Einflüsse. Ziel der vorliegenden Dissertation war die Identifikation und Charakterisierung von kognitiven und zentralnervös gesteuerten kardiovaskulären Parametern, welche durch α2-adrenerge Rezeptoren in besonderem Maße beeinflusst werden. Weiterhin sollte anhand pharmakologischer Modelle eine Methode entwickelt werden, um diese Beeinflussbarkeit quantitativ zu beschreiben. In einem komplexen pharmakologischen Versuchsplan wurde die Aktivität der α2-adrenergen Rezeptoren durch jeweils fünf Dosisstufen Dexmedetomidin (α2-adrenerger Agonist) und Yohimbin (α2-adrenerger Antagonist) manipuliert. In einem placebokontrollierten einfach-blinden Design wurde die Konzentrations-Wirkungs-Beziehung bzw. die Dosis-Wirkungs-Beziehung zwischen der Medikation und kognitiven sowie zentralnervös gesteuerten kardiovaskulären Parametern ermittelt. Zudem wurden die Effekte von α2-adrenergem Agonismus und Antagonismus auf die akustische Startlereaktion sowie auf die Plasmakonzentration von Noradrenalin (NA) und DHPG erfasst. Mittels linearer pharmakodynamischer Modellierung sollte anschließend die maximale Spannweite der α2-adrenerg vermittelten Effekte vorhergesagt werden, um so Aussagen über die pharmakologische Beeinflussbarkeit der Rezeptoren treffen zu können. Es zeigten sich deutliche Effekte von α2-adrenergem Agonismus und Antagonismus auf einfache Reaktionszeiten und kardiovaskuläre Parameter. Insbesondere sympathisch vermittelte Funktionen waren durch die pharmakologische Manipulation beeinflusst, ebenso wie die Magnitude der Blinzelreaktion auf einen akustischen Schreckreiz. Die Substanzen hatten zudem deutliche Einflüsse auf die Plasmakonzentration von NA und DHPG. Der besondere Erfolg dieser Arbeit liegt in der systematischen Quantifizierung der pharmakologischen Beeinflussung zentralnervöser Parameter durch α2-adrenergen Agonismus und Antagonismus. Es konnte gezeigt werden, dass die pharmakodynamische Modellierbarkeit zentralnervöser Parameter Aufschluss über potenzielle Gruppen-unterschiede in der Funktionalität/Effektivität α2-adrenerger Mechanismen geben kann.
Der Planungsorientierten Stadtklimatologie und der Stadtökologie stehen eine Vielzahl von Einzelmethoden zur Erfassung und Bewertung der Belastungsfaktoren Klima, Luft oder Lärm zur Verfügung. Es fehlen derzeit Möglichkeiten zur Gesamtbeurteilung des aktuellen Umweltzustandes oder von bestimmten Planungsvarianten. Um die Strukturen der Gesamtbelastung städtischer Gebiete durch Klima, Luft und Lärm zu bewerten, wird der Ansatz über die Indexbildung untersucht. Dabei werden die Einzelbelastungen durch die städtische Überwärmung, die Belastung mit Kfz-bedingten Luftschadstoffen und die Verkehrslärmbelastung zu einer einzigen Bewertungsgröße integrierend zusammengefasst. Das "Indikatorensystem Klima - Luft - Lärm" kurz: "K-L-L-Index" knüpft im weiteren Sinne an die Nachhaltigkeitsindikatoren an. Die Ermittlung des K-L-L-Indexes erfolgt schrittweise, wobei die berechneten oder gemesse-nen Einzelgrößen zunächst einer vereinheitlichten Klassifizierung unterzogen werden. Mit dieser Vorgehensweise werden die Einzelgrößenbelastungen entsprechend ihrer Ausprägung bzw. Intensität eingestuft und erhalten jeweils einen Indikatorenwert. Die eigentliche Berechnung des K-L-L-Indexes erfolgt über die Verknüpfung der einzelnen Indikatorenwerte zu einem ge-meinsamen Indikatorensystem. Die Einstufung des K-L-L-Indexes wird entsprechend einer definierten Bewertungsskala durch arithmetische Mittelwertbildung der Indikatorwerte zwi-schen den Stufen 0 "kaum belastet" bis Stufe 4 "extrem belastet" ermittelt. Die kumulative Wirkung der drei Größen auf die menschliche Gesundheit wird insoweit berücksichtigt, dass die Fälle von drei gleich stark belasteten Einzelgrößen in der Gesamtbelastung der nächst höhe-ren Belastungsstufe zugeordnet werden. Die Berechnung und Darstellung des K-L-L-Indexes wird unter Verwendung digitaler Informa-tionen in einem Geographischen Informationssystem (GIS) durchgeführt. Hier können die zahl-reichen räumlichen Informationen entsprechend den Vorgaben miteinander verarbeitet werden und die Ergebnisse für die Untersuchungsgebiete direkt flächenhaft dargestellt werden. Da-durch weist der K-L-L-Index hinsichtlich des räumlichen Bezugs deutliche Vorteile gegenüber anderen Nachhaltigkeitsindikatoren auf. Die Anwendbarkeit und Flexibilität des vorgestellten K-L-L-Indexes wird anhand von zwei ausgewählten Untersuchungsgebieten in Trier und Lud-wigshafen überprüft. Der K-L-L-Index bietet zahlreiche Einsatzmöglichkeiten in der Straßen- und Verkehrsplanung (Verkehrsszenarien, Trassenvarianten), Stadtentwicklungsplanung und Bauleitplanung (Ausweisung von Flächen, Baugenehmigungen, Rahmenpläne) oder in der Lärmminderungsplanung. Neben der Erfassung der Ist-Belastungssituation kann der K-L-L-Index insbesondere in Bezug auf geplante Nutzungsänderungen oder Planungsalternativen Detailinformationen hin-sichtlich der Umweltbelastungen liefern und somit einen wichtigen Beitrag zur vorsorgenden Umweltplanung leisten. Als weiteren Forschungsbedarf wird die Anpassung des K-L-L-Indexes an aktuelle Entwicklungen im Bereich des Immissionsschutzes (Einbeziehung von PM10 und des LDEN) und der Einsatz im Zuge von Aktionsplänen nach -§ 47 Bundesimmissionsschutzgesetz zur Vermeidung von Grenzwertüberschreitungen nach der 22. BImSchV angesehen. Der K-L-L- Index ist somit als ein erster Schritt zur Gesamtbewertung hin zu sehen, weitere Schritte müssen folgen.