Filtern
Erscheinungsjahr
- 2007 (39) (entfernen)
Dokumenttyp
- Dissertation (39) (entfernen)
Sprache
- Deutsch (39) (entfernen)
Volltext vorhanden
- ja (39) (entfernen)
Schlagworte
- Modellierung (3)
- Altersstereotype (2)
- Kognitive Psychologie (2)
- Kulturkontakt (2)
- Marketing (2)
- Simulation (2)
- Vignette (2)
- age stereotypes (2)
- intergenerational communication (2)
- Abfluss (1)
Institut
- Psychologie (13)
- Raum- und Umweltwissenschaften (7)
- Wirtschaftswissenschaften (4)
- Geschichte, alte (3)
- Kunstgeschichte (2)
- Philosophie (2)
- Pädagogik (2)
- Allgemeine Sprach- und Literaturwissenschaft (1)
- Anglistik (1)
- Germanistik (1)
Die vorliegende Arbeit geht von der These aus, dass die Zeitthematik in ihren unterschiedlichen Aspekten eine konstitutive Rolle in Strauß" bis dato erschienenem Werk spielt und dass Strauß frühzeitig beginnt, einen eigenständigen Zugang zu dieser Problematik zu erkunden, der, ausgehend von der Alltagserfahrung, vor allem die Bereiche der Naturwissenschaften und Ästhetik einschließt. Die Kernphase dieser Aneignung wird dabei in einer über zehnjährigen Schaffensperiode in Strauß" früherem Werk verortet, in der Begrifflichkeiten aus diesem Komplex stark gehäuft auftreten. Sie lässt sich anhand von vier zentralen Werken umreißen: "Paare, Passanten", "Der junge Mann", "Die Zeit und das Zimmer" und "Beginnlosigkeit". Dabei liegt ein Hauptaugenmerk darauf, den oft tastenden, experimentellen Charakter der oft fragmentarischen Texte in einen Gesamtzusammenhang zu stellen und der chronologischen Entwicklung von Strauß" Zeitbegriff zu folgen. Als Ausgangspunkt wird ein fundamentales Ungenügen identifiziert, das der Autor in "Paare, Passanten" schrittweise anhand von Alltagsbeobachtungen konkretisiert. Strauß zeichnet hier das Bild des "Gegenwartsnarren", der in seiner beschleunigten, medial dominierten Umgebung zunehmend in die Rolle des passiven Konsument eines Informationsüberangebotes gedrängt wird. Er zieht den flüchtigen Reiz der wechselnden Bilder dem Ergründen von Sinnzusammenhängen vor und verliert dabei letztlich seinen Bezug zur Geschichte. Sowohl zu seiner eigenen, individuellen Herkunft als auch zum gemeinschaftlichen Narrativ, das zwischen den Schrecken von Holocaust und drohender atomarer Vernichtung eh bereits einen großen Teil seines sinnstiftenden Potenzials eingebüßt hat. "Der junge Mann" baut auf diesen Befund auf und verschreibt sich der Erkundung eines "neuen Zeitempfindens", das es ermöglichen soll, unsere moderne Lebenswelt in ihrer Beschleunigung und oberflächlichen Divergenz wieder als sinnerfüllt wahrzunehmen. Die Analyse der Einleitung und ersten Romankapitel zeigt, wie Strauß dazu zunächst tradierte Zeitbegriffe radikal hinterfragt und letztlich in Auseinandersetzung mit den Naturwissenschaften ein eigenes Konzept entwickelt, das er in der Folge erprobt. Anknüpfend an die Syntheseansätze von Arthur Eddington verbindet Strauß Erkenntnisse aus der Relativitätstheorie, der Thermodynamik, der Komplexitätstheorie und Kybernetik zu einem Ganzen, das der als zu eng empfundenen linearen Progression ein vielschichtiges Modell entgegensetzt, das auch Stillstand, zyklische Wiederkehr sowie zeitweilige Verjüngung und Rückläufigkeit als Konstituenten zeitlicher Abläufe begreift. Die spezielle Relativitätstheorie räumt dabei mit der Vorstellung einer absoluten physikalischen Zeit auf, die gleich einem universellen, transzendenten Uhrwerk der Welt ihren Takt und ihre Richtung aufzwänge. Sie begreift Zeit und Raum als Verhältnisse, in denen die Ereignisse zueinander stehen und die letztendlich den Dingen selbst entwachsen. Einen kontinuierlichen, gerichteten Fluss der Zeit kann die Relativitätstheorie nicht verbürgen; diese Lücke versuchen Physiker in Anschluss an Eddington mit dem Hinweis auf die Thermodynamik zu schließen. Nach deren zweiten Hauptsatz müsste das Universum als geschlossenes System einer stetigen Entropiezunahme unterliegen, die letztlich den Strom der Zeit konstituiere. In diesem globalen Fluss, und hier beruft Strauß sich auf die Komplexitätstheorie, gibt es jedoch immer wieder lokale Abweichungen und gegenläufige Entwicklungen. Strauß baut auf diesen Überlegungen auf und integriert sie tief in seine eigene Ästhetik. So greift der "Junge Mann" in seinen Erzählstimmen und in der Figurenrede nicht nur häufig Gedanken und Bilder aus der wissenschaftlichen Debatte auf, die ganze Struktur des Romans lässt sich als ein solcher Wechsel zwischen linear-gerichteten Rahmenstrukturen und divergenten Binnenelementen verstehen. Dieses Verfahren, naturwissenschaftliche Aspekte der Zeitthematik in der künstlerischen Form aufgehen zu lassen, baut Strauß in den nächsten Jahren weiter aus, wie die Arbeit exemplarisch an zwei weiteren Werken zeigt. "Die Zeit und das Zimmer" etwa zeugt in seiner ganzen Anlage von einer Auseinandersetzung mit der Quantentheorie und dem "Viele-Welten-Modell". Hier wird im fiktionalen Raum eine Welt erforscht, in der die Entscheidung zwischen mehreren Möglichkeiten keinen ausschließlichen Charakter mehr hat, sondern mehrere Alternativversionen eines Lebenswegs parallel zueinander koexistieren. "Beginnlosigkeit" schließlich entwirft analog zur "Steady-State-Theorie" eine Ästhetik, die ohne Anfang und Ende auskommt und deren "Botschaft" letztlich in die Textgestalt eingeschrieben ist. An Stelle einer linear-diskursiv aufgebauten Erzählung tritt ein Verbund von fragmentarischen Textblöcken, der zunächst inkohärent wirkt, aber durch lose thematische Bezüge, vor allem aber auch durch assoziative Anklänge und leitmotivisch wiederkehrende Bilder immer wieder auf sich selbst vor- und rückverweist. Dem Leser, der sich auf diese Textbewegung einlässt, offenbart sich im Vor- und Zurückblättern die gewünschte Leseerfahrung: Sinnkonstitution erschöpft sich nicht in einer linear-progressiven Verkettung von Vorher und Nachher, von Ursache und Wirkung. Erst wenn die "Linie" durch den "Fleck" ergänzt wird, d.h. durch Elemente des Richtungslos-Assoziativen, des Zyklus und selbst der Stase, ist eine Erkenntnishaltung erreicht, die der Vielschichtigkeit unserer Lebenswelt gerecht wird. Strauß" Projekt eines "neuen Zeitempfindens" ist damit zu einem vorläufigen Abschluss gekommen. Die Naturwissenschaften dienten dabei als zentrale Inspirationsquelle und gaben einen Erkenntnisstand vor, hinter den der Autor nicht zurückfallen wollte; letztlich gehen sie jedoch weitestgehend in ästhetischer Form auf.
In dieser Arbeit wird zuerst dargestellt, was der allgemeinen Meinung nach als Fehlverhalten in der wissenschaftlichen Forschung definiert wird. Ferner wird gefragt, wie man solche Definitionen rechtfertigen kann. Um das Fehlverhalten zu erkennen, muss man zuerst die richtige Forschungsmethode und Forschungsethik genau wissen. Durch die philosophische Metaanalyse wird aber klar, dass es sehr schwer ist, eine allgemein gültige Definition für die richtige Forschungsmethode festzustellen. Dann kommt der methodologische Pluralismus ans Licht. Außerdem sind die heutige Wissenschaft und die von ihr benutzten Forschungsmethoden nach der Analyse der Wissenschaftssoziologie sogar die kulturellen Ergebnisse unserer Zeit. Dabei wird die Objektivität der Wissenschaft infrage gestellt und ohne den Glaube an der Objektivität der Wissenschaft können die ganze wissenschaftliche Forschung ihr Forschungsziel (Suche nach der Objektivität) verändern. Die Grenze zwischen richtiger und schlechter Forschungspraxis wird dann verschwommen.
Die Arbeit untersucht das Lexem 'Fusion' in Fachtexten verschiedener medizinischer Disziplinen: Ophthalmologie, Orthopädie, Chirurgie, Pädiatrie. Dabei treten semantische Widersprüchlichkeiten, Ungenauigkeiten und Doppeldeutigkeiten zutage, die die Leser mehr verwirren als sachkundig informieren. Die expertensprachliche Kommunikation ist gestört. Des weiteren finden sich Hinweise darauf, dass die verwendete Semantik von fachlich-kognitive Einflüsse geprägt wird; so spiegelt das Lexem 'Fusion' beispielhaft den dreiteiligen Denkschritt der Mediziner wider: Physiologie, Pathologie, Therapie. Auch andere kognitive Einflüsse werden bei der semantischen Untersuchung des Lexems deutlich.
Die Markierung zählt zu den ältesten Instrumenten im Marketing und besitzt auch heute noch eine herausragende Bedeutung für den Markterfolg. Allerdings haben die technologischen Entwicklungen auch die Möglichkeiten der Markierung verändert, so dass "klassische" Markierungsmöglichkeiten an Bedeutung verlieren. Eine der ältesten Markierungsformen ist das Wasserzeichen, dessen Bedeutung als Marke bisher wissenschaftlich noch nicht untersucht wurde. Dieses Forschungsdefizit zu verringern, erweitert auf Papierrippungen, Papierprägungen, Markierungsdrucke und Markierungsstrukturen ist das Ziel der vorliegenden Arbeit. Ausführlich beschrieben und gewichtet werden dabei die einzelnen Markierungselemente, differenziert nach Herkunft, Marken-Namen und Marken-Bild, und ihre Auswirkung auf das Verbraucherverhalten. Eine besondere Beachtung erhalten Kuppelmarkierungen, die zusätzliche Synergien für die Kundenbindung entfalten. In der Vielfalt der Markierungen und über 1000 Abbildungen wird das Zusammenspiel von Markierung und Marketing deutlich gemacht.
Vier Untersuchungen anhand eines modifizierten Ersparnisparadigmas zeigten, dass Eigenschaften spontan aus Verhalten erschlossen werden. In zwei der vier Untersuchungen offenbarte sich ein impliziter Einfluss des Altersstereotyps: Es förderte das spontane Erschließen stereotypkongruenter Eigenschaften. Dagegen wurde ein expliziter Einfluss des Altersstereotyps nicht eindeutig aufgezeigt; es ergaben sich jedoch Hinweise auf einen Reproduktionsvorteil zugunsten stereotypkongruenter Eigenschaften. Des Weiteren legten einige Befunde nahe, dass Mitglieder der "in-group" einfacher zu differenzieren sind als Mitglieder der "out-group". Nicht eindeutig geklärt werden konnte, ob die Aktivierung eines relevanten Stereotyps oder der Kontext, in den eine stereotype Information eingebettet ist, das Ausmaß der Stereotypisierung beeinflusst. Das Alter der Versuchspersonen (jüngere studentische Versuchspersonen in den Untersuchungen 1 bis 3 vs. ältere Versuchspersonen (M = 68.30) in der Untersuchung 4) beeinflusste zwar die Reproduktionsleistungen, nicht aber das spontane Erschließen von Eigenschaften oder das Ausmaß der impliziten bzw. expliziten Stereotypisierung.
Die Wechselwirkungen zwischen Atmosphäre und Schnee sind für die Simulation der Grenzschicht (BL) über Schneedecken von Bedeutung. Um diese Wechselwirkungen zu untersuchen, wird das mesoskalige Lokalmodell (LM) des Deutschen Wetterdienstes (DWD) mit einer horizontalen Auflösung von etwa 14 km und einer hohen vertikalen Auflösung in der Grenzschicht für Simulationen über Grönland verwendet. Weil die Verwendung des Bodenmodells des LM zu unrealistischen Ergebnissen führt, wurden dessen Schneeeigenschaften angepasst. Die Simulationen werden für zehn Tage im Juli 2002 durchgeführt, währenddessen ein Feldexperiment an der Station Summit stattfand. Zur Validation des LM wurden die Simulationsergebnisse mit diesen Messungen verglichen. Der Vergleich ergibt Defizite bei der bodennahen Temperatur sowie bei Turbulenzgrößen. Die Turbulenzparametrisierung des LM weist bei stabiler Schichtung Defizite auf. Daher wurde ein lokaler Mischungswegansatz und eine skalare Rauhigkeitslänge über Eis und Schnee implementiert und ihr Einfluss untersucht. Beide Parametrisierungen zeigen eine Verbesserung der turbulenten kinetischen Energie und des fühlbaren Wärmeflusses. Um die Schneedrift und ihren Einfluss auf die Schneeakkumulation zu untersuchen, wurde das eindimensionale Schneemodell SNOWPACK mit PARCA-Messungen und LM-Ergebnissen angetrieben, sowie eine gekoppelte Version LM/SNOWPACK verwendet. SNOWPACK hat eine realistischere Darstellung des Schnees als das LM-Bodenmodell und ermöglicht die Simulation der mikrophysikalischen Schneeigenschaften. Die mit PARCA-Messungen angetriebenen Simulationen ergeben einen Zusammenhang zwischen Schneedrift und Neuschnee sowie hohen Windgeschwindigkeiten, diese Faktoren sind jedoch nicht die alleinigen Mechanismen. Während die Eigenschaften des Schneefeldes von den Anfangsbedingungen abhängen, ist der Einfluss des Anfangsfeldes auf die Schneedrift gering. Die Simulationen mit dem LM ergeben eine Verbesserung der bodennahen Temperaturen durch die Kopplung. Die Schneedrift ist in erster Linie in den Randgebieten des grönländischen Eisschildes zu finden. Dort ist die Schneeakkumulation durch Schneedrift von gleicher Größenordnung wie Evaporation/Sublimation von Schnee.
Es wird eine Personenbezogene (differenzielle) Kontinuitätshypothese formuliert, in der angenommen wird, dass Personen, die kognitive Defizite als Folge massiven Alkoholkonsums erleiden, drei aufeinanderfolgende Schädigungsstufen durchlaufen. Ziel der vorliegenden Untersuchung war es, eine Prävalenzrate von Störungen der (selektiven) Aufmerksamkeit und der nonverbalen Intelligenzfunktionen als Maße für exekutive Funktionsstörungen und der Gedächtnisleistungen bei alkoholabhängigen Patienten zu Beginn einer medizinischen Rehamaßnahme zu ermitteln. Zudem wurde zu einem zweiten Messzeitpunkt eine Remissionsrate festgestellt. Im Zeitraum von November 2005 bis Ende April 2006 wurden in den Kliniken Wied 87 konsekutiv aufgenommene Patienten mit einer neuropsychologischen Testbatterie untersucht. Es zeigte sich eine Prävalenzrate von 49.4% für Beeinträchtigungen nicht sprachlicher Intelligenzfunktionen und von 43.7% für Störungen der selektiven Aufmerksamkeit. Gedächtnisdefizite traten lediglich bei 15% auf. Nach fünf Wochen fanden sich deutliche Verbesserungen der selektiven Aufmerksamkeit, während sich die Gedächtnisleistungen kaum verbesserten.
Die Dissertation "Qualitativer Bewusstseins- und Verhaltenswandel im Kontext einer nachhaltigen Entwicklung und ökologischen Ökonomik" ist eine ungewöhnliche wirtschaftswissenschaftliche Arbeit, die mit Hilfe von inter- und transdisziplinärer Forschungsmethodik weit über das Gebiet der Ökonomik hinausgeht, um Eigenschaften und Anforderungen für einen qualitativen Bewusstseins- und Verhaltenswandel zu erforschen. Sie ist dazu in sieben Kapitel inklusive Einleitung und Schluss gegliedert. Zunächst werden im zweiten Kapitel Probleme der Operationalisierung und Umsetzung der offenen Brundtland-Definition von nachhaltiger Entwicklung thematisiert. Sowohl die Abgrenzung von Bedürfnissen als auch von ökologischer Tragfähigkeit stellen hierbei die Nachhaltigkeitsforschung vor Schwierigkeiten. Im dritten Kapitel wird die Notwendigkeit der grundlegenden Veränderung der Sicht- und Lebensweise aus dem Leitbild der nachhaltigen Entwicklung abgeleitet, für das die Wirtschaftswissenschaften zwei Ansätze bieten. Im Vergleich mit der neoklassischen Umwelt- und Ressourcenökonomik, die auf den Prämissen des mechanistisch-objektivistischen Weltbildes der klassischen Physik beruht und die Natur als substitutionalisierbar ansieht, wird der ökologischen Ökonomik der Vorzug gegeben, aus deren Sicht die Betrachtung der Ökonomie als kulturelles Ökosystem unter Irreversibilität und der Anwendung des Vorsichtsprinzips zweckdienlich ist. Mit einer dreifachen Konsistenz-, Effizienz- und Suffizienzstrategie will die ökologische Ökonomik nachhaltige Entwicklung umsetzen, verlässt dabei aber nicht eine materialistische Sichtweise, so dass das Merkmal der Suffizienz unzureichend mit Inhalten ausgefüllt wird. Dies ist der Anknüpfungspunkt für einen qualitativen Bewusstseins- und Verhaltenswandel. Beispiele für einen solchen werden im vierten Kapitel beschrieben, sowohl mit der Quantenphysik aus dem Kernbereich der Naturwissenschaften stammend, als auch aus der Bewusstseinsforschung. Kennzeichen eines neuen Bewusstseins sind die Aufhebung der Trennung von Subjekt und Objekt, Geist und Materie, Innen- und Außenwelt. Zwei Exkurse (Emoto, spirituelle Weltanschauungen) zeigen zusätzliche nicht-materialistische Wahrnehmungen von Welt und Wirklichkeit auf. Im fünften Kapitel folgt die Übertragung der gewonnenen Erkenntnisse auf eine zugleich sowohl ergänzende als auch alternative Form von Wissenschaft, der "komplementären Wissenschaft der Innen- und Außenwelt". Sie berücksichtigt nicht nur die äußere Dimension der Erfahrungswelt, sondern auch die innere, um komplexe Sachverhalte ganzheitlich in ihrem Zusammenwirken von Subjekt und Objekt, Geist und Materie, Innen- und Außenwelt betrachten und erfassen zu können. Dazu ist eine Erweiterung der Methodik um introspektive Einsichten notwendig, sowie die Erweiterung von Welt- und Menschenbild um immaterielle Aspekte, ersteres durch die Wechselwirkungen zwischen Bewusstsein, Geist, Materie und Leben, letzteres durch spirituelle, mentale, emotionale und physische Zusammenhänge des Menschseins. Das sechste Kapitel beinhaltet Anforderungen an eine komplementäre Ökonomik der Innen- und Außenwelt, die die Merkmale eines qualitativen Bewusstseins- und Verhaltenswandels aufweist. Zum einen geschieht dies durch das Modell einer "Ökonomie des Geistes", die in Anlehnung an Bateson mentale Strukturen als grundlegend für materielle ökonomische Prozesse ansieht. Zum anderen bietet eine "Quanten-Ökonomik" die Verbindung einer Außenweltperspektive mit der Innenwelt. Daraus geht auch ein neues Verständnis von Nachhaltigkeit hervor, in dem das Zusammenwirken von Innen- und Außenwelt im Mittelpunkt steht. Die Dissertation schließt mit einem Ausblick der Umsetzungschancen eines derartigen qualitativen Bewusstseins- und Verhaltenswandels in Wissenschaft, Wirtschaft und Gesellschaft.
Cortisolprofile, speziell morgentlicher Cortisolaufwachanstieg (CAR), wurden in der ersten Stunde nach dem Erwachen, waehrend Schichtarbeit und freier Tage untersucht (acht Speichelproben pro Schicht). In der Untersuchung waren 102 gesunde Dauertag- und Dauernachtschichtarbeiter (Kontrollgruppen) und fruehere Dauertag und Dauernachtschichtarbeiter die auf ein neues schnell vorwaerts rotierendes Schichtsystem umgestellt wurden, welches Morgen-, Abend- und Nachtschicht beinhaltete. Die Ergebnisse zeigen, dass der CAR sowohl bei Tag- als auch Nachtschichten klar erkennbar ist. Bei den Dauernachtschichtarbeitern scheinen die Cortisolprofile waehrend der Nachtschichten und freien Tage abgeflacht zu sein. Die Cortisolprofile ehemaliger Dauernachtschichtarbeiter die auf das neue, schnell vorwaerts rotierende System umgestellt wurden, zeigen schon nach kurzer Zeit keine Stoerungen mehr. Demgegenueber resultiert die Einfuehrung von Nachtarbeit bei ehemaligen Dauertagschichtarbeitern in einer anfaenglichen Abflachung der Cortisolprofile, die sich jedoch nach kurzer Zeit wieder normalisiert. Zusaetzliche psychologische Frageboegen zur Erschoepfung, chronischem Stress, Effort-Reward Imbalance, Schlafqualitaet und Schlaflaenge wurden begleitend eingesetzt.
Reduktionistische Ansätze sind in der Naturforschung allgegenwärtig und die Erklärung des Verhaltens komplexer Systeme aus der naturgesetzlich determinierten Interaktion ihrer Konstituenten ist in der Regel dazu geeignet, den jeweiligen Gegenstandsbereich sowohl auf ontologischer als auch theoretisch-deskriptiver Ebene hinreichend zu vereinfachen. Diese Form der Vereinfachung ist das Grundcharakteristikum einer wissenschaftlichen Erklärung und der Schlüssel zum ungemeinen Erfolg, den die empirischen Disziplinen seit dem Beginn der Neuzeit zu verzeichnen haben. Gleichwohl ist jene Verfahrensweise ungeachtet ihrer Vorzüge auch die Quelle ernstzunehmender Probleme, die spätestens in der Anwendung des Reduktionismus auf den Wissenschaft betreibenden Menschen selbst unübersehbar werden, insofern sich z.B. die Gesamtheit seiner kognitiven Leistungen (phänomenales Bewusstsein, Wille, Intentionalität, Sinn- und Bedeutungskonstitution etc.) letztlich als nicht mehr erweist, als das physiologische Verhaltensmuster der Nervenzellen des Gehirns. Neben der Entwertung des Bewusstseins als eines wirkungs- und somit wissenschaftlich bedeutungslosen Epiphänomens neuronaler Aktivität impliziert jene Naturalisierung des Menschen ebenfalls die Verabschiedung der Idee der Freiheit, die schließlich einem naturgesetzlich determinierten System a priori nicht zukommen kann; weitere tiefgreifende Konsequenzen für die Konzepte von Zurechenbarkeit, Verantwortlichkeit und Schuld sind daraus unmittelbar zu erschließen und bedürfen kaum der gesonderten Erwähnung. Ziel der vorliegenden Dissertation ist die Bestimmung der Grenzen der reduktionistischen Methodologie in der empirischen Naturwissenschaft, und das unter Befragung des gegenwärtigen physikalischen Weltbildes. Im Zuge einer historisch-systematischen Rekonstruktion der Quantenmechanik, die seit fast einem Jahrhundert als die fundamentale theoretische Modellierung der Naturkräfte und der Materie zu gelten hat, soll gezeigt werden, inwiefern die universellen Ansprüche des Reduktionismus relativert werden müssen und inwieweit die gegenwärtige Physik sowohl eine ernstzunehmende Neubewertung der Rolle des Bewusstseins in der Welt, als auch eine Rehabilitierung der Konzepte von Freiheit und Verantwortlichkeit ermöglichen kann.
Auf der Grundlage von bodenphysikalischen Standortdaten wurden mit dem physikalisch basierten Modell CATFLOW Bodenwassergehalte und Abflussprozesse von verschiedenen Standorten im Mesozoikum der Trierer Bucht auf der Plotskale simuliert. Die Standorte unterscheiden sich durch das Ausgangssubstrat der Bodenbildung (lehmig-tonig, schluffig-sandig) und die Landnutzung (Acker, Grünland, Wald). Für die Modellvalidierung standen wöchentliche Bodenwassergehaltsmessungen, monatliche Sickerwassersummen aus Lysimetermessungen und Oberflächen- und Zwischenabflusskurven von Beregnungsversuchen zur Verfügung. Ziel der Arbeit ist es zu untersuchen, inwieweit Retentionseigenschaften, Abflussprozesse und Abflussmengen aus Standortdaten ohne eine weitere Kalibrierung des Modells abgeleitet werden können. Besonderer Wert wird dabei auf die Parametrisierung des Bodens gelegt. Das Modell simuliert den Wassertransport in der Bodenmatrix über die zweidimensionale Richardsgleichung und den schnellen Wassertransport in Makroporen über ein einfaches Bulk-Modell. Daneben werden Oberflächenrauhigkeit, Durchwurzelungstiefe und Vegetationsbedeckung im Jahresgang berücksichtigt. Um den Einfluss von unterschiedlichen Parametrisierungen des Bodens aufzuzeigen, werden verschiedene Parametrisierungsvarianten untersucht. Die van Genuchten/Mualem-Parameter, welche die Retentions- und Leitfähigkeitseigenschaften der einzelnen Bodenhorizonte beschreiben, wurden zum einen über die Bodenart und Trockenrohdichte bestimmt und zum anderen über die Anpassung von Retentionskurven an im Labor bestimmte Punkte der Wasserspannungskurve ermittelt. Die Ergebnisse der Simulationen für die Standorte mit Bodenfeuchtemessung zeigen, dass mit dem Modell der Jahresgang der Bodenfeuchte prinzipiell nachvollzogen werden kann. Jedoch führt keine der drei Parametrisierungsvarianten zu einer eindeutigen Überlegenheit bei der Simulationsgüte. Um neben den üblichen Gütemaßen ein weiteres Kriterium für den Erfolg oder Misserfolg einer Standortsimulation zu gewinnen, wurden die Simulationsergebnisse mit den Messwerten der anderen Standorte verglichen. An vier von zehn Standorten führt der Vergleich der Messwerte mit den Simulationen von anderen Standorten zu einer deutlich besseren Übereinstimmung als die Simulation für diesen Standort. Die Ergebnisse der Simulationen der Lysimeterstandorte zeigen, dass mit dem Makroporenansatz ein schneller Wasserfluss im Sommer nicht simuliert werden kann, da das "Anspringen" der Makroporen im Modellkonzept an den Bodenwassergehalt geknüpft ist. Auch hier wurden die Simulationsergebnisse mit den Messwerten der anderen Standorte verglichen. Für fünf von acht Standorten konnte mit den simulierten Sickerwassermengen von anderen Standorten eine bessere Übereinstimmung erzielt werden. Die Simulation der Sickerwassermenge aus Lysimetern scheint daher auf Grundlage der vorliegenden Datenbasis den jeweiligen Standort nicht in seiner Einzigartigkeit charakterisieren zu können. Die mit den Beregnungsversuchen bestimmten Abflussprozesse konnten für die Mehrheit der 18 Standorte mit dem Modell abgebildet werden. Der Oberflächenabfluss konnte für Standorte, die nicht zur Verschlämmung neigen, unter Berücksichtigung von Infiltrationsdaten sehr gut nachgezeichnet werden. Zwischenabfluss wird zwar simuliert, bleibt aber auf der Plotskale in Dynamik und Abflussmenge hinter dem Realsystem zurück. Mit der Untersuchung konnte gezeigt werden, dass sich sowohl die zeitliche Entwicklung des Bodenwassergehaltes, als auch die gemessenen Abflussprozesse allein über die Standortdaten, ohne eine weitere Kalibrierung des Modells, abbilden lassen. Die Trennschärfe der Modellierung ist bei Standorten mit relativ ähnlicher bodenphysikalischer Ausstattung begrenzt. Andererseits müssen aber auch Messungenauigkeiten, besonders bei der thermogravimetrischen Bestimmung des Bodenwassergehaltes, berücksichtigt werden. Eine standortbezogene Aussage über Retentions- und Abflussverhalten ist über eine Simulation möglich, jedoch bleibt die quantitative Aussagekraft begrenzt.
Medienpolitische Verflechtungen in Italien seit 1945 - Entwicklungslinien, Akteure, Konfliktfelder
(2007)
Der Schwerpunkt der Arbeit basiert auf einer retrospektiven Betrachtung des seit Jahrzehnten in Italien etablierten komplexen Beziehungsnetzwerkes zwischen Medien und Politik. Von seinen Anfängen im 19. Jh. bis einschließlich Mitte September 2006 werden die Konsequenzen dieser medienpolitischen Interdependenzen analysiert und kritisch hinterfragt. Ein weiterer Forschungsschwerpunkt liegt dabei auf der seit dem letzten Jahrzehnt virulent geführten Debatte über den Einfluss des italienischen Medienmoguls und Spitzenpolitikers Silvio Berlusconi auf die mediale Politikberichterstattung Italiens. Die vorhandenen Sprachbarrieren machen es allerdings oft nicht leicht, die Komplexität der italienischen Medien- und Politiklandschaft zu verstehen. Bei oberflächlicher Betrachtung kann dies rasch zu Fehleinschätzungen und -interpretationen führen, die in der gegenwärtigen Studie korrigiert werden. Neben einer fundierten Analyse der existierenden Fachliteratur zur Entwicklung der italienischen Massenmedien gründet die Studie auf einer detaillierten Berücksichtigung journalistischer Publikationen unterschiedlicher italienischer Tageszeitungen. Bei diesem literature review werden insgesamt 335 italienischsprachige Quellen berücksichtigt, von denen 128 Fachpublikationen sind. Mehrheitlich handelt es sich um soziologische, politik- und kommunikationswissenschaftliche Veröffentlichungen aus den vergangenen 15 Jahren. In Form eines chronologisch-deskriptiven Überblicks wird vor allem die Entwicklung des italienischen Fernsehsektors seit seiner Einführung 1954 bis zur Gegenwart nachgezeichnet. In diesem Kontext wird der Aufstieg Berlusconis zum Medienmogul und zum zweimaligen Ministerpräsidenten Italiens vor dem gesellschaftspolitischen Hintergrund skizziert und mit Interpretationen der italienischen Vergangenheit und Gegenwart abgeglichen. Dies erklärt letztlich auch die Herausbildung des Medienmonopols von Silvio Berlusconi und dessen Instrumentalisierungsversuche der Medien für seine politischen Zwecke. Die Arbeit gliedert sich in zwei Teile. Der erste Teil beinhaltet eine historisch-deskriptive Darstellung der seit Jahrzehnten bestehenden symbiotischen Verquickung von Medien und Politik in Italien (Kap. 1 bis 7). Hierbei finden politische, ökonomische, soziale und rechtliche Aspekte Berücksichtigung. Zudem stehen die unterschiedlichen Akteure des Mediensektors wie politische Parteien, Politiker, Journalisten, Medienunternehmen, Wähler sowie die katholische Kirche im Zentrum der Arbeit. Zum besseren Verständnis werden sie nicht isoliert, sondern in ihren vielfältigen Wechselwirkungen betrachtet. Da Berlusconi in den vergangenen vier italienischen Parlamentswahlen stets der Anwärter auf das Präsidentschaftsamt des Mitte-Rechts-Lagers war, werden die relevanten medienpolitischen Aspekte aller vier Wahlen zusammengefasst und erstmalig zueinander in Beziehung gesetzt. Im zweiten Teil werden Perspektiven für ein zukünftiges Forschungsvorhaben präsentiert, um die Qualität italienischer Hauptabendnachrichten in Bezug auf ihren tendenziösen Charakter zum Vor- bzw. Nachteil politischer Akteure bestimmen zu können (Kap. 8). Auf Basis des identifizierten Forschungsdefizits italienischer Studien wird ein idealtypisches Analysekonzept für künftige Studien entwickelt, das auf der empirischen Methode der Inhaltsanalyse beruht. Ein exemplarisch vorgestelltes Forschungsdesign soll dazu beitragen, zukünftig Erkenntnisse über die Qualität der politischen Fernsehberichterstattung in Italien gewinnen zu können. Dies erfolgt unter Rückgriff auf die kommunikationswissenschaftlichen Theorien: gatekeeper-, agendasetting-, framing-, bias-Ansatz und instrumentelle Aktualisierung. Das Ziel der Arbeit ist es, das Wechselspiel und die Einflussversuche unterschiedlicher Akteure des italienischen Mediensektors in ihrem historischen Kontext darzustellen. Hierbei interessieren vor allem die zentralen Konfliktfelder und Entwicklungslinien, die im Rahmen der medienpolitischen Verflechtungen Italiens zu konstatieren sind. Mittels eines umfassenden reviews der italienischen Literatur sollen die vorhandenen Sprachbarrieren überwunden und der deutschsprachigen Leserschaft gezielt soziopolitische Zusammenhänge des modernen italienischen Journalismus und seiner historischen Entwicklung zugänglich gemacht werden. Ein weiteres Ziel besteht darin, den Kenntnisstand über italienische Studien zum engen Netzwerk aus Medien und Politik zu erhöhen. Insgesamt wird eine systematische Aufarbeitung der medienpolitischen Charakteristika Italiens sowohl aus inländischer als auch aus ausländischer Sicht geliefert.
Die vorliegende Arbeit zur Gestaltung interaktiver Animationen definiert im theoretischen Teil zunächst zentrale Begriffe der Multimediaforschung und weist anschließend den pauschalen Vergleich verschiedener Codierungsformen wie Texte, Bilder und Animationen aufgrund versuchsplanerischer Mängel zurück. Anstelle dieser Gegenüberstellungen konzentrieren sich Theorien zu Multimedia vornehmlich darauf, wie multimediale Lernumgebungen möglichst lernförderlich zu gestalten sind. Hierbei werden die beiden derzeit dominierenden Theorien, die Cognitive Load Theorie und die kognitive Theorie multimedialen Lernens, eingehend erörtert ebenso wie vier weitere Modelle, die bisher eine nachrangige Bedeutung innerhalb der Multimediaforschung einnehmen. Im empirischen Teil der Arbeit werden zwei Untersuchungsserien mit insgesamt sieben durchgeführten Studien vorgestellt, welche ausgewählte Empfehlungen zur Gestaltung multimedialer Lernumgebungen prüfen. Die erste Experimentalserie befasst sich mit der Frage, ob die Anordnung von Ursache und Wirkung die Lernleistungen für Kausalzusammenhänge in interaktiven Animationen beeinflusst. Es zeigt sich, dass eine links platzierte Ursache und rechts positionierte Wirkung im Vergleich zu anderen Positionierungsmöglichkeiten bei Frauen, nicht jedoch bei Männern, den Lernerfolg erhöht. Signalisierungen, die auf die Anordnung des Kausalzusammenhanges hinweisen fördern dabei die Verständnisleistung der Lernenden. Neben dem Geschlecht moderieren auch Computererfahrung und räumliches Vorstellungsvermögen den Einfluss der Anordnung der Ursache-Wirkungs-Beziehung auf die Lernleistung. Je höher die Computererfahrung, desto besser fallen die Verständnisleistungen bei Einhaltung der Leserichtung von links nach rechts im Vergleich zu anderen Positionierungsmöglichkeiten aus. Probanden mittlerer bis hoher räumlicher Kompetenzen werden in ihrem Lernerfolg besonders von der Anordnung des Kausalzusammenhanges beeinflusst. Die zweite Untersuchungsserie beschäftigt sich mit ausgewählten interaktiven Elementen in Visualisierungen und deren Einfluss auf die Lernleistung von Benutzern. Hier fällt auf, dass viele Lernende sowohl nützliche als auch für den Lernerfolg irrelevante interaktive Elemente überhaupt nicht oder nur sehr selten benutzen. Im Vorfeld der Animation dargebotene Instruktionshinweise, die darum bitten, spezifische interaktive Elemente systematisch zu verwenden, steigern sowohl die Nutzungshäufigkeit dieser Elemente als auch die Verständnisleistungen der Benutzer. Neben der Diskussion um Einschränkungen und praktische Implikationen der gefundenen Ergebnisse wird ein Ausblick auf mögliche zukünftige Forschungsthemen geliefert.
Die Arbeit untersucht die kulturübergreifende Einsetzbarkeit von internetbasierten Testverfahren in der berufsbezogenen, psychologischen Eignungsdiagnostik. Durch die verstärkt internationale Ausrichtung von Unternehmen und ihrer Personalstrategie gewinnt Eignungsdiagnostik als Bestandteil einer internationalen Personalauswahl immer mehr an Bedeutung. Damit steigt der Bedarf nach angemessenen Methoden, um diesen Anforderungen gerecht zu werden. Der Forschungsgegenstand der vorliegenden Arbeit widmet sich dieser Problematik und verbindet interkulturelles Testen mit internetvermitteltem Testen im Anwendungsfall der berufsbezogenen Eignungsdiagnostik. Es wird ein Vorgehen dargestellt, das auf mehreren Ebenen die Äquivalenz von Originalskala und Übersetzung der in einem Auswahlverfahren eingesetzten Tests in unterschiedlichen Kulturen prüft. Dabei werden insbesondere die Quellen von Verzerrung auf Ebene der verwendeten Items, der psychologischen Konstrukte und der verwendeten Methode untersucht. Aufgrund dieser Erkenntnisse werden in einem weiteren Schritt Mittelwertsunterschiede betrachtet und inhaltliche Schlüsse aufgrund erzielter Testwerte von Individuen gezogen. Dazu werden vier Stichproben, zwei aus Deutschland, eine aus Nordamerika und eine aus Singapur (N=649) untersucht, die die Testverfahren in deutscher beziehungsweise englischer Sprache bearbeitet haben. Um die Äquivalenz der eingesetzten Skalen in den unterschiedlichen Sprachen und Stichproben nachzuweisen, werden die Faktorstrukturen der Skalen verglichen, sowie in Multigruppenvergleichen die Übereinstimmung der Varianz- und Kovarianzstrukturen untersucht. Es werden Vorgehensweisen für den Umgang mit den Testwerten bei der Personalauswahl vorgeschlagen und ein Handlungsleitfaden für die Äquivalenzprüfung beim Einsatz kulturübergreifender Testskalen entwickelt. Der Ausblick zeigt weitere wichtige Forschungsfelder für die internetbasierte, kulturübergreifende Eignungsdiagnostik auf und weist auf offenen Fragen hin.
Die Bezeichnung "Sozialpädagogik" steht heute nicht nur für eine Vielfalt an professionellen Praktiken, die es in unterschiedlicher Weise mit Personenveränderung zu tun haben, sondern auch für einen akademisch institutionalisierten Kommunikationszusammenhang, der sich über ein heterogenes und diskontinuierliches Spektrum an Themen, Wissensbeständen und Forschungsaufgaben definiert. Die wissenschaftliche Diskussion um die So-zialpädagogik ist vor diesem Hintergrund seit einigen Jahren deutlich geprägt von der Erfahrung, dass eine umfassende Theorie ihres Gegenstandsbereichs nicht mehr möglich sei. Die Dissertation verortet sich in dieser Diskussion, begreift jedoch die Frage nach der Möglichkeit einer Theorie der Sozialpädagogik nicht als ein Problem des Gegenstandes, sondern als ein Problem seiner Beobachtung. Dabei geht es jedoch keineswegs nur um eine Kritik der Voraussetzungen sozialpädagogischer Erkenntnis, vielmehr wird zugleich ein neuartiger Weg innerhalb der sozialpädagogischen Theoriediskussion eingeschla-gen: Eine Theorie der "Sozialpädagogik" kann nur als eine nicht-sozialpädagogische Theorie formuliert werden. Die daran anschließende methodologische Auseinandersetzung rückt einen theoretisch informierten Modus der Beobachtung ins Zentrum, der seine postontologische Lektion bereits gelernt hat und gerade unter Verzicht auf Vorstellungen von der je besonderen Bestimmtheit seines Objektes objekttheoretische Aussagen anstrebt: Pierre Bourdieus Theorie der Felder.
Hauptziel dieser Untersuchung war die Ermittlung von Faktoren, die auf das Erleben von akkulturativem Stress Einfluss nehmen. Hundertsiebenundachtig in Athen lebenden Immigranten aus 25 Ländern wurden nach ihren demographischen Charakteristika, ihren Akkulturationsorientierungen, ihren bikulturellen sozialen Kontakten, ihren stereotypischen Wahrnehmungen den Einheimischen gegenüber, ihren Kompetenz- und Kontrollüberzeugungen, der wahrgenommenen kulturellen Distanz sowie ihrer (subjektiven) Beschwerdenbelastung befragt. In Anlehnung an das Modell von Berry war der Frage nachgegangen, welche Prädiktorenkombination zur Vorhersage des akkulturativen Stresses am besten beitrug. Der akkulturative Stress wurde anhand des SCL-90-Rs erfasst und somit wurden verschiedene Prädiktorenkombinationen je nach SCL-90-R-Skala aufgezeigt. Im Allgemeinen stellte sich heraus, dass die Akkulturationsstrategie der Integration, das Vorhandensein von internalen Kompetenz- und Kontrollüberzeugungen, von positiven Stereotypen und bikulturellen sozialen Kontakten sowie die Wahrnehmung von erhöhter Ähnlichkeit zwischen dem Herkunfts- und dem Aufnahmeland von hoher Bedeutung für das psychische Wohlbefinden der Immigranten sind. Erwartungsgemäß stehen Separation und Marginalisierung mit erhöhter Beschwerdenbelastung in Verbindung. Entgegen der Annahme dieser Studie zeigte sich, dass jüngeres Alter mit höherer Beschwerdenbelastung einhergeht. Im Rahmen der Konstruierung einer griechischen Adaption des Fragebogens zu Kompetenz- und Kontrollüberzeugungen wurden 200 griechischen Studierenden eine griechische Version des FKK (welche mit der Methode der Rückübersetzung erstellt wurde) verteilt. Die psychometrische Absicherung der griechischen Version dieses Instrumentes erlaubte seinen Einsatz bei den ausländischen Probanden, die die Sprachen, in denen der FKK bereits vorliegt, nicht beherrschten. Auf zusätzliche Befunde in Hinsicht auf die Beziehungen unter den untersuchten Variablen sowie auf praktische Implikationen wird in der Arbeit eingegangen. Alle Instrumente sind im entsprechenden Anhang zu finden.
Im Rückblick ist alles anders - Experimentelle Untersuchungen zu Distanzschätzungen mit Spiegeln
(2007)
In der vorliegenden Arbeit werden mit Hilfe von vier Experimenten die Vor- und Nachteile gekrümmter Spiegel im Verkehrskontext untersucht. Im ersten Experiment wurden hierzu Distanzschätzungen mittels der Methode der verbalen Größenschätzung erhoben. Im zweiten Experiment mussten Kollisionszeitpunkte geschätzt werden. Die Beurteilung der Situationen geschah in den ersten beiden Experimenten mit Hilfe von planen, sphärischen und asphärischen Spiegeln. Es ergaben sich keine Nachteile durch die Verwendung asphärischer Spiegel, mit dem planen Spiegel fanden sich jedoch ausgeprägte Unterschätzungen der realen Distanzen und Kollisionszeitpunkte. Im dritten Experiment wurden sphärische und teilasphärische Außenspiegel im Hinblick auf ihr nutzbares Sichtfeld und die zur Objekterkennung notwendigen Reaktionszeiten untersucht. Bei vergleichbaren Reaktionszeiten wurden bei der Objekterkennung mit teilasphärischen Spiegeln weniger Fehler gemacht. Im vierten Experiment mussten Distanzen sowohl mit Hilfe von planen und teilasphärischen Spiegeln als auch bei direkter Sicht mittels der Methode des Gehens ohne zu Sehen und der Methode der verbalen Größenschätzung beurteilt werden. Des Weiteren wurden egozentrische und exozentrische Distanzen geschätzt. Die Ergebnisse werden vor dem Hintergrund der bestehenden Literatur zu Distanzschätzungen mit Spiegeln und Kollisionszeitschätzungen diskutiert. Übereinstimmend zeigten sich mit planen Spiegeln deutliche Unterschätzungen. Dies kann nicht auf die Erhebungsmethode oder Perspektive (ego- vs. exozentrisch) zurückgeführt werden. Mit teilasphärischen Spiegeln werden Distanzen trotz starker Verzerrungen der abgebildeten Objekte relativ genau geschätzt. Die Ergebnisse werden dahingehend interpretiert, dass die Größe des verfügbaren Sichtfeldes einen stärkeren Einfluss auf die Schätzleistungen hat als die Abbildungsqualität.
Online-Shopping hat sich im Zuge der zunehmenden Verbreitung und technischen Fortentwicklung des Internets in nahezu allen Märkten etabliert. Sowohl Anbieter und Entwickler von Onlineshops als auch Nutzer und Kunden mussten hierfür in wenigen Jahren neue Strukturen und Verhaltensweisen entwickeln und lernen. Dieser Prozess ist noch nicht abgeschlossen. Die noch offene Zukunft der Entwicklung erlaubt und erfordert daher auch neue Fragestellungen und methodische Orientierungen in der psychologischen Forschung. In diesem noch jungen Forschungsfeld befasst sich die vorliegende empirisch-psychologische Arbeit mit dem Merkmal der Gebrauchstauglichkeit von Onlineshops und hierin insbesondere mit den Auswirkungen der Konformität von Nutzererwartungen über den Ablauf eines Einkaufsvorgangs und der Gestaltung dieser Abläufe in einem Onlineshop. Zur Beschreibung und Analyse der Nutzererwartungen wird ein skripttheoretischer Ansatz verwendet. Dieser geht davon aus, dass Menschen aufgrund der sich wiederholenden Erfahrung ein kognitives Schema in Form eines Skripts herausbilden, womit eine Aufmerksamkeitsentlastung in zukünftigen Situationen ähnlicher Art erreicht wird. In drei experimentell angelegten Untersuchungen zum Vorgehen beim Online-Shopping zeigen sich grundlegende Gemeinsamkeiten in den Erwartungen von Nutzern, die als allgemeines Onlineshoppingskript das generell erwartbare Einkaufsverhalten darstellen können. Die Auswirkungen einer Abweichung von den Nutzererwartungen im Design von Onlineshops werden in drei weiteren Untersuchungen mit Hilfe eines fiktiven Onlineshops überprüft. Die Ergebnisse der Untersuchungen bieten Hinweise und Kriterien für die Konzeption von Onlineshops.
Durch die Betrachtung der dialogischen Erziehung Bubers, deren Anknüpfung an die Erziehungstheorien Rousseaus, Humboldts und Schleiermachers, sowie die Darstellung der hermeneutischen Ansätze von Schleiermacher, Dilthey und Gadamer als auch der Dialektik Schleiermachers versucht die Dissertation zunächst, das erzieherische Verhältnis als dialogisches Verhältnis mit Anderen in Verbindung mit Hermeneutik und Dialektik vorzustellen. Aufgrund der Bedeutung der Selbständigkeit in der Erziehung, der geschichtlichen Prägung in der Hermeneutik und der Vielfalt in der Dialektik wird dann das Erkennen des Anderen als Aufgabe der Erwachsenenbildung unter den drei Gesichtspunkten Autonomie, geschichtliche Prägung und Vielfältigkeit erörtert und der etablierten Erwachsenenbildung eine offene Erwachsenenbildung gegenüber gestellt.
Seit den frühen siebziger Jahren ist im anglo-amerikanischen Raum eine große Anzahl an Romanen erschienen, die alle auf einer bzw. zwei eng verwandten schottischen Feenballaden ("Thomas the Rhymer" und "Tam Lin") basieren. Die vorliegende Arbeit untersucht eine Auswahl dieser Romane in vergleichender Perspektive. Der erste Teil beschäftigt sich mit Feenglauben und -literatur im Allgemeinen, während der zweite Teil der Analyse von zehn auf den Balladen basierenden Romanen gewidmet ist. Da im Ausgangsmaterial Elemente keltischen Volksglaubens eine zentrale Rolle spielen, untersucht das erste Kapitel die Grundlagen und möglichen Ursprünge des keltischen Feenglaubens. Um neben einer Einführung in die volkskundlichen Grundlagen auch eine Verankerung der Arbeit in aktuellen literaturwissenschaftlichen Theorien zu gewährleisten, gibt das zweite Kapitel einen Überblick über Theorien der phantastischen Literatur. Vorgestellt werden strukturalistische und funktionale Ansätze, die sich chronologisch von J.R.R. Tolkien (1948) über Tzvetan Todorov (1970) bis hin zu Farah Mendlesohn (2005) bewegen. Um die Bearbeitungen der frühmodernen Balladen literaturgeschichtlich einzuordnen, zeichnet das nächste Kapitel die Geschichte der literarischen Bearbeitungen des Elfenstoffes in der Literatur vom Mittelalter bis ins späte 20. Jahrhundert nach, mit Schwerpunkt auf englischsprachigen Werken. Von im Mittelalter noch stark vom Volksglauben beeinflussten, moralisch ambivalenten Figuren entwickeln sich die Elfen seit dem 16. Jahrhundert zu satirisierten, miniaturisierten und verniedlichten Gestalten; die Fantasyromane des späten 20. Jahrhunderts scheinen jedoch wieder zu stärker bedrohlichen Elfen zurück zu finden. Das nächste Kapitel widmet sich der Darstellung des Ausgangsmaterials, der zwei Balladen, die als Nr. 37 bzw. 39 in der Balladensammlung von Francis James Child zu finden sind. Erläutert werden die Entstehungsgeschichte der traditionellen Ballade (traditional ballad) im Allgemeinen und von Child Nr. 37 und 39 im Besonderen, sowie Varianten, Symbolik und Besonderheiten der zwei Balladen. Die anschließenden Analysekapitel beschäftigen sich jeweils schwerpunktmäßig mit einer Balladenadaption in Romanform: - Dahlov Ipcar: The Queen of Spells (1973) - Elizabeth Marie Pope: The Perilous Gard (1974) - Diana Wynne Jones: Fire and Hemlock (1984) - Ellen Kushner: Thomas the Rhymer (1990) - Pamela Dean: Tam Lin (1991) - Terry Pratchett: Lords and Ladies (1992) und The Wee Free Men (2003) - Patricia McKillip: Winter Rose (1996) Alle Analysekapitel sind ähnlich strukturiert: Nach kurzer Vorstellung des Autors folgt eine Zusammenfassung der Romanhandlung. Da alle Romane mehr oder weniger stark intertextuell sind, werden daraufhin Einflüsse und intertextuelle Anspielungen untersucht. Besonderes Augenmerk liegt dabei auf der Verarbeitung der zwei Child-Balladen. Da nahezu alle untersuchten Romane ähnliche Hauptcharaktere aufweisen (junges Mädchen, junger Mann, Elfenkönigin) untersuchen die Analysekapitel diese Figurenkonstellation sowie die hier verarbeiteten folkloristischen Einflüsse. Trotz der großen zeitlichen und geographischen Bandbreite der Schauplätze sind sich die Romane erstaunlich ähnlich, vor allem in der Darstellung ihrer Hauptfiguren. Die weibliche Heldin ist meist jung, eigenwillig und unterscheidet sich oft durch eine negative Charaktereigenschaft oder Umweltbedingung von ihren Altersgenossinnen. Nahezu alle Romane werden aus der Perspektive der weiblichen Hauptfigur erzählt. Dies führt dazu, dass die männliche Hauptfigur weniger zentral und oft durch eine gewisse Passivität gekennzeichnet ist. Infolgedessen ist die zweite aktive Figur der Konstellation ebenfalls eine Frau " die Elfenkönigin. Auch in ihrer Darstellung lassen sich in allen Romanen große Gemeinsamkeiten finden: Sie ist attraktiv und grausam, kühl und oft überheblich. Insgesamt werden die Elfen in den Romanen deutlich unsympathisch geschildert. Sie sind eine Spezies schöner, (fast) unsterblicher, oft übernatürlich intelligenter und mit magischen Fähigkeiten begabter Wesen, doch sind sie auch kalt, grausam und vollkommen fremdartig und unverständlich für die Menschen. Ein möglicher Grund für die negative Darstellung der Elfen scheint didaktischer Art zu sein, da die Botschaft aller Adaptionen an die Leser lauten könnte: "Akzeptiere deine Unvollkommenheit und lass dich nicht von vermeintlich überlegenen Gegnern einschüchtern " auch sie haben Schwächen". Auch in Richtung Gender-Diskurs scheinen viele der Autoren eine Aussage machen zu wollen. Sie zeichnen ihre Heldinnen als "starke Mädchen", die in einer Umkehrung des "damsel in distress"-Schemas einen Mann aus der Gefangenschaft der Elfen retten. Als feministisch kann man die Adaptionen jedoch nicht bezeichnen, da sie hierzu eher zu konservativ sind, was sich vor allem darin zeigt, dass die einzige Frau im Roman, die wirklich über Macht verfügt " nämlich die Elfenkönigin " am Ende die Verliererin ist.