Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (492) (entfernen)
Sprache
- Deutsch (492) (entfernen)
Volltext vorhanden
- ja (492) (entfernen)
Schlagworte
- Deutschland (24)
- Stress (13)
- n.a. (10)
- Bodenerosion (9)
- Tourismus (8)
- Fernerkundung (7)
- Geschichte (7)
- Modellierung (7)
- Motivation (6)
- Nachhaltigkeit (6)
Institut
- Psychologie (117)
- Raum- und Umweltwissenschaften (97)
- Wirtschaftswissenschaften (34)
- Geschichte, mittlere und neuere (28)
- Germanistik (25)
- Kunstgeschichte (21)
- Mathematik (18)
- Politikwissenschaft (15)
- Soziologie (15)
- Fachbereich 1 (11)
- Informatik (10)
- Philosophie (9)
- Fachbereich 3 (8)
- Romanistik (8)
- Anglistik (6)
- Computerlinguistik und Digital Humanities (6)
- Fachbereich 2 (6)
- Fachbereich 4 (6)
- Fachbereich 6 (6)
- Medienwissenschaft (6)
- Geschichte, alte (5)
- Allgemeine Sprach- und Literaturwissenschaft (4)
- Fachbereich 5 (4)
- Klassische Philologie (4)
- Pädagogik (4)
- Ethnologie (3)
- Archäologie (2)
- Japanologie (2)
- Rechtswissenschaft (2)
- Sinologie (2)
- Phonetik (1)
- Slavistik (1)
In den Rheinlanden agierten in der Frühen Neuzeit zahlreiche Räuberbanden. Trotz zahlreicher Hinweise auf Bandenaktivitäten scheitert eine umfassende Studie über die Erscheinungsformen dieser kollektiven Delinquenz jedoch an einer ungleichmäßigen Quellenüberlieferung; denn ausführliche Informationen, beispielsweise über das Deliktspektrum oder die bevorzugten Opfer, fehlen ebenso wie erschöpfende Auskünfte über die Gegenmaßnahmen der Obrigkeit. Die wichtigste Grundlage bilden daher die Actenmäßigen Geschichten, die eine Übersicht der angeklagten Verbrechen enthalten. Die Vielzahl an Delikten, die hingegen nicht zur Anklage gelangten, erschließt sich allerdings nicht. Dies gilt auch im Hinblick auf jene Bandenmitglieder, die nicht am Hauptverfahren beteiligt waren; über sie, ihre Straftaten und ihre Funktion innerhalb der Bande werden wir nicht unterrichtet. Aus diesen Gründen ist es schon als ausgesprochener Glücksfall zu bezeichnen, daß zumindest für die zwischen 1796 und 1802 agierende Schinderhannesbande vollständige Ermittlungsakten vorliegen. Zwischen 1796 und 1802 verübte sie mindestens 211 Verbrechen. Den Höhepunkt ihrer Aktivitäten entfaltete die Bande zwischen dem Herbst 1799 und dem September 1801: Mit seiner Bande erstürmte Bückler in diesen Jahren die Häuser begüterter Kaufleute oder überfiel auf offener Landstraße die Reisenden. Durch Brandbriefe, die er mit "Johannes durch den Wald" unterzeichnete, erpreßte er größere Geldsummen und stellte "Sicherheitskarten" aus, die den Besitzern sicheres Geleit garantieren sollten. Die Opfer der Bande wurden bei den Aktionen in der Regel brutal mißhandelt; einige Personen wurden sogar ermordet. Alle Versuche der Behörden, der Bande das Handwerk zu legen, schlugen zunächst fehl. Die Wende erfolgte 1801, als die Einwohner von Staudernheim und Obermoschel erstmals gegen die Räuber vorgingen; in der Folgezeit mißlangen viele Verbrechen. Auch die damaligen Justizorgane erhöhten permanent den Fahndungsdruck und engten so den Operationsraum mehr und mehr ein. Mit den noch verbliebenen Komplizen setzte sich der Schinderhannes auf das rechte, vermeintlich sicherere Rheinufer ab, um sich so dem staatlichen Zugriff zu entziehen. Hier wurde er jedoch am 31. Mai 1802 in der Nähe von Wolfenhausen von kurtrierischen Behörden verhaftet und an die Franzosen ausgeliefert. In seinen Verhören gab er bereitwillig Auskunft über seine Verbrechen und nannte alle daran beteiligten Komplizen, die ebenfalls nach und nach ergriffen wurden. Die umfassenden Aussagen der Bandenmitglieder ermöglichen nicht nur eine Fallstudie zur Schinderhannesbande, sondern gewähren darüber hinaus Einblick in die verschiedenen Erscheinungsformen der kollektiven Delinquenz an der Wende vom 18. zum 19. Jahrhundert: Die damaligen Räuberbanden bildeten keine hierarchischen Organisationen, an deren Spitze ein Räuberhauptmann stand. Vielmehr handelte es sich um "lockere Gesellungen", die nur bei schweren Verbrechen in größeren Verbänden auftraten. Meistens arbeiten die Mitglieder jedoch auf eigene Rechnung oder in kleineren Gruppen, die nicht mehr als drei Personen umfaßten. Ihre Mitglieder rekrutierten die Banden zu einem überwiegenden Teil aus den vagierenden Bevölkerungsschichten. Trotz zahlreicher Rückschläge ermöglichte die Verhaftung des Schinderhannes die Festnahme noch flüchtiger Bandenmitglieder zu veranlassen. Dabei kooperierten die französischen Behörden eng mit den rechtsrheinischen Stellen, so daß sich schon nach relativ kurzer Zeit weitere Erfolge einstellten: Ende November 1802 saßen in den Mainzer Gefängnissen fast ein hundert Personen. Nach Abschluß der Ermittlungen eröffnete das Mainzer Spezialgericht schließlich am 23. Oktober 1803 das Verfahren gegen 68 Angeklagte und verhandelte die in der Anklageschrift zusammengestellten Klagepunkte. Den 132 Zeugen der Anklage stellten die neun Anwälte, welche die Mandate der Angeklagten übernommen hatten, 202 Zeugen der Verteidigung gegenüber. Nach langandauernden Beratungen " das Spezialgericht mußte in nahezu 700 Einzelpunkten über die individuelle Schuld jedes Angeklagten befinden " erging am 20. November 1803 das Urteil: 19 Bandenmitglieder, unter ihnen auch Johannes Bückler, wurden zum Tode durch die Guillotine verurteilt, 24 Angeklagte erhielten zum Teil langjährige Gefängnisstrafen; die übrigen Angeklagten sprach das Spezialgericht frei. Die Todesurteile wurden einen Tag später vor einer großen Zuschauermenge vollstreckt. Endgültig unterbinden konnten die Behörden die Aktivitäten von Räuberbanden am Rhein nicht; schon im Mai 1803 war zum Beispiel im Soonwald eine neue Bande unter Führung von Peter Schwarz aktiv, und Berichte über die Aktivitäten von Räuberbanden sollten auch in den folgenden Jahren nicht enden. Offene Straßenüberfälle oder Raubzüge mit hoher Personalstärke sind für das erste Jahrzehnt des 19. Jahrhunderts allerdings nicht mehr belegt. Statt dessen verlegten die Räuber die Schwerpunkte ihrer Tätigkeit auf Einbruch und Diebstahl.
Das Studium des christlichen Briefstils im spätantiken Ägypten steht im Zentrum dieser Arbeit. Anhand der dokumentarischen Papyrusbriefe berührt diese Arbeit hauptsächlich die Epistolographie des Altertums, besonders die Phraseologie des frühen Christentums. So sieht man in der Arbeit die Beobachtung, Analyse und Erklärung der griechischen christlichen Privatbriefe im Hinblick auf ihre Struktur und ihre typischen christlichen Elemente insbesondere in Anredeformen, Grußformeln und typischen Redewendungen. Für diese Forschung wurden etwa 200 christliche Briefe zur intensiven Auswertung als Textgrundlage ausgewählt; zum Vergleich wurden auch heidnische Briefe aus ptolemäischer und römischer Zeit herangezogen. Diese Studie, besonders bei der Untersuchung der Formeln, bezieht sich auf den Zeitraum, zwischen dem 3. und 4./5. Jh. n.Chr.
Untersucht wird die Geschichte des Führerkorps des nationalsozialistischen Reichsarbeitsdienstes von seinen Anfängen im Freiwilligen Arbeitsdienst der Weimarer Republik bis zu den Traditionsverbänden der ehemaligen Führer in der Gegenwart. Der Schwerpunkt der Arbeit liegt auf der Sozial- und Institutionsgeschichte des Führerkorps, die um alltags- und mentalitätsgeschichtliche Aspekte ergänzt werden. Auf der Grundlage einer statistischen Auswertung von 1000 Personalakten werden die Zusammensetzung und die Sozialstruktur des Führerkorps, seine "Gleichschaltung" sowie seine Beziehungen zu Militär, Nationalsozialismus und Kirche analysiert. Als Folie für die Interpretation dient der Vergleich mit anderen Berufsgruppen sowie den Führerkorps anderer NS-Organisationen. Aufbauend auf dieser prosopographischen Untersuchung wird anhand von zeitgenössischen und autobiographischen Äußerungen von Arbeitsdienstführern erklärt, warum der Arbeitsdienst so positiv erlebt wurde, daß er Teil der Identität vieler Führer wurde, und welche Faktoren zur Entstehung einer Gemeinschaft unter den Führern beitrugen, die bis in die jüngste Vergangenheit hinein bestand. Das primäre Interesse gilt hierbei den Mechanismen, mit denen der totalitäre NS-Staat bei den Angehörigen seiner unteren und mittleren Führungs- und Trägerschichten Loyalität erzeugte und erhielt. Schließlich wird die Rolle der Führer im Lageralltag und in der Lagererziehung des Reichsarbeitsdienstes betrachtet. Die Strukturen der Lager und die zu konstatierende Diskrepanz zwischen Anspruch und Realität der Lagererziehung lassen dabei Schlüsse auf Charakter und Funktion des Arbeitsdienstes im "Dritten Reich" zu.
Gegenstand dieser bauarchäologischen Analyse ist die Baugeschichte von Saint-Jacques zu Dieppe von ihrem Beginn bis zur 1543 abgeschlossenen Chorwölbung. Die Untersuchung stützt sich auf eine detaillierte Bauanalyse sowie auf die Auswertung des spärlichen Quellenmaterials, das neue Aufschlüsse zur ursprünglichen Bestimmung des Baus und zum Zeitpunkt der Gründung lieferten. Zu Beginn lieferten Bauten der Niedernormandie mit Caen als Zentrum die Vorbilder und die Anregungen. Nach einem kurzen Aufscheinen der kronländischen Architektur, insonderheit Mello, kommen hauptsächlich Roueneser Kirchenbauten als Inspirationsquellen für die Architektur vor. Die Pfarrkirche Saint-Jacques konnte aufgrund ihrer langjährigen Entstehungsgeschichte nicht als Gesamtkonzept rezipiert werden. Dort wurden aber Teillösungen entwickelt, die in normannischen Nachfolgebauten wiederzufinden sind. Die Rose des Südquerhauses von Saint-Ouen in Rouen stellt das bedeutendste Beispiel dafür dar. Ob der im Bauverlauf zu Beginn des 13. Jahrhundert konstatierte Formen- und Vorbilderwechsel auf die politischen Ereignisse zurückzuführen ist, konnte ebenso wenig für Dieppe wie auch für die Kathedrale Notre-Dame in Rouen beantwortet werden. Außer Zweifel steht, dass Saint-Jacques eine wichtige Rolle für das Verständnis der Entwicklungsgeschichte der normannischen Gotik spielt, indem dort etwa 350 Jahre Baukunst dokumentiert sind.
"Tempelsklaverei" in Kleinasien: Ein Beitrag zum Tempeldienst in hellenistischer und römischer Zeit
(2007)
Der Begriff "Tempelsklaverei" bezeichnet in der Forschung eine rechtliche und ökonomische Abhängigkeit von Menschen, die einer Gottheit geweiht waren, und in einem Heiligtum arbeiten mußten. Die "Tempelsklaverei" gilt als typisch kleinasiatische Erscheinung mit einer orientalischen Tradition. Bezeugt ist sie in vorwiegend epigraphischen und wenigen literarischen Quellen seit der Mitte des 4. Jhs. v.Chr. bis in das 3. Jh. n.Chr. Eine Besonderheit dieser "Tempelsklaverei" ist, daß nicht nur Sklaven, sondern auch persönlich freie Menschen in sozialer, rechtlicher oder ökonomischer Abhängigkeit von einem Heiligtum standen. Welche Aufgaben im Heiligtum den sog. Tempelsklaven anvertraut wurden und worin ihre rechtliche und ökonomische Abhängigkeit im einzelnen bestand, ist Thema dieser Arbeit. Unter dem Begriff "Tempelsklaven" werden in der Forschung folgende griechische Begriffe subsumiert: hieródoulos und hierós (und feminine Formen), sómata hierá und paídes hieroí. Diese Begriffe werden anhand zahlreicher Texte mit Übersetzungen vorgestellt und ausgewertet (Kapitel 2). Sie werden in Kleinasien nicht als Synonyme verwendet; einige bezeichnen darüber hinaus nicht nur Menschen im Tempeldienst, sondern definieren andere religiöse Bindungen, die keinem Dienst in einem Heiligtum entsprechen. Auf der Basis der bislang besprochenen Quellen sowie weiterer epigraphischer und literarischer Quellen werden die Wege in den Tempeldienst untersucht. In Frage kommen vor allem Weihung, Kindesaussetzung und das Tempelasyl (Kapitel 3). Um die rechtlichen und ökonomischen Aspekte des Tempeldienstes schärfer zu fassen, werden diese mit den wesentlichen Elementen der antiken Sklaverei sowie von kollektiven Abhängigkeitsformen persönlich freier Menschen verglichen (Kapitel 4) . Zur Sprache kommt auch die sakrale Prostitution (Tempelprostitution), die mit den "Tempelsklaven" häufig in Verbindung gebracht wird. In der Zusammenfassung werden die wesentlichen Ergebnisse zusammengefaßt und knapp diskutiert, warum in der älteren Forschung ein nicht zutreffendes homogenes Bild einer kleinasiatischen bzw. orientalischen "Tempelsklaverei" gezeichnet wurde (Kapitel 5). Ergebnis der Arbeit: "Die" Tempelsklaverei als eine besondere rechtliche Form von Abhängigkeit oder Unfreiheit gibt es im hellenistischen und römischen Kleinasien nicht. Nachweisbar sind unterschiedliche Formen der rechtlichen, sozialen und wirtschaftlichen Bindung an eine Gottheit und ihr Heiligtum. Diese beruhen in weiten Bereichen auf bekannte Rechtsformen der griechisch-römischen Antike: Sklaverei und kollektive Abhängigkeit ländlicher Gemeinden. Im hier bearbeiteten Zeitraum sind die orientalischen Traditionen weitaus weniger nachweisbar als bislang vermutet wurde.
Dieser Fragebogenstudie im Längsschnittdesign liegen die Antworten von initial 169 stationären Patienten mit chronischen Schmerzen aus der orthopädischen Rehabilitation zugrunde. Anhand dessen wurden Aspekte religiöser Krankheitsverarbeitung bei der psychischen Anpassung an chronische Schmerzen untersucht. An der Verbesserung des körperlichen Befindens über die Zeit zeigte "negatives religiöses Coping" einen inversen Beitrag, der durch die Mediatorvariable "Hilflosigkeit" vermittelt wird. Für "positives religiöses Coping" war kein Beitrag zur Anpassung nachzuweisen. In der Behandlung von Schmerzpatienten gilt es von daher, religiöses Hadern sowie dahinterliegende psychologischen Mechanismen zu berücksichtigen.
Diese Dissertation gliedert sich in zehn Kapitel. Nach einem einleitenden Kapitel stelle ich die historischen Rahmenbedingungen der Arbeit der katholischen Missionare in Deutsch-Ostafrika vor (ethnische und soziale Gliederung, wirtschaftliche Lage, Grundzüge der Verwaltung). Dieses Kapitel thematisiert zudem die Situation der in der Kolonie engagierten katholischen Missionsorden und ihrer Missionsmethoden. Das dritte Kapitel untersucht die grundlegenden diskursiven Komponenten des missionarisch-männlichen Selbstverständnisses. Diese Diskurse kontrastieren meistens säkulare Diskurse. Sie bestehen einmal aus der missionarischen Adaption des katholischen Kulturdiskurses, dem christlichen Askesediskurs, modifizierten Rassediskursen, der Übernahme nationalistischer Paradigmen und den diskursiven Abgrenzungsversuchen gegenüber dem geschlechtlichen 'Anderen', repräsentiert durch die Missionsschwestern. Alle die hier untersuchten Diskurse werden in ihrer Entwicklung bestimmt durch eine Wechselwirkung zwischen heimatlichen Vorgaben und kolonialen Erfahrungen. Sie basieren auf einer dichotomischen Unterscheidung zwischen dem religiös, ethnisch und geschlechtlich kodierten 'Eigenen' und 'Anderen' und bilden die Grundlage des missionarischen Eigen- und Fremderlebens. Der vierte Hauptteil der Arbeit untersucht Konstruktionen ethnischer und religiöser Alteritäten auf dem ostafrikanischen Missionsfeld. Zwei Hauptgruppen von Gegnern sind zu unterscheiden: die "Medizinmänner/ Zauberer" und die Vertreter des ostafrikanischen Islam. Teil fünf untersucht die in den Quellen vorgestellten zentralen Methoden der missionarischen Verkündigungsarbeit. Es geht dabei besonders um die Versuche ein konfessionelles Eheideal in einer polygamen Gesellschaft zu verkünden. Zudem werden die Bedeutung der christlichen Caritas für die Konversion der OstafrikanerInnen und die Kinder- und Schulerziehung in den Blick genommen. Das folgende sechste Kapitel behandelt die Frage nach den missionarischen Umwelten und ihrem Einfluss auf die Konstruktion missionarischer Männlichkeiten. Zum einen tritt der Missionar in den Quellen als Eroberer der ostafrikanischen Flora und Fauna auf. Andererseits wird er als ständig Reisender vorgestellt. Zudem zeigen sich in den Quellen diskursive Strategien der symbolischen und repräsentativen Setzung von Heimat (Berichte über die Umstände und Mühen bei Stationsgründungen und über liturgische Feiern). Der siebte Teil der Dissertation untersucht die Wahrnehmung der sozialen Verfasstheiten der traditionellen ostafrikanischen Lebensräume. Wie wurden die OstafrikanerInnen von den Missionaren unter der Perspektive der Intelligenz, ihrer Bildungsfähigkeit und Arbeitsbereitschaft bewertet? Und was waren die Hauptkritikpunkte des missionarischen Moraldiskurses über die Indigenen in der ostafrikanischen Kolonie? Teil acht der Arbeit versucht, die Rolle der eigenen als auch der geschlechtlich und ethnisch anderen Körper für die Konstruktion missionarischer Männlichkeit auszuloten. So soll geklärt werden, wie afrikanische Nacktheit bewertet wurde. Zudem werden traditionelle Körperperformanzen der OstafrikanerInnen wie Gesänge und Tänze im Hinblick auf die Wahrnehmung und Wertung durch die asketisch ausgerichteten Missionare untersucht. Ein dritter Teil dieses Kapitels widmet sich der Bedeutung der Körperhygiene für das missionarische Selbst und den Versuchen, diese Vorgaben auf die koloniale Umwelt zu übertragen. Die Kritik am indigenen Umgang mit dem eigenen Körper findet ihren Höhepunkt in der Beschreibung und moralischen Abwertung afrikanischer Sexualität im Umfeld traditioneller Beschneidungsriten. Eine theoriegeleitete Schlussreflexion wirft einen Blick auf die den Formen missionarischer Männlichkeit zugrunde liegenden Machtkonzepte und ihre Bedeutung im kolonialen System. Dieser Abschnitt der Arbeit versucht eine Zusammenschau der bereits aus den vorhergehenden Kapiteln bekannten Fakten und Ergebnisse. Das letzte Kapitel bietet eine Zusammenfassung der Ergebnisse.
Die vorliegende Meta-Analyse zeigt eindeutig, dass von Familienmitgliedern geführte Familienunternehmen eine schlechtere Performance aufweisen als Unternehmen, die von Managern geleitet werden, die der Inhaberfamilie nicht angehören. Basierend auf uni- und multivariaten Analysen von 270 wissenschaftlichen Publikationen aus 42 verschiedenen Ländern, wurde die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen untersucht. Das erste robuste Ergebnis zeigt eindeutig, dass Familienunternehmen hinsichtlich der Performance Nicht-Familienunternehmen übertreffen. Dieses Ergebnis ist im Einklang mit den meisten Primärstudien und früheren Meta-Analysen. Das zweite Ergebnis dieser Arbeit kann dem "Finance"-Forschungszweig zugeordnet werden und basiert auf der Unterscheidung von Markt- und Accounting-Performance-Kennzahlen. Markt-Performance-Kennzahlen, welche durch Analysten errechnet werden, zeigen, dass Familienunternehmen Nicht-Familienunternehmen hinsichtlich der Performance unterlegen sind. Dieses Ergebnis steht im Gegensatz zu den Accounting-Performance-Kennzahlen, welche von den Familienunternehmen selbst in ihren von Wirtschaftsprüfern freigegebenen Bilanzen veröffentlicht wurden. Die dritte Forschungsfrage untersucht im Detail, ob die Zusammensetzung des Datensatzes in Primärstudien das Gesamtergebnis in eine bestimmte Richtung verzerrt. Das Ergebnis wird nicht durch Datensätzen mit Unternehmen, welche öffentlich gelistet, im produzieren Gewerbe tätig oder Technologie getriebene Unternehmen, sind getrieben. Kleine und Mittlere Unternehmen (KMU) veröffentlichen kleinere Kennzahlen und reduzieren somit die Höhe der abhängigen Variable. Das vierte Ergebnis gibt eine Übersicht über die Art und Weise der Beteiligung der Familie an der Aufsicht oder dem operativen Geschäft des Unternehmens. Dieses Ergebnis zeigt klar, dass Manager aus Familien einen signifikanten negativen Einfluss auf die Performance des Unternehmens haben. Dies kann auf die Erhaltung des Wohlstandes der Familienmitglieder zurückzuführen sein und somit spielen finanzielle Kennzahlen keine vordergründige Rolle. Die letzte Forschungsfrage untersucht, ob die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen auch durch institutionelle Faktoren beeinflusst wird. In Europa zeigen die Familienunternehmen im Vergleich zu Nordamerika eine geringere Performance hinsichtlich der Kennzahlen. Das ist darauf zurückzuführen, dass europäische Unternehmen im Vergleich zu nordamerikanischen unterbewertet sind (Caldwell, 07.06.2014). Darüber hinaus zeigen Familienunternehmen im Vergleich zu Nicht-Familienunternehmen eine bessere Performance in eher maskulin geprägten Kulturen. Maskulinität, ist nach Hofstede, gekennzeichnet durch höhere Wettbewerbsorientierung, Selbstbewusstsein, Streben nach Wohlstand und klar differenzierte Geschlechterrollen. Rechtsregime hingegen (Common- oder Civil-Law) spielen im Performance-Zusammenhang von Familienunternehmen keine Rolle. Die Durchsetzbarkeit der Gesetze hat jedoch einen signifikanten positiven Einfluss auf die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen. Dies ist damit zu begründen, dass die Kosten für Kredite in Länder mit einer sehr guten Durchsetzbarkeit von Gesetzen für Familienunternehmen geringer sind.
Abenteuer Sprache: Spanisch und Französisch im Kontakt mit amerikanischen Ureinwohnersprachen
(2006)
Sprache - ein Abenteuer?! Spanisch und Französisch - beide romanischen Sprachen sind in Amerika mit Ureinwohnersprachen in Kontakt getreten. In der vorliegenden Dissertation wird der Sprachkontakt zwischen Spanisch und den Maya-Sprachen (Maya yucateco) mit dem Kontakt zwischen Französisch und den Algonkin-Sprachen (Montagnais) vergleichend untersucht. Besondere Schwerpunkte bilden dabei die ersten Kontakte, die Fixierung der Ureinwohnersprachen durch die Europäer und die bis heute in Yucatán und Québec spürbaren linguistischen Konsequenzen dieser europäisch-indigenen Sprachdurchdringung. Obwohl der Einfluss der genannten Ureinwohnersprachen auf die beiden romanischen Sprachen insgesamt gesehen für relativ gering gehalten wird, stellt er einen wichtigen und interessanten Aspekt bei der Sprachbetrachtung dar. Ohne das Werk der europäischen Missionare hätte die Reichhaltigkeit der indigenen Sprachen nicht bis zum heutigen Tage lebendig gehalten werden können. Wir verdanken ihnen die ersten "sprachwissenschaftlichen Abhandlungen, mit denen sie einen beachtlichen Beitrag für die Linguistik geleistet haben, auch wenn dieser von Zeit zu Zeit sehr kontrovers diskutiert wird. Der vermutete Überhang an Indigenismen im heutigen amerikanischen Spanisch kann im Anschluss an meine Untersuchungen bestätigt werden. Während im Französischen Québecs die Entlehnungen aus dem Montagnais vorwiegend im Bereich der Flora und Fauna anzutreffen sind, hat sich im yukatekischen Spanisch im Raum Mérida eine Art "Regionalcode" herausgebildet, der etliche Einflüsse aus dem Maya yucateco enthält. Die Reise der beiden Sprachen über den Ozean, die Kontaktaufnahme ihrer Sprecher, die Arbeit der Missionare und die Ergebnisse des Sprachkontakts sind in jeder Hinsicht so abenteuerlich wie eine Reise in die untersuchten Sprachgebiete!
Die vorliegende Arbeit entstand im Rahmen des EU INTERREG NWE IVB Projektes "ForeStClim - Transnational Forestry Management Strategies in Response to Regional Climate Change Impacts". Zum Zweck der Verbesserung des Prozessverständnisses von Abflussprozessen in Wäldern sowie zur Validierung und Weiterentwicklung eines GIS-basierten Tools (GIS-DRP) zur Erstellung von Abflussprozesskarten wurden auf 25 Test-Plots in vier Einzugsgebieten in Rheinland-Pfalz und dem Großherzogtum Luxemburg boden-hydrologische Untersuchungen durchgeführt. Auf Grundlage dieser Untersuchungen konnten große intraspezifische Unterschiede im Abflussverhalten von Waldstandorten erhoben werden. Die Differenzen werden dabei hauptsächlich durch das Substrat, die bodenphysikalischen Eigenschaften, die Nutzung bzw. deren Intensität und die Vorfeuchte bedingt. Es wurde nachgewiesen, dass Wälder generell hohe Infiltrationsraten aufweisen und verzögerte Zwischenabflussprozesse begünstigen. Durch einen prinzipiell naturnahen Waldbau und etwaige Meliorationsmaßnahmen auf Niederertragsstandorten bestehen zudem Möglichkeiten positiv auf die Wasserretention und das Wasserspeichervermögen eines Forstbestandes einzuwirken. Die mittels GIS-DRP erstellten Abflussprozesskarten der vier Testgebiete wurden durch die Ergebnisse der Geländeuntersuchungen sowie der Abflussprozesskartierung nach SCHERRER (2006) validiert. Hierdurch wurden für die Abflussgenerierung wichtige Parameter ermittelt und Optimierungsansätze erarbeitet, welche anschließend in GIS-DRP implementiert werden konnten. Verschlämmungsprozesse auf Ackerflächen können nun durch das modifizierte GIS-DRP-Werkzeug identifiziert werden. Zudem war es möglich, Extrem-Ereignis basierte Abflussprozesskarten zu etablieren, die Hot Spots der Abflussgenerierung identifizieren können. Die Einführung des Abflussprozesses "dSSF" (tiefer Zwischenabfluss) wurde durch eine neue Klassifizierung des geologischen Ausgangssubstrates erreicht. Forstwirten und Entscheidungsträgern im Waldmanagement wird somit die Möglichkeit geboten, Expertenwissen in ihre Planungen einfließen zu lassen. Hierdurch kann zum einen positiv auf den Landschaftswasserhaushalt eingewirkt werden, da gezielt auf Flächen nachteiliger Abflussbildung geeignete Maßnahmen des dezentralen Hochwasserschutzes angewandt werden können. Zum anderen werden Potentiale für bestmögliche Waldwachstumsvoraussetzungen in einem Landschaftsraum aufgezeigt. Der nachhaltigen Nutzung von Wäldern wird somit auch im Kontext des Klimawandels Rechnung getragen.
Bei der Preisberechnung von Finanzderivaten bieten sogenannte Jump-diffusion-Modelle mit lokaler Volatilität viele Vorteile. Aus mathematischer Sicht jedoch sind sie sehr aufwendig, da die zugehörigen Modellpreise mittels einer partiellen Integro-Differentialgleichung (PIDG) berechnet werden. Wir beschäftigen uns mit der Kalibrierung der Parameter eines solchen Modells. In einem kleinste-Quadrate-Ansatz werden hierzu Marktpreise von europäischen Standardoptionen mit den Modellpreisen verglichen, was zu einem Problem optimaler Steuerung führt. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit der Lösung der PIDG aus theoretischer und vor allem aus numerischer Sicht. Die durch ein implizites Zeitdiskretisierungsverfahren entstandenen, dicht besetzten Gleichungssysteme werden mit einem präkonditionierten GMRES-Verfahren gelöst, was zu beinahe linearem Aufwand bezüglich Orts- und Zeitdiskretisierung führt. Trotz dieser effizienten Lösungsmethode sind Funktionsauswertungen der kleinste-Quadrate-Zielfunktion immer noch teuer, so dass im Hauptteil der Arbeit Modelle reduzierter Ordnung basierend auf Proper Orthogonal Decomposition Anwendung finden. Lokale a priori Fehlerabschätzungen für die reduzierte Differentialgleichung sowie für die reduzierte Zielfunktion, kombiniert mit einem Trust-Region-Ansatz zur Globalisierung liefern einen effizienten Algorithmus, der die Rechenzeit deutlich verkürzt. Das Hauptresultat der Arbeit ist ein Konvergenzbeweis für diesen Algorithmus für eine weite Klasse von Optimierungsproblemen, in die auch das betrachtete Kalibrierungsproblem fällt.
Im Rahmen dieser Arbeit wurde die agrarklimatische und phänologische Situation in der zweiten Hälfte des vergangenen 20. Jahrhunderts für das Mittlere Moseltal am Beispiel der Moselregion im Umfeld der Stadt Bernkastel-Kues ausgewertet. Es konnten erhebliche klimatische und phänologische Veränderungen festgestellt und deren Auswirkungen auf den regionsprägenden Weinbau aufgezeigt werden. Der zeitliche Verlauf der Jahresmittel der Lufttemperatur zeigt eine deutliche Zweiteilung der Entwicklung in den Jahren 1945 bis 2000. Eine Abnahme (- 0.7 K) in der ersten Hälfte und eine deutliche Zunahme (+1.1 K) in der zweiten Hälfte der Zeitreihe. Einen vergleichbaren Verlauf zeigen die Jahresmittel der Tagestemperaturmaxima und -minima. Eine erhebliche Erwärmung lässt sich im April und Mai, August und Oktober und Januar und Dezember beobachten. Die geringsten Veränderungen zeigen Februar, Juli und November. Die Jahresniederschläge lassen keinen Trend im Gesamtabschnitt erkennen. Saisonale Verschiebungen weisen jedoch auf Änderungen in der Niederschlagscharakteristik hin. Die niederschlagsreichste Zeit im Jahr hat sich vom August auf Juni/Juli verschoben (starke Abnahme im August) und der regenärmste Monat vom März auf den Februar. Zunahmen zeigen v. a. September und Oktober. Die Jahressummen der Sonnen-scheindauer zeigen einen starken Rückgang in den Jahren 1945 bis 1981 und eine Trendumkehr in den Jahren bis 2000. Insbesondere der Monat August weist eine starke Zunahme der Sonnenscheindauer auf. Der mittlere jährliche Wachstumsverlauf der Weinrebe beginnt Anfang/Mitte April. Austrieb und Ergrünen folgen bis Mitte Mai. Die Rebe blüht im Durchschnitt zwischen dem 21.6. und 26.6. Mitte Juli sind die Beeren erbsengroß. Das Beerenwachstum und die Fruchtreife dauern in der Regel bis Anfang Oktober. Die Herbsttermine Laubfärbung und Laubfall finden zwischen Mitte Oktober und Anfang November statt. Alle in Bernkastel beobachteten phänologischen Merkmale zeigen eine Vorverlagerung der Eintrittstermine zwischen -6 Tagen und -15 Tagen in den Jahren 1967 bis 2001. Die Beerenentwicklung bzw. Reifephase im Sommer und Frühherbst verlängert sich um rund 10 Tage. Die wärmer gewordenen Monate März und April (geringere Spätfrostgefahr) äußern sich anhand eines früheren Vegetationsbeginns der Rebe. Die wärmeren, trockeneren und sonnenscheinreicheren Monate Mai und Juni führen zu einer erheblichen Vorverlagerung des Blühtermins und zu einer günstigen Verschiebung der Fruchtentwicklungs- und Reifephasen in den trockeneren, wärmeren und strahlungsreicheren Hochsommer. Die optimale Ausreife der Trauben im September und Oktober wird einerseits durch eine Temperaturzunahme gefördert, anderseits durch höhere Niederschlagswerte verzögert oder behindert. Die phänologischen Termine Knospung, Austriebs, Blüte und Reifegrad eignen sich somit hervorra-gend als Indikator für die Veränderung der klimatischen Bedingungen im Jahresverlauf. Ein starker Zusammenhang zwischen den Terminen des Blühbeginns der Rebe mit den Temperaturfaktoren und zwischen dem Reifegrad 60 -°Oe und kumulierten Temperatursummen bzw. den Sonnenscheindauern zwischen Mai und August ist ein weiterer Beleg für die stattgefundenen klimatischen Veränderungen im Mittleren Moseltal besonders in den Monaten März bis Juni und August und Oktober.
Das übergeordnete Ziel dieser Dissertation ist die Untersuchung der aktuellen Geomorphodynamik in den Gullyeinzugsgebieten der Souss-Ebene, Südmarokko. Eine Sonderstellung nehmen besonders in der Taroudant-Region die durch land-levelling Maßnahmen beeinflussten Flächen ein. Anhand von experimentellen Feldmethoden werden verschiedene Prozesse der Bodenerosion aufgenommen und bewertet. Mittels Luftbildmonitoring mit einer Drohne erfolgt eine Analyse des Gullywachstums. Durch eine Zusammenführung der Methodenkombination kann ein Gesamtbild der aktuellen geomorphologischen Prozessdynamik im Souss erstellt werden. Mit Zerfall der Zuckerindustrie Ende des 17. Jahrhunderts setzt im Souss Becken aufgrund der nahezu vollständigen Abholzung der Arganwälder die lineare Bodenerosion ein. Mit der Transformation von traditioneller Landwirtschaft zu modernen Zitrusfrucht- und Gemüseplantagen, beginnt Anfang der 1960er Jahre ein sehr dynamischer Landnutzungswandel. Die Expansion der Anbauflächen, die von Wadi- und Gullysystemen tief zerschnittenen sind, wird durch Planierungsmaßnahmen vorangetrieben. Auf den planierten Flächen entwickeln sich durch die Verdichtung des Bodens, das Entfernen von Vegetationsbedeckung sowie Krustenbildung auf dem schluffig-lehmigen Substrat bei Starkniederschlagsereignissen zumeist erneut Gullys. Die rasche lineare Zerschneidung bedroht weitere Anbauflächen. Eine nachhaltige Entwicklung auf diesen Flächen ist daher fraglich. Durch starke Verschlämmung nach Niederschlägen bilden sich auf den planierten Flächen sehr schnell physikalische Bodenkrusten aus. Ihre Mikromorphologie ist aufgrund der Belastungen mit schwerem Gerät sowie mehrfacher Erosions- und Akkumulationszyklen durch Plattenstruktur und Vesikel geprägt, wodurch die Infiltrationskapazität des Bodens verringert wird. Diese Auswirkungen können durch Messungen mit dem Einringinfiltrometer bestätigt werden. Sie zeigen auf ungestörten Flächen durchschnittlich eine 2,6-fach höhere Infiltrationsrate als auf planierten Flächen. Durch eine Inventarisierung der Bodeneigenschaften und Oberflächencharakteristika kann ihre signifikante Veränderung nach Planierungsmaßnahmen identifiziert werden. So zeigen planierte Flächen hohe Anteile an Bodenverkrustung und wenig Vegetationsbedeckung auf. Ungestörte Flächen sind dagegen weniger verkrustet und stärker mit Vegetation bedeckt. Zudem kann eine Kompaktion der oberen Bodenschicht nachgewiesen werden. Diese Faktoren wirken auf die Oberflächenabflussbildung und den Sedimentabtrag ein. Die Ergebnisse von 122 Niederschlagssimulationen mit einer Kleinberegnungsanlage zeigen einen signifikanten Anstieg der mittleren Oberflächenabflüsse und Sedimentfrachten (1,4-, bzw. 3,5-mal höher) auf planierten im Gegensatz zu ungestörten Testflächen. Mithilfe des Gullymonitorings wird die Entwicklung eines kompletten Gullys durch Starkniederschlagsereignisse auf einer planierten Fläche detektiert. Dabei wird in einem 3,5 ha großen Einzugsgebiet etwa 1080 t Bodenmaterial erodiert. Hier wurde errechnet, dass Gullyerosion für 91 % des gesamten Bodenverlustes im Einzugsgebiet verantwortlich ist. Die Fläche dient nur als Lieferant des Erosionsagens Wasser. Das Verfüllen des ursprünglichen Gullysystems mit Material der umliegenden Hänge führt zu einer Erniedrigung der Geländehöhe von durchschnittlich über 5 cm. Auf ungestörten Flächen wird dagegen nur ein geringes Gullywachstum verzeichnet. Die vorgestellte Methodenkombination lässt eine gezielte Beschreibung der aktuellen Geomorphodynamik in den Einzugsgebieten der Souss-Ebene zu. Durch die land-levelling Maßnahmen wird die Prozessdynamik signifikant erhöht. Eine Verminderung der Vegetationsbedeckung, schnelle Krustenbildung sowie Bodenkompaktion unterstützen hohe Oberflächenabflussbildung und Sedimentabtrag. Durch lineare Konzentration des Abflusses wird rapide Gullyerosion gefördert. Ganze Gullysysteme können sich auf Planierungsflächen durch nur ein einziges Starkniederschlagsereignis ausbilden. Dadurch sind Anbauflächen, Gebäude und Infrastruktur gefährdet.
Algorithmen als Richter
(2022)
Die menschliche Entscheidungsgewalt wird durch algorithmische
Entscheidungssysteme herausgefordert. Verfassungsrechtlich besonders
problematisch ist dies in Bereichen, die das staatliche Handeln betreffen.
Eine herausgehobene Stellung nimmt durch den besonderen Schutz der
Art. 92 ff. GG die rechtsprechende Gewalt ein. Lydia Wolff fragt daher danach, welche Antworten das Grundgesetz auf digitale Veränderungen in diesem Bereich bereithält und wie sich ein Eigenwert menschlicher Entscheidungen in der Rechtsprechung angesichts technischen Wandels darstellen lässt.
Das Werk erörtert hierzu einen Beitrag zum verfassungsrechtlichen
Richterbegriff und stellt diesen etablierten Begriff in einen Kontext neuer digitaler Herausforderungen durch algorithmische Konkurrenz.
Ziel der vorliegenden Dissertation war es, in einem gesamtspektralen Porträt als Momentaufnahme darzustellen, welche Themen in den japanischen allgemeinen Tageszeitungen wie strukturiert dargestellt werden und in welcher gestalterischen Form dies geschieht. Anhand einer umfassenden Stichtagssammlung galt es dabei vornehmlich, Antworten auf die Fragen zu finden, ob Unterschiede in der Themenwahl und deren gestalterischer Darstellung auszumachen sind, und welche Grundmuster vorherrschen. Vor allem bezüglich der formalen Gestaltung musste einer Diskussion der bislang nur unzureichend erarbeiteten Grundlagen der japanischen Layout-Theorie gebührender Platz eingeräumt werden. Am Soll-Zustand des Mediums wurde dann im Zuge der genannten Fragestellung mittels einer Kombination von Formstruktur- und Themen- bzw. Themensenquenzanalyse der Stichtagssammlung der Ist-Zustand gemessen. Die Autopsie des Samples ergab große Übereinstimmungen bei der Seitengestaltung. Bezüglich der Themenselektion konnte zudem eine hohe Konveregenz konstatiert werden. Hier kristallisierten sich im Laufe der Betrachtung hauptsächlich zwei Zeitungstypen heraus: als dominierender Typ Erst- bzw. Hauptzeitungen, auflagenstarke nationale und regionale Set- wie Morgenzeitungen, die eine weite Bandbreite von Themen in überwiegend übereinstimmender Sequenz präsentieren, sowie Zweit- bzw. Nebenzeitungen, die nur Teile des Themenspektrums in unterschiedlicher Sequenz vorweisen. Die Analyseergebnisse führen zu dem Schluss, dass im japanischen Zeitungswesen auf breiter Basis ein bisher erfolgreiches Businessmodell kopiert wird und auch im allgegenwärtigen Wettbewerb der regionalen Zeitungen mit den nationalen Blättern nur ansatzweise Abwechslung zu erkennen ist. Die Fortsetzung der traditionellen gestalterischen Form, wie auch die Beibehaltung althergebrachter inhaltlicher Strukturen und thematischer Tendenzen beweisen, dass sich die allgemeinen japanischen Tageszeitungen eindeutig auf die älteren Leser als Zielgruppe konzentrieren und sich so zu einem Seniorenmedium wandeln.
Alt und Jung im Dialog
(2001)
Besonderheiten, die den intergenerationellen Dialog innerhalb wie auch außerhalb von Familien kennzeichnen, wurden in zwei empirischen Studien untersucht. Im Anschluß an eine umfangreiche Übersicht der einschlägigen Forschungsliteratur werden die Studien präsentiert, in denen Zusammenhänge zwischen Merkmalen dyadischer Beziehungskontexte und Aspekten des Dialogs, der in ihnen stattfindet, explorativ analysiert wurden. In der quasi-experimentellen Studie A wurde geprüft, ob Wahrnehmungen und Bewertungen eines fiktiven intergenerationellen Dialogs in Abhängigkeit seines Beziehungskontexts variieren. Jüngere (M = 22 Jahre; n = 164) und ältere Erwachsene (M = 74 Jahre; n = 139) bearbeiteten Textvignetten, in denen ein Dialog zwischen einer älteren Frau und ihrer Tochter oder aber einer professionellen Altenpflegerin wiedergegeben wurde. Die jüngere Protagonistin zeigte dabei entweder ein bevormundendes oder ein aufgabenorientiertes Sprechverhalten. Das Verhalten einer (fiktiven) Tochter wurde als respektvoller und wertschätzender beurteilt als das einer professionellen Altenpflegerin. Dies galt in der Stichprobe der älteren Erwachsenen vor allem für bevormundendes, in der Stichprobe der jüngeren Erwachsenen für aufgabenorientiertes Sprechverhalten. Im Einklang mit bisherigen Studien urteilten ältere Erwachsene generell milder über die Vignetten als jüngere, und bevormundendes Sprechverhalten wurde negativer bewertet als aufgabenorientiertes. Der Funktionsstatus der älteren Protagonistin erwies sich hingegen als irrelevant für Urteile über das an sie gerichtete Sprechverhalten. In der zweiten, explorativ angelegten Fragebogenstudie B wurden Aspekte der inhaltlichen Gestaltung des intergenerationellen Dialogs und deren systematische Zusammenhänge mit Indikatoren der Qualität intrafamilialer Generationenbeziehungen analysiert. In unabhängigen Stichproben von Erwachsenen im mittleren ("Kinder"; M = 45 Jahre, n = 299) und im höheren Lebensalter ("Eltern"; M = 71 Jahre, n = 244) wurde die perzipierte Häufigkeit erfaßt, mit der 15 ausgewählte Themen (z.B. "politische und gesellschaftliche Fragen", "Lebensführung des Kindes") im Gespräch mit einer der beiden Elternpersonen resp. mit dem ältesten Kind zur Sprache kommen. Aufgrund exploratorischer Faktorenanalysen wurden diese Angaben zu den Dimensionen "Narrativer Austausch" und "Regulativer Austausch" aggregiert. In multivariaten Auswertungen erwies sich ein häufiger narrativer Austausch als charakteristisch für "gute" Eltern-Kind-Beziehungen, die durch Zuneigung und hohe erlebte Wertschätzung seitens der anderen Generation gekennzeichnet waren. Ein häufiger regulativer Austausch deutete hingegen - vor allem in Verbindung mit einem reduzierten narrativen Austausch - auf eine eher konflikthafte Eltern-Kind-Beziehung hin.
Die Auswirkungen von Rahmenfehlern in Zensen werden bereits seit vielen Jahren untersucht. Eine Methode, um aktuelle Bevölkerungszahlen zu gewinnen, basiert auf Fortschreibung. Wegen Ungenauigkeiten in der Fortschreibung wurden aber auch andere Modelle entwickelt - die capture-recapture-Modelle. Am 29. August 2006 hat die Bundesregierung beschlossen, dass in Deutschland 2011 ein registergestützter Zensus durchgeführt wird. Der Schwerpunkt dieser Dissertation liegt in der Anwendung des capture-recapture-Modelles im deutschen Zensus 2011. Die Dissertation vergleicht den dual system estimator (DSE) und alternative Schätzer (Verallgemeinerter-Regressionsschätzer, Verhältnis-synthetischer Schätzer, Schätzer basierend auf dem Unit-level Modell) für die Schätzung der Anzahl der tatsächlich vorhandenen Personen. Die empirische Untersuchung der Güte der Schätzer basiert auf Monte Carlo Simulationen synthetischer Populationen des Bundeslandes Saarland.
In the past twenty years considerable research has focused on the distinction between implicit and explicit measures of retention. In implicit memory tests, subjects are asked to perform a task that is apparently not related to a previous study phase, e.g. to produce category exemplars or to complete word stems. Implicit memory is revealed when the previous exposure to stimuli facilitates later performance in the implicit memory task relative to a nonstudied baseline performance. Implicit memory tests are contrasted with explicit memory tests, such as recall or recognition that require an intentional recollection of previous experiences. So far, only few studies on the development of implicit memory have been published. Despite the relative paucity of research with children, findings have been quite consistent: While explicit memory improves with age, no age differences were found in implicit memory tests. In these studies, however, mainly perceptual implicit memory tests have been employed. In recent studies with adults, dissociations have been observed between different implicit tests, especially between perceptual and conceptual ones. To draw conclusions about the developmental invariance of priming from findings using only one single type of test thus seems premature. In the present study, six experiments have been conducted that compared the memory performances of preschoolers and school-aged children using conceptual implicit tests (category production and word association). Conceptual priming effects rely on conceptual knowledge and conceptual processes (e.g., organization, semantic elaboration). Age-related improvements were found in both conceptual tests. This finding is interpreted in the context of a more elaborated knowledge base and enhanced processing abilities of older children. In contrast to the hypothesis that implicit memory is in general age-invariant, the results of this study suggest that at least conceptual implicit memory is influenced by developmental changes.
Falsche Erinnerungen sind eine Gedächtnisillusion und dadurch gekennzeichnet, dass Ereignisse oder Informationen erinnert werden, die gar nicht stattgefunden haben bzw. präsentiert wurden. In der vorliegenden Arbeit wurde in insgesamt fünf Experimenten anhand des Deese/Roediger-McDermott- (DRM) Paradigmas untersucht, ob Vorschulkinder empfänglicher für falsche Erinnerungen sind als ältere Grundschulkinder und junge Erwachsene. Ausgehend von dem Aktivierungs-Monitoring Ansatz wurde darüber hinaus geprüft, inwieweit etwaige alterskorrelierte Veränderungen in falschen Erinnerungen auf Unterschiede in den Fähigkeiten zur Quellenkontrolle und/oder auf Unterschiede in der Wahrscheinlichkeit der Aktivierung der kritischen Wörter zurückgehen. Im ersten Experiment wurden neben einem abschließenden Wiedererkennenstest zwei verschiedene implizite Testverfahren eingesetzt, die nur Aktivierung ohne Quellenkontrolle erfassen. Da sich aus den Ergebnissen von Experiment 1 keine eindeutigen Schlüsse über alterskorrelierte Veränderungen der Aktivierungsstärke ziehen ließen und ein Indikator für die Quellenkontrolle eingesetzt werden sollte, wurden in den folgenden drei Experimenten explizite Testverfahren verwendet (Experiment 2: Freie Reproduktion, Experiment 3A und Experiment 3B: Wiedererkennenstest). Um die Aktivierung der kritischen Items ohne entgegenwirkende Quellenkontrolle zu prüfen, wurden Inklusionsinstruktionen erteilt. Die Quellenkontrolle wurde separat durch Nachbefragungen erfasst. Zur Förderung der Aktivierung bei Kindern, wurden in Experiment 3B und 4 spezielle Lerninstruktionen erteilt, die eine semantisch-relationale (3B) bzw. eine itemspezifische und semantisch-relationale Verarbeitung der Wortlisten verlangten (4). Im letzten Experiment (4) sollte die Quellenkontrolle differenzierter untersucht werden, in dem ein Quellentest eingesetzt wurde, der nach beiden möglichen Quellen fragte. In allen Experimenten zeigte sich eine geringe alterskorrelierte Zunahme der Aktivierung kritischer Items, aber deutliche alterskorrelierte Verbesserungen der Quellenkontrolle. Die Befunde zu falschen Erinnerungen in den verschiedenen Experimenten waren je nach Lern- und Testbedingung unterschiedlich: Die Ergebnisse deuteten sowohl auf eine alterskorrelierte Zunahme als auch auf eine alterskorrelierte Abnahme hin.
Zu den klassischen Verteilungen der mathematischen Statistik zählen die zentralen F- und t-Verteilungen. Die vorliegende Arbeit untersucht Verallgemeinerungen dieser Verteilungen, die sogenannten doppelt nichtzentralen F- und t-Verteilungen, welche in der statistischen Testtheorie von Bedeutung sind. Die Tatsache, dass die zugehörigen Wahrscheinlichkeitsdichten nur in Form von Parameterintegral- bzw. Doppelreihendarstellungen gegeben sind, stellt eine große Herausforderung bei der Untersuchung analytischer Eigenschaften dar. Unter Verwendung von Techniken aus der Theorie der vorzeichenregulären Funktionen gelingt es, die bisher vermutete, jedoch lediglich aus Approximationen abgeleitete, strikt unimodale Gestalt der Dichtefunktion für eine große Klasse doppelt nichtzentraler Verteilungen zu zeigen. Dieses Resultat gestattet die Untersuchung des eindeutig bestimmten Modus als Funktion gewisser Nichtzentralitätsparameter. Hier erweist sich die Theorie der vorzeichenregulären Funktionen als wichtiges Hilfsmittel, um monotone Abhängigkeiten nachzuweisen.
Psychotherapie hat sich in der Behandlung psychischer Störungen als wirksam erwiesen. Im Rahmen der klinisch-psychologischen Forschung und der Psychotherapieforschung sind die Erforschung von Ursachen und Mechanismen psychischer Störungen sowie die Identifikation von Wirkmechanismen von Psychotherapie von zentraler Bedeutung. Wichtiges Element in der Psychotherapie ist die Sprache, sodass die Betrachtung von Sprache bereits sehr früh Eingang in die Forschung fand. Beschäftigten sich frühe Forschungsarbeiten jedoch hauptsächlich mit der sehr zeitaufwendigen qualitativen Auswertung von Sprache, ermöglichen Entwicklungen im Bereich der Computer neue Ansätze wie beispielsweise die quantitative Sprachanalyse mittels Programmen wie dem Linguistic Inquiry and Word Count (LIWC). Dieses wörterbuchbasierte Auswertungsprogramm fand Anwendung in den unterschiedlichsten Bereichen wie beispielsweise der Erforschung von Motiven, Gruppenprozessen, Sprache in sozialen Netzwerken und ersten subklinischen Untersuchungen psychischer Störungen. Eine systematische Anwendung auf die Sprache von Patienten und Therapeuten im Rahmen vollständiger Therapiesitzung ist bislang jedoch nicht bekannt. Ziel der vorliegenden Arbeit war es deshalb in drei Projekten die Anwendbarkeit des Programmes in der klinisch-psychologischen Forschung und Psychotherapieforschung zu untersuchen. Das erste Projekt beschäftigte sich mit der Psychometrie von mittels LIWC ausgewerteter Sprache und fand, dass die Erkennungsraten des Wörterbuchs für die Sprache in Therapiesitzungen über den in der Literatur für das deutsche LIWC berichteten Erkennungsraten jedoch unter denen der aktuellsten englischen Versionen lag. Außerdem wurde angenommen, dass Sprache sowohl eine zeitlich stabile Komponente im Sinne eines Persönlichkeitsmerkmals als auch eine situative Komponente besitzt. Dies ist insbesondere vor dem Hintergrund relevant in der Psychotherapieforschung sowohl Patientenmerkmale als auch Veränderungen abbilden zu wollen. Die Arbeit ging davon aus, dass insbesondere Funktionsworte, also Worte, die Sprache strukturieren jedoch keine inhaltliche Bedeutung besitzen, eher individuell stabil sind, als Inhaltsworte. Entsprechend konnten für einige Wortkategorien ein Bifaktor-Modell mit einem Personen- sowie einem Zeitfaktor und adäquate Omega-Werte als Maß der Messgenauigkeit gefunden werden, für andere Kategorien zeigte sich dies nicht. Hypothesenkonform zeigten die Modelle bessere Passungen für Funktionsworte. Bezüglich der Frage nach der benötigten Länge von Sprachausschnitten aus Therapiesitzung erwies sich die Verwendung der gesamten Sitzung als beste Lösung. Im zweiten Projekt wurden Unterschiede in der Verwendung von Sprache zwischen depressiven Patienten, Patienten mit Angststörung und solchen mit beiden Störungsbildern untersucht. Es zeigten sich Unterschiede in Bezug auf Worte im Zusammenhang mit Traurigkeit und Worte im Zusammenhang mit Angst. Die Unterschiede zeigten sich derart, dass Depressive vermehrt mit Traurigkeit assoziierte Worte verwendeten, wohingegen Angstpatienten verstärkt Worte aus dem Bereich Angst verwendeten. Dies spricht für eine unterschiedliche inhaltliche Orientierung der beiden Störungsbilder. Darüber hinaus zeigten sich bei dimensionaler Betrachtung negative Zusammenhänge zwischen der Gesamtbelastung und Optimismus, positive Zusammenhänge Depression und Pronomengebrauch sowie negative Zusammenhänge zwischen Angst und unterschiedlichen Kategorien sozialer Worte. Im dritten Projekt wurden unterschiedliche weitere Fragestellungen der Psychotherapieforschung wie beispielsweise die Prädiktion von Therapieerfolgt mittels Sprache oder Zusammenhänge zwischen sprachlicher Synchronizität und der therapeutischen Beziehung untersucht. Es zeigten sich einzelne Zusammenhänge allerdings ergab sich kein einheitliches Muster. Die vorliegende Arbeit kommt zusammenfassend zu dem Schluss, dass quantitative Sprachanalyse eine Bereicherung der Psychotherapieforschung darstellt und Sprache als Datenquelle Berücksichtigung finden sollte. Allerdings bedarf es der Weiterentwicklung des LIWC sowie der Erprobung weiterer Verfahren und eine routinemäßige Erhebung von Sprache wird voraussichtlich erst im Zuge neuerer Entwicklungen im Bereich der automatischen Spracherkennung möglich werden.
Gegenstand der Dissertation ist die Rolle ideologischer Deutungsmuster in der politischen Auseinandersetzung um Arbeitsbeziehungen in Deutschland. Zunächst wird untersucht, inwiefern tendenziöses Entscheidungsverhalten von Richtern an deutschen Landesarbeitsgerichten und politische Einflussnahme auf die Rechtsprechung empirisch zu belegen sind. Mittels rechtsempirischer Analyse kann gezeigt werden, dass systematische Zusammenhänge zwischen persönlichen Merkmalen von LAG-Richtern und ihrem Entscheidungsverhalten bestehen. Während Einflussnahme von Seiten der Politik im Rahmen der verfügbaren Daten nicht nachweisbar ist, spricht die empirische Evidenz mithin dafür, dass neben rechtsimmanenten Kriterien auch individuelle Überzeugungen die Arbeitsrechtsprechung beeinflussen. Der zweite Teil der Dissertation befasst sich mit der Arena der Massenmedien. Anhand einer Inhaltsanalyse, die den Diskurs über Mitbestimmung in drei überregionalen deutschen Tageszeitungen für den Zeitraum von 1998 bis 2007 rekonstruiert, soll die Frage beantwortet werden, inwieweit die deutschen Massenmedien selbst als autonome politische Akteure in der Auseinandersetzung um Mitbestimmung zu betrachten sind. Die Ergebnisse deuten darauf hin, dass für das Agenda-Setting im Untersuchungszeitraum zwar eher generelle Nachrichtenfaktoren maßgeblich waren. Doch sowohl das Standing der verschiedenen Akteursgruppen als auch die Deutungsrahmen und Handlungsempfehlungen weisen zum Teil Differenzen zwischen den untersuchten Zeitungen auf, die nur als Ausdruck unterschiedlicher ideologischer Positionen erklärbar sind. Ob die Betriebswirtschaftslehre ihren eigenen wissenschaftstheoretischen Ansprüchen gerecht wird, ist Gegenstand des dritten Papiers. Mittels multivariater Analyse wird untersucht, inwieweit die Inhalte der marktführenden betriebswirtschaftlichen Zeitschriften in Deutschland von außerwissenschaftlichen Faktoren beeinflusst werden. Wie die Analyse ihrer Auseinandersetzung mit dem Shareholder-Value-Prinzip zeigt, ist die Betriebswirtschaftslehre offenbar nur bedingt in der Lage, dem Wertfreiheitspostulat zu genügen. Wirtschaftswissenschaftliches Denken muss zumindest in Teilen als Ausdruck subjektiver Maßstäbe und soziokultureller Rahmenbedingungen betrachtet werden, wird also von außerwissenschaftlichen Wertungen beeinflusst, die auch durch innerwissenschaftliche Diskussionsprozesse nicht eliminierbar sind.
In einer Fragebogenstudie (N = 694) wurden vollzeitbeschäftigte Arbeitnehmer online oder klassisch schriftlich befragt, welche Verzichte zugunsten der Schaffung neuer Arbeitsplätze in Deutschland sie aus welchen Motiven leisten würden. Die Arbeit geht in Abgrenzung zu dominierenden Rational-Choice-Modellen von einem Motivpluralismus aus, der das Spannungsfeld zwischen Eigeninteresse und Gemeinwohl fokussiert. Die Befunde zeigen, dass beide Motivgruppen unabhängig voneinander zur Prädiktion der Bereitschaften beitragen. Überdies zeigt sich eine systematische Überschätzung des Eigeninteresses für das Handeln anderer. Bei anderen wahrgenommene Motivationen haben nachweislich Einfluss auf die eigenen Handlungsbereitschaften. Eine spezifische Form der Ausbeutung gemeinsinnigen Handelns ist das Trittbrettfahren als Profitieren vom Engagement und Einsatz anderer, ohne selbst etwas beizutragen. Die Untersuchung zeigt, dass phänotypisch eigennütziges Verhalten wie Trittbrettfahren aus dem Motiv resultieren kann, individuelle Ungerechtigkeit gegenüber anderen zu vermeiden oder unsolidarisches Handeln anderer zu bestrafen.
Bauen und Wohnen sind Bereiche, aus denen ganz erhebliche Ressourcenbelastungen erwachsen. Daher sind Optimierungen in diesem Feld von großer gesellschaftlicher Bedeutung. Nach über 25 Jahren des Experimentierens und Forschens stehen genügend ausgereifte, finanzierbare Techniken und Maßnahmen zur Reduktion der Umweltbelastungen durch das Bauen und Wohnen zur Verfügung. Eine breite Umsetzung dieser Techniken und Maßnahmen beim Wohnungsneubau ist demgegenüber nicht auszumachen. Diese Arbeit beschäftigt sich mit der Erklärung dieser Kluft zwischen "Wissen und Handeln", am Beispiel des selbstgenutzten Wohnungsneubaus bei der Akteurgruppe der Architekten. Für die Erklärung dieser Lücke wird ein bereits vorhandenes individualpsychologisches Akteurmodell um Konstrukte aus der Ökonomie, der Planungswissenschaften und der Soziologie erweitert und spezifiziert bzw. für den speziellen Anwendungskontext modifiziert. Mit Hilfe von qualitativen Interviews (N = 25) werden die neuen und die angepassten Variablen und Itemsets auf ihre Verwendbarkeit bzw. Praktikabilität geprüft. Als Interviewpartner dienten Wissenschaftler, Architekten, Bauträger, Entscheider aus der Bauwirtschaft, Bauherren und Planer. Nach Abschluss dieser qualitativen Befragung wird ein Instrument für die quantitative Befragung, ein standardisierter Fragebogen für die Akteurgruppe Architekten, eingesetzt. Es werden 15 Konstrukte operationalisiert, der Fragebogen umfasst 192 Items. Für die Probandenakquise der Architekten stellte die Architektenkammer Rheinland-Pfalz die Adressen aller in der Kammer als Mitglieder eingetragenen Architekten der Regionen Trier, Westpfalz und Koblenz zur Verfügung. Insgesamt wurden 300 Fragebögen versandt und der Rücklauf bestand aus 220 verwertbaren Fragebögen. Die Auswertung der Erhebung erfolgt multivariat mit einer Koppelung von Faktorenanalyse, Korrelationsanalyse und Regressionsanalyse, A-priori werden verschiedene Hypothesen bezüglich der Ausprägung und Wirkungsweise der Variablen bzw. der Struktur des Modells getroffen. Allerdings herrscht keine Sicherheit über diese Beziehungszusammenhänge, dafür sind die eingesetzten Variablen zu unterschiedlich und auch zu zahlreich. Insofern sind sowohl strukturentdeckende, wie auch strukturprüfende Analysen nötig und daher wird ein mehrschrittiges Verfahren gewählt. Die Befunde widersprechen den Annahmen von Rational-Choice-Modellen, die in der Eigennutzorientierung im Sinne eines rationalen Kalküls das dominante oder gar einzige Motiv für umweltschützendes Verhalten erkennen. Bei Einsatz des gesamten erweiterten Modells, stellt sich heraus, dass eine grundsätzliche proökologische Werteinstellung ("Umweltschutz ist besonders wichtig") der stärkste Beweggrund für proökologisches Handeln von Architekten ist. Weitere wichtige Bedingungen sind die "Überlegenheit von Techniken und Maßnahmen" im Vergleich zum üblichen Standard, die "Empörung über zu wenig Umweltschutz", das Erkennen eigener Handlungsspielräume ("eigene Kontrolle") und die "technischen Risiken", die gering sein sollten. Ein ausgeprägter "Ärger über zu viel Umweltschutz" hat einen negativen Wirkungszusammenhang. Insgesamt kann festgestellt werden, dass das Handeln deutlich besser erklärt wird als die Handlungsabsichten. Außerdem ist die Menge der erklärenden Faktoren für das Handeln größer.
Die Dissertation untersucht den Anteil der Armutsthematik an der Etablierung des Kinos in Deutschland. Der Untersuchungsschwerpunkt konzentriert sich auf die Jahre 1907 bis 1913, einer entscheidenden Zeitspanne für die Institutionalisierung des Kinos als Medium sui generis. Ziel der Untersuchung ist es, anhand von Filmanalysen wiederkehrende Muster medialer Praktiken der kinematographischen Artikulation der Sozialen Frage zu eruieren und ihre thematische Relevanz bzw. ihren Anteil für die Etablierung des Kinos in Deutschland zu bestimmen. Im Fokus stehen die Medienprodukte, ihre Motivgestaltung und Inszenierungspraktiken.
In der Vorrede zur ersten Auflage von Die Welt als Wille und Vorstellung legt Arthur Schopenhauer dem Leser seines Werkes seine Absicht nahe, welche in der Mitteilung eines „einzigen Gedankens“ besteht. Doch dieser mitzuteilende Gedanke wird an keiner Stelle des Werkes explizit und direkt als solchen von Schopenhauer ausgesprochen und genannt. Dies gibt bis heute in der Schopenhauer-Forschung Anlass zu kontroversen Auseinandersetzungen: Wie lautet Schopenhauers „einziger Gedanke“? Wo befindet er sich konkret? Und ist er überhaupt mitteilbar?
Trotz zahlreicher Forschungsarbeiten zur Thematik des „einzigen Gedankens“ wurde bisher der Einfluss der indischen Philosophie, genauer des Oupnek’hat, vernachlässigt, obwohl genauestens nachgewiesen und nachgezeichnet werden kann, mit welchen Quellen sich Schopenhauer zum Zeitpunkt der Entstehung seiner Philosophie intensiv beschäftigt hat. Auch verweist er selbst immer wieder auf bestimmte Stellen aus dem Oupnek’hat und zitiert Passagen an ganz wesentlichen Stellen in seinem Werk.
Um den „einzigen Gedanken“ im Werk Schopenhauers erfassen zu können, reicht es nicht aus, nur vom Hauptwerk selbst auszugehen, sondern es müssen ebenfalls die Jahre und Schriften während der Entstehung seiner Philosophie bis zum Hauptwerk berücksichtigt werden, und damit verbunden auch die Quellen, die Schopenhauer beeinflusst haben, wozu insbesondere das Oupnek’hat samt seinen eigenen Randnotizen gehört.
Die organische Bodensubstanz (OBS) ist eine fundamentale Steuergröße aller biogeochemischen Prozesse und steht in engem Zusammenhang zu Kohlenstoffkreisläufen und globalem Klima. Die derzeitige Herausforderung der Ökosystemforschung ist die Identifizierung der für die Bodenqualität relevanten Bioindikatoren und deren Erfassung mit Methoden, die eine nachhaltige Nutzung der OBS in großem Maßstab überwachen und damit zu globalen Erderkundungsprogrammen beitragen können. Die fernerkundliche Technik der Vis-NIR Spektroskopie ist eine bewährte Methode für die Beurteilung und das Monitoring von Böden, wobei ihr Potential bezüglich der Erfassung biologischer und mikrobieller Bodenparameter bisher umstritten ist. Das Ziel der vorgestellten Arbeit war die quantitative und qualitative Untersuchung der OBS von Ackeroberböden mit unterschiedlichen Methoden und variierender raumzeitlicher Auflösung sowie die anschließende Bewertung des Potentials non-invasiver, spektroskopischer Methoden zur Erfassung ausgewählter Parameter dieser OBS. Dafür wurde zunächst eine umfassende lokale Datenbank aus chemischen, physikalischen und biologischen Bodenparametern und dazugehörigen Bodenspektren einer sehr heterogenen geologischen Region mit gemäßigten Klima im Südwesten Deutschlands erstellt. Auf dieser Grundlage wurde dann das Potential der Bodenspektroskopie zur Erfassung und Schätzung von Feld- und Geländedaten ausgewählter OBS Parameter untersucht. Zusätzlich wurde das Optimierungspotential der Vorhersagemodelle durch statistische Vorverarbeitung der spektralen Daten getestet. Die Güte der Vorhersagewahrscheinlichkeit gebräuchlicher fernerkundlicher Bodenparameter (OC, N) konnte für im Labor erhobene Hyperspektralmessungen durch statistische Optimierungstechniken wie Variablenselektion und Wavelet-Transformation verbessert werden. Ein zusätzliches Datenset mit mikrobiellen/labilen OBS Parametern und Felddaten wurde untersucht um zu beurteilen, ob Bodenspektren zur Vorhersage genutzt werden können. Hierzu wurden mikrobieller Kohlenstoff (MBC), gelöster organischer Kohlenstoff (DOC), heißwasserlöslicher Kohlenstoff (HWEC), Chlorophyll α (Chl α) und Phospholipid-Fettsäuren (PLFAs) herangezogen. Für MBC und DOC konnte abhängig von Tiefe und Jahreszeit eine mittlere Güte der Vorhersagewahrscheinlichkeit erreicht werden, wobei zwischen hohen und niedrigen Konzentration unterschieden werden konnte. Vorhersagen für OC und PLFAs (Gesamt-PLFA-Gehalt sowie die mikrobiellen Gruppen der Bakterien, Pilze und Algen) waren nicht möglich. Die beste Prognosewahrscheinlichkeit konnte für das Chlorophyll der Grünalgen an der Bodenoberfläche (0-1cm Bodentiefe) erzielt werden, welches durch Korrelation mit MBC vermutlich auch für dessen gute Vorhersagewahrscheinlichkeit verantwortlich war. Schätzungen des Gesamtgehaltes der OBS, abgeleitet durch OC, waren hingegen nicht möglich, was der hohen Dynamik der mikrobiellen OBS Parameter an der Bodenoberfläche zuzuschreiben ist. Das schränkt die Repräsentativität der spektralen Messung der Bodenoberfläche zeitlich ein. Die statistische Optimierungstechnik der Variablenselektion konnte für die Felddaten nur zu einer geringen Verbesserung der Vorhersagemodelle führen. Die Untersuchung zur Herkunft der organischen Bestandteile und ihrer Auswirkungen auf die Quantität und Qualität der OBS konnte die mikrobielle Nekromasse und die Gruppe der Bodenalgen als zwei mögliche weitere signifikante Quellen für die Entstehung und Beständigkeit der OBS identifizieren. Insgesamt wird der mikrobielle Beitrag zur OBS höher als gemeinhin angenommen eingestuft. Der Einfluss mikrobieller Bestandteile konnte für die OBS Menge, speziell in der mineralassoziierten Fraktion der OBS in Ackeroberböden, sowie für die OBS Qualität hinsichtlich der Korrelation von mikrobiellen Kohlenhydraten und OBS Stabilität gezeigt werden. Die genaue Quantifizierung dieser OBS Parameter und ihre Bedeutung für die OBS Dynamik sowie ihre Prognostizierbarkeit mittels spektroskopischer Methoden ist noch nicht vollständig geklärt. Für eine abschließende Beurteilung sind deshalb weitere Studien notwendig.
Die Ménage-Polynome (engl.: ménage hit polynomials) ergeben sich in natürlicher Weise aus den in der Kombinatorik auftretenden Ménage-Zahlen. Eine Verbindung zu einer gewissen Klasse hypergeometrischer Polynome führt auf die Untersuchung spezieller Folgen von Polynomen vom Typ 3-F-1. Unter Verwendung einer Modifikation der komplexen Laplace-Methode zur gleichmäßigen asymptotischen Auswertung von Parameterintegralen sowie einiger Hilfsmittel aus der Potentialtheorie der komplexen Ebene werden starke und schwache Asymptotiken für die in Rede stehenden Polynomfolgen hergeleitet.
Im Rahmen der vorliegenden Dissertation wurden aus den umfassenden Daten der Umweltprobenbank des Bundes relative Vergleichsstandards abgeleitet, welche als Referenzsystem die allgemeine Belastungssituation und deren zeitliche Entwicklung in der Bundesrepublik widerspiegeln, eine Bewertung von gemessenen Schadstoffkonzentrationen in biologischen Matrizes sowie biometrischer Parameter der eingesetzten Bioindikatoren ermöglichen. Anhand der biometrischen Daten des Brassen und der rückstandsanalytischen Daten der Brassenmuskulatur wurde dieses Referenzsystem für die limnischen Systeme in der Bundesrepublik konzeptioniert und umgesetzt. Es handelt sich um ein Fünf-Klassen-System, bei dem die fünf Referenzbereiche durch vier Referenzwerte voneinander abgegrenzt werden. Die Referenzwerte sind aufgrund der repräsentativen Datenbasis in der Lage, die allgemeine Belastungssituation in der Bundesrepublik abzubilden. Da sie sich nur auf einen zweijährigen Bezugszeitraum beziehen und ständig fortgeschrieben werden, kann die zeitliche Entwicklung der allgemeinen Belastungssituation hervorragend dargestellt werden. Aufgrund ihrer rein naturwissenschaftlichen Basis sind Referenzwerte als Umweltqualitätskriterien zu verstehen. Mit den rückstandsanalytischen Umweltqualitätkriterien kann der stoffbezogene Gewässerzustand anhand von Bioindikatoren qualitativ bewertet werden, was eine deutliche Optimierung im stoffbezogenen Gewässerschutz darstellt. Zudem können die Referenzwerte als eine Basis für die Ableitung von hoheitlichen Umweltqualitätsstandards in Rechtsnormen herangezogen werden. Ergänzt werden die stoffbezogenen Umweltqualitätskriterien durch biometrischen Kenngrößen, die eine qualitative Bewertung der Lebensbedingungen des Bioindikators Brassen erlauben.
Die vorliegende Arbeit beschreibt ausgewählte Bereiche des Stadtklimas von Trier. Anhand von langjährigen meteorologischen Messreihen ist eine Bewertung der klimatologischen Gegebenheiten für das Stadtgebiet von Trier möglich. Trenduntersuchungen der Datenreihen des Niederschlags zeigen positive Niederschlagstrends für die meteorologischen Wintermonate. Die Intensität der urbanen Wärmeinsel der Stadt Trier wurde mittels mehrerer Temperaturmessfahrten untersucht und bewertet. Es treten in den Wintermonaten maximale Differenzen von bis zu 5,5 -°C zwischen dem unbebauten Umland und den Innenstadtbereichen auf. Von der erhöhten thermischen Belastung während ausgewählter Wetterlagen sind vor allem die Anwohner der Innenstadtbereiche in den Sommermonaten betroffen. Zusätzlich fand eine Bewertung der thermischen Belastung mittels verschiedener thermischer Indizes statt. Die Auswertungen von Klimaprojektionen für den Untersuchungsraum zeigen eine starke Zunahme der thermischen Belastung ab Mitte des 21. Jahrhunderts. Die Auswirkungen des Sommers 2003 auf die Bevölkerung von Trier wurde anhand von Mortalitätsdaten von JUNK ET AL. (2007) analysiert. Die Kosten des Klimawandels (Temperaturzunahme bis 2100 um 4,5 -°C) in den kommenden 50 Jahren beziffert eine Studie des Deutschen Institutes für Wirtschaftsforschung auf rund 80 Milliarden Euro für Rheinland-Pfalz. Auch wenn diese Abschätzungen mit starken Unsicherheiten behaftet sind, so wird dringender Handlungsbedarf deutlich. Vor dem Hintergrund des Klimawandels und der zunehmenden Urbanisierung muss sich auch im Bereich der Stadtplanung und der Verwaltung von urbanen Agglomerationsräumen das Prinzip der Nachhaltigkeit in allen Skalenbereichen durchsetzen. Übertragen auf den Bereich der Stadtklimatologie heißt das, dass dies auf die Ressourcen saubere Luft, angemessener Flächen- und Energieverbrauch verbunden mit Luft-schadstoffemissionen, Recht auf Mobilität usw. übertragen werden muss. Im Vordergrund steht dabei eine Entkopplung des Ressourcenverbrauchs von dem wirtschaftlichen Wachstum durch technische Innovation, effizientere Technologien und verändertes individuelles Verhalten. Bezüglich der lufthygienischen Situation im Stadtbereich von Trier konnten Partikel und Stickoxide als wichtige Schadstoffe identifiziert werden. Da die Auswertungen der Luftschadstoffe auf die Datensätze des ZIMEN-Messnetzes beschränkt sind, können keine Aussagen über Inhaltsstoffe von Partikeln getroffen werden. Für die untersuchten Luftschadstoffe CO, SO2, NOx, O3 und PM10 treten in den letzten Jahren keine Grenzwertüberschreitungen auf, jedoch liegen die gemessenen Werte nur geringfügig unter diesen und überschreiten teilweise die unteren- und oberen Beurteilungsschwellen. Die Auswertungen des wirkungsbezogenen Luftqualitätsindex DAQx zeigen, dass in der Mehrheit der Fälle Feinstaub der bestimmende Luftschadstoff ist. Die Analyse der mittleren Mortali-tätszahlen zeigt, das bei DAQx-Werten > 4,0 (ausreichende Luftqualität) die Anzahl der täglichen Mortalitätsfälle über den Durchschnitt von 5,74 Fällen pro Tag steigt. Der Klimawandel wird auch direkte Auswirkungen auf die Luftschadstoffbelastung haben. Dies geschieht über die Veränderung der Windverhältnisse, Änderungen in der Höhe der Mischungsschicht sowie Änderungen in der Frequenz und Zugbahn von Tiefdruckgebieten. Veränderte Niederschlagsmuster beeinflussen die nassen und trockenen Depositionsraten, und die prognostizierte Temperaturerhöhung beeinflusst die chemischen Bildungs- und Abbauprozesse in der Atmosphäre, sowie die natürlichen Emissionsquellen. Der Einfluss des zu erwartenden Temperaturanstieges auf die Ozonkonzentrationen in urbanen Gebieten lässt sich gut einschätzen, da während Episoden mit hohen Ozonkonzentrationen eine signifikante Korrelation zwischen der Lufttemperatur und der Ozonkonzentration besteht. Studien zeigen einen Anstieg der Ozonkonzentration zwischen 2 -µg/m-³ und 20 -µg/m-³ pro Grad Kelvin in Abhängigkeit des Emissionsszenarios, der verwendeten Modelle und der untersuchten Region aus. Die urbanen Ballungsräume werden von diesem Ozonanstieg stärker betroffen sein, da dort genügend Ozonvorläufersubstanzen vorhanden sind. Der Einfluss auf die Partikelkonzentrationen ist schwieriger zu beurteilen, da keine klaren Zusammenhänge zwischen der Lufttemperatur und den Partikelkonzentrationen bestehen. Insgesamt ist tendenziell mit einer Stagnation bis hin zu einer kurzzeitigen Verschlechterung der Luftqualität zu rechnen. Deswegen reicht die bereits erwähnte alleinige Berücksichtigung der thermischen Gegebenheiten in einem Warnsystem nicht aus. Es geht vielmehr um die integrative Bewertung der potentiellen Gefahrensituation für die Bevölkerung und die situationsbezogene Auslösung von Interventionsmaßnahmen und Aktionsplänen. Ein solches System wird derzeit für die Modellregion Esch-sur-Alzette in Luxemburg erstellt und wird 2011 in die Pilotphase eintreten.
Sozialunternehmen haben mindestens zwei Ziele: die Erfüllung ihrer sozialen bzw. ökologischen Mission und finanzielle Ziele. Zwischen diesen Zielen können Spannungen entstehen. Wenn sie sich in diesem Spannungsfeld wiederholt zugunsten der finanziellen Ziele entscheiden, kommt es zum Mission Drift. Die Priorisierung der finanziellen Ziele überlagert dabei die soziale Mission. Auch wenn das Phänomen in der Praxis mehrfach beobachtet und in Einzelfallanalysen beschrieben wurde, gibt es bislang wenig Forschung zu Mission Drift. Der Fokus der vorliegenden Arbeit liegt darauf, diese Forschungslücke zu schließen und eigene Erkenntnisse für die Auslöser und Treiber des Mission Drifts von Sozialunternehmen zu ermitteln. Ein Augenmerk liegt auf den verhaltensökonomischen Theorien und der Mixed-Gamble-Logik. Dieser Logik zufolge liegt bei Entscheidungen immer eine Gleichzeitigkeit von Gewinnen und Verlusten vor, sodass Entscheidungsträger die Furcht vor Verlusten gegenüber der Aussicht auf Gewinne abwägen müssen. Das Modell wird genutzt, um eine neue theoretische Betrachtungsweise auf die Abwägung zwischen sozialen und finanziellen Zielen bzw. Mission Drift zu erhalten. Mit einem Conjoint Experiment werden Daten über das Entscheidungsverhalten von Sozialunternehmern generiert. Im Zentrum steht die Abwägung zwischen sozialen und finanziellen Zielen in verschiedenen Szenarien (Krisen- und Wachstumssituationen). Mithilfe einer eigens erstellten Stichprobe von 1.222 Sozialunternehmen aus Deutschland, Österreich und der Schweiz wurden 187 Teilnehmende für die Studie gewonnen. Die Ergebnisse dieser Arbeit zeigen, dass eine Krisensituation Auslöser für Mission Drift von Sozialunternehmen sein kann, weil in diesem Szenario den finanziellen Zielen die größte Bedeutung zugemessen wird. Für eine Wachstumssituation konnten hingegen keine solche Belege gefunden werden. Hinzu kommen weitere Einflussfaktoren, welche die finanzielle Orientierung verstärken können, nämlich die Gründeridentitäten der Sozialunternehmer, eine hohe Innovativität der Unternehmen und bestimmte Stakeholder. Die Arbeit schließt mit einer ausführlichen Diskussion der Ergebnisse. Es werden Empfehlungen gegeben, wie Sozialunternehmen ihren Zielen bestmöglich treu bleiben können. Außerdem werden die Limitationen der Studie und Wege für zukünftige Forschung im Bereich Mission Drift aufgezeigt.
In Mitteleuropa steigt der Anteil befestigter und damit zumeist undurchlässiger Oberflächen durch Flächenerschließung und Urbanisierung stetig. Die Verdichtung und Befestigung natürlicher Oberflächen und das einhergehende Sammeln und Abführen des Niederschlagswassers vergrößert nicht nur den Oberflächenabfluss, sondern reduziert auch die Grundwasserneubildung. Das an Regenwettertagen anfallende Oberflächenwasser von befestigten Flächen wird zwar in den Kanalnetzen gesammelt, kann jedoch nicht vollständig zur Kläranlage abgeführt werden. Das überschüssige Wasser im Kanalsystem wird dann an neuralgischen Punkten dem nächstgelegenen Gewässer zugeleitet. Auf diese Weise gelangt eine große Bandbreite an Substanzen in die Gewässer und beeinflusst den natürlichen Stoffhaushalt. Häufig sind kleine und mesoskalige Gewässersysteme in Ballungsräumen mit einem hohen Versiegelungsgrad betroffen. Neben der schadlosen Ableitung des Ereignisabflusses tritt im Zuge der Umsetzung der Europäischen Wasserrahmenrichtlinie (WRRL, 2000/60/EG) das Ziel des guten ökologischen und chemischen Zustandes des Gewässers in den Vordergrund. Mit Blick auf die Reduktion von angereichertem und vermischtem Niederschlagswasser in den Gewässern ist das Niederschlagswassermanagement das wichtigste Instrument. Die vorliegende Arbeit betrachtet beispielhaft zwei mesoskalige, urban geprägte Gewässer in der Großregion Luxemburg-Trier, die luxemburgische Mess und den deutschen Olewiger Bach. Dabei werden ebenfalls zwei unmittelbar durch Trenn- und Mischwasserkanalisation beeinflusste Teileinzugsgebiete des Olewiger Bachs untersucht. Ziel ist es, die Auswirkungen der urbanen Einleitungen an Regenwettertagen in den verschiedenen Phasen der Hochwasserwelle (Anstieg, Plateau und Rezessionsast) zu analysieren. Ein Schwerpunkt wird dabei auf den Nachweis anthropogener Spurenstoffe sowie wiederkehrende Strukturen im Wellenverlauf gelegt. Die Untersuchung der urban geprägten Bäche erfolgt mit zeitlich hochaufgelösten Einzelstichproben. Im Gegensatz zur gängigen Beprobung mittels volumen-proportionaler Mischproben kann mit diesem Ansatz der Einfluss der anthropogenen Systeme auf Hydro- und Chemographen im Hochwasserereignis analysiert werden. Auch Stoßbelastungen werden besser erfasst und abgebildet. In allen Untersuchungsgebieten werden in jeder Hochwasserwelle anthropogene Spurenstoffe nachgewiesen. Die Konzentrationen variieren sowohl während eines Hochwasserereignisses, als auch im Vergleich zwischen Ereignissen erheblich. Die nachgewiesenen Maximalkonzentrationen in Mess und Olewiger Bach übersteigen die mittleren Gehalte der einzelnen Spurenstoffe um das zwei bis 30-fache. Einige Pestizidgehalte in der Mess überschreiten zudem zeitweise die Grenzwerte der Umweltqualitätsnormen Richtlinie (UQN, 2008/105/EG). Die größten stofflichen Belastungen in Form maximaler Spurenstoffgehalte treten in der Regel bei mäßigen Niederschlagsereignissen in Kombination mit geringem Basisabfluss im Gewässer auf. Die Gesamtfracht hingegen steigt meist mit der Ereignisfülle. Die hydraulischen und stoffrelevanten Auswirkungen an der Schnittstelle von Kanal und Gewässer lassen sich in vielen urban geprägten Bächen wiederfinden. Diese Einleitungen an Regenwettertagen sind bedeutsam für die Komplexität des Abflussverhaltens sowie die Chemodynamik der betroffenen Vorfluter. Die Ergebnisse zeigen, dass es zukünftig mit Blick auf ein erfolgreiches Einzugsgebietsmanagement notwendig ist, die Niederschlagswasserbewirtschaftung in die Maßnahmenplanung einzubeziehen. Bei urbanen Gewässern muss darauf geachtet werden, dass die Maßnahmen zur Verbesserung des chemischen und ökologischen Zustandes nach der WRRL nicht im Konflikt mit der schadlosen Ableitung des Niederschlagswassers stehen. Vor allem hinsichtlich der stofflichen Dynamik, welche in der Regel mittels volumenproportionaler Mischproben untersucht wird, besteht weiterer Forschungsbedarf.
Seit seiner Unabhängigkeit erfreut sich Namibia als Reiseziel weltweit wachsender Beliebtheit, wodurch der Tourismus wirtschaftlich einen hohen Stellenwert hat. Zugleich lebt ein Großteil der Bevölkerung in Armut und ist zumeist noch immer von der Landwirtschaft abhängig. Diese dominiert flächenmäßig, zur Wertschöpfung und zur Entwicklung des Landes vermag sie allerdings nur wenig beizutragen. Kam im ariden Namibia ehemals nur Ranching als Landnutzung in Frage, sehen sich Landbesitzer wegen verschlechterter Rahmenbedingungen heute gezwungen, weitere Einkommensquellen zu erschließen. Naturtourismus ist eine der Alternativen. Ausgerechnet die wirtschaftlichen Schwächen der ländlichen Regionen mit naturnahen Landschaften, geringer anthropogener Überformung und der Abwesenheit von Industrie ermöglichen einzigartige Naturerlebnisse und stellen damit die Grundlage für Naturtourismus dar. Im Fokus der vorliegenden Studie stehen daher die Landnutzungen Ranching und Naturtourismus, die beide auf dem natürlichen Potenzial des Landes basieren und zugleich räumlich um die gleichen Flächen konkurrieren. Ziel ist die Bewertung der Auswirkungen beider Landnutzungen im Vergleich, um somit die für einen Raum am besten geeignete Nutzungsoption zu identifizieren und Verbesserungspotentiale bei der Ausgestaltung der untersuchten Landnutzungen aufzuzeigen. Die Erkenntnisse aus der einschlägigen Fachliteratur legen die Hypothese nahe, dass Naturtourismus im Vergleich zum Ranching die besser geeignete Landnutzung darstellt. Den theoretischen Rahmen zur Identifizierung der besser geeigneten Landnutzung bildet das Nachhaltigkeitskonstrukt, das wie jedes andere Theorem nicht unmittelbar mess- oder beobachtbar, sondern nur indirekt mit Hilfe von Indikatoren operationalisierbar ist. Die Mehrzahl der 34 insgesamt verwendeten Indikatoren entstammt dem Set der Vereinten Nationen. Alle verwendeten Indikatoren fanden Anwendung in einer für diese Arbeit auf Unternehmensebene adaptierten Version. Um den physischen wie humangeographischen Besonderheiten Namibias (Verfügbarkeit von Wasser, Namibia als Entwicklungsland etc.) gerecht zu werden, wurden zusätzliche Indikatoren für den regionalen Kontext der Studie konzipiert. Entsprechend dem Erkenntnisinteresse, unter Nachhaltigkeitsaspekten die am besten geeignete Landnutzung zu identifizieren, wurden anhand eines umfangreichen methodischen Kanons die empirischen Untersuchungen durchgeführt. Ausgangspunkt hierfür waren Erhebungen in Namibia, die in der Etosha-Region unmittelbar südlich der Kommunalgebiete stattfanden. Methodisch kamen dafür vorrangig quantitative Methoden zum Einsatz, wobei standardisierte Fragebögen als primäre Erhebungsinstrumente konzipiert wurden. Diese wurden von Expertengesprächen, Beobachtungen, Kartierungen und Sekundärdatenanalysen flankiert. Die Erkenntnisse aus den Erhebungen erlauben Aussagen für weite Gebiete Namibias mit vergleichbaren Bedingungen. So bestehen - entsprechend der Forschungshypothese - eindeutige Vorteile des Naturtourismus gegenüber dem Ranching hinsichtlich der betrachteten Landnutzungsauswirkungen, womit der Naturtourismus unter Nachhaltigkeitsaspekten die besser geeignete Landnutzung ist. Vor allem im Bereich der Sozialindikatoren überzeugen die Auswirkungen: Soziale Sicherheit, Wohnbedingungen (Elektrizität, Sanitäreinrichtungen, Wasserversorgung etc.), sozio-ökonomische Aufstiegschancen und die Mitarbeiterzufriedenheit sind zugunsten des Naturtourismus zu werten. Auch im Ökonomischen liegen die Vorteile bei dieser Landnutzung, wobei ein Aspekt negativ auffällt: Vor allem in puncto Regionalökonomie besteht im Tourismus Verbesserungsbedarf. Denn sowohl die Angestelltenrekrutierung als auch die Versorgung mit Waren und Dienstleistungen erfolgt mehrheitlich überregional. Dahingehend sind die Auswirkungen des Ranching als vorteilhafter anzusehen. Wie die Erhebungen ferner belegen, nimmt die Bedeutung des ausschließlichen Ranching aufgrund von Rentabilitätsproblemen auf kommerziellem Farmland sukzessive ab, stattdessen weisen Ländereien zumeist mehr als nur ein wirtschaftliches Standbein auf. Daher ist hinsichtlich der Landreform zu kritisieren, dass Neufarmer - wenn überhaupt - nur auf das Ranching vorbereitet werden. Wie die Erhebungen zeigen: eine wenig zeitgemäße Landnutzungsstrategie. Ein im Rahmen der Arbeit entwickeltes und ihr beiliegendes Farmrentabilitätstool verdeutlicht auf Basis einer Vielzahl vom Nutzer veränderlicher Einstellungen, wie schwierig die rentable Bewirtschaftung von Ranches heute ist.
Insekten stellen die artenreichste Klasse des Tierreichs dar, wobei viele der Arten bedroht sind. Das liegt neben dem Klimawandel vor allem an der sich in den letzten Jahrzehnten stark verändernden landwirtschaftlichen Nutzung von Flächen, was zu Lebensraumzerstörung und Habitatfragmentierung führt. Die intensivere Bewirtschaftung von Gunstflächen einerseits, sowie die Flächenaufgabe unrentabler Flächen andererseits, hat schwerwiegende Folgen für Insekten, die an extensiv genutzte Kulturflächen angepasst sind, was besonders durch den abnehmenden Anteil an Spezialisten deutlich wird. Eine Region, die aufgrund des kleinräumigen Nebeneinanders von naturnahen Bereichen und anthropogen geschaffenen Kulturflächen (entlang eines großen Höhengradienten) eine wichtige Rolle für die Biodiversität besitzt, speziell als Lebensraum für Spezialisten aller Artengruppen, sind die Alpen. Auch hier stellt der landwirtschaftliche Nutzungswandel ein großes Problem dar, weshalb es einen nachhaltigen Schutz der extensiv genutzten Kulturlebensräume bedarf. Um zu klären, wie eine nachhaltige Berglandwirtschaft zukünftig erhalten bleiben kann, wurden im ersten Kapitel der Promotion die Regelungsrahmen der internationalen, europäischen, nationalen und regionalen Gesetze näher betrachtet. Es zeigt sich, dass der multifunktionale Ansatz der Alpenkonvention und des zugehörigen Protokolls „Berglandwirtschaft“ nur eine geringe normative Konkretisierung aufweisen und daher nicht im ausreichenden Maße in der Gemeinsamen Agrarpolitik der EU sowie im nationalen Recht umgesetzt werden; dadurch können diese einer negativen Entwicklung in der Berglandwirtschaft nicht ausreichend entgegenwirken. Neben diesen Rechtsgrundlagen fehlt es jedoch auch an naturwissenschaftlichen Grundlagen, um die Auswirkungen des landwirtschaftlichen Nutzungswandels auf alpine und arktische Tierarten zu beurteilen. Untersuchungen mit Charakterarten für diese Kulturräume sind somit erforderlich, wobei Tagfalter aufgrund ihrer Sensibilität gegenüber Umweltveränderungen geeignete Indikatoren sind. Deshalb wurden im zweiten Kapitel der Promotion die beiden Schwestertaxa Boloria pales und B. napaea untersucht, die für arktische und / oder alpine Grünlandflächen typisch sind. Die bisher unbekannte Phylogeographie beider Arten wurde daher mit zwei mitochondrialen und zwei Kerngenen über das gesamte europäische Verbreitungsgebiet untersucht. In diesem Zusammenhang die zwischen- und innerartlichen Auftrennungen analysiert und datiert sowie die ihnen unterliegenden Ausbreitungsmuster entschlüsselt. Um spezielle Anpassungsformen an die arktischen und alpinen Lebensräume der Arten zu entschlüsseln und die Folgen der landwirtschaftlichen Nutzungsänderung richtig einordnen zu können, wurden mehrere Populationen beider Arten freilandökologisch untersucht. Während B. pales über den gesamten alpinen Sommer schlüpfen kann und proterandrische Strukturen zeigt, ist B. napaea durch das Fehlen der Proterandie und ein verkürztes Schlupfzeitfenster eher an die kürzeren, arktischen Sommer angepasst. Obwohl beide Arten die gleichen Nektarquellen nutzen, gibt es aufgrund verschiedener Bedürfnisse Unterschiede in den Nektarpräferenzen zwischen den Geschlechtern; auch innerartliche Unterschiede im Dispersionsverhalten wurden gefunden. Populationen beider Arten können eine kurze Beweidung überleben, wobei der Zeitpunkt der Beweidung von Bedeutung ist; eine Nutzung gegen Ende der Schlupfphase hat einen größeren Einfluss auf die Population. Daneben wurde ein deutlicher Unterschied zwischen Flächen mit langfristiger und fehlender Beweidung gefunden. Neben einer geringen Populationsdichte, gibt es auf ganzjährig beweideten Flächen einen größeren Druck, den Lebensraum zu verlassen und die zurückgelegten Flugdistanzen sind hier auch deutlich größer.
Im Lebensrückblick wird bedeutsamen Ereignissen lebensgeschichtliche Bedeutung zugeschrieben; diese werden sodann als zugehörig zur eigenen Person und Lebensgeschichte wahrgenommen. Dieser Vorgang wurde als "Stiftung von Kohärenz" bezeichnet und für ein zurückliegendes belastendes Ereignis explorativ untersucht. In einer Fragebogenerhebung mit Daten von insgesamt N = 260 Probanden im Alter zwischen 41 und 86 Jahren wurde die Stiftung von Kohärenz für ein belastendes Ereignis daraufhin untersucht, inwieweit diese mit verschiedenen Formen der gedanklichen Auseinandersetzung mit dem Ereignis zusammenhängt. Weiterhin wurden die Zusammenhänge der Kohärenzstiftung mit ereignisbedingten Veränderungen des Selbstbildes und bestimmter Lebensumstände sowie mit Merkmalen des Ereignisses und der Person exploriert.
Ziegel waren im 19. und 20. Jahrhundert der bevorzugte Baustoff. Sie wurden für den Ausbau der Städte in heute kaum noch vorstellbaren Mengen nachgefragt, da sie preiswert und in Massen verfügbar waren. Das stabile Baumaterial erwies sich zudem in Form, Farbe und Ornamentik als vielseitig einsetzbar. Die Bedeutung des Ziegels lässt sich besonders gut an den Fassaden der gründerzeitlichen Berliner Stadtquartiere able-sen. Im Rahmen der vorliegenden Arbeit wird die städtebauliche Entwicklung Berlins einführend dargestellt, um aufzuzeigen, welche Auswirkungen sich daraus für das bran-denburgische Umland ergaben. Das an der oberen Havel in Nordbrandenburg gelegene Zehdenicker Revier profitierte von dieser Entwicklung und nahm als Standort der Ziegelindustrie im Deutschen Reich eine besondere Stellung ein. Handwerkliche Verfahren der Ziegelherstellung waren Ende des 19. Jahrhunderts zunehmend durch industrielle Massenproduktion abgelöst worden. 1887 wurden nördlich der Kleinstadt Zehdenick zufällig reichhaltige Tonlagerstätten an der Havel entdeckt. Die neugeborene Industriestadt stieg innerhalb weniger Jahre zum Zentrum der Märkischen Ziegelindustrie auf. Bis 1913 wurden 63 Hoffmannsche Ring-öfen nördlich von Zehdenick errichtet, mit denen bis zu 500 Millionen Ziegel pro Jahr gebrannt werden konnten. Nach dem Zweiten Weltkrieg entwickelte sich der VEB Zie-gelwerke Zehdenick zum bedeutendsten Ziegelhersteller in der DDR. Noch bis 1990 be-stimmten historische Ringofenziegeleien das Landschaftsbild im Revier. Die Ziegelferti-gung endete mit der Wiedervereinigung Deutschlands. Untersuchungsgegenstand der Dissertation ist das Erbe der Zehdenicker Ziegelindustrie und die von ihr geprägte Kulturlandschaft, die nicht nur erhebliche geschichtliche Bedeu-tung für den Aufbau Berlins vor 1945 sondern auch für die Baustoffindustrie in der der DDR hat. Bislang wurde dieses Kulturgut kaum erforscht. Aus diesem Grund erfolgte zunächst eine grundlegende Inventarisierung der persistenten Relikte, die erfasst, be-schrieben, in ihrer Erscheinung erklärt und hinsichtlich ihrer touristischen Verwendbarkeit bewertet wurden. Es konnte dadurch festgestellt werden, dass derzeit noch ein reichhal-tiges bauliches Erbe der Ziegelindustrie im Untersuchungsraum existiert. Dieses bedeutende Erbe wird bislang erst in Ansätzen durch den Tourismus genutzt, zumal in den westlichen Industrieländern nur noch wenige Hoffmannsche Ringöfen erhal-ten geblieben sind. Die Arbeit zeigt auf, dass die mittlerweile vollständig gefluteten Ton-tagebauten und Teile der historischen Kulturlandschaft mit ihrem Formenschatz - Relikte der Aufbereitung, der Freilufttrocknung, Produktions- und Wohngebäude oder Häfen - eine hohe Relevanz für den Erholungs- und Kulturtourismus aufweisen. Kulturtouristisch erschlossen wurde bislang einzig der Ziegeleipark Mildenberg, der pro Jahr etwa 40.000 Besucher zählt. Sein besucherorientiertes Angebot wurde im Rahmen der Dissertation analysiert und bewertet. Er stellt bislang eine inselartige Erschließung dar, die den histo-rischen Dimensionen des Reviers mit seinen vielen Standorten nicht entspricht. Die Arbeit liefert wesentliche Grundlagen für die Konzeption einer kulturtouristischen Erschließung der gesamten Zehdenicker Tonstichlandschaft unter Nutzung und Wahrung ihrer authentischen Relikte und regionalen Spezifik. Sie schließt mit konkreten Vorschlä-gen für eine gezielte Erhaltung und Pflege dieses Erbes unter besonderer Berücksichti-gung des Kulturtourismus. Dabei fließen Erfolgsmuster tourismusrelevanter Nutzungs-formen vergleichbarer Standorte in Deutschland und in Belgien, die durch eigene Re-cherchen und Expertengespräche mit Vertretern bedeutender Ziegeleimuseen ermittelt wurden, mit ein. Noch wäre es möglich, den seit 1990 fortschreitenden Verfall dieses Kulturgutes aufzu-halten, vor weiterer Zerstörung zu schützen und die wertvolle Substanz der industriellen Vergangenheit inwertzusetzen.
Die Dissertation beabsichtigt, einen Beitrag zur Verbesserung des Umweltzustands der pal. Industrie durch die Durchführung des UMS zu leisten. Auf dieser Grundlage wurde analysiert, welche Schritte und Maßnahmen unter Berücksichtigung des Umweltzustands in Palästina erforderlich sind, um ein UMS wie EMAS und ISO 14001 in der pal. Industrie implementieren zu können.
Erst seit Ende der 80er Jahre wird der bilinguale Bildungsgang, der seit nunmehr 30 Jahren in der Praxis umgesetzt wird, vor allem von der professionellen Fremdsprachendidaktik und Sprachlernforschung an Universitäten und Instituten beachtet. Die vorliegende Arbeit präsentiert mit der Exploration und Evaluation des bilingualen Geographieunterrichts Grundlagenforschung aus dem Blickwinkel der Geographiedidaktik. Dabei wird die Wahrnehmung, Einschätzung und Bewertung des bilingualen Erdkundeunterrichts an Gymnasien in Rheinland-Pfalz durch die Schülerschaft mittels quantitativer und qualitativer Methoden erforscht. Zunächst werden theoretische Überlegungen und Ansätze zum bilingualen Geographieunterricht diskutiert und mögliche Fragestellungen formuliert, die im Forschungs- bzw. Erkenntnisinteresse der Geographiedidaktik liegen könnten. Zudem wird ein Überblick zum Forschungsstand gegeben. Zum interkulturellen Lernen findet eine vertiefte Darstellung statt, da bilinguale Züge, d. h. ausgeprägtere und international als "deutsches Modell" bekannt gewordene Bildungsgänge, insbesondere als eine willkommene Möglichkeit des Erwerbs einer vertieften kommunikativen und interkulturellen Kompetenz betrachtet werden. Aus den theoretischen Überlegungen leiten sich die in den Studien untersuchten Fragestellungen ab. Die inhaltlichen Schwerpunkte der quantitativen Studie liegen in einer komparativen Betrachtung des bilingualen und regulären Erdkundeunterrichts durch bilinguale und nicht bilinguale Schüler. In der qualitativen Studie wird die durch die Fragebogenauswertung gewonnene Schülersicht durch subjektive Sichtweisen bzw. Theorien, die erfahrungs- und alltagsnah sind, vertieft. Diese subjektiven Theorien basieren auf Interviews. Aufgrund des umfangreichen Vorgehens werden in der Auswertung nur ausgewählte subjektive Theorien detailliert präsentiert und die übrigen Einzelfälle lediglich in reduzierter Form vorgestellt. In einer anschließenden Gesamtschau erfolgt die Auswertung aller Interviews in Bezug auf einzelne Aspekte des bilingualen Erdkundeunterrichts. Zudem werden Überlegungen der Interviewteilnehmer im Zusammenhang mit dem für den bilingualen Unterricht propagierten Leitziel des interkulturellen Lernens vorgestellt. Abschließend werden wesentliche Schlussfolgerungen der gesamten Forschungsarbeit, insbesondere Empfehlungen für zukünftige Forschungsfelder und -methoden, dargelegt
In der vorliegenden Dissertation wurde Belohnungssensitivität mit Spielverhalten und elektrophysiologischen Korrelaten wie dem Ruhe-EEG und ereigniskorrelierten Potenzialen auf Feedback-Reize in Verbindung gebracht. Belohnungssensitivität ist nach der zugrundeliegenden Definition als Konstrukt mit mehreren Facetten zu verstehen, die eng mit Extraversion, positiver Affektivität, dem Behavioral Activation System, Novelty Seeking, Belohnungsabhängigkeit und Selbstwirksamkeit assoziiert sind. Bei der Untersuchung einer spezifischen Spielsituation, in der 48 gesunde Studentinnen durch eigene Entscheidungen Belohnungen erhalten konnten, zeigte sich, dass das Spielverhalten mit den während des Spiels erfassten ereigniskorrelierten Potentialen (hier: FRN (feedback related negativity)und P300) auf die Belohnungssignale in Form eines Feedbacks korreliert. Belohnungssensitive Personen zeigen tendenziell nach einem Gewinn-Feedback eine weniger negative FRN-Amplitude, die wiederum positiv mit der gewählten Einsatzhöhe assoziiert ist. Auch die Amplitude der P300 scheint mit dem Spielverhalten zusammenzuhängen. So zeigte sich ein positiver Zusammenhang zwischen typisch belohnungssensitivem Verhalten und der mittleren Amplitude der P300: Gewinne gehen mit einer größeren P300-Positivierung und schnelleren Entscheidungen im Spiel einher. Dagegen konnte weder das Spielverhalten noch die über diverse Fragebögen erfasste Ausprägung der Belohnungssensitivität in der kortikalen Grundaktivierung im Ruhezustand einer Person abgebildet werden. Die vorliegenden Ergebnisse deuten darauf hin, dass Belohnungssensitivität ein Persönlichkeitsmerkmal ist, das sich sowohl im Verhalten, als auch in der elektrokortikalen Aktivität in belohnungsrelevanten Situationen widerspiegelt.
The thesis deals with online publication on the internet, particularly from a media science specific point of view. Based on a reflexion of both advantages and disadvantages of electronic publication for the World Wide Web (WWW), it makes a fresh attempt at finding solutions for information storing as well as for user-adaptive, hypertextual information presentation. These solutions and techniques should not depend on the final screen design. Rather, the focus is on how to use the WWW-specific means of communication for the access on digital information. The goal is to generate dynamic web documents, based on structured hypertext units and using technology like XML-related markup languages and metadata. A central issue is the modelling of the man-machine-dialogue: How can simple man-machine-interaction within information systems be developed so that any reader becomes an active communicator? How can individual user characteristica be determined and processed for user-adaptive online-representation? Areas of application are online reference books, journals, documentations, information systems and e-learning systems. The thesis refers on the grammatical information system GRAMMIS, located at the Institute for German Language in Mannheim. In this way, practical questions and solutions can be directly evaluated on a real-world system.
Auf Grundlage von handlungstheoretischen Modellvorstellungen wird ein Schichtenmodell des Entschlussaktes "Berufswahl" entwickelt, das chronologische und diachronische sowie prozessuale und strukturelle Perspektiven verbindet. Vier ineinander eingebettete Schichten werden differenziert: Hintergrundvariablen (etwa schulische Umwelt, Geschlecht, sozioökonomischer Status) Lernerfahrungen (Explorationen, Selektionen, Widerfahrnisse; Menschen, Medien, Ereignisse; Alternativen, Wissen, Bewertung), Entscheidungsgrundlagen (Interessen, Kompetenzüberzeugungen, berufliche Werte; berufliche Optionen; Entscheidungsstile), Entscheidung (kurzfristige und langfristige Ziele, Entscheidungsstatus, Bewertung der Entscheidung). Zur Überprüfung des Modells wird ein umfangreicher Datensatz einer Stichprobe von insgesamt 504 Schülerinnen und Schülern der Abschlussklassen von Hauptschule, Realschule und Gymnasium sowie der achten bis zehnten Hauptschulklasse analysiert. Das Schichtenmodell konnte in seinem grundlegenden Aufbau bestätigt werden. Insbesondere erwies sich die entwickelte Taxonomie von Lernerfahrungen, zu der bislang keine vergleichbare Konzeption vorlag, als effiziente Vorlage für weitere Forschungsarbeiten. Tradierte, aber auch aktuelle Erwartungen hinsichtlich der Rolle des Geschlechts für berufliche Entscheidungen werden kritisch diskutiert. Die Bedeutung der schulischen Umwelt für berufswahlrelevante Lernerfahrungen und für die Ausgestaltung des beruflichen Entschlusses wird herausgearbeitet. Abschließend werden Forschungsdesiderata sowie Empfehlungen für die Beratungs- und Unterrichtspraxis abgeleitet.
Virtuelle Umgebungen erfreuen sich in den letzten Jahren einer großen Beliebtheit und können kontinuierlich wachsende Nutzerzahlen vorweisen. Deshalb wird erwartet, dass die ohnehin große Nutzergemeinde weiterhin wächst. Dieses Wachstum stellt jedoch die Entwickler und die Betreiber von virtuellen Umgebungen vor eine Herausforderung. Die meisten heutzutage erfolgreichen virtuellen Umgebungen basieren auf einer Client-Server-Infrastruktur, in der der Server für die Verwaltung der gesamten Umgebung zuständig ist. Bei einer gleichzeitigen Inanspruchnahme durch viele Nutzer werden die serverbasierten Umgebungen jedoch massiven Skalierbarkeits- und Lastverteilungsproblemen ausgesetzt. Diese Probleme führen beispielsweise dazu, dass Nutzer Wartezeiten beim Einloggen in Kauf nehmen müssen bzw. selbst im Falle eines erfolgreichen Logins die "überfüllten" virtuellen Regionen nicht betreten dürfen. Deshalb wird in dieser Arbeit untersucht, ob eine Verbesserung der Skalierbarkeit und der Lastverteilung in virtuellen Umgebungen durch die Verwendung alternativer Infrastrukturansätze erreicht werden kann. Außerdem werden Maßnahmen zur weiteren Entlastung der Basis-Infrastruktur entwickelt. Diese Verbesserung soll zum einen dadurch erzielt werden, dass anstelle eines Servers ein Server-Verbund (Peer-to-Peer-System) als eine Art Management-Schicht agieren soll, in der jeder Knoten nur einen bestimmten Teil der virtuellen Umgebung verwaltet. Dabei wird die gewünschte Lastverteilung durch die Aufteilung der Verantwortungsbereiche auf die Knoten der Management-Schicht erreicht. Gleichzeitig entsteht aber ein Mehraufwand für die Konstruktion bzw. Erhaltung einer solchen Management-Schicht. Deshalb werden in dieser Arbeit die Vor- und Nachteile eines Infrastrukturwechsels hin zu dezentralisierten Infrastruktur-Ansätzen untersucht. Zum anderen wird eine spürbare Entlastung der Management-Schicht und somit eine Verbesserung der Skalierbarkeit und der Lastverteilung durch die Übertragung einiger Verwaltungsaufgaben an die Clients angestrebt. Zu diesen Verwaltungsaufgaben zählen die Gruppenkommunikation und das Konsistenz-Handling. Dazu wird in dieser Arbeit erforscht, inwiefern die Clients, die sich innerhalb derselben virtuellen Region befinden, selbst die Gruppenkommunikation über eine Multicast-Infrastruktur regeln können bzw. in die Wahrung der Konsistenz eines gemeinsamen Zustandes und der gemeinsam genutzten Objekte involviert werden können. Bei dem clientbasierten Konsistenz-Handling sollte vor allem auf die besonderen Interaktivitäts- und Konsistenzanforderungen, die Nutzer an die virtuellen Umgebungen stellen, geachtet werden. Dazu wird ein neues Konsistenzmodell definiert, welches die Einhaltung der strengen Interaktivitätsanforderungen erzwingt und die Konsistenz mit einer bestimmten Wahrscheinlichkeit garantieren kann.
Im Fokus der Ursachenanalyse der zunehmenden Homogenisierung von Biozönosen und des weltweiten Artenverlustes steht neben dem Flächennutzungs- und Klimawandel vorrangig auch die durch den Menschen verursachte Einbringung gebietsfremder, invasiver Arten. Aufgrund ihrer Charakteristika bilden diese Arten einen wichtigen Schnittpunkt von Ökologie, Ökonomie und Soziologie in Theorie und Praxis und erfahren folglich im Zuge der weltweit steigenden Anzahl von biologischen Invasionen zunehmend eine rechtliche Regulierung. Eine grundsätzliche Herausforderung in der Invasionsforschung liegt in der Identifikation von Faktoren, die Verbreitung, Dynamik und Erfolg der Arten erklären, um anhand dieses Wissens ihr Risiko für das Ökosystem als auch hinsichtlich ökonomischer und gesundheitlicher Aspekte abschätzen zu können. Eine Einschätzung der Invasivität der Art zur Ableitung von Handlungsstrategien und zur rechtlichen Einstufung erfolgt anhand von Risikoanalysen, deren kriterienbasierte Bewertung eine Reihe wissenschaftlicher Fakten voraussetzen. Um mögliche Ausbreitungswege- und barrieren zu identifiziert und Faktoren herauszustellen, welche die erfolgreiche Etablierung und Ausbreitung des Nordamerikanischen Waschbären in Deutschland und Europa erklären, wird in dieser Dissertation unter Verwendung populationsgenetischer Methoden die Ausbreitung der Art rekonstruiert. Darüberhinaus wird in dieser Arbeit die Bedeutung von Verbreitungsmodellen als Analyse- und Präventions-Instrument in der naturschutzfachlichen Risikoabschätzung verdeutlicht und zudem die Problematik einer Risikoabschätzung auf Grundlage einer lückenhaften Wissensbasis erläutert. Der rechtliche Schwerpunkt der Dissertation widmet sich der Regulierung der Haltung von IAS, die als ein aktiver und dominanter Einbringungsweg insbesonders für gebietsfremde Wirbeltierarten zählt und für die hier betrachtete Modellart nachweislich von hoher Bedeutung ist. Die gewonnenen Erkenntnisse geben Hilfestellung zur Einstufung der Invasivität der Art und zur Beurteilung eines Handlungsbedarfes.
Bei der Realisierung einer nachhaltigen Entwicklung kommt dem Erhalt und der Sanierung des vorhandenen Altbaubestands zentrale Bedeutung zu. Sanierungen versprechen in erster Line Einsparpotentiale beim Energieverbrauch, bei den CO2-Emissionen und den anthropogen induzierten Stoffströmen. Auch im sozialen Bereich sind Verbesserungen möglich, weil sich beispielsweise attraktive und energetisch optimierte Wohnungen positiv auf die Bleibeabsichten der Bewohner auswirken und so Wohnquartiere sozial stabilisiert werden können. In der Arbeit wird untersucht, welchen signifikanten Beitrag Bestandssanierungen zur Realisierung einer global nachhaltigen Entwicklung leisten können. Zudem wird gefragt, warum Altbausanierungen bislang nur zögerlich umgesetzt werden. So soll die Kluft zwischen Wissen und Handeln bei der Realisierung einer nachhaltigen Entwicklung erklärt werden. Um die Forschungsfragen beantworten zu können, werden vier Sanierungsmaßnahmen in den Städten Ludwigshafen und Köln als Einzelfälle untersucht: (1) Ludwigshafen Brunckviertel, (2) Ludwigshafen Ebertsiedlung, (3) Köln Vingst und (4) Köln Zollstock. Gewählt wird ein qualitativer Forschungsansatz. Zur Anwendung kommen die Erhebungsmethoden teilstrukturierte Befragung und Dokumentenanalyse.
Die Studie thematisiert die Bewältigungsbemühungen von Frauen, die von ihren Partnern misshandelt wurden. Die Gewalt des Mannes gegen seine Frau wird als ein kritisches Lebensereignis betrachtet, dessen Bewältigung die Gesundheit der Betroffenen beeinflußt. Dabei sollten Vulnerabilitäts- und Resilienzfaktoren festgestellt werden, die auf die Bewältigung der erlebten Gewalt ungünstig bzw. günstig wirken können. Eine schriftliche Befragung mit einem umfangreichen Fragebogenpaket wurde in Südkorea durchgeführt. Die Gesamtstichprobe umfasst 89 Frauen, die sich in Opferhilfseinrichtungen in südkoreanischen Großstädten aufhielten. Aus den multiplen Regressions- bzw. Pfadanalysen ergibt sich u.a., dass assertive bzw. depressive Verhaltensweisen misshandelter Frauen jeweils sowohl mit den ausgewählten Dispositionen (Persönlichkeitsmerkmale, gerechtigkeitsbezogene Disposition, traditionelle Geschlechtsrollen-Orientierung) und der Selbstwirksamkeit als auch mit situationsbezogenen Variablen, zu denen z.B. Ungerechtigkeitserlebnis, Verantwortlichkeitsattributionen und Emotionen zählen, vorhergesagt werden können. Weiterhin läßt sich festhalten, dass ein stark ausgeprägter Gerechte-Welt-Glaube und starke Extraversion mit weniger psychosomatischen Beschwerden einhergehen, hingegen eine positive Effektivitätseinschätzung depressiver Strategien mit mehr solchen Beschwerden.
Ausgehend davon, daß die nachweislich prominente Berichterstattung über bezahltes Dating sich nicht auf einen hohen Nachrichtenwert zurückführen läßt, sondern auf verkaufstechnische Faktoren und vor allem auf das "kulturelle Potential" des Themas Jugend, untersucht die folgende Arbeit, welche Normen und Werte in der Darstellung des Phänomens propagiert wurden, und ob sich in der Darstellung Muster erkennen lassen.
Kunst wird in erster Linie mittels ihrer Reproduktionen rezipiert " auch und gerade von der Kunstgeschichte. Dennoch würdigt die Wissenschaft sie nur selten einiger Aufmerksamkeit " und wenn doch, werden die Reproduktionen gegenüber den Originalen zumeist abgewertet. Die Dissertation setzt sich mit diesem eigentümlichen Verhältnis in dreifacher Hinsicht auseinander: Sie versteht sich als Skizze einer noch ungeschriebenen Geschichte der Kunstreproduktion, untersucht, wie die Industrialisierung der Bildproduktion um 1800 zur Konstitution der universitären Disziplin Kunstgeschichte beitrug und diskutiert schliesslich exemplarisch, dass die geringe Aufmerksamkeit der Kunstgeschichte für ihr Material kein unglücklicher Zufall, sondern grundlegend für die Disziplin ist.
Die Aufgabe der vorliegenden Arbeit lag darin, anhand der Quelle von Luthers Tischreden zu zeigen, welche Art von Kunstwerken Martin Luther erwähnt und welche Funktion diese in den Colloquia hatten. Sie untersucht das Corpus der über 7000 Tischreden systematisch auf Äußerungen, die im Zusammenhang mit Kunstwerken im weitesten Sinne stehen. Es erfolgte eine textkritische Bearbeitung der Tischreden. Der Anspruch der Arbeit war, diese Bildwerke zu identifizieren und in ihren historischen bzw. kunsthistorischen Kontext zu stellen. Da viele Parallelstellen gefunden und herangezogen werden konnten, ließen sich zahlreiche Irrtümer aufdecken und Fehldeutungen korrigieren. Der Fokus lag dabei nach der Auswertung und der anschließenden Beschäftigung mit den Stellen auf Luthers geradezu leitmotivisch auftretendem Thema der Superbia. Diesem Themenbereich der Todsünden wurde in der Lutherforschung bisher nur wenig Beachtung geschenkt, denn die sie galt für die Reformation als unwesentlich. Es konnte aber in dieser Arbeit dargelegt werden, wie wichtig die Todsünden und vor allem die Superbia in Luthers Tischreden und in seinem Gesamtwerk sind. Darüber hinaus hat sich die Arbeit mit der Performanz der Bilder in Luthers Werk beschäftigt. Sie leistet zudem einen Beitrag zu der Fragestellung, mit welcher Intention Luther seine eigenen Porträts in Auftrag gegeben hat. So wird dargelegt, wie Luther seine Bildstrategien verfolgt. Die Arbeit hat ferner gezeigt, wie wichtig für die effektive, interdisziplinär nutzbare Auswertung der Tischreden als Quelle eine digitale Ausgabe wäre, die mit Metadaten versehen ist und dadurch nach semantischen Kriterien durchsucht werden kann.
Es wird zunächst auf einer systemwettbewertbstheortischen Basis untersucht, inwiefern die Harmonisierung von Hochschulabschlüssen im Zuge des Bologna-Prozesses als effizient charakterisiert werden kann. Es zeigt sich, dass der Bologna-Prozess kein Instrument ist, um einen Unterbeitungswettlauf in der EU zu verhindern, sondern eher einen produktiven "race to the top"-Prozess begrenzt. Im nächsten Schritt wird überprüft, ob die Vereinheitlichung von Bildungsabschlüssen die Rekrutierung am internationalen Arbeitsmarkt wirklich erleichtern kann. Dazu wurde eine Befragung im hoch internationalen Luxemburger Finanzdienstleistungssektor durchgeführt. Es zeigt sich, dass das anglo-amerikanische Bachelor-Master-System nicht uneingeschränkt bevorzugt wird und dass die befragten Unternehmen keine deutliche Vereinfachung ihrer Personalbeschaffung durch die Vereinheitlichung von Bildungsabschlüssen erwarten.
Heterogenität ist Teil des (Schul-)Alltags, was sich in den Lerngruppen widerspiegelt, die Lehrkräfte in der Schule vorfinden. Unterschiedlichen Bedürfnissen auf Seiten der Schüler/-innenschaft soll – und das ist in zahlreichen der Öffentlichkeit zugänglichen Dokumenten, wie Schulgesetzen, Schulordnungen und Standards für die Lehrerbildung festgeschrieben – in Form von Differenzierung begegnet werden. Innerhalb dieser Dissertation wird untersucht, wie Binnendifferenzierung auf Mikroebene in der Schulpraxis implementiert wird. Dabei werden die Einsatzhäufigkeit binnendifferenzierender Maßnahmen und Kontextvariablen von Binnendifferenzierung untersucht. Anhand einer Stichprobe von N = 295 Lehrkräften verschiedener Schulformen, die die Fächer Deutsch und/oder Englisch unterrichten, wurde u.a. gezeigt, dass Binnendifferenzierung allgemein nicht (sehr) häufig eingesetzt wird, dass manche Maßnahmen häufiger Einsatz finden als andere, dass an Gymnasien Binnendifferenzierung nicht so häufig eingesetzt wird, wie an anderen Schulformen und dass die Einsatzhäufigkeit bedingende Kontextfaktoren bspw. kollegiale Zusammenarbeit bei der Unterrichtsplanung und -durchführung, die wahrgenommene Qualität der Lehramtsausbildung hinsichtlich des Umgangs mit Heterogenität und die Bereitschaft zur Implementation von Binnendifferenzierung sind und auch Einstellungen zu Binnendifferenzierung und (Lehrer/-innen)Selbstwirksamkeitserwartungen in Zusammenhang mit dem Maßnahmeneinsatz stehen. Die durchgeführte Post-hoc Analyse zeigte bzgl. Einsatzhäufigkeit weiterhin Zusammenhänge zwischen der Persönlichkeit der Lehrkräfte und der Schulform, an der diese unterrichten. Die Ergebnisse entstammen der Schulpraxis und liefern deshalb praktische Implikationen, wie bspw. Hinweise zur Steigerung der Qualität der Lehramtsausbildung, die neben zukünftigen Forschungsansätzen im Rahmen dieser Arbeit expliziert werden.
Die endemischen Arganbestände in Südmarokko sind die Quelle des wertvollen Arganöls, sind aber durch bspw. Überweidung oder illegale Feuerholzgewinnung stark übernutzt. Aufforstungsmaßnahmen sind vorhanden, sind aber aufgrund von zu kurz angelegten Bewässerungs- und Schutzverträgen häufig nicht erfolgreich. Das Aufkommen von Neuwuchs ist durch das beinahe restlose Sammeln von Kernen kaum möglich, durch Fällen oder Absterben von Bäumen verringert sich die kronenüberdeckte Fläche und unbedeckte Flächen zwischen den Bäumen nehmen zu.
Die Entwicklung der Arganbestände wurde über den Zeitraum von 1972 und 2018 mit historischen und aktuellen Satellitenbildern untersucht, ein Großteil der Bäume hat sich in dieser Zeit kaum verändert. Zustandsaufnahmen von 2018 zeigten, dass viele dieser Bäume durch Überweidung und Abholzung nur als Sträucher wachsen und so in degradiertem Zustand stabil sind.
Trotz der Degradierung einiger Bäume zeigt sich, dass der Boden unter den Bäumen die höchsten Gehalte an organischer Bodensubstanz und Nährstoffen auf den Flächen aufweist, zwischen zwei Bäumen sind die Gehalte am niedrigsten. Der Einfluss des Baumes auf den Boden geht über die Krone hinaus in Richtung Norden durch Beschattung in der Mittagssonne, Osten durch Windverwehung von Streu und Bodenpartikeln und hangabwärts durch Verspülung von Material.
Über experimentelle Methoden unter und zwischen den Arganbäumen wurden Erkenntnisse zur Bodenerosion gewonnen. Die hydraulische Leitfähigkeit unter Bäumen ist um den Faktor 1,2-1,5 höher als zwischen den Bäumen, Oberflächenabflüsse und Bodenabträge sind unter den Bäumen etwas niedriger, bei degradierten Bäumen ähnlich den Bereichen zwischen den Bäumen. Die unterschiedlichen Flächenbeschaffenheiten wurden mit einem Windkanal untersucht und zeigten, dass gerade frisch gepflügte Flächen hohe Windemissionen verursachen, während Flächen mit hoher Steinbedeckung kaum von Winderosion betroffen sind.
Die Oberflächenabflüsse von den unterschiedlichen Flächentypen werden in die Vorfluter abgeleitet. Die Sedimentdynamik in diesen Wadis wird hauptsächlich von Niederschlag zwischen den Messungen, Einzugsgebiet und Wadilänge und kaum von den verschiedenen Landnutzungen beeinflusst.
Das Landschaftssystem Argan konnte über diesen Multi-Methodenansatz auf verschiedenen Ebenen analysiert werden.
Investigation of soil water budget in the unsaturated soil zone is commonly performed for determination of the complex relationships between the different components of the water budget. A main focus of this work was on acquisition and evaluation of percolation water and soil moisture dynamics depending on the site properties (climate, soils, land use). A network consisting of 14 lysimeter and soil moisture measuring stations was established in the region of the Trier-Bitburger-Mulde (SW-Eifel, Germany). During a period of four hydrological years precipitation, infiltration, percolation water and soil moisture were collected weakly on the stations comprising the different regional characteristics of soil textures and land use patterns. The analysis of the weekly data sets enabled to point out seasonal variations of percolation water and soil water dynamics (as time-depth function). Comparison of simultaneously collected data sets of percolation water, soil moisture, and evapotranspiration shows significant fluctuations, which result from the complex relationships between the site properties. Hereby, the soil properties and in particular the secondary macropores (root channels, shrinkage- /frost cracks) have a striking influence on the variability of the water flows in the unsaturated soil zone. The results of the GIS-based regionalisation of the annual amount of percolation water prove the influence of topography (relief conditions, especially slope and aspect) on percolation and soil water dynamics in low mountain ranges.
Bürgerfernsehen
(2003)
Die vorliegende Studie befaßt sich zunächst mit der theoretischen Reflexion von Aufgaben und Potentialen Offener Kanäle. Dabei wird gezielt auf ihre Funktion für eine demokratische politische Kultur abgestellt. Die anschließende Betrachtung der deutschen Fernsehordnung als Rahmen für den Betrieb Offener Kanäle verdeutlicht zum einen die Differenzen in der immanenten Logik ihrer beiden Teilsysteme. Zum anderen wird die zunehmende Regionalisierung der Fernsehangebote beschrieben und ihr Einfluß auf die Entwicklung Offener Kanäle aufgezeigt. Die empirische Auseinandersetzung mit dem Bürgerfernsehen selbst beginnt mit einer kurzen Aufarbeitung seiner Geschichte im In- und Ausland, an die sich Überlegungen zur Gestaltbarkeit von Offenen Kanälen und zu ihrer politischen Steuerbarkeit anschließen. Nach einer Bestandsaufnahme des gegenwärtigen wissenschaftlichen Kenntnisstandes über die Bürgersender wird auf der Grundlage einer Typologie ihrer möglichen Ausprägungen das Spannungsverhältnis zwischen den Zielen des Zuschauerbezugs und des freien und gleichberechtigten Zugangs zu den Sendeplätzen thesenartig formuliert. Diese "Verhärtungsthese" bildet den Hintergrund für die beschreibende Analyse der Offenen Kanäle in Rheimland-Pfalz, die auf den Ebenen der Produzenten, der Inhalte und der Zuschauer erfolgt. Dabei wird insbesondere auf den Zielkonflikt von gleichberechtigtem Zugang und zuschauergerechter Programmgestaltung eingegangen und der Einfluß kommerzieller Interessen auf den Offenen Kanal untersucht.
Die Dissertation beschäftigt sich mit dem Denkmalkult in der aufstrebenden deutschen Indsutrieregion des Kaiserreichs (1871 - 1918). Denkmalprojekte dienten als Plattform für die Bezeugung und Selbstvergewisserung von Werten wie nationale Gesinnung und Bürgerlichkeit unter Nutzung nationaler, indstrieller und lokaler Symbole. Der zweite Teil enthält ein Verzeichnis der zwischen 1871 und 1918 errichteten kommunalen Denkmäler im Ruhrgebiet.
Caenorhabditis elegans Modelsysteme für Freiland und Labor Caenorhabditis elegans ist eines der am intensivsten untersuchten Tiermodelle, dabei weisen die nur unzureichenden Informationen über sein ursprüngliches Habitat eine Vielzahl offener Fragen auf. Deshalb beschäftigt sich der erste Teil vorliegender Arbeit mit einer Überprüfung der Freilandökologie und Biogeographie des Taxons. Nach den Untersuchungen spricht vieles dafür, dass die Ursprungsart der C. elegans Gruppe ein Begleiter von Gastropoden war, welche auch für ihre Ausbreitung häufig verantwortlich sind. Als Folge der Verschleppung durch Wirtstiere (u.a. die Weinbergschnecke Helix aspersa) erreichte sie ihr heutiges Areal, in allen Kontinenten. Ein nicht weniger wichtiges Ziel der vorliegenden Arbeit war die Etablierung von C. elegans als Biotest-System für die Indikation von Chemikalien-Wirkungen. In dieser Arbeit wurden ein ökotoxikologisches Testsystem entwickelt mit den C. elegans als Modellorganismus, das durch Messung von umweltbedingten intrazellulär gebildeten ROS im Gesamtorganismus eine Einschätzung der biologischen Aktivität von Chemikalien und Umweltmedien ermöglichen sollte. Als grundlegender biochemischer Parameter ist eine, die Kapazität der antioxidativen Schutzmechanismen übersteigende, ROS-Bildung ursächlich für oxidative Schädigungen der Zelle verantwortlich und damit Basis für zahlreiche pathologische Effekte. Aus den Resultaten als Bewertungsgrundlage lässt sich folgern, dass sich das erarbeitete Biotestsystem als adäquates Verfahren zur Messung von oxidativem Stress, als Folge exogener Belastung, einsetzen lässt. Damit leistet es einen Beitrag zur Beurteilung des Toxizitätspotentials von Chemikalien und Umweltproben. Zur Eignung des Einsatzes von C. elegans für Toxizitätstest wurden weitere Untersuchungen mit verschiedenen Chemikalien durchgeführt. Dabei ergibt sich bezogen auf molare Einheiten eine immer gleich bleibende Reihenfolge der Sensitivitäten gegenüber BaP > Cu2+ > AcL, ein Ergebnis welches mit Testergebnissen von anderen Versuchsorganismen zu vergleichen war. Die Wirkung von Atrazin auf die Entwicklung von C. elegans wurde auch untersucht. Es wurde festgestellt, dass Atrazin auf Wachstum und Reproduktion von C. elegans konzentrationsabhängig toxisch wirkt. Die bisherigen Ergebnisse zeigen jedoch, dass das Testsystem C. elegans hervorragend geeignet ist, um Chemikalienwirkungen frühzeitig sichtbar zu machen.
In der vorliegenden Arbeit wurden die Einsatzmöglichkeiten von Carbon Footprints in Großküchen untersucht. Dabei wurden sowohl methodische Aspekte und Herausforderungen ihrer Erhebung untersucht als auch mögliche Kennzeichnungsformate (Label) evaluiert.
Zunächst wurde am Beispiel Hochschulgastronomie eine vollständige Carbon Footprint Studie nach DIN 14067 für sechs exemplarische Gerichte (PCF) sowie angelehnt an DIN 14064 für den Mensabetrieb (CCF) durchgeführt. Es zeigte sich, dass die gewichteten durchschnittlichen Emissionen pro Teller, unter Einbezug der verwendeten Rohstoffe und des Energiebedarfs, 1,8 kg CO2eq pro Teller betragen (Mgew=1,78 kg CO2eq; [0,22-3,36]). Zur Vereinfachung des Erhebungsprozesses wurden anknüpfend an diese Ergebnisse Pauschalisierungsansätze zur vereinfachten Emissionsallokation im Gastrosektor evaluiert und in Form eines appgestützten Berechnungstools umgesetzt. Es konnte verifiziert werden, dass der Energiebedarf und die daraus resultierenden Emissionen unabhängig von der Beschaffenheit der Gerichte auf die Anzahl produzierter Gerichte alloziert werden können und die Ausgabewerte dennoch hinreichend belastbar sind (Abweichung <10 %).
In dieser Studie konnte gezeigt werden, dass am untersuchten Standort Skaleneffekte hinsichtlich der Anzahl produzierter Gerichte und Strombedarf pro Gericht auftreten. Beide Faktoren korrelieren stark negativ miteinander (r=-.78; p<.05). Zur Verifikation der Ergebnisse wurde eine Datenabfrage unter allen deutschen Studierendenwerken (N=57) hinsichtlich des Energiebedarfs und der Produktionsmengen in Hochschulmensen durchgeführt. Aus den Daten von 42 Standorten konnten für das Jahr 2018 prognostizierte Gesamtemissionen in Höhe von 174.275 Tonnen CO2eq, verursacht durch etwa 98 Millionen verkaufte Gerichte, ermittelt werden. Im Gegensatz zur durchgeführten Standort-Studie konnten die Skaleneffekte, d.h. sinkender Strombedarf pro Teller bei steigender Produktionszahl, bei der deutschlandweiten Datenerhebung statistisch nicht nachgewiesen werden
(r=-.29; p=.074).
Im Anschluss wurden mögliche Label-Formate für Carbon Footprints evaluiert, indem vier vorbereitete Label unterschiedlicher Beschaffenheit (absolute Zahlen, einordnend, vergleichend und wertend) in sechs Fokusgruppen mit insgesamt 17 Teilnehmer:innen im Alter zwischen 20 und 31 Jahren (M=25,12; SD=3,31) diskutiert wurden. Im Ergebnis zeigte sich, dass bei den Teilnehmer:innen ein breiter Wunsch nach der Ausweisung absoluter Zahlen bestand. Zur besseren Einordnung sollte ein Label zudem einordnende Elemente enthalten. Wertende Label in Form von Ampelsymbolen oder Smileys mit unterschiedlichen Emotionen wurden überwiegend abgelehnt. Ableitend aus den Erkenntnissen konnten zwei synthetisierende Label-Vorschläge entwickelt werden.
Die polare Kryosphäre stellt einen Schlüsselfaktor für die Erforschung des Klimawandels dar. Insbesondere das Meereis und seine Schneebedeckung, die sich durch eine äußerst hohe und Zeitskalen-übergreifende Sensitivität gegenüber atmosphärischen Einflüssen auszeichnen, können als diagnostische Parameter für die Abschätzung von Veränderungen im Klimasystem herangezogen werden. Die komplexen Rückkopplungsmechanismen, durch die das Meereis mit der globalen Zirkulation der Atmosphäre und des Ozeans in Wechselwirkung steht, werden durch eine zusätzliche Schneeauflage deutlich verstärkt. Insofern tragen die saisonalen Veränderungen der physikalischen Eigenschaften des Schnees, und insbesondere der Beginn der Schneeschmelze, massgeblich zur lokalen und regionalen Energiebilanz sowie zur Meereismassenbilanz bei. In dieser Arbeit wird nun erstmals auf der Basis langjähriger Daten der satellitengestützten Mikrowellenfernerkundung, in Kombination mit Feldmessungen aus dem Weddellmeer während des Sommers 2004/2005, die Charakteristik der sommerlichen Schmelzperiode auf antarktischem Meereis untersucht. Die sommertypischen Prozesse zeichnen sich hier durch deutliche Unterschiede im Vergleich zu arktischem Meereis aus. Wie die Messungen vor Ort zeigen, kommt es während des antarktischen Sommers nicht zu einem kompletten Abschmelzen des Schnees. Vielmehr dominieren ausgeprägte Schmelz-Gefrier-Zyklen im Tagesgang, die eine Abrundung und Vergrösserung der Schneekristalle sowie die Bildung interner Eisschichten verursachen. Dies führt radiometrisch zu Mikrowellensignalen, deren Erfassung im Vergleich zu bestehenden Schmelzerkennungs-Methoden neue Ansätze erfordert. Durch den Vergleich von zeitlich hoch aufgelösten in-situ Messungen der physikalischen Schneeeigenschaften mit parallel dazu erfassten Satellitendaten, sowie durch eine Modellierung der mikrowellenradiometrischen Eigenschaften der Schneeauflage, konnte ein neuer Indikator entwickelt werden, über den das Einsetzen der typischen sommerlichen Schmelzperiode auf antarktischem Meereis identifiziert werden kann. Der DTBA-Indikator beschreibt die Tagesschwankung der radiometrischen Eigenschaften des Schnees und zeichnet sich durch ein Werteverhalten aus, das eine eindeutige Hervorhebung der Sommerphase innerhalb eines saisonalen Zyklus erkennen lässt. Der Indikator wurde verwendet, um mittels des neu entwickelten Schwellwertalgorithmus MeDeA das Einsetzen der sommerlichen Schmelzperiode für das gesamte antarktische Meereisgebiet zu bestimmen. Durch die Anwendung der neuen Methode auf die langjährigen Reihen der Satellitenmessungen konnte ein umfassender Datensatz erstellt werden, der für den Zeitraum von 1988 bis 2006 die räumliche und zeitliche Variabilität des Einsetzens der sommerlichen Schmelzperiode auf antarktischem Meereis beinhaltet. Die Ergebnisse zeigen, dass im Untersuchungszeitraum keine signifikanten Trends im Beginn des Schmelzens der Schneeauflage festzustellen sind, und dass das Schmelzen im Vergleich zur Arktis deutlich schwächer ausgeprägt ist. Eine Untersuchung der atmosphärischen Antriebe durch die Auswertung meteorologischer Reanalysen zeigt den grundlegenden Einfluss der zirkumpolaren Strömungsmuster auf die interannualen Schwankungen des Einsetzens und der Stärke der sommerlichen Schneeschmelze.
Die Beobachtung und Bewertung von Wäldern ist eins der zentralen Themen der Fernerkundung. Wälder sind auf der Erde die größten Speicher von Biomasse und damit, neben den Ozeanen, die größte Senke für Kohlendioxid. Eine genaue Kenntnis über Zusammensetzung, Zustand und Entwicklung der Wälder ist wegen ihrer vielfältigen Funktionen und ihres großen Anteils an der Landesfläche von großem wissenschaftlichem und gesellschaftlichem Wert. Eine flächen-deckende detaillierte Beobachtung ist nur mit fernerkundlichen Mitteln möglich. Eine vielversprechende moderne Technik für hochauflösende Waldfernerkundung ist luftgestütztes Laser-¬scanning. Für die Arbeit stand ein Laserscanner-Datensatz aus dem Idarwald bei Morbach in Einzelpunkten und als Wellenformdatensatz zur Verfügung, der zur Ableitung von strukturellen Waldparametern genutzt wurde. Als wichtigster Bestandsstrukturparameter wurde die Baumhöhe sowohl aus Einzelpunktdaten als auch aus gerasterten Bilddaten flächendeckend mit hoher Genauigkeit abgeleitet. Die Kronenuntergrenzen konnten anhand der Wellenformdaten identifiziert werden und stimmten ebenfalls in hoher Genauigkeit mit Geländemessungen überein. Aus Baumhöhen und Höhe der Kronenuntergrenzen konnte die jeweilige Kronenlänge bestimmt werden. Eine größere Herausforderung ist die Bestimmung der Anzahl der Bäume pro Hektar. Während die einzelnen Kronen älterer Nadelbäume gut erkennbar sind, lassen sich Laubbäume und jüngere Nadelbäume nur schwer identifizieren. Trotzdem konnte mit Hilfe eines adaptiven Moving-Window-Ansatzes eine hohe Übereinstimmung mit im Gelände bestimmten Stammzahlen erzielt werden. Aus dem Anteil der Laserstrahlen, die im Bestand den Boden erreichen, können der Kronenschlussgrad und der Blattflächenindex bestimmt werden. Beide Größen sind für den Strahlungstransfer im Bestand und für ökologische Fragestellungen von Bedeutung und konnten ebenfalls flächendeckend und mit hoher Genauigkeit gemessen werden. Eng verknüpft mit dem Blattflächenindex sind die Biomasse und der Holzvorrat. Der Holzvorrat kann zwar nicht direkt aus den Laser-¬scannerdaten abgeleitet werden, da aber enge Beziehungen zu Baumhöhe und Stammzahl bestehen, kann er aus diesen statistisch abgeleitet werden. Auch die Biomasse wurde indirekt bestimmt: aus den Baumhöhen und dem Bedeckungsgrad. Die detaillierteste Charakterisierung von Waldbeständen kann durch Kombination unterschiedlicher Datensätze erreicht werden. Neben dem Laserscanningdatensatz stand auch ein hyperspektrales Bild des Untersuchungsgebiets zur Verfügung. Um diese zu kombinieren, wurde aus den Wellenformen die jeweils über der Fläche eines Hyperspektralpixels zurückgestreute Laserenergie in Höhenschritten von 0.5 m berechnet. Diese Höhenprofile zeigen die Position und Dichte der Baumkronen. Der kombinierte Datensatz wurde für eine Klassifikation zwischen Fichten und Douglasien in jeweils mehreren Altersstufen verwendet und konnte gegenüber dem Hyperspektralbild alleine eine deutliche Verbesserung der Klassifikationsgenauigkeit erzielen. Als weitere Methode, die Vorteile von hyperspektraler Fernerkundung mit denen von Laser-scanning zu verbinden, wurden Methoden zur Verwendung von Laserscanning für die Invertierung von zwei Reflexionsmodellen entwickelt und getestet. Da mit Laserscanning Größen bestimmt werden können, die aus einem Reflexionsspektrum nicht eindeutig ableitbar sind, können die Daten verwendet werden, um den Parameterraum bei der Invertierung zu verkleinern und damit die Invertierung zuverlässiger zu machen.
α2-adrenerge Rezeptoren sind entscheidende Strukturen für den Ablauf einer physiologischen Stressreaktion. Verschiedene Ursachen sind bekannt, welche die Funktionalität/Effektivität der vorwiegend inhibitorischen α2-adrenergen Wirkung einschränken. Darunter fallen frühe und lebenszeitliche Stressbelastung, genetische Faktoren sowie pharmakologische Einflüsse. Ziel der vorliegenden Dissertation war die Identifikation und Charakterisierung von kognitiven und zentralnervös gesteuerten kardiovaskulären Parametern, welche durch α2-adrenerge Rezeptoren in besonderem Maße beeinflusst werden. Weiterhin sollte anhand pharmakologischer Modelle eine Methode entwickelt werden, um diese Beeinflussbarkeit quantitativ zu beschreiben. In einem komplexen pharmakologischen Versuchsplan wurde die Aktivität der α2-adrenergen Rezeptoren durch jeweils fünf Dosisstufen Dexmedetomidin (α2-adrenerger Agonist) und Yohimbin (α2-adrenerger Antagonist) manipuliert. In einem placebokontrollierten einfach-blinden Design wurde die Konzentrations-Wirkungs-Beziehung bzw. die Dosis-Wirkungs-Beziehung zwischen der Medikation und kognitiven sowie zentralnervös gesteuerten kardiovaskulären Parametern ermittelt. Zudem wurden die Effekte von α2-adrenergem Agonismus und Antagonismus auf die akustische Startlereaktion sowie auf die Plasmakonzentration von Noradrenalin (NA) und DHPG erfasst. Mittels linearer pharmakodynamischer Modellierung sollte anschließend die maximale Spannweite der α2-adrenerg vermittelten Effekte vorhergesagt werden, um so Aussagen über die pharmakologische Beeinflussbarkeit der Rezeptoren treffen zu können. Es zeigten sich deutliche Effekte von α2-adrenergem Agonismus und Antagonismus auf einfache Reaktionszeiten und kardiovaskuläre Parameter. Insbesondere sympathisch vermittelte Funktionen waren durch die pharmakologische Manipulation beeinflusst, ebenso wie die Magnitude der Blinzelreaktion auf einen akustischen Schreckreiz. Die Substanzen hatten zudem deutliche Einflüsse auf die Plasmakonzentration von NA und DHPG. Der besondere Erfolg dieser Arbeit liegt in der systematischen Quantifizierung der pharmakologischen Beeinflussung zentralnervöser Parameter durch α2-adrenergen Agonismus und Antagonismus. Es konnte gezeigt werden, dass die pharmakodynamische Modellierbarkeit zentralnervöser Parameter Aufschluss über potenzielle Gruppen-unterschiede in der Funktionalität/Effektivität α2-adrenerger Mechanismen geben kann.
Der Planungsorientierten Stadtklimatologie und der Stadtökologie stehen eine Vielzahl von Einzelmethoden zur Erfassung und Bewertung der Belastungsfaktoren Klima, Luft oder Lärm zur Verfügung. Es fehlen derzeit Möglichkeiten zur Gesamtbeurteilung des aktuellen Umweltzustandes oder von bestimmten Planungsvarianten. Um die Strukturen der Gesamtbelastung städtischer Gebiete durch Klima, Luft und Lärm zu bewerten, wird der Ansatz über die Indexbildung untersucht. Dabei werden die Einzelbelastungen durch die städtische Überwärmung, die Belastung mit Kfz-bedingten Luftschadstoffen und die Verkehrslärmbelastung zu einer einzigen Bewertungsgröße integrierend zusammengefasst. Das "Indikatorensystem Klima - Luft - Lärm" kurz: "K-L-L-Index" knüpft im weiteren Sinne an die Nachhaltigkeitsindikatoren an. Die Ermittlung des K-L-L-Indexes erfolgt schrittweise, wobei die berechneten oder gemesse-nen Einzelgrößen zunächst einer vereinheitlichten Klassifizierung unterzogen werden. Mit dieser Vorgehensweise werden die Einzelgrößenbelastungen entsprechend ihrer Ausprägung bzw. Intensität eingestuft und erhalten jeweils einen Indikatorenwert. Die eigentliche Berechnung des K-L-L-Indexes erfolgt über die Verknüpfung der einzelnen Indikatorenwerte zu einem ge-meinsamen Indikatorensystem. Die Einstufung des K-L-L-Indexes wird entsprechend einer definierten Bewertungsskala durch arithmetische Mittelwertbildung der Indikatorwerte zwi-schen den Stufen 0 "kaum belastet" bis Stufe 4 "extrem belastet" ermittelt. Die kumulative Wirkung der drei Größen auf die menschliche Gesundheit wird insoweit berücksichtigt, dass die Fälle von drei gleich stark belasteten Einzelgrößen in der Gesamtbelastung der nächst höhe-ren Belastungsstufe zugeordnet werden. Die Berechnung und Darstellung des K-L-L-Indexes wird unter Verwendung digitaler Informa-tionen in einem Geographischen Informationssystem (GIS) durchgeführt. Hier können die zahl-reichen räumlichen Informationen entsprechend den Vorgaben miteinander verarbeitet werden und die Ergebnisse für die Untersuchungsgebiete direkt flächenhaft dargestellt werden. Da-durch weist der K-L-L-Index hinsichtlich des räumlichen Bezugs deutliche Vorteile gegenüber anderen Nachhaltigkeitsindikatoren auf. Die Anwendbarkeit und Flexibilität des vorgestellten K-L-L-Indexes wird anhand von zwei ausgewählten Untersuchungsgebieten in Trier und Lud-wigshafen überprüft. Der K-L-L-Index bietet zahlreiche Einsatzmöglichkeiten in der Straßen- und Verkehrsplanung (Verkehrsszenarien, Trassenvarianten), Stadtentwicklungsplanung und Bauleitplanung (Ausweisung von Flächen, Baugenehmigungen, Rahmenpläne) oder in der Lärmminderungsplanung. Neben der Erfassung der Ist-Belastungssituation kann der K-L-L-Index insbesondere in Bezug auf geplante Nutzungsänderungen oder Planungsalternativen Detailinformationen hin-sichtlich der Umweltbelastungen liefern und somit einen wichtigen Beitrag zur vorsorgenden Umweltplanung leisten. Als weiteren Forschungsbedarf wird die Anpassung des K-L-L-Indexes an aktuelle Entwicklungen im Bereich des Immissionsschutzes (Einbeziehung von PM10 und des LDEN) und der Einsatz im Zuge von Aktionsplänen nach -§ 47 Bundesimmissionsschutzgesetz zur Vermeidung von Grenzwertüberschreitungen nach der 22. BImSchV angesehen. Der K-L-L- Index ist somit als ein erster Schritt zur Gesamtbewertung hin zu sehen, weitere Schritte müssen folgen.
Im Mittelpunkt der Arbeit steht die Frage nach der Darstellung Chinas in ausgewählten Geographieschulbüchern (Lehrbücher, Zusatzmaterialien und Schulatlanten) der Bundesrepublik Deutschland, der Deutschen Demokratischen Republik und der Republik Österreich. Ziel dieser Schulbuchanalyse ist es, die Chinadarstellungen zu erfassen und auf ihre inhaltliche Qualität und Gegenwartsbezogenheit zu überprüfen. Alle Schulbücher werden auf ihre sachliche Richtigkeit, Vollständigkeit und Angemessenheit, sowie nach Vorurteilen und Stereotypen untersucht. Dabei werden bestimmte Vorurteilsstrukturen (Pittoresken, Exotismen) und stereotype Deutungs- und Darstellungsmuster aufgedeckt, nationale Sichtweisen hervorgehoben und im Hinblick auf das Postulat der Völkerverständigung interpretiert. Der Hauptteil der Arbeit besteht aus einer zweistufigen Schulbuchanalyse, die sich in eine differenzierte quantitative und qualitative Inhaltsanalyse gliedert. Ein detailliertes Kategoriensystem bildet die Grundlage der Analyse. Anhand der thematischen Kategorien erhält der Leser die Möglichkeit, bestimmte Aussagen und Ergebnisse der Analyse nachzuprüfen und nachzuvollziehen und sich zudem wissenschaftlich fundierte Erkenntnisse über die einzelnen Themengebiete zu erschließen. Die Vernachlässigung bestimmter Themen zeigt sich in mehreren Schulbüchern, wobei insbesondere ein qualitativer Wandel in der Behandlung physisch- und anthropogeographischer Themen zu beobachten ist.
Die Dissertation mit dem Thema "Cross-Border-Leasing als Instrument der Kommunalfinanzierung " Eine finanzwirtschaftliche Analyse unter besonderer Berücksichtigung der Risiken - befasst sich am Beispiel des primär steuerinduzierten, grenzüberschreitenden Cross-Border-Leasings (CBL) mit einem innovativen, strukturierten Finanzierungsinstrument, das sich im Spannungsfeld von Rechtsstaatlichkeit und privatwirtschaftlichem Management öffentlicher Akteure befindet. Dazu werden bereits finanzierte und sich im Betrieb befindliche Assets in Variationen von langfristigen Leasingverträge eingebracht. Durch die geschickte Ausnutzung steuerlicher Zurechnungskriterien werden unter Einbindung mehrerer Jurisdiktionen Gewinnverschiebungsmöglichkeiten und Steueroptimierungspotenziale geschaffen, wobei die generierten Zusatzerträge unter den Akteuren aufgeteilt werden. Die Untersuchung orientiert sich an einem umfassenden forschungsleitenden Fragenkatalog, der sehr vielschichtig und zudem interdisziplinär die komplexen Aspekte des CBLs theoretisch sowie praktisch an einem Fallbeispiel untersucht. Zunächst erfolgt die Einbettung des CBLs in den kommunalen Hintergrund. Daran schliesst sich eine Darstellung des Untersuchungsgegenstands im Hinblick auf seine elementare Grundstruktur, Zahlungsströme, Vertragsparteien und deren bilateralen Verpflechtungen an. Daneben erfolgt eine Analyse der öffentlich-rechtlichen Implikationen des CBLs sowie der regulatorischen kommunalaufsichtsrechtlichen Anforderungen. Im zentralen empirischen Teil der Dissertation wird eine idealtypische CBL-Transaktion einer bundesdeutschen Metropole als Fallstudie analysiert: im Rahmen einer erstmaligen wissenschaftlichen Analyse einer Orginaldokumentation werden zunächst die strukturellen Rahmenparameter untersucht, um dann den Finanzierungsvorteil der Transaktion zu ermitteln. Eine Klassifikation erfolgt dabei in diejenigen Risken, die sich unmittelbar im Einflussbereich der Kommune befinden und somit direkt, d.h. durch aktives eigenes Handeln, minimiert oder vermieden werden können und in solche, die aus ihrer Sicht extern sind. Abgerundet wird die Risikoanalyse durch eine Abschätzung der maximalen Risikoposition in Form der Schadensersatzzahlungen, die die Kommune in vertraglich vereinbarten Fällen leisten muss. Dabei ermittelt die Verfasserin den Break-Even der Transaktion und setzt Szenarien sowie mathematische Modelle ein, um die inhärenten Risiken aufgrund ihrer Kostenfolgen sorgfältig gegenüber dem vereinnahmten kurzfristigen Vorteil abzuwägen. Die Untersuchung bedient sich dem anerkannten mathematisch-statistischen Value-at-Risk-Verfahren (VaR), das unter Verwendung von Ansätzen der Wahrscheinlichkeitsverteilung das Marktpreisrisiko zu quantifizieren vermag. Um zu validen Ergebnissen zu gelangen, werden zur Ermittlung des VaRs die beiden bekanntesten (nicht-parametrischen) Tools des VaR-Ansatzes angewendet, um die potenziellen Performanceschwankungen des Depotwertes unter Zugrundelegung bestimmter Wahrscheinlichkeiten abschätzen zu können. Dies ist das Verfahren der Historischen Simulation sowie die als mathematisch sehr anspruchsvoll eingestufte Monte-Carlo-Simulation. Als Weiterentwicklung des VaR-Modells wird zudem der Conditional VaR berechnet, der Aussagen über das Ausmaß der erwarteten Verluste zulässt. Anhand dieser Ergebnisse wird die maximale finanzielle Risikoposition der Kommune, bezogen auf das Kapitaldepot, abgeleitet. Darüber hinaus wird das CBL im Rahmen eines mathematischen Modells insgesamt beurteilt, indem eine Gegenüberstellung von vereinnahmtem Finanzierungsvorteil und den mit Eintrittswahrscheinlichkeiten gewichteten Ausfallrisiken, unter Berücksichtigung des jeweiligen Eintrittszeitpunktes, durchgeführt wird. Diese Vorgehensweise führt zu einer Symbiose aus Finanzierungsvorteil und den Risikomaßzahlen VaR, Expected Shortfall und Expected Loss. Die ermittelten finanzwirtschaftlichen Risikomaßzahlen führen zu überraschenden Ergebnissen, die die propagierte Risikolosigkeit und das vermeintlich attraktive Renditepotenzial derartiger Transaktionen eindeutig verneinen. Aus den gewonnenen Erkenntnissen leitet die Verfasserin praktische Handlungsempfehlungen und Absicherungsmöglichkeiten für kommunale Entscheidungsträger ab. Die sich aufgrund der US-Steuerrechtsänderung vom Februar 2005 ergebenden Auswirkungen auf bestehende Transaktionen wie auch auf Neugeschäfte werden im Ausblick dargelegt.
Kompetenzeinbußen und Abhängigkeit im Alter können durch die soziale Umwelt mitbedingt werden. Altersstereotypbasierte Negativerwartungen bezüglich mangelnder Kompetenzen alter Menschen beeinflussen das Kommunikationsverhalten jüngerer gegenüber älteren Personen (z.B. Ryan, Giles, Bartolucci & Henwood, 1986) sowie das Interaktionsverhalten im Pflegekontext (Baltes, M. M., 1996). Margret Baltes (1996) zeigte in Beobachtungsstudien, dass die Interaktionen zwischen alten Menschen und ihren Pflegepersonen durch ein spezifisches Muster gekennzeichnet sind: Unselbständiges Verhalten der alten Menschen wird durch vermehrte Hilfe unterstützt, selbständiges Verhalten ignoriert. Die vorliegende Arbeit geht der Frage nach, ob es sich bei diesem Abhängigkeitsunterstützungsskript im Pflegesetting um einen Effekt mit universellem Geltungsbereich handelt, oder ob es situative und personale Moderatoren gibt, welche die Reaktionen der Pflegepersonen auf selbständiges bzw. unselbständiges Verhalten der von ihnen betreuten Menschen beeinflussen. Mithilfe einer experimentellen Methode - unter Verwendung von Text-Vignetten - wurde an einer Stichprobe von Studierenden (Studie 1; N=172) sowie professionellen Pflegekräften aus Altenheimen bzw. einem Krankenhaus (Studie 2; N=214) die Hypothese überprüft, dass Pflegekräfte vor allem in solchen Situationen skriptkonform handeln, in denen sie unter Zeitdruck stehen. Des Weiteren wurde untersucht, ob es sich um einen spezifischen Effekt im Umgang mit alten Menschen handelt, oder ob der Befund vielmehr auf bestimmte Rollenerwartungen im Pflegesetting (Altenheim bzw. Krankenhaus) unabhängig vom Alter der gepflegten Person zurückzuführen ist. Als Persönlichkeitsvariablen wurden Geduld, Direktivität und die individuelle Ausprägung des Altersstereotyps erhoben. Die Ergebnisse sprechen für ein relativ hohes Maß an aktivierenden, die Selbständigkeit fördernden Pflegeabsichten. Diese sind vermindert bei hohem Zeitdruck und mangelnder Geduld der Pflegeperson. Die Hypothese, das Abhängigkeitsunterstützungsskript zeige sich vor allem in der Interaktion mit alten Menschen bzw. werde durch ein individuell stark ausgeprägtes negatives Altersstereotyp verstärkt, fand keine eindeutige Bestätigung. Es zeigten sich aber Unterschiede zwischen den Pflegesettings: Im Altenheim wurden mehr selbständigkeitsunterstützende Pflegeabsichten geäußert als bei alten Patienten im Krankenhaus.
Gegenstand der Dissertation ist das von einem anonymen Autor stammende Bellum Africum, das als Teil des Corpus Caesarianum Caesars Feldzug in Afrika (Dezember 47 bis Juli 46 v.Chr.) umfasst. Hauptteil ist ein Zeilenkommentar der Kapitel 1 bis 47 (S.80-323), in dem der Text sowohl historisch als auch philologisch erfasst und bearbeitet wird. Daraus ergeben sich eine Reihe neuer Erkenntnisse verschiedenster Art in Detailfragen. Daneben treten eine Übersetzung der entsprechenden Kapitel ins Deutsche (S.55-78) sowie weitere Untersuchungen, in denen Einzelprobleme, die sich aus der Arbeit am Kommentar ergaben, bearbeitet werden. Thema dieser Untersuchungen sind in der Einleitung (S.33-54) Sprache und Stil (S.33-39), die Verfasserfrage (S.39-46) und die Chronologie der ersten Tage des Feldzuges (S.47-54). Zwei weitere Untersuchungen im Anschluss an den Kommentar befassen sich mit Caesars Legionen im Afrikanischen Krieg (S.324-342) und der Darstellung von Caesarianern und Pompeianern im Bellum Africum (S.343-382). Eine Prosopographie zum Bellum Africum (S.390-407), ein Index zu den benutzten antiken Quellen (S.408-421) und ein Literaturverzeichnis (S.10-32) vervollständigen die Arbeit.
Im März 196 v. Chr. erließ eine in Memphis versammelte Synode von Priestern aus den Tempeln Ägyptens ein Ehrendekret in drei verschiedenen Sprachen für den amtierenden Herrscher Ptolemaios V. Epiphanes: Der klassischen Sprache des pharaonischen Ägypten, geschrieben in altägyptischen Hieroglyphen, dem Demotischen, der damals gesprochenen Sprachstufe des Altägyptischen und dem hellenistischen Griechisch des 2 Jh.. Von dieser Textsorte sind bisher insgesamt nur vier relativ vollständig erhaltene Beispiele auf uns gekommen. Diese folgen sämtlich in ihrem Formular in hohem Maße der im griechischen Bereich ubiquitären Psephismata und setzen alle im jeweiligen Beschlussteil Ehrungen fest, die die Rolle des ptolemäisch-hellenistischen Herrschers im Kontext der altägyptischen Kulte betreffen. Die vorliegende Arbeit will zum einen in ihrem Kommentarteil eine Grundlage für die weitere Beschäftigung mit allen drei Sprachfassungen des Dekrets von Memphis durch die ptolemaistisch-althistorische Forschung leisten. Zum anderen möchte sie auf Grundlage des Textes die Rolle des Herrschers aus Sicht der beschließenden Priesterschaft beleuchten. Es kann gezeigt werden, dass das Dekret - anders als bisher angenommen - nicht zur eigentlichen Thronbesteigung, sondern anlässlich eines späteren Thronjubiläums erlassen wurde und gleichwohl die Fiktion eines innenpolitischen Neuanfangs (vermutlich im Sinne des Hofes) angesichts erster, bescheidener Erfolge gegen innere Aufstände der indigenen Bevölkerung in Unter- und Oberägypten inszeniert. Die kultische Herrscherverehrung hellenischer Provenienz erscheint in diesem Text ggü. den früheren Dekreten von Kanobos und Raphia relativ vollständig in den altägyptischen religiösen Kontext übersetzt, sodass hier durchaus von einem "ägyptischen Herrscherkult" gesprochen werden kann. Dabei wird der sehr junge fünfte Ptolemäerkönig sehr auffällig mit Kindformen des Gottes Horus (Harendotes, Harsiese) gleichgesetzt, was zum einen die legitime Machtübernahme durch den Sohn des verstorbenen Herrschers von einer im ägyptischen Kontext religiös definierten Sieghaftigkeit gegen die "Götterfeinde" abhängig erscheinen lässt, zum anderen den König in den Kontext der spätzeitlichen Verehrung von Kindgottheiten und Götterttriaden setzt. Alles in allem scheint die ägyptische Priesterschaft mittels einer für die eigenen Bedürfnisse flexibel adaptierten ursprünglich griechischen Textform den eigenen Anspruch auf Definition religiös legitimierter Königsmacht erhoben und im Diskurs um Privilegien und Unterstützung im ptolemäischen Ägypten kommuniziert zu haben.
Thema dieser Dissertation ist das deutsche Selbstbildnis im 17. Jahrhundert. Ziel der Arbeit war es, das deutsche Selbstbildnis als eigene Gattung zu etablieren. Hierzu wurden die Selbstbildnisse deutscher Maler des 17. Jahrhunderts ausgewählt, gilt doch diese Zeit noch immer als ‚totes Jahrhundert‘. Grundlage der Untersuchung war eine Sammlung von 148 Objekten, die einer grundlegenden Analyse unterzogen wurden. Das früheste Selbstbildnis in dieser Sammlung stammt von 1600, das späteste wurde um 1700 angefertigt. Künstler aus dem gesamten Alten Reich, ob aus Schlesien und Böhmen, Nord-oder Süddeutschland oder aus den österreichischen wie schweizerischen Landen sind hier vertreten. Die Selbstbildnisse stammen von Malern in der gesamten breite ihrer Karriere. So sind gleichermaßen Selbstbildnisse von Gesellen wie Meistern, von Hofmalern bis hin zu Freimeistern vertreten. Besonders wichtig war es, nicht nur Selbstbildnisse im Gemälde oder Kupferstich in die Untersuchung aufzunehmen, sondern auch Stammbucheinträge.
Die ausführliche Betrachtung und Gegenüberstellung der deutschen Selbstbildnisse mit denen ihrer europäischen Kollegen hat gezeigt, dass auch deutsche Maler den gängigen Darstellungstypen wie etwa dem virtuoso folgten. Aber die deutschen Maler imitierten nicht nur, sondern experimentierten und gingen mit ihren Vorbildern spielerisch um. Daneben folgten sie natürlich auch den Trends der Selbstinszenierung. Sie drückten in ihren Selbstbildnissen ihren Wunsch nach sozialer und gesellschaftlicher Emanzipation des gesamten Berufsstandes aus. So war das deutsche Selbstbildnis eigenständiger Ausdruck des Aufbruches deutscher Künstler in eine neue Zeit.
Die Evangelische Kirche in Deutschland (EKD) ist eine der größten Nonprofit-Organisationen in Deutschland. Sie ist ein sehr heterogenes Gebilde aus (zum Zeitpunkt der Untersuchung) 22 Landeskirchen unterschiedlichen Bekenntnisses mit jeweils eigenen Organisationsstatuten und rechtlichen Regelungen. Lokale Anlaufpunkte für ihre 23,9 Millionen Mitglieder (Stand Ende 2010) sind die Gemeinden. Sie verwalten sich weitgehend selbständig und werden von gewählten und berufenen Ehrenamtlichen sowie dem oder den Geistlichen der Gemeinde geleitet. Ein Mitglieder- und Einnahmerückgang bewirkt steigende Anforderungen an die Gemeindeleitung und die Notwendigkeit umfassender organisatorischer Veränderungen, die einen groß angelegten Reformprozess in der EKD angestoßen hat. Dies führt u.a. zu Zusammenlegungen von Landeskirchen und Kirchengemeinden, Pfarrstellenkürzungen und einer Reduzierung kirchlicher Gebäude. Auch hiervon sind die Gemeinden und ihre Leitungsgremien betroffen. Ziel der Arbeit ist, vor diesem Hintergrund die Gemeindeleitung (mit Fokus auf den ehrenamtlichen Gemeindeleitern) und die Entscheidungsprozesse in den Leitungsgremien explorativ zu beleuchten. Die Betrachtung erfolgt aus einer verfügungsrechtlichen Perspektive und rückt damit die Handlungsspielräume, die Einstellungen und das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter in den Fokus. Zunächst werden die aktuellen Herausforderungen für die Gemeinden sowie die Themen und unterschiedlichen Ansätze in der Reformdebatte betrachtet. Es folgt eine Darlegung der Einflussmöglichkeiten der Gemeindeleiter auf die Situation ihrer Gemeinde. Hierzu werden die für die Dienstleistungsproduktion von Gemeinden relevanten Entscheidungsfelder, wichtige Kenngrößen für die Gemeindearbeit und die von den Gemeindeleitern beeinflussbaren Entscheidungsvariablen ermittelt. Es folgt eine Analyse der verfügungsrechtlichen Arrangements der 22 Landeskirchen der EKD für die Gemeindeleitung. Für den angestrebten Organisationsvergleich sind Regelungsaspekte von Interesse, deren Ausgestaltung in einzelnen Landeskirchen stark voneinander abweicht. Für die empirische Untersuchung werden konkret die drei Aspekte 'Grad der Selbständigkeit des Gemeindeleitungsgremiums', 'Einflussverteilung zwischen Pfarrern und Ehrenamtlichen im Gremium' sowie 'Haftungsregelungen für die ehrenamtlichen Gemeindeleiter' ausgewählt. Zu den Auswirkungen der unterschiedlichen Ausgestaltung dieser drei Regelungsaspekte werden Hypothesen aufgestellt, die anhand von Fallstudien überprüft werden sollen. Hierfür wurden mit der Evangelischen Kirche in Hessen und Nassau, der Evangelischen Kirche von Kurhessen-Waldeck und der Evangelisch-reformierten Kirche drei Landeskirchen selektiert, die in den genannten Bereichen sehr unterschiedliche Regelungen aufweisen. Den Kern der Arbeit bildet eine explorative vergleichende Untersuchung der unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den ausgewählten Landeskirchen und ihrer Auswirkung auf das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter. Auf der Basis von Interviews mit rechtlich versierten Vertretern der drei Landeskirchen werden die historischen Hintergründe für die unterschiedliche rechtliche Ausgestaltung sowie die praktische Relevanz und Anwendbarkeit der einzelnen Regelungen analysiert. Zusätzlich werden für die gemeindlichen Fallstudien wichtige Veränderungs- / Entscheidungsprozesse mit aktuell großer Bedeutung für die Gemeinden ermittelt. Dies sind konkret der Gemeindezusammenschluss, die Pfarrstellenbesetzung und die Durchführung einer großen Baumaßnahme. Für die gemeindliche Untersuchung wurden für jede der drei Landeskirchen drei bis vier Gemeinden (insgesamt 11) ausgewählt, die mindestens einen der drei genannten Prozesse gerade durchliefen oder abgeschlossen hatten. Für jeden ausgewählten Prozess wird damit in jeder Landeskirche mindestens ein Fall betrachtet. An die ehrenamtlichen Gemeindeleiter der selektierten Gemeinden adressierte Fragebögen geben Aufschluss zu ihren Motivstrukturen. Mittels eine Clusteranalyse werden dabei sechs unterschiedliche Gemeindeleitertypen mit verschiedenen Motiven und Schwerpunkten ermittelt und vorgestellt. Anhand von mit den ehrenamtlichen Vorsitzenden der Gemeinden geführten Interviews werden schließlich die durchlaufenen Entscheidungsprozesse beleuchtet. Auf Basis der Erkenntnisse aus den Interviews und den Fragebögen wird analysiert, wie sich die unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den drei Landeskirchen auf das Entscheidungsverhalten verschiedener Gemeindeleitertypen und damit auf die Entscheidungsprozesse und -ergebnisse in den Gemeinden auswirken. Dabei werden die zuvor aufgestellten Hypothesen anhand der vornehmlich qualitativen Auswertungen überprüft. Abschließend werden die gewonnenen Erkenntnisse in die Reformdebatte eingeordnet und konkrete organisatorische Gestaltungsvorschläge abgeleitet.
This work deals with the current support landscape for Social Entrepreneurship (SE) in the DACH region. It provides answers to the questions of which actors support SE, how and why they do so, and which social ventures are supported. In addition, there is a focus on the motives for supporting SE as well as the decision-making process while selecting social ventures. In both cases, it is examined whether certain characteristics of the decision-maker and the organization influence the weighting of motives and decision-making criteria. More precise, the gender of the decision-maker as well as the kind of support by the organization is analyzed. The concrete examples of foundations and venture philanthropy organizations (VPOs) will give a deeper look at the SE support motives and decision-making behavior. In a quantitative empirical data collection, by means of an online survey, decision-makers from SE supporting organizations in the DACH region were asked to participate in a conjoint experiment and to fill in a questionnaire. The results illustrate a positive development of the SE support landscape in the German-speaking area as well as the heterogeneity of the organizational types, the financial and non-financial support instruments and the supported social ventures. Regarding the motives for SE-support, a general endeavor to change and to create an impact has proven to be particularly important at the organizational and the individual level. At the individual level female and male decision-makers have subtle differences in their motives to promote SE. Robustness checks by analyzing certain subsamples provide information about that. Individuals from foundations and VPOs, on the other hand, hardly differ from each other, even though here individuals with a rather social background face individuals with a business background. At the organizational level crucial differences can be identified for the motives, depending on the nature of the organization's support, and again comparing foundations with VPOs. Especially for the motives 'financial interests', 'reputation' and 'employee development' there are big differences between the considered groups. Eventually, by means of cluster analysis and still with respect to the support motives, two types of decision-makers could be determined on both the individual and the organizational level.
In terms of the decision-making behavior, and the weighting of certain decision-making criteria respectively, it has emerged that it is worthwhile having a closer look: The 'importance of the social problem' and the 'authenticity of the start-up team' are consistently the two most important criteria when it comes to selecting social ventures for supporting them. However, comparing male and female decision-makers, foundations and VPOs, as well as the two groups of financially and non-financially supporting organizations, there are certain specifics which are highly relevant for SE practice. Here as well a cluster analysis uncovered patterns of criteria weighting by identifying three different types of decision-makers.
Die Internationalisierung eines MNUs bezieht sich auf seine Nationalität. Prozesse, die die Aktivitäten von Firmen internationalisieren und koordinieren, sind mit den dominierenden nationalen Institutionen verbunden, die in ihren heimischen Ökonomien gegründet werden. Die dominierende Gesellschaft, die erfolgreiche Praktiken und Methoden entwickelt hat, versucht diese auf andere zu übertragen und diese zum Nachahmen zu bringen. Wenn es eine im Vergleich zu rein national operierenden Firmen größere Komplexität der Organisationsumwelt sowie eine bedeutende physische und kulturelle Distanz zwischen den Unternehmenseinheiten gibt, stellen Koordinationsstrategie und Kontrolle der Host-Country-Subsidiaries durch die MNU-Zentrale eine nicht zu unterschätzende Herausforderung dar. Bei der Betrachtung der Konzepte der Personalpolitik der MNUs ergibt sich ein Spannungsfeld zwischen konzernweiter Integration und Anpassung an die lokalen Institutionen. Wenn sich die üblichen Arbeitsbeziehungen und HRM-Praktiken der Host-Country-Subsidiary von denen des Country-of-Origin unterscheiden, so stellt sich die Frage, welche Personalpolitik die Host-Country-Subsidiaries verfolgen. Der Trade-off zwischen globaler Homogenisierung und lokaler Anpassung in den internationalen HRM-Praktiken ist in besonderem Maße von international divergierenden kulturellen und institutionellen Faktoren abhängig. Die jeweiligen nationalen Institutionen sind sicherlich eine der wichtigsten Hemmnisfaktoren. Institutionen, kulturelle Werthaltung und Rechtsvorschriften sind gerade im arbeitspolitischen Bereich stark an nationale Wirtschaftsräume gebunden und wirken daher einer international homogenen Personalpolitik entgegen. Es ist das Ziel, die Verknüpfung zwischen der HRM-Politik des Country-of-Origin der MNUs und dem Management ihrer Host-Country-Subsidiaries zu untersuchen. Im Mittelpunkt der Untersuchung stehen die Country-of-Origin-Effekte deutscher MNUs beim Ausbildungss- und Entgeltsystem und bei der Arbeitnehmermitbestimmung in deutschen Host-Country-Subsidiaries in Südkorea. Man stellt sich die Frage, welche HRM-Politik die in Korea tätigen Host-Country-Subsidiaries der deutschen MNUs betreiben. Passt sich die HRM-Politik der Host-Country-Subsidiary dem Standard des Host-Country (Korea) an oder werden die Country-of-Origin-Praktiken des deutschen MNUs grenzüberschreitend transferiert? Als empirische Untersuchungsmethode wurde hinsichtlich der Untersuchung des Country-of-Origin-Effektes die qualitative Methode gewählt. Qualitative Interviews haben sich als sehr fruchtbar erwiesen, um organisationale Prozesse in ihrem Verlauf zu untersuchen.
Die Arbeit setzt sich mit den theoretischen und praktischen Aspekten der Analyse und Edition eines literarisch wichtigen Textes mit Methoden der Digital Humanities sowie der Korpus- und Computerlinguistik auseinander. Als Materialgrundlage dient das luxemburgischsprachige Werk des Michel Rodange. Hierzu gehören die Werke "Renert oder de Fuuss am Frack an a Maansgréisst" - ca. 35.000 Tokens, "Dem Léiweckerche säi Lidd" - ca. 5.000 Tokens, "Dem Grof Sigfrid seng Goldkuemer" - ca. 10.000 Tokens und zwei Gedichte - ca. 500 Tokens. Auf der empirischen Seite handelt es sich um die Erstellung eines elektronischen Korpus mit historisch-kritischen und linguistischen Annotationen und dessen Darstellung im Internet als Webportal. Dabei entsteht eine Wechselwirkung zwischen Theorie und Praxis, so werden die erstellten Annotationen verwendet, um das Werk aus sprach- und literaturwissenschaftlicher Perspektive zu untersuchen; diese Erkenntnisse können dann wiederum bei der Implementierung der Tools eingesetzt werden, um den Korrektheitsgrad der automatischen Annotation zu erhöhen. Die historisch-kritischen Annotationen beinhalten beispielsweise Lesarten, Korrekturen sowie Worterklärungen, wohingegen die linguistischen Annotationen die Orthographie, Morphologie (Wortklassen und Lemmata) und Phraseologie betreffen. Die Annotationen werden in der Markup-Sprache XML kodiert. Der erste Schritt der Erstellung eines elektronischen Korpus ist die Digitalisierung der Texte. Bei den Handschriften geschah dies mithilfe einer manuellen Transkription, bei den Drucken wurde auf eine OCR-Software zurückgegriffen. Es empfiehlt sich, bereits in dieser Phase den Text gut zu strukturieren und mit Annotationen zu versehen. Dabei wurden zunächst Metadaten festgehalten. Anschließend wurden Informationen wie Seitenzahl, Zeilenumbrüche etc. als Annotationen hinzugefügt. Von besonderer Bedeutung für die Erstellung eines Korpus aus einem historisch und literarisch wichtigen Text ist jedoch seine Anreicherung mit historisch-kritischen Kommentaren. Die Untersuchung und Berücksichtigung der literarischen bzw. wissenschaftlichen Gattung historisch-kritische Edition stellt die theoretische Grundlage für solche Annotationen dar. Alle für die Editionswissenschaft relevanten Texthinweise, -bruchstücke und vom Autor durchgestrichene und gelöschte Stellen wurden dokumentiert. Bei schlecht lesbaren Stellen wurden Lesemöglichkeiten vorgeschlagen und die anderer Editionen diskutiert. Die Text Incoding Initiative (TEI) bietet eine Fülle von XML-Elementen, um solche Annotationen zu speichern. Um diese Arbeit nicht manuell ausführen zu müssen, wurde auf Tools wie TUSTEP, oXygen oder Skriptsprachen wie beispielsweise Perl zurückgegriffen. Diese können u. a. die Such- und Ersetzen-Arbeiten mithilfe der Regulären Ausdrücke bedeutend erleichtern. Den nächsten Schritt der Korpus-Erstellung stellt die Tokenisierung dar. Hierbei gehen die historisch-kritischen Annotationen in linguistische Annotationen über. Die Grenzen eines Wortes werden festgelegt und jedes Wort mit seinem eigenen Element versehen. Aus der digitalen Verarbeitung nicht wegzudenken ist dabei die Berücksichtigung und Untersuchung der Sprache des Autors. In diesem Fall wurde auf Aspekte wie die Dichtungsstile des Luxemburgischen im 19. Jahrhundert, die literarischen Gattungen der Texte sowie die Schreibung des Autors geachtet. Der empirische Anteil der Analyse mit EDV-technischen Methoden und die Speicherung der Ergebnisse als Annotationen stellt die wissenschaftliche Basis für die spätere digitale Präsentation dar. In der Arbeit werden die Ergebnisse der quantitativen und qualitativen Analyse der Sprache des Werks mithilfe von selbstimplementierten Programmen diskutiert. Dabei werden die vorhandenen Theorien sowohl der klassischen Linguistik z. B. aus der Morphologie oder der Phraseologieforschung, als auch der Korpuslinguistik besprochen und evaluiert. Die Implementierung und Ergebnisse folgender Programme für das Michel Rodange Korpus werden thematisiert: Tokeniser, FreqList, POS-Trainer, POS-Tagger, Lemmatisierer und Programme zur morphologischen und phraseologischen Analyse des Korpus. Der POS-Tagger kann die Wortarten im Korpus bestimmen. Grundlage dafür sind die sogenannten Hidden Markov Modelle, die auf der Wahrscheinlichkeitstheorie basieren. Der Lemmatisierer und das Programm zur morphologischen Analyse arbeiten hauptsächlich regelbasiert, wohingegen das Programm für die phraseologische Analyse anhand statistischer Verfahren wie dem Z-Test, dem Chi-Quadrat-Test und dem Exakten Test von Fisher implementiert wurde. So widmet sich beispielsweise Kapitel 3.4 dem Output der morphologischen Analyse und diskutiert die Wortbildung. Kapitel 3.6 beschäftigt sich mit der Interpretation der Phraseologismen. Hierbei zeigte sich, dass viele der automatisch identifizierten Phraseologismen aus Michel Rodanges Werken in der Tat ein fester Bestandteil nicht nur der luxemburgischen Sprache und Kultur sind, sondern sich auch in der gesamten westlichen Kultur wiederfinden.
Die Dissertation weist nach, dass der Gerichtshof der Europäischen Union (im Folgenden: EuGH) das mitgliedstaatliche Ausgestaltungsermessen bei der Umsetzung von Richtlinien i. S. d. Art. 288 Abs. 3 AEUV, die weitreichendste Form richtlinieninhaltlich vorgesehener Umsetzungsspielräume der Mitgliedstaaten, in unterschiedlicher Art und Weise beschränkt und dabei teilweise gegen Vorgaben des primären Unionsrechts verstößt. Soweit Rechtsverstöße festgestellt werden, macht die Dissertation weiterführend Vorschläge für eine Korrektur der betroffenen unionsgerichtlichen Begrenzungsansätze im Hinblick auf das mitgliedstaatliche Ausgestaltungsermessen bei der Richtlinienumsetzung. Hierzu geht die Dissertation wie folgt vor: Ausgehend von vier in der Einleitung (Kapitel 1) aufgeworfenen Forschungsleitfragen stellt die Dissertation in Kapitel 2 die untersuchungsrelevanten unionsrechtlichen Grundlagen der Rechtsaktsform der Richtlinie dar. Dabei wird insbesondere auf die unionsvertragliche Verteilung der Kompetenzen zwischen der EU und ihren Mitgliedstaaten bei der kooperativ-zweistufigen Richtlinienrechtsetzung eingegangen und eine restriktive Auslegung des Terminus‘ „Ziel“ i. S. d. Art. 288 Abs. 3 AEUV entwickelt (sog. kompetenzinhaltsbestimmender modifiziert-enger Zielbegriff). In Kapitel 3 arbeitet die Dissertation die in der Richtlinienpraxis vorkommenden Grundformen richtlinieninhaltlich vorgesehener mitgliedstaatlicher Entscheidungsbefugnisse bei der Richtlinienumsetzung heraus und bestimmt das Ausgestaltungsermessen begrifflich als die weitreichendste Form mitgliedstaatlicher Umsetzungsspielräume. Kapitel 4 widmet sich zunächst der Ermittlung der Ansätze des EuGH zur Begrenzung des mitgliedstaatlichen Ausgestaltungsermessens. Dabei wird deutlich, dass das Unionsgericht durch seine Rechtsprechung nicht nur die Entstehung mitgliedstaatlichen Ausgestaltungsermessens begrenzt. Eine exemplarische Analyse der EuGH-Rechtsprechung zu Art. 4 Abs. 2 UAbs. 1 S. 1 und S. 2 lit. b der UVP-Richtlinie 2011/92/EU und seiner Vorgängernormen zeigt vielmehr, dass und wie der EuGH auch den Umfang des nach dem auslegungserheblichen Wortlaut einer Richtlinie bestehenden mitgliedstaatlichen Ausgestaltungsermessens begrenzt. Die hiernach ermittelten Begrenzungsansätze werden sodann einer rechtlichen Bewertung im Hinblick auf die Vorgaben des primären Unionsrechts einschließlich des in Kapitel 2 entwickelten restriktiven Zielbegriffs i. S. d. Art. 288 Abs. 3 AEUV unterzogen. Da einzelne Begrenzungsansätze des EuGH sich mit dem primären Unionsrecht als nicht vereinbar erweisen, werden insoweit schließlich Vorschläge für eine unionsrechtskonforme Korrektur dieser Rechtsprechung gemacht. Die Zusammenfassung der Forschungsergebnisse in Form einer thesenartigen Beantwortung der in der Einleitung aufgeworfenen vier Forschungsleitfragen findet sich in Kapitel 5.
Das Motiv "Wasser" in der Kunst " unter Berücksichtigung der Werke Bill Violas und Fabrizio Plessis
(2008)
Wasser ist ein beliebtes Motiv in allen Kunstepochen. Der Grund für die Beliebtheit des Wassers als Sujet bei Künstlerinnen und Künstlern liegt einerseits an seiner existenziellen und kulturellen Bedeutung für das menschliche Leben und andererseits an seinen physikalischen Eigenschaften mit den daraus resultierenden vielfältigen gestalterischen Möglichkeiten. Auch in der Videokunst wird es häufig als Gegenstand aufgegriffen. Insbesondere Bill Viola (1952, USA), der tief von der östlichen Philosophie beeinflusst ist, und Fabrizio Plessi (1940, Italien) stellen in ihren Werken ein je besonderes Verhältnis zwischen Video und Wasser dar. Die vorliegende Arbeit befasst sich zunächst mit einer vergleichenden Be-trachtung der Bedeutung des Wassers in der westlichen und östlichen Kultur und einem Überblick über das Motiv in der Kunst vom Mittelalter bis zum 20. Jahrhundert. Im Mittelpunkt dieser Arbeit steht die Untersuchung der Videoskulpturen, Videoinstallationen und Videobänder Bill Violas und Fabrizio Plessis. Erörtert werden folgende Fragen: In welcher Weise hat das Wasser ästhetische, formale, inhaltliche oder symbolische sowie persönliche Bedeutung für die einzelnen Künstler? Auf welche Art haben sie ihre Vorstellungen in die Arbeiten umgesetzt? Wie weit wird dieses tradierte Thema und in welcher Form wird das natürliche Element in der Videokunst durch das moderne, technische Medium wieder aufgegriffen, weiter entwickelt oder modifiziert? Aus diesen Beobachtungen heraus zeigt die Autorin die Charakteristika der mit technischen Medien produzierten Kunstwerke der besprochenen Künstler bei der Verwendung des Motivs Wasser auf.
Die Natur hat sich gewandelt. Dieser Wandel, der wichtige Fragen bezüglich Wahrnehmung, Darstellung, Neuschöpfung und Übermittlung der Natur mit einschließt, wird auch von künstlerischer Seite reflektiert. Tatsächlich ist in den vergangenen Jahren erneut ein wachsendes Interesse seitens der Künstler am Thema Natur abzulesen. Dieser vorläufige Höhepunkt des Trends ist vor allem auf das Ende der 1990er Jahre zu datieren. Zu dieser Zeit setzten sich auch verstärkt Ausstellungen und Publikationen mit diesem Themenkomplex auseinander. Mit unterschiedlichen Schwerpunkten und Vorstellungen entwickelten Künstler darin eigene, ganz verschieden künstlerische Konzepte, analysieren, erforschen und kritisieren die Gesellschaft, die Umwelt und die Natur des Menschen. Ein Trend, der bis heute anhält. Die vorliegende Arbeit möchte anhand ausgesuchter Künstler und Arbeiten genauer untersuchen, wie Künstler gegenwärtig mit der Natur umgehen, wie sie das Verhältnis zur Natur definieren und auf welche Traditionen sie gegebenenfalls zurückgreifen. Alle vorgestellten künstlerischen Positionen werden thematisch oder hinsichtlich konkret fassbarer Probleme gegliedert und vorgestellt. Exkurse über historische Entwicklungen oder thematische Schwerpunkte begleiten die Übersicht. Ziel der vielfältigen Blickpunkte ist es, im Vergleich mit den einzelnen Positionen neue Standorte zwischen Natur und Kultur vorzustellen, neu zu definieren oder erst zu entwickeln.
Die vorliegende Arbeit hat die zunehmende Bedeutung des Social Web und die daraus resultierenden Auswirkungen auf das Informations- und Reiseverhalten von Städtetouristen zum Thema. Hauptfragestellung ist, inwiefern sich die gestiegene Bedeutung des Social Web auf das Informationsverhalten von Reisenden und ihr Verhalten vor Ort, insbesondere hinsichtlich des Interesses an Nischenattraktionen, auswirkt. Große Städte, vor allem Metropolen, verfügen über eine fast unüberschaubare Zahl von touristischen Attraktionen und Angeboten. Dazu zählen auch jene, die abseits der Haupttouristenrouten in weniger touristisch geprägten Stadtteilen liegen. Trotz dieser Angebotsvielfalt ist die Mehrzahl der Städtetouristen meist auf der sogenannten "Straße der Ameisen" anzutreffen. Eine Ausnahme stellen jedoch die sogenannten neuen Städtetouristen dar, die weniger an klassischen Mainstream-Sehenswürdigkeiten, sondern mehr am Entdecken authentischer und einzigartiger Plätze abseits der Touristenpfade und am Erleben des Alltags der Einheimischen interessiert sind. Für die vorliegende Untersuchung der Fragestellung wurden insgesamt drei methodische Bausteine herangezogen: 1) Eine Inhaltsanalyse für den Vergleich von Social-Web-Anwendungen und klassischen Reisemedien hinsichtlich ihrer thematischen Schwerpunktsetzung; 2) eine Touristenbefragung mit dem Ziel, mehr über die Nutzung des Social Web als Reiseinformationsquelle und über das Verhalten der Social-Web-Nutzer im Allgemeinen, und ihr Interesse an Nischen und Orten abseits der Touristenpfade im Besonderen, zu erfahren. Schließlich sollten 3) Interviews mit städtetouristischen Nischenunternehmen weitere Erkenntnisse über die Nutzung sozialer Medien durch Anbieter im Städtetourismus liefern. Die Ergebnisse machen deutlich, dass die Auswirkungen des Social Web " sowohl durch die Nutzung als Reiseinformationsquelle durch die Nachfrager, als auch durch die Verwendung als Marketing- und Vertriebskanal von Seiten der Anbieter " bislang geringer sind als zunächst angenommen. Auch wenn Nischenangebote und Alltagskultur zum Teil in sozialen Medien stärker präsent sind als z. B. in Reiseführern, und einige kleine Nischenanbieter die Möglichkeiten, die ihnen das Social Web bietet, schon optimal nutzen, so hat eine verstärkte Social-Web-Nutzung bislang doch keine grundlegenden Verhaltensänderungen auf Seiten der Reisenden bewirkt. Die Straße der Ameisen ist trotz der gestiegenen Social-Web-Nutzung nach wie vor existent. Dass das Social Web als ein Filter fungiert, der Interessierte in Richtung der Long-Tail-Angebote "schickt", konnte im Rahmen der vorliegenden Dissertation nur zum Teil bestätigt werden. Neben der Informationsquelle Social Web üben doch auch viele andere Faktoren einen Einfluss auf das Interesse von Reisenden an Lokalkolorit, authentischen Erlebnissen und besonderen Nischenangeboten aus. Trotzdem dürfte gerade für den sogenannten neuen Touristen das Social Web neue Möglichkeiten der Informationsgewinnung über einzigartige Örtlichkeiten an den Reisezielen bereitstellen. So ist es heutzutage einfacher als je zuvor, an Hinweise und Tipps zu ganz spezifischen Reisezielen und -aktivitäten zu kommen, die zudem meist noch sehr persönlich und authentisch wirken, da sie größtenteils von anderen Nutzern stammen.
In light of an alarming increase of sick leave and early retirement because of mental diseases, the public, political and scientific interest in an effective protection of psychological health within organizational context has been increasing for years. More and more the focus is especially on executives who influence the mental health of their employees by leadership behavior within interactions and by designing work tasks and working pro-cesses. In this regard classical and modern, explicit health-oriented leadership approaches provide valuable insights but also neglect the important influence of leadership situation on health-oriented leadership. This situation reduces the explanatory and predictive potential of available health-oriented leadership concepts.
In article 1 a conceptual framework model called Systemic Salutogenic Interaction Model (SSIM) is developed and justified that is based on findings of evidence-based leadership research but also integrates systemic concepts and key elements of the theory of saluto-genesis. The SSIM distinguishes between two levels: Within the primary system of salutogenic interaction salutogenic leadership and employees behavior for the first time are conceptualized as recipocal influence factors that influence each other (level 1). The organizational context is explicitly taken into account as significant factor outside the primary system that effects the behavior of both interaction partners mediated via cognitive pro-cesses (level 2). Due to this focus on interactions und context factors for the first time leadership situation becomes an explicit component of a health-oriented leadership concept.
First of all, article 2 focusses on the systematic analysis of the relative importance health related leadership aspects. For this purpose the TIMP-inventory was developed that records three distinct core-factors of salutogenic leadership (trust, incident management and pressure) which explain more variance of the Work-SoC construct than established general approaches and health-related leadership concepts.
In article 3 the results of a cross-sectional multilevel analysis indicate that the perceived leadership situation significantly explains variance of salutogenic leadership between teams. For the first time, this shows a significant correlation between specific aspects of leadership situation und salutogenic leadership behavior.
Within the frame of a quasi-experimental study (article 4), for the first time, a correlation is shown between salutogenic target-setting processes on executive’s side and the Work-SoC of team members. These results support an essential effect mechanism that is postulated in the SSIM. Furthermore these findings indicate that the SSIM can profitably be used within the context of salutogenic coachings, underlining its practical benefit.
Taken together the empirical findings of this dissertation support the assumption that the new SSIM approach significantly expands the explanatory und predictive potential of the health-oriented leadership concepts so far available. The results also raise a number of new, interesting questions for future research. Furthermore the SSIM broadens the perspective regarding the strategic orientation of human resource and organizational devel-opment. Especially out of the SSIM important guiding principles and innovative concepts for a target-oriented diagnostic und effective interventions can be derived. Thus this dissertation lays the foundation for a coherent, holistic oriented salutogenic leadership research und practice.
Die Arbeit analysiert Bedeutungen von Körperlichkeit im Straßenprotest. Ausgehend von den Selbstwahrnehmungen von Aktivist_innen wird dabei der Frage nachgegangen, wie Erfahrungen den reflexiven Umgang mit Verletzlichkeit und Verletzungsmacht prägen. Zunächst wird dafür eine theoretische Konzeption einer leibkörperlich gebundenen Reflexivität entwickelt. Pierre Bourdieus Theorie der Praxis, die sich der Verkörperung von Wissen widmet, wird ergänzt durch den Rückbezug auf Maurice Merlau-Ponty, der konsequenter herausstellt, dass jegliche Wahrnehmung immer nur körperlich-leiblich möglich ist. Während Merleau-Pontys Fokus auf dem wahrnehmenden Leib liegt, wird mit der philosophischen Anthropologie Helmuth Plessners die Verschränkung von wahrnehmendem Leib und wahrgenommenem Körper, bzw. wie Wahrgenommenes reflexiv auf das Spüren und Erleben zurückwirkt, nachvollziehbar. Aufbauend auf Plessner hat Heinrich Popitz eine Phänomenologie der Macht entwickelt, in deren Zentrum die anthropologischen Grundkonstanten von menschlicher Verletzungsoffenheit und Verletzungsmacht stehen. Diese Konzeption, verbunden mit Ergebnissen aus verschiedenen Vorstudien zur vorliegenden Arbeit, leitet die empirische Analyse von zehn leitfadengestützten Interviews, in denen Aktivist_innen mit teilweise langjähriger Straßenprotestbiographie zu ihren Erfahrungen und Praktiken in Straßenprotesten befragt werden. Die Arbeit ist an der Schnittstelle der drei Teildisziplinen Politische Soziologie, Körpersoziologie und Wissenssoziologie angesiedelt. Innerhalb der Politischen Soziologie liegen die Anknüpfungspunkte insbesondere in der sozial- und kulturwissenschaftlichen Protestforschung. Hier ist der Körper nach wie vor weitgehend marginalisiert und es existieren bisher in Anbetracht des insgesamt kaum noch überschaubaren Umfangs der Protestforschung vergleichsweise wenige Studien. Hinsichtlich der Körpersoziologie zielt die Arbeit - insbesondere mit der Bezugnahme auf Plessners philosophische Anthropologie - auf einen Erkenntnisgewinn hinsichtlich der Verbindung von Körpersoziologie und politischer Soziologie. Es lässt sich vor allem in den letzten Jahren eine deutliche Renaissance Plessners innerhalb der allerdings fast ausschließlich deutschsprachigen Körpersoziologie feststellen. Die körpersoziologischen Arbeiten sind bisher jedoch kaum im Rahmen einer politischen Soziologie aufgegriffen worden. Eine solche Brücke möchte die vorliegende Arbeit insbesondere via Popitz (und z.T. Michel Foucault) schlagen. Wissenssoziologisch folgt die Arbeit dem Verständnis eines verkörperten Wissens, wie es vor allem in Bezug auf Bourdieu konzeptionalisiert wird. Es werden Überlegungen aufgegriffen, die sich u.a. auch Analysen und Konzepten der Dance Studies oder der Sportsoziologie hinsichtlich körperlicher Reflexion verdanken. Im Anschluss an die phänomenologisch orientierten Arbeiten Bourdieus und Merleau-Pontys sowie an Plessners philosophische Anthropologie werden dabei sogenanntes kognitives und körperliches Wissen integriert und die unmittelbare Verschränkung beider Wissensformen aufgezeigt.
Im Zentrum dieser Arbeit stehen die Darstellung und Analyse der Leitbilder und Konzeptionen für tugendhaftes Verhalten, bürgerliche Werte und Normen, wie sie in den niederländischen Moralischen Wochenschriften über beinahe die gesamte Dauer des 18. Jahrhunderts diskutiert wurden. Die Moralischen Wochenschriften richteten sich an den "Bürger" und "Mitmenschen", den sie zu einem "nützlichen" Mitglied der Gesellschaft zu bilden gedachten. Dem an Orientierung interessierten Leser konnten sie dabei mehr und anderes bieten als das bis dahin gängige Schrifttum. In regelmäßiger Folge und in unterhaltsamer fiktionaler Form behandelten sie Fragen der Religion und der Ethik, sowie aus der Lebenspraxis des Alltags. Aus diesem nur scheinbar unpolitischen Blickwinkel heraus berührten die Moralischen Wochenschriften einige der zentralen Aspekte der politischen Philosophie: die Frage nach dem Verhältnis zwischen dem individuellen Glück des Menschen und dem Zustand der Gesellschaft, die Aporien der Freiheit und der Gleichheit, die Frage nach dem Verhältnis der Geschlechter und der Generationen, die Thematik von Geschichte und Fortschritt sowie Aspekte der Zeitkritik und Polemik. Ausgehend von ihrer klassisch-republikanisch inspirierten Staats- und Gesellschaftsauffassung nach der die gesamte Einwohnerschaft eines "guten" Gemeinwesens in ihrer gemeinsamen sittlichen Aufgabe, das Gemeinwohl zu verwirklichen, unlöslich miteinander verbunden war, entwickelten die Wochenschriftenschreiber ein ganz auf die Bedürfnisse eines modernen kommerziellen Gemeinwesens wie den nördlichen Niederlanden ausgerichtetes Ideal "guter" Bürgerschaft. Die Grundlage einer freien, auf Handel und Gewerbe beruhenden Republik wie der Niederländischen, so lautete die Kernbotschaft, beruhe auf dem offenen und zivilisierten Austausch zwischen verantwortungsbewussten und gebildeten Einwohnern. Von tugendhaften Bürgern erwarteten die Wochenschriftenschreiber, dass sie bei der Verfolgung ihrer individuellen Interessen in allen Lebensbereichen immer auch zugleich auf das Wohl und das Interesse des Gemeinwesens als Ganzem - der res publica - im Blick behielten und stets so handelten, dass die Maximen ihres eigenen Tuns auch Prinzip für das Wollen und Tun anderer sein könnten. Das für die Autoren der Moralischen Wochenschriften offenbar reizvolle an diesem Konzept bürgerlicher Tugend war, dass es ermöglichte, an die Verantwortlichkeit aller Mitglieder des Gemeinwesens zu appellieren, ohne die bestehende politisch-soziale Ordnung in Frage stellen zu müssen. Die - bei aller Kritik an den bestehenden Zuständen - im Kern stets konservative Tugendbotschaft der Moralischen Wochenschriften verlor erst seit den frühen 1780er Jahren an Glaubwürdigkeit, als die bestehende aristokratische Verfassung der niederländischen Republik unter dem Eindruck innenpolitischer Unruhen sowie revolutionärer Vorgänge in Amerika und in den benachbarten Ländern ihren paradigmatischen Wert als bestmögliche freiheitliche Ordnung zusehends einbüßte. So lag es nicht nur an der gegen Ende des 18. Jahrhunderts altmodisch gewordenen literarischen Form, dass die Moralische Wochenschrift in den 1790er Jahren als Gattung vom niederländischen Zeitschriftenmarkt verschwand, sondern auch an ihrer durch die revolutionären Umbrüche überholten politisch-sozialen Botschaft.
Das Stresshormon Cortisol zeigt einen starken zirkadianen Rhythmus mit hohen Cortisolwerten nach dem morgendlichen Erwachen und niedrigen Werten am Abend. Die vorliegende Arbeit legt die Grundlagen dafür, dass der Cortisolspiegel nach dem Erwachen (Cortisol Awakening Response) zukünftig Bestandteil einer multimodalen Diagnostik stressbezogener Erkrankungen werden kann. Zu diesem Zweck werden besonders messmethodische Aspekte des Cortisol Awakening Response (CAR) dargestellt und eingehend diskutiert. Der Einfluss verschiedener konfundierender Variablen wurde in einer quantitativen Metaanalyse untersucht. Ein gesonderter Abschnitt beschreibt verschiedene Möglichkeiten der statistischen Analyse des CAR. Zu diesem Zweck wurden verschiedene statistische Kennwerte generiert und deren Reliabilitäten und Interkorrelationen an einem empirischen Datensatz untersucht. In dieser Arbeit werden auch Normwerte für die einzelnen statistischen Kennwerte des CAR angegeben.
Das EU-weite Naturschutznetz Natura 2000 (FFH) umfasst über 11% der terrestrischen Ökosystemfläche. Zur langfristigen Erhaltung dieser Gebiete fehlt ein funktionierendes Monitoringsystem mit geeigneten Indikatoren, Parametern und Datenprodukten, die eine regelmäßig wiederholbare, flächendeckende und vor allem kosteneffiziente Erhebung ermöglichen. Hierfür untersucht diese Dissertation moderne, höchstauflösende Satellitendaten und die Möglichkeiten ihrer Anwendung im Naturschutz, insbesondere als Grundlage zur Indikatorenableitung. Es wurden konkrete Anforderungen von Behörden und NGO bzgl. Daten und Indikatorwerten gesammelt und für zwei Untersuchungsgebiete im Naturpark "Hoher Fläming" in Brandenburg umgesetzt. Dazu wurden zwei Aufnahmen des QuickBird-Satelliten akquiriert und mit vorhandenen GIS-Daten kombiniert. Der praktische Teil der Arbeit beschreibt Eigenschaften und Vorverarbeitung aller Daten, ihre Auswertung nach einem objektbasierten Ansatz und die Ableitung spezifischer quantitativer Parameter. Diese beschreiben den Zustand der Ökosysteme und berücksichtigen die sozio-ökonomischen Belastungen, die auf die Flächen einwirken und Nutzungskonflikte verursachen. Auf der Basis dieser Parameter wurden räumliche Indikatoren erprobt. Zur Anwendung auf der lokalen Ebene in bewaldeten Gebieten und für das Monitoring von Offenland-Flächen werden je zwei Indikatoren vorgeschlagen. Für die regionale Ebene wird ein sozio-ökomischer Indikator empfohlen. Diese fünf Indikatoren sind dazu geeignet, ausgewählte Aspekte der (Bio)Diversität in Schutzgebieten zu beschreiben. Sie analysieren Komposition, Struktur und Funktion der Habitat-Typen sowohl auf der regionalen Landschafts-Ebene, als auch auf der lokalen Ökosystem- bzw. Schutzgebiets-Ebene. Alle Indikatoren besitzen einen Nutzen für das Management von Schutzgebieten und bieten zumindest indirekte Hilfe für die Berichterstattung im Sinne der FFH-Richtlinie. Die vorgeschlagenen Indikatoren sind zwar spezifisch auf die lokalen Untersuchungsgebiete zugeschnitten, doch sind die ökologischen Rahmenbedingungen allgemein gültig. Es ist möglich, diese Indikatoren auch in anderen europäischen Regionen mit den gleichen natürlichen Gegebenheiten und sozio-ökonomischen Strukturproblemen anzuwenden. Für die Anwendung verschiedener Fernerkundungsdaten zur Erfüllung von Monitoringaufgaben sprechen die positiven Ergebnisse der durchgeführten Kosten-Nutzen-Analyse. Vor- und Nachteile von Daten und Auswertungsmethoden werden ausführlich diskutiert.
Die Lehre von wirkungsvollem Sprechen und Schreiben, die Rhetorik, stellt seit der Antike Möglichkeiten bereit, wie man die Überzeugung eines Gegenübers mit Argumenten (aber auch mit einer schönen Form) beeinflussen kann. Unter diesen Möglichkeiten war und ist eins die Verwendung eines dem Gegenüber vertrauten oder unmittelbar einleuchtenden Sachverhalts, von dem auf den gegebenen Fall geschlossen werden konnte, das Exemplum. In der vorliegenden Studie habe ich den Exempelgebrauch in Sangspruchstrophen und -liedern zwischen ca. 1170 und 1320 untersucht. Die letzte Monographie zu diesem Thema ist Joachim Teschners Bonner Dissertation von 1970. In den seither vergangenen 35 Jahren haben sich die Voraussetzungen und die Betrachtungsweise in der Erforschung der Sangsprüche verändert. Dies hängt insbesondere mit dem Erscheinen der Bände 3-5 des "Repertoriums der Sangsprüche und Meisterlieder" (1986-91) zusammen, in denen Autoren dieser Gattung und ihre Werke bis zum ausgehenden Mittelalter katalogisiert sind. Anders als meine Vorgänger habe ich als oberstes Gliederungskriterium die Frage gewählt, wie das Exempel und seine Anwendung auf die Strophe verteilt sind. Nach der Erarbeitung einer Definition des Exempelliedes anhand der einschlägigen Literatur habe ich das Material für meine Untersuchung, in fünf Zeitanschnitte gegliedert, chronologisch zusammen gestellt (vgl. Helmut Tervooren, Sangspruchdichtung, 1995). In Kapitel 2 ermöglicht eine Tabelle einen schnellen Überblick. Es sind vier Typen der Verteilung von Exempel und Auslegung in einer Strophe und später in einem mehrstrophigen Lied zu unterscheiden: Am häufigsten ist der klassische Typ a: Auf ein Exempel folgt die Auslegung. Hier finden sich zwei Untertypen: mehrheitlich ist ein Exempel zwar narrativ (a1), es kann sich aber auch um eine Beschreibung handeln (a2). Zwei weitere Formen fanden weit weniger häufig Verwendung, nämlich Typ b: Das Exempel folgt auf eine sentenziöse Einleitung und die eigentliche Auslegung steht am Abschluss, und Typ c, die Umkehrung des genannten Haupttyps: für eine These wird erst in der zweiten Hälfte oder am Ende der Strophe ein Beispiel genannt. Der Typ des Exempelliedes, bei dem die Auslegung wegfällt, nimmt wiederum größeren Raum ein, die Zahl der Belege ist beträchtlich. Damit endet dieses Kapitel. Im Laufe der Arbeit haben sich zwei Sondertypen herausgestellt, für die es angebracht erschien, sie für sich zu besprechen. Es sind dies die Ich-Parabeln, bei denen im Exempel ein zwischen dem Exempel im eigentlichen Sinne und den Rezipienten vermittelndes Ich steht; es handelt sich dabei meist um persönliche Klagen des Dichter-Ichs. Als zweiter Sonderfall wird die Verwendung eines Traums als Exempel besprochen; hier konnte es zur zweifachen Auslegung von Träumen kommen, im Exempel und bei der Ausdeutung. Die Vorstellung dieser beiden Randerscheinungen bildet den Abschluss der Untersuchung. Die Beobachtungen in der vorliegenden Untersuchung führen zu fünferlei Ergebnissen, die in dem Schlusskapitel zusammengefasst sind: Diese betreffen die Problematik der Textsorte, die Anordnung von Exempel und Auslegung in der Strophe, die Entwicklung zur Mehrstrophigkeit, die für Exempellieder kennzeichnenden Ausdrücke, mit denen die Auslegung eingeleitet wird, und schließlich die vielfältigen Anwendungsbereiche des Exempels.
Diese Dissertation ist 2006 verbessert beim Verlag Königshausen & Neumann in der Reihe "Würzburger Beiträge zur deutschen Philologie" erschienen. Ein Register der behandelten Strophen mit Angabe der Siglen im "Repertorium der Sangsprüche und Meisterlieder des 12. bis 18. Jahrhunderts" wurde hinzugefügt.
Umweltschutz wird in dieser Arbeit als Soziales Dilemma betrachtet. Es wird mittels eines experimentellen Online-Spiels (N = 182) primär überprüft, inwieweit unkooperatives Verhalten von Akteuren zu genuinem Ungerechtigkeitserleben bei anderen Personen führt und ob diese in Folge u. a. das eigene kooperative Verhalten reduzieren. Somit wird im Gegensatz zu Erklärungen der Rational-Choice-Theorien angenommen, dass ein Teil des phänotypisch unkooperativen, umweltschädigenden Verhaltens nicht auf Egoismus, sondern auf einem genuinen Gerechtigkeitsmotiv beruht. Zur Erhöhung der internen Validität wird ebenfalls der moderierende Einfluss der Persönlichkeitseigenschaften "Eigeninteresse" und "Gerechtigkeitszentralität" untersucht. Die Hypothesentestungen zeigen, dass unkooperatives Verhalten anderer Akteure in Sozialen Dilemmata bei vielen Personen Ungerechtigkeitserleben auslöst, was sich u. a. in Emotionen der Empörung, Ungerechtigkeitskognitionen, Bestrafungsverhalten und einer Reduktion des eigenen kooperativen Verhaltens niederschlägt. Hierbei spielen interindividuelle Unterschiede hinsichtlich der Stärke des Gerechtigkeitsmotivs bei etlichen gefundenen Effekte eine moderierende Rolle. Es wird somit ein motivpluralistischer Ansatz bestätigt, der die Rolle des Gerechtigkeitsmotivs bei der Vorhersage und Veränderung von Verhalten in Sozialen Dilemmata hervorhebt. Implikationen in Hinblick auf Theorie, zukünftige Forschung und Interventionen in Sozialen-Dilemma-Situationen werden erörtert.
Im 18. Jahrhundert manifestierte sich ein grundlegendes Kennzeichen moderner Kunst: ihr Öffentlichkeitsanspruch. Dessen diskursiven Verdichtungen konkretisierten sich in der zeitgenössischen Kunsttheorie und -literatur, in der Kunstkritik, in Beschreibungen und bildlichen Darstellungen, und ebenso in vielfachen impliziten Strategien zur Adressierung bildender Kunst. In der Entstehung der Kunstausstellung, der Kunstkritik, dem Wandel des Patronagesystems und den damit verbundenen Kommunikationsstrategien bildender KünstlerInnen wird nicht nur eine historisch reale Figur beschrieben, sondern zugleich ein imaginäres Konstrukt entworfen: das Kunstpublikum. Am Beispiel zweier bedeutender Kunstzentren des 18. Jahrhunderts, Paris und London, wird der Umgang mit dieser neuen Öffentlichkeit in der bildenden Kunst, Kunstliteratur und Ausstellungspraxis verfolgt. Tatsächlich ist die Anrede des "enlightened public" oder "public éclairé" allgegenwärtig, doch ist es oft schwierig, die Grenzen zwischen höflicher Leerformel, Euphemismus und Ironie richtig zu lesen. Das Sprechen über Öffentlichkeit ist nicht einfach eine Quelle für einen historisch-soziologischen Wandel, sondern stellt ein Symptom der zunehmenden Emphatisierung des Öffentlichkeitsbegriffs im Zuge der Aufklärung dar. Dabei ist das "Publikum" auch eine Konstruktion, die Leerstellen auffüllen muss, und der ihm zugewiesene Platz wechselt immer wieder. Die Formierung des Öffentlichkeitsbegriffs geschah nicht nur als Prozess der Öffnung, sondern auch der Abgrenzung. Ebenso bedeutend wie die positiven Formulierungen sind die negativen Zerrbilder des Publikums, die im 18. Jahrhunderts vielfach entwickelt werden. Am Beispiel zweier solcher Negativbilder, des "Connaisseurs" und der "multitude" werden die Verbindungen zur ästhetischen Theorie untersucht. Traditionelle Öffentlichkeitstheorien hinterlassen noch weit in das 18. Jahrhundert hinein ihre Spuren. Dies führt zu Begrifflichkeiten, die nicht emanzipatorisch oder demokratisch geprägt sind und zu einem Verständnis von Öffentlichkeit, das nicht nur prinzipiell kritisch oder widerständig, subversiv oder oppositionell gedacht werden kann, sondern mit jeder Öffnung auch eine Schließung unternimmt. Das "Kunstpublikum" entwickelt sich in einem konfliktreichen Prozess, in dem sich die Zugangsberechtigungen zur Institution Kunst immer wieder verändern und neu ausdifferenzieren.
In Europa haben sich im Laufe der vergangenen Jahrhunderte zahlreiche Kriege und Auseinandersetzungen Art abgespielt, die die Menschen und Nationen, ihre Ideologien und Ansichten stark geprägt haben. Gerade im SaarLorLux-Raum, einer grenzüberschreitenden Region im Gebiet von Deutschland, Frankreich, Luxemburg und Belgien, wurden die Grenzen von den Siegermächten immer neu gezogen und verschoben. Heute leben hier Menschen mit sehr verschiedenen kulturellen Hintergründen in einer multikulturellen Gesellschaft zusammen, die aber oftmals stark von einem Nebeneinander und von Unterschieden geprägt ist. Für die Grenzräume haben sich mit dem Konzept "Europa der Regionen", das kleineren räumlichen Einheiten ein Mitwirken bei Entscheidungsprozessen ermöglicht, große Kooperationschancen eröffnet. Von politischer Seite wird der SaarLorLux-Raum oft als "Mitte Europas" (BRÜCHER, QUASTEN, REITEL 1982, S. 13) oder "einzige europäische Kernregion" bezeichnet, in die "besonders hohe Erwartungen gesetzt" (SANTER 1997) werden. Wie aber sieht das Leben jenseits der Politik auf der ganz alltäglichen Ebene aus? Welche Möglichkeiten bieten sich den Menschen, die kulturelle Vielfalt, die Andersartigkeit der Nachbarländer sowie die Vor- und Nachteile hautnah in Alltagssituationen zu erleben? Die Dissertation untersucht, inwieweit die Grenzen in den Köpfen der Menschen auch nach ihrer Öffnung durch das Schengener Abkommen verankert bleiben und ob die Bewohner einer Grenzregion diesen besonderen Lebensraum in ihrem Alltag nutzen und zu grenzüberschreitend agierenden Europäern werden. Dazu werden wahrnehmungsgeographische Forschungsmethoden (mental maps) genutzt und auf das konkrete Beispiel des SaarLorLux-Raumes angewendet. In drei Studien (2000, 2002 und 2006) wurden insgesamt 5865 Schüler und Bewohner in 20 Orten in den vier Ländern zu ihren Vorstellungen vom SaarLorLux-Raum, zu ihrem aktionsräumlichen Verhalten und zu ihrer Abgrenzung der Region befragt. Dabei wurden bewusst grenznahe und grenzferne Standorte ausgewählt wurden, um Unterschiede im Verhalten herauszuarbeiten. Ziel der Analyse ist es, das Leben in der Großregion über den Zeitraum von sechs Jahren zu untersuchen und mit dieser Langzeitstudie Veränderungen beziehungsweise Gemeinsamkeiten im Verhalten der Bewohner herauszuarbeiten. Die Wahrnehmung des Lebens im SaarLorLux-Raum aus der Sicht seiner Bewohner wird herausgearbeitet und -ausgehend von den Ergebnissen- werden Potentiale und Defizite im grenzüberschreitenden Zusammenleben abzuleiten. Die politische und ökonomische Liberalisierung ist seit mehr als einem halben Jahrhundert Realität in Westeuropa. Ob allerdings die sich daraus ergebenden Chancen von den Bewohnern der grenznahen Räume erkannt, erwünscht und erlebt werden, ist Gegenstand der Untersuchungen. Durch die Fokussierung auf die Befragung von Schülern, also den jungen Menschen, die die Zukunft darstellen, wird die Frage beantwortet, ob sich traditionelle und eventuell auch eingefahrene Sichtweisen von Generation zu Generation übertragen und somit das aktionsräumliche Verhalten beeinflussen und erstarren lassen. Einen Beitrag zu einer funktionierenden Zusammenarbeit leistet die kulturelle und regionale Identität, die dazu beiträgt, dass sich die Menschen über die Grenzen hinaus als Bewohner der gleichen Region definieren. Dabei sollen nicht die Unterschiede, die zwischen den Bewohnern mit unterschiedlichen Nationalitäten bestehen, geleugnet oder verwischt werden. Abschließend werden, losgelöst vom regionalen Beispiel, Möglichkeiten aufgezeigt, wie durch unterschiedliche Initiativen vor allem auf schulischer Ebene zur Stärkung einer gemeinsamen europäischen Identität bei der jungen Bevölkerung beigetragen werden kann. Die Dissertation endet "ausgerichtet auf die Hauptzielgruppe bei den Befragungen- mit dem Entwurf einer Unterrichteinheit zur Stärkung eines grenzüberschreitenden Wir-Gefühls. Der Schulunterricht kann einen Beitrag dazu leisten, dass die zukünftigen Generationen ein tieferes Bewusstsein für das Zusammenleben im Grenzraum und in Europa erhalten.
Die Geschichte verteilter Systeme und Anwendungen hat die unterschiedlichsten Technologien hervorgebracht: Client-Server-Architekturen, Peer-To-Peer-Netzwerke und Komponentensysteme sind nur einige Vertreter. Die vorliegende Arbeit ist im Bereich der Middleware-Architekturen angesiedelt, einem zur Zeit sehr stark beachteten Zweig der verteilten Anwendungen. Als Mittler zwischen den Anwendungen auf der einen Seite sowie Datenbanken, eMail-Systemen oder weiterer Servern auf der anderen Seite, schlägt sie die Brücke zu heterogenen IT-Landschaften. Sie verbirgt Details und Änderungen dieser IT-Umgebungen und schafft gleichzeitig einen transparenten Zugriff auf sie. Die Forschung hat viele Technologien im Middleware-Umfeld hervorgebracht und setzt bei den Zielen unterschiedliche Schwerpunkte. Eine Sicht auf die Middleware hat den Entwickler im Fokus und soll ihn bei der Erstellung von Anwendungen und Lösungen unterstützen. Aus diesem Grund stehen hier die Schnittstellen zum Server und zur Server-Infrastruktur sowie die Einbettung der Dienste in die Middleware im Vordergrund. Der interne Aufbau sowie die inneren Datenflüsse der Middleware dienen nur der Erfüllung dieser Ziele. Eine andere Sichtweise stellt den inneren Aufbau in den Fokus der Forschung. Hier ist das Ziel die Schaffung von flexiblen und erweiterbaren Server-Strukturen sowie die Effizienz von internen Abläufen und Datenflüssen. Damit ist eine einfache Anpassung an verschiedene Einsatzumgebungen sowie die Fähigkeit, auf die Leistungsmerkmale von Clients individuell eingehen zu können, möglich. Die im Rahmen dieser Arbeit entstandene Middleware-Architektur "Smart Data Server (SDS)" setzt Konzepte um, die beide Sichtweisen miteinander kombiniert. Ein Schwerpunkt neben der Entwicklung neuer Konzepte, liegt in der praktischen Anwendbarkeit der entwickelten Middleware. Die vorliegende Arbeit zeigt, dass der Smart Data Server die Praxistauglichkeit seiner Konzepte unter realen Bedingungen unter Beweis stellen kann und zeigt gleichzeitig, welche Konstrukte für den praktischen Einsatz tatsächlich notwendig sind. Ein zweiter Schwerpunkt liegt in der Entwicklung von Mechanismen zur Abarbeitung von streamingfähigen Anfragen. Üblicherweise folgt auf die Übermittlung von Anfragen an einen Server zunächst die Berechnung einer Antwort und anschließend deren Rücktransport. Bei Streaming-Anfragen ist neben der Übermittlung von Anfrageparametern ein kontinuierlicher und in seiner Dimension nicht beschränkter Datenstrom Bestandteil der Anfrage. Der Server startet seine Berechnungen wenn möglich schon vor dem Ende der Datenübermittlung und liefert schon bei Vorliegen von Teilergebnissen diese an den Client. Der benötigte Bedarf an Speicherplatz im Server kann so optimiert werden, da nur so viele Daten der Anfrage im Server vorgehalten werden müssen wie zur Berechnung tatsächlich notwendig sind und nicht etwa die gesamte Anfrage. Die Entwicklung eines Streaming-Mechanismuses muss entsprechende Möglichkeiten in der Anfragestruktur sowie in der Architektur der Middleware vorsehen. Der Smart Data Server schafft mit der Einführung einer streamingfähigen Anfragestruktur die Voraussetzung für die Verarbeitung solcher Anfragen. Zusätzlich muss eine Server-Architektur geschaffen werden, die das Abarbeiten von Streaming-basierten Anfragen unterstützt. Hier liegt der dritte Schwerpunkt der Arbeit: die Schaffung einer flexiblen und erweiterbaren Server-Struktur sowie die Effizienz von internen Abläufen und Datenflüssen unter Berücksichtigung der Anforderung einer streamingfähigen Anfragebearbeitung. Diese Anforderungen werden mit der neu entwickelten Technologie der inneren Workflow-Programme erfüllt. Innere Workflow-Programme repräsentieren Netzwerke von hochgradig unabhängigen Serverkomponenten. Durch die Umgestaltung dieser Netze sind neue Serverstrukturen möglich, um neuen Einsatzbedingungen angepasst werden zu können. Neben diesem statischen Netzwerk von Server-Komponenten kann zur Laufzeit eine Pipeline zur Abarbeitung von Datenströmen aufgebaut werden, mit der dann letztendlich die Streamingfähigkeit des Servers hergestellt wird.
Auf dem Friedhof der Kirche St. Matthias im Süden Triers befinden sich vier Kammern, die bis in jüngste Zeit als die Untergeschosse selbstständiger römischer Grabbauten angesprochen wurden. Bei dem Areal handelte es sich um einen Teil der südlichen Nekropole des römischen Triers, der vor allem mit Körperbestattungen belegt worden ist. Dieses Körpergräberfeld wird in der vorliegenden Arbeit zum ersten Mal anhand der archäologischen Funde und Befunde beschrieben.
Nach früheren, kleineren Untersuchungen fanden im Umfeld der Kammern 1931 umfangreiche Grabungen statt; weitere folgten in den 1960er Jahren. Die im Rahmen dieser Maßnahmen erstellten Unterlagen wurden vom Autor zusammengestellt und aufgearbeitet. Ergänzend kamen eigene Beobachtungen am noch sichtbaren Befund hinzu.
So ließ sich erschließen, dass die meisten Grabkammern nicht Reste eigenständiger Bauten waren, sondern Teile eines bisher nicht erkannten größeren Baukomplexes. Dieser bestand aus einem großen Rechteckbau, der das Untergeschoss eines älteren Grabbaus inkorporierte. Dieser bildete einen kellerartigen Raum, der mit einem Wasseranschluss versehen war. Innerhalb des Rechteckbaus konnten Reste eines festen Fußbodens zu ebener Erde, sowie farbige Wandmalerei beobachtet werden. Kurz nach seiner Errichtung wurde der Rechteckbau mit zwei unterirdischen Kammern versehen und im Osten durch drei Anbauten mit unterschied-lichen Grundrissen erweitert: Im Süden entstand so ein Apsidenbau mit einer großen unterirdischen Kammer, in der sich bis heute ein Reliefsarkophag befindet.
Die Befundauswertung ergab, dass der Baukomplex in konstantinischer Zeit errichtet worden ist und offenbar schon um die Mitte des 5.Jhs. n. Chr. aufgegeben wurde.
Zu diesem Baubefund ließ sich in den benachbarten römischen Provinzen keine direkte Parallele finden. Am ehesten vergleichbar scheint ein weiterer Baukomplex aus der nördlichen Nekropole Triers, der unter der Kirche St. Maximin aufgedeckt wurde. Er ist ab der Mitte des 4. Jhs. n. Chr. errichtet und von der christlichen Gemeinde genutzt worden. Dieser Bau ähnelt in seinem Grundriss dem Baukomplex von St. Matthias, unterschiedet sich aber in der Bestattungspraxis: Während zahlreiche Sarkophag-Bestattungen im Hauptbau und teilweise auch den Anbauten in den unbefestigten Boden eingelassen worden sind, fand sich bei St. Matthias sowohl im Hauptbau als auch den Anbauten ein fester Boden. Innerhalb dieses Baukomplexes kann nur der oben beschriebene Reliefsarkophag der Nutzungszeit zugeordnet werden. Demnach könnte hier die Schaffung separater Bestattungsräume bedeutsam gewesen sein – neben anderen Funktionen, wie der Bereitstellung von Wasser und überdachtem Raum zur Begehung der Totenfeiern. Die stärkere Berücksichtigung solch funktionaler Elemente scheint demnach eine wichtige Ergänzung zur weiterführenden Deutung römischer Sepulkralarchitektur zu sein.
Unternehmen aus güterproduzierenden Industrien und Sektoren entdecken in immer stärkerem Maße das Differenzierungs- und Erlöspotenzial des Angebots ergänzender Dienstleistungen zur Erlangung von strategischen Wettbewerbsvorteilen. In vielen Branchen ist dies bereits ein notwendiger Bestandteil im Angebotsportfolios der Hersteller um sich zu positionieren und wettbewerbsfähig zu bleiben. Ein besonders prägnantes Beispiel stellt die Automobilbranche dar, die schon vor Jahren begonnen hat in ihr Geschäftsmodell um das Kernprodukt "Automobil" auch sog. produktbegleitende Dienstleistungen (wie beispielsweise Finanzierungsdienstleistungen) zu integrieren, um sich durch Erhöhung des Kundennutzens von den Angeboten der Mitbewerber zu differenzieren. Vor dem Hintergrund, dass Marketingkonstrukte, wie Marke, Reputation, Kundenloyalität, aber auch technische Spezifikationen wie Motorisierung, Ausstattung und Zubehör die Fahrzeugwahl beeinflussen, stellt sich die Autorin die Frage, inwiefern ein Zusatzangebot von reinen produktbegleitenden Dienstleistungen einen Einfluss auf die Marken- und Fahrzeugwahl beim Autokauf hat. In diesem Zusammenhang ist ein Forschungsziel der vorliegenden Untersuchung die Konzeption einer branchenunabhängigen Wertschöpfungskette für produktbegleitende Dienstleistungen, um eine Identifikation des strategischen Differenzierungspotenzials produktbegleitender Dienstleistungen zu ermöglichen. Den Bezugsrahmen der Forschungsarbeit wird dabei aus Perspektive des Endkonsumenten bei der Automobilkaufentscheidung konstruiert, um Aussagen zur Wahrnehmung existierender Angebote produktbegleitender Dienstleistungen den individuellen Phasen der Kaufentscheidung zuordnen zu können. Dies bildet das methodische Fundament dieses empirisch geprägten Forschungsbeitrags, um die folgende Frage der Untersuchung beantworten zu können: "Haben produktbegleitende Dienstleistungen einen Einfluss auf die Kaufwahrscheinlichkeit beim konsumentenseitigen Kaufentscheidungsprozess bei Automobilen im Segment des Privat-PKW?" Als Forschungsstrategie wird die Anwendung der Kausalanalyse gewählt, um anhand zwei aufeinander aufbauenden Primärerhebungen (quantitative Datenerhebung anhand eines Online-Fragebogens) potenzielle Autokäufer hinsichtlich ihres Wissens und ihrer Wahrnehmung bezüglich produktbegleitender Dienstleistungen der einzelnen Automobilherstellermarken zu untersuchen. Die Ergebnisse der Datenauswertung lassen die Schlussfolgerung zu, dass produktbegleitende Dienstleistungen zwar einen positiven Einfluss auf die Kaufentscheidung beim potentiellen Automobilkäufer ausüben, jedoch aufseiten der Automobilhersteller und -händler durchaus großes Verbesserungspotenzial bezüglich der Kommunikation von solchen Value-Added-Leistungen vorliegt. Die vorliegende Dissertationsschrift wurde am Lehrstuhl für Organisation und Strategisches Dienstleistungsmanagement verfasst und beim Fachbereich IV der Universität Trier eingereicht.
Die vorliegende Dissertation ist ein Versuch, mit einer Erforschung, Darstellung und Analyse dessen zu beginnen, was die deutsche Präsenz in Guatemala seit der Ankunft der ersten Siedler im frühen 19. Jahrhundert bedeutet. Aus diesen Seiten spricht ein im Gange befindlicher Prozess einer Akkulturation zwischen deutschen Einwanderern und Guatemalteken, in dessen Verlauf beide Teile ihr Leben gegenseitig wirtschaftlich, gesellschaftlich und geistig, wenn auch nicht immer ohne Spannungen, bereicherten. Die Darstellung beginnt mit einer Besprechung der wirtschaftlichen, sozialen und kulturellen Beiträge der ersten Siedler, sowie der Arbeit deutscher Institutionen. Sie untersucht dann die Aufnahme deutschen Gedankengutes bei der studierenden Jugend, bei Dozenten, Künstlern und Intellektuellen. Das Hauptgewicht dieses letzteren Teils liegt auf der Zeitspanne der achtziger Jahre des 20. Jahrhunderts, als Guatemala die ärgste Zeit der Gewalt, Unsicherheit und Angst erlebte. In jenen Jahren beschäftigten sich viele Intellektuelle und Studenten äusserst intensiv mit deutscher Denkart. Die Gründe dieses Interesses waren Gegenstand meiner besonderen Aufmerksamkeit. Meine Nachforschungen umfassten Reisen von Hunderten von Kilometern durch ganz Guatemala, sowohl während meines Aufenthalts als amerikanischer Diplomat (1981-1983) wie auch bei wiederholten Reisen zwischen 1984 und 1990, teilweise in abgelegenen und von Guerillaunruhen heimgesuchten Gegenden. Aspekte der historisch-sozialen und politischen Analyse Guatemalas in den nächsten Kapiteln stützen sich im wesentlichen auf meine Studie: Guatemala: A Complex Scenario. Wir erhalten nicht nur das Bild eines Guatemala, wo deutsche Siedler und Institutionen bleibende Spuren in der Gellschaft hinterliessen. Wir sehen auch einen Aspekt eines Guatemala, das sich intensiv mit wichtigen intellektuellen und kulturellen Errungenschaften Deutschlands befasst. Es ist ein faszinierendes Bild, auf dem sogar eine so komplexe Gestalt wie Heidegger ihren Schatten hinterlassen hat. Es reflektiert die stolze Anstrengung einer Gesellschaft, sich von den vielen Schwierigkeiten, denen sie sich im täglichen Leben ständig ausgesetzt sieht, die geistige Offenheit und Bereicherung nicht einschränken zu lassen.
Die vorliegende Arbeit untersucht, ob eine Positionierung der von den Winzern hergestellten Erzeugnisse im hochwertigen und damit hochpreisigen Produktsegment einen geeigneten Lösungsansatz darstellt. Neben einer qualitativen Ausstattung der Produkte im Hochpreissegment, die bereits von einigen Erzeugern erfolgreich vollzogen wurde, wird insbesondere analysiert, ob ein größerer Stellenwert der Kommunikation dieser Entwicklung gegenüber den meinungsbildenden und qualitätsorientierten Konsumenten geeignet ist, die Beurteilung und damit das Image von "Deutschem Spitzenwein" zu verbessern, somit das Konsumverhalten nachhaltig zu verändern und das vorstehende Problem zu lösen. Der Dissertation liegt insoweit die übergeordnete Fragestellung zugrunde, ob und gegebenenfalls wie langfristig eine deutsche Luxusweinmarke kreiert und etabliert werden kann bzw. welche strategischen und operativen Management-Maßnahmen zur Erreichung dieser Zielsetzung erforderlich sind.
Die vorliegende Arbeit entstand im Rahmen des INTERREG III B-Projektes WaReLa (Water Retention by Landuse), das sich mit dem Rückhalt von Wasser in der Fläche als Beitrag zum vorbeugenden Hochwasserschutz beschäftigt. Im Vordergrund stehen dabei die so genannten dezentralen Rückhaltemaßnahmen als Alternative bzw. Ergänzung zum technischen Hochwasserschutz. Gegenstand dieser Arbeit ist die Frage nach der Effizienz von Retentionsmaßnahmen in urbanen Räumen und deren Beitrag zum Hochwasserschutz. Es handelt sich um ein relativ junges Forschungsthema, welches die Fachwelt bis heute kontrovers diskutiert. Wie bisherige Untersuchungen zeigen, sind allgemeine Aussagen über die Retentionswirkung nicht möglich, da das Potential der Regenwasserbewirtschaftung und deren Rückhaltewirkung von mehreren gebietsspezifischen Faktoren gesteuert werden. Untersuchungen an einem Retentionssystem im Neubaugebiet Trier-Petrisberg sollten weitere Erkenntnisse bringen. Hierzu wurde zum einen die hydraulische Belastung einzelner Retentionsanlagen untersucht und zum anderen wurden N A-Simulationen mit dem Programm erwin 4.0 durchgeführt. Laut N-A-Simulationen hält das Retentionssystem, welches für ein 100-jährliches Ereignis mit 56 mm Niederschlag und der Dauerstufe 3 Stunden konzipiert wurde, im Vergleich zur Entwässerung des Gebietes über ein Trennsystem zwischen 58 % und 68 % des Jahresniederschlags zurück. Ähnlich hohe Werte (60 80 %) nennen GÖBEL, STUBBE, WEINERT, ZIMMERMANN, FACH, DIERKES, KORIES, MESSER, MERTSCH, GEIGER & COLDEWEY (2004: 270f) und WEGNER (1992: 7f) für die von ihnen untersuchten Anlagen. Sehr hoch erscheint die Scheitel abmindernde Wirkung des Retentionssystems im Vergleich zu einer konventionellen Ableitung. Im Mittel beträgt diese 82 %, so dass der Scheitel der Einleitung in den Vorfluter Brettenbach im Vergleich zur Regenwasserableitung auf 1/5 reduziert wird. Aufschluss über die Scheitelabminderung im Vorfluter selbst kann nur eine Quantifizierung der einzelnen Abflusskomponenten geben. Das Retentionssystem arbeitet im Sommerhalbjahr effektiver als im Winterhalbjahr, da trockene Vorperioden, höhere Lufttemperaturen und die Vegetation im Sommer einen besseren Rückhalt konvektiver Niederschläge begünstigen. Korrespondierende Aussagen machen ASSMANN & KEMPF (2005), GANTNER (2003a) und NIEHOFF (2002). Beobachtungen und Simulationen zeigen, dass das Retentionssystem bisher effektiv arbeitet. Sämtliche Retentionsanlagen entleeren sich innerhalb von 48 Stunden. Die Arbeit wird ergänzt durch Handlungsempfehlungen zu Planung, Bau und Betrieb von Anlagen zur Regenwasserbewirtschaftung auf Privatgrundstücken. Sie sollen helfen, die Akzeptanz naturnaher Maßnahmen zur Bewirtschaftung von Regenwasser zu steigern, Fehler zu vermeiden und Projekte erfolgreich umzusetzen.
Die Arbeit befasst sich mit der quantifizierenden Wirkungsabschätzung folgender Hochwasserschutzmaßnahmen: Auwaldaufforstung, Kleinrückhalte, Tieflockerung und Wegebaumaßnahmen. Neben der Betrachtung der hochwassermindernden Wirkung der einzelnen Maßnahmen werden auch die Grenzen der eingesetzten Simulationsmodelle aufgezeigt, diskutiert und Impulse für die Weiterentwicklung der Modellsysteme geben. Für die Auwaldaufforstung wurde ein zweidimensional instationäres Strömungsmodell auf der Basis des Rauhigkeitsansatzes nach Manning-Strickler auf einen rund 7,0 km langen Abschnitt eines Auetalgewässers angewendet. Bezüglich der hochwassermindernden Wirkung der Maßnahme Auwaldaufforstung konnte festgestellt werden, dass sich die Wirkung nahe der modelltechnischen Nachweisbarkeitsgrenze bewegt. Als Referenzereignisse dienten ein ca. 5-10 jährliches sowie ein ca. 50-80 jährliches Hochwasserereignis. In allen untersuchten Fällen blieb die relative Scheitelabminderung deutlich unter 1 %. Der Maßnahmentyp Kleinrückhalte wurde zunächst anhand von zwei Einzugsgebieten der Mesoskale (Obere Blies, AE ca. 8,5 km-² und Thalfanger Bach, AE ca.17 km-²) sowie anhand von mehreren hieraus abgeleiteten Fiktivsystemen mit Hilfe eines konzeptionellen Flussgebietsmodells untersucht. Die Untersuchung von Fiktivsystemen diente der Identifikation derjenigen Modellparameter, die den Effekt " also die hochwassermindernde Wirkung der Maßnahme " im Wesentlichen bewirken. Anschließend erfolgte eine Betrachtung des Maßnahmentyps Kleinrückhalte in den Flussgebieten von Prims (AE ca. 730 km-²) und Blies (AE ca. 1.890 km-²). Die Simulationsergebnisse zeigen, dass die Retentionswirkung von Kleinrückhalten entscheidend vom Volumen der jeweiligen Standorte und vom Volumen des betrachteten Hochwassers abhängt. In Abhängigkeit des Volumens wurden Scheitelabminderungen " je nach Ereignis " von < 1 % bis über 60 % simuliert. Entscheidend ist die Summe des Volumens der Einzelstandorte. Liegt das Gesamtvolumen unter einem Wert von 2,0 mm Gebietsrückhalt, so kann davon ausgegangen werden, dass die Maßnahmen nicht signifikant zur Hochwasserminderung beitragen können. Das Retentionspotenzial der Kleinrückhalte kann entscheidend gesteigert werden, wenn die Drosselöffnungen der Kleinrückhalte entsprechend optimiert werden. Die Arbeit stellt ein einfach handhabbares Regionalisierungsverfahren zur Abschätzung des Retentionspotenzials in mesoskaligen Einzugsgebieten (bis 20 km-²) vor. In den Einzugsgebieten von Blies und Prims würden jeweils 104 bzw. 79 Standorte mit einem Gesamtvolumen von 1,9 bzw. 2,5 mm zu Scheitelabminderungen am Gebietsauslass von 2-4 % bzw. 3-5 % bei interessanten, schadbringenden Hochwasserereignissen führen. Die Maßnahmentypen Tieflockerung und Wegebaumaßnahmen wurden mit Hilfe eines Wasserhaushaltsmodells im Einzugsgebiet der Oberen Blies untersucht. Für dieses Gebiet liegen die simulierten Scheitelabminderungen bezogen auf das zugrunde liegende Hochwasserereignis vom Dezember 1993 (ca. HQ10) bei jeweils < 5 % für die beiden untersuchten Maßnahmentypen Tieflockerung und Wegebaumaßnahmen. Generell sind die Möglichkeiten der Tieflockerung und der wegebaulichen Maßnahmen als Hochwasserschutzmaßnahmen begrenzt auf kleinere, 1-5 jährliche Ereignisse. Große, schadbringende Ereignisse können nicht signifikant abgemindert werden.
In der vorliegenden Dissertation werden die Ergebnisse einer empirischer Untersuchung zur Diagnostik und Differentialdiagnostik der Borderline-Persönlichkeitsstörung (BPS) vorgestellt. Diese Untersuchung umfaßt die Überprüfung der internen Struktur der BPS gemäß dem DSM-IV (APA, 1994). Eine dimensionale Ordnung der neun Borderline-Kriterien wird mittels Faktorenanalyse erstellt und in eine Störungskonzeption eingebunden. Darüber hinaus wird die diagnostische Effizienz der einzelnen Borderline-Kriterien ermittelt. Die Kriterien der BPS werden gemäß ihrer Bedeutung für die Diagnosenstellung in eine Rangreihe gebracht. Dabei werden die Merkmale der diagnostischen Effizienz (u.a. Spezifität, Sensitivität, Kappa, Overall Classification Rate etc.) für jedes einzelne Kriterium dargestellt. Weiterhin wird die Borderline-Symptomatik außerhalb der Kriterienebene des DSM-IV untersucht. Die durch Fragebögen erhobenen klinischen Merkmale werden auf ihre Zusammenhänge und ihre Bedeutung für die Diagnostik der BPS überprüft. Dabei erlangen insbesondere die interpersonalen Probleme und emotionsbezogenen Symptome einen hohen Stellenwert. Daher wurde ein Schwerpunkt der Untersuchung auf die interpersonalen Probleme der Borderline-Patienten gelegt, deren Struktur und Zusammenhänge zu anderen Symptomen erläutert werden. Auf der Grundlage der interpersonalen Probleme werden vier Subgruppen von Borderline-Patienten ermittelt. Diese unterscheiden sich insbesondere in den Verhaltensdimensionen Kontaktbereitschaft und Kontaktgestaltung. Für die vier Subgruppen werden therapeutische Strategien als Hypothesen abgeleitet. Ebenso werden Veränderungsvorschläge für eine differenzierte Diagnostik dargelegt. Die Untersuchung dient zudem dem Vergleich der BPS und anderen psychiatrischen Störungen. Die Ergebnisse belegen erhebliche Unterschiede zwischen den Borderline-Patienten und Nicht-Borderline-Patienten. Daneben werden weitere Subgruppen von Borderline-Patienten (u.a. anhand von Komorbiditäten, demographischen Variablen und Settingfaktoren der Behandlung) untersucht. Auch hier werden Zusammenhänge zwischen den Kriterien der BPS und klinisch-psychologischen Merkmalen exploriert und erläutert. Schlußfolgerungen für die Diagnostik und Therapie der Störung werden diskutiert.
Didaktik der Menschenrechte
(2001)
In der vorliegenden Arbeit geht es um die Frage nach der Rolle der Zeit im Werk Friedrich von Hardenbergs (Novalis, 1772-1801). Sowohl die Zeitstruktur in der Dichtung als auch das Zeitbewusstsein in der Transzendentalphilosophie bei Novalis wurden in der Forschung mehrfach thematisiert. Eberhard Haufe (1957) und Peter Küpper (1959) analysierten die Zeitstruktur im Heinrich von Ofterdingen eingehend und kamen zu dem Schluss, dass die Entwicklung des Romaninhalts dem Stil und der Symbolhaftigkeit der Sprache unterworfen werden und dass damit die Zeit aufgehoben wird. Manfred Frank (1972) analysierte das Zeitbewusstsein in den Fichte-Studien und legte dar, dass das Bewusstsein der Zeitlichkeit aus dem Gefühl eines unlösbaren "Mangels" an Sein entstehe und dass deshalb die Freiheit des Ich nicht durch Aufhebung der Zeit, sondern in einer Synthese von Zeit und Ewigkeit in der Zeit realisiert werden sollte. Während Frank den Ort der Dynamik des "Ordo inversus" zwischen Subjekt und Objekt in der Zeit bestimmte, entwickelte Richard Warren Hannah (1981) die These, dass die Synthese von Ich und Du, Zeit und Raum, Vergangenheit und Zukunft in der Gegenwart liege und dass das Bewusstsein der Gegenwart der Ausgangspunkt der Dichtung bei Novalis wurde. Durch die Arbeiten von John Neubauer (1978) und Gordon Birrell (1979) wurde die Aufhebung der Zeit im Ofterdingen zwar verleugnet und die Rolle der Zeit und der Gegenwart im Roman hervorgehoben, aber es fehlt in der Forschung m. E. noch ein roter Faden zwischen dem transzendentalphilosophischen Zeitbewusstsein und der Zeitstruktur in der Dichtung. In seiner ersten Fragmentsammlung Blüthenstaub (1798) schreibt Novalis: "Nichts ist poëtischer, als Erinnerung und Ahndung, oder Vorstellung der Zukunft. Die gewöhnliche Gegenwart verknüpft beyde durch Beschränkung " Es entsteht Contiguitaet, durch Erstarrung " Crystallisation. Es gibt aber eine geistige Gegenwart " die beyde durch Auflösung identificirt " und diese Mischung ist das Element, die Atmosphäre des Dichters. Nicht Geist ist Stoff." (II, 468, 123) In dieser Arbeit wird erläutert, dass die Idee der "geistigen Gegenwart" ein roter Faden ist, der Philosophie und Dichtung bei Novalis verbindet. Um zwischen Theorie und Dichtung eine Brücke zu schlagen, soll der Gedankengang von Novalis von den Fichte-Studien (1795/96) bis zum Heinrich von Ofterdingen (geschrieben um 1800) nachvollzogen werden. Die vorliegende Arbeit geht davon aus, dass das Bewusstsein der Gegenwart als einer Synthese nicht nur die philosophischen Studien, sondern auch die Poetik und die Dichtung von Novalis durchgängig prägt. Es soll erläutert werden, wie er den Begriff der "geistigen Gegenwart" begründete und wie er ihn auf seine Poetik und dichterische Praxis übertrug. Diese Arbeit stellt einen Versuch dar, den ganzen Gedankengang von Novalis als eine Suche nach Möglichkeiten einer sinnlichen Erfahrung der "geistigen Gegenwart" darzustellen.
Die A4-Strategie versucht, eine Antwort auf die Frage zu geben, ob es in der modernen Medienlandschaft optimale und effiziente Kommunikationsstrategien gibt, deren Erfolg nicht von der Höhe des Budgets abhängig ist und die gleichzeitig eine hohe Kundenbindung bewirken und eine effiziente Auswahl der Kommunikationsinstrumente sichert. Dies ist gerade für KMUs von besonderer Bedeutung, die sich in einem komplexen und globalisierten Marktumfeld bewegen. Die Marketingkommunikation ist nicht nur ein unvermeidliches Werkzeug, um die Verkaufszahlen zu steigern. Sie bedarf heutzutage auch einer durchdachten Strategie. Denn es wird erst eine erfolgreiche Interaktion zwischen diesen Partnern (Unternehmen und Kunden) stattfinden, wenn sowohl ein optimaler Unternehmenswert als auch ein Kundenwert generiert wird. Die A4-Strategie hilft zugleich dabei, Antworten auf die für eine optimale Marketingkommunikation relevante Fragen zu finden: Wer kann einkaufen? Wer kauft tatsächlich ein? Was sind die relevanten Informationen über den, der tatsächlich einkauft? Anhand der Antworten auf diese Frage wird ermittelt, wo und wie die potentielle Kundschaft besser akquiriert und wo und wie die bestehende Kundschaft optimal betreut werden kann. Dieses Konzept bietet eine strukturierte Herangehensweise und Vorgehensweise, um eine Kommunikationsstrategie je nach Situation zu entwickeln. Sie ist somit keine fertige Lösung, sondern schafft sie Rahmen für ein methodisches Entscheidungsprozess. Sie hilft zudem situationsadäquat Entscheidungen zu treffen und Handlungen vorzunehmen, die diese Entscheidungen konsequent umzusetzen.
WICHTIGER HINWEIS: Aufgrund eines Computerfehlers bei der Rohdatenaufbereitung, müssen die 5.2.3. Ergebnisse (S. 43 ff.) wie folgt korrigiert werden: Explizite Einstellungsmessung Die Ergebnisse ändern sich inhaltlich: Haupteffekt Wortvalenz F(1, 94) = 51.10, p < .001, η2 = .35, (Mpos= 5.06; Mneg= -28.51); Interaktionseffekt Wortvalenz und kognitive Belastung F(1, 94) = 7.90, p < .01, η2 = .08, (Mpos/load= -5.01; Mpos/kein load= 15.13; Mneg/load= -25.43; Mneg/kein load= -31.75); Haupteffekt Wortnegation F(1, 94) = 8.58, p < .01, η2 = .08, (Mkeine = -7.95; Mnegation= -15.58). Implizite Einstellungsmessung Die Ergebnisse bleiben inhaltlich gleich: Zweifach-Interaktion von Wortvalenz und Prime, F(1, 80) = 4.61, p < .05, η2 = .06, (Mpos/wahr= 20.33; Mpos/falsch= 3.85; Mneg/wahr= 4.44; Mneg/falsch = 14.14). ABSTRACT: Ziel der vorliegenden Arbeit war es Evidenz für die Existenz einer Antonymie-Heuristik bei der Falsifikation valenter Information zu finden. Es wird angenommen, dass die vorherige Ankündigung, dass eine nachfolgende valenzhafte Information falsch ist, zu einer Änderung der Enkodierungsstrategie der valenzhaften Information führt. Dies bedeutet, dass zu der Valenz der gegebenen Information automatisch eine Gegenvalenz oder antonyme Valenz aktiviert werden sollte. Dementsprechend sollten falsche positive Informationen negativer und falsche negative Informationen positiver beurteilt werden als ihre wahren Entsprechungen. In vier Studien konnte dieser Effekt nachgewiesen werden. Die Ankündigung, dass eine valenzhafte Information falsch ist, beeinflusst, unabhängig von kognitiver Belastung, die Valenzübertragung in einem evaluativen Konditionierungsparadigma in vorhergesagter Weise (Experiment1). Ebenso führen generierte Gegenvalenzen, wenn eine Information als falsch angekündigt wurde, zu einem Verarbeitungsvorteil in einer Valenzkategorisierungs-Aufgabe, bei welcher positive Informationen als negativ und negative Informationen als positiv eingeschätzt werden sollten (Experiment 2). Die Ankündigung, dass eine nachfolgende Information falsch ist, führt außerdem dazu, dass positive (negative) Eigenschaften schnell und effizient negativer (positiver) eingeschätzt werden als bei einer Ankündigung der Informationen als wahr (Experiment 3 und 4). Zusammenfassend werden diese Befunde als Evidenz für die Existenz einer Antonymie-Heuristik im Zuge der Falsifikation valenter Information interpretiert.
Um die weiterhin ansteigende Weltbevölkerung auch zukünftig mit Nahrungsmitteln und anderen wichtigen Rohstoffen zu versorgen, bedarf es einer immer größeren Nutzungsausweitung der Landwirtschaft auf natürliche Flächen. Im Jahre 2009 wurde ein Drittel der Landoberfläche der Erde bereits landwirtschaftlich genutzt. In jüngster Zeit kommt der Landwirtschaft zusätzlich eine wichtige Bedeutung als Energielieferant zu. Ein weiter steigender Flächenbedarf ist die Konsequenz dieser Entwicklung. Dies führt zum Verlust von Habitaten und somit zu einer starken Fragmentierung der Landschaft. Die direkten und indirekten Auswirkungen dieser Entwicklung auf den weltweiten Biodiversitätsrückgang werden mittlerweile als eine der Hauptursachen für den Rückgang vieler Arten anerkannt. Auch der Gesetzgeber hat dieses Problem erkannt und versucht dem entgegenzuwirken. In der vorliegenden Arbeit wird durch einen multiplen Methodenansatz der Einfluss der Habitatfragmentierung auf die Konnektivität der Populationen von zwei unterschiedlich mobilen Insektenarten untersucht. Als Modelarten wurden eine wenig mobile Heuschreckenart (Chorthippus montanus) und ein hoch mobiler Tagfalter (Brenthis ino) ausgewählt, welche beide an feuchte Grünländer gebunden sind. Für C. montanus wurde gezeigt, dass die Art nur ein sehr eingeschränktes Mobilitätspotenzial besitzt und stark an ihr Habitat gebunden ist. Daher ist eine Durchquerung von ungeeigneten Lebensräumen als äußerst unwahrscheinlich zu erachten. Eine Studie zur Mobilität und dem Verhalten von Brenthis ino belegt eine starke Philopatrie für eine nicht territoriale Insektenart. Zusätzlich zu den Fang-Wiederfang-Untersuchungen im Freiland wurden populations- und landschaftsgenetische Analysen durchgeführt. Die populationsgenetischen Analysen zeigen eine starke Isolation der Populationen von C. montanus, während zwischen den untersuchten Populationen von B. ino eine gute Konnektivität besteht. Mittels der landschaftsgenetischen Analyse wird gezeigt, dass Wälder und bebaute Flächen für beide Arten substanzielle Genefluss-Barrieren darstellen. Basierend auf einer GIS gestützten Analyse wird dargelegt, dass eine lokal ausreichende Vernetzung von Grünländern in Rheinland-Pfalz durch den Biotopverbund existiert. Die Berücksichtigung der Konnektivität bei der Auswahl und Ausgestaltung der Instrumente zur rechtlichen Sicherung und Umsetzung des Biotopverbundes (-§ 21 BNatSchG) bergen großes Potenzial zum Schutz von Grünländern. Ferner wird gezeigt, dass die Landschaftsplanung zwar ein geeignetes Instrument zur Erarbeitung des Biotopverbundes ist, aber kein Instrument zur rechtlichen Sicherung desselbigen im Sinne des -§ 21 Abs. 4 BNatSchG sein kann.
Deutschland befindet sich mitten im demographischen Wandel, woraus sich tiefgreifende, langfristige Auswirkungen sowohl auf das Konsumverhalten als auch auf die Konsumstruktur ergeben. Vorliegende Arbeit fokussiert die Veränderung der Nachfragepotentiale im Tourismus, die aus dem demographischen Wandel resultieren. Ziel war es, Daten zur demographischen Entwicklung mit zu erwartenden Veränderungen ausgewählter sozioökonomischer Faktoren und hierbei konkret der Haushaltsgröße, des Bildungstandes sowie des Äquivalenzeinkommens zu verbinden und systemendogen zu erklären.
Mit Hilfe eines mehrstufigen Verfahrens wurde dargelegt, wie sich die relevanten sozioökonomischen Faktoren im Zuge einer alternden Gesellschaft verändern und welche Konsequenzen sich daraus für die quantitative, strukturbedingte Nachfrage nach touristischen Leistungen bis zum Jahr 2030 ergeben. Die ökonometrische Grundlage für die Prognosen bilden unterschiedliche binär-logistische Regressionsanalysen auf der Basis der Scientific Use Files der Reiseanalyse 2010, woraus sich Wahrscheinlichkeiten für die Teilnahme an einer mindestens fünftägigen Reise, einer Kurzreise sowie an unterschiedlichen Reisearten generieren lassen. Die additive Form des Modells der logistischen Regression macht es dabei möglich, den Fokus auf einen sozioökonomischen Faktor oder auf das Zusammenspiel mehrerer Variablen zu setzen und somit die Wirkungsstärke der einzelnen Faktoren auf die Nachfrage zu bestimmen.
Bei der Berechnung der künftigen Anzahl an Reisenden, führt die Endogenisierung der Struktureffekte altersklassenübergreifend zu (deutlich) höheren Prognoseergebnissen als im Falle einer rein demographischen Betrachtung. Für die Teilnahme an einer Reise mit einer Dauer von mindestens fünf Tagen prognostiziert das Modell unter ausschließlicher Berücksichtigung des demographischen Wandels bis zum Jahr 2030 eine Abnahme der Reisenden um 4,16 Prozent. Bezieht man die Entwicklungstendenzen der Haushalte sowie der Einkommens- und Bildungsstruktur mit ein, ergibt sich ein ganz anderes Bild: Der demographisch bedingte Rückgang wird nicht nur ausgeglichen, sondern es kommt zu einer Zunahme der Reisenden um 7,49 Prozent. Prognosen zur Anzahl der Kurzreisenden bzw. zur Teilnahme an ausgewählten Reisearten zeigen ähnliche Ergebnisse. Auch hier wirken die Struktureffekte dem demographischen Wandel bei der Nachfrage nach touristischen Leitungen deutlich entgegen.