Refine
Year of publication
- 2024 (25)
- 2023 (20)
- 2022 (21)
- 2021 (22)
- 2020 (36)
- 2019 (33)
- 2018 (29)
- 2017 (17)
- 2016 (17)
- 2015 (18)
- 2014 (23)
- 2013 (27)
- 2012 (36)
- 2011 (24)
- 2010 (35)
- 2009 (37)
- 2008 (29)
- 2007 (50)
- 2006 (35)
- 2005 (44)
- 2004 (56)
- 2003 (46)
- 2002 (33)
- 2001 (23)
- 2000 (21)
- 1999 (9)
- 1998 (6)
- 1997 (4)
- 1996 (6)
- 1995 (7)
- 1994 (3)
- 1993 (2)
- 1992 (3)
- 1991 (1)
- 1990 (2)
- 1989 (2)
- 1988 (2)
- 1987 (2)
- 1986 (3)
- 1985 (1)
- 1984 (4)
- 1983 (2)
- 1980 (3)
- 1979 (1)
- 1978 (1)
- 1976 (1)
- 1973 (1)
- 1972 (3)
- 1970 (4)
- 1969 (1)
- (15)
Document Type
- Doctoral Thesis (492)
- Article (94)
- Book (92)
- Contribution to a Periodical (55)
- Working Paper (37)
- Part of a Book (21)
- Part of Periodical (11)
- Review (10)
- Other (9)
- Master's Thesis (7)
Language
- German (846) (remove)
Has Fulltext
- yes (846) (remove)
Keywords
- Deutschland (55)
- Luxemburg (29)
- Geschichte (23)
- Demokratie (19)
- Film (19)
- Schule (18)
- Juden (15)
- Politischer Unterricht (15)
- Schüler (14)
- Tourismus (14)
Institute
- Psychologie (118)
- Raum- und Umweltwissenschaften (107)
- Politikwissenschaft (76)
- Universitätsbibliothek (74)
- Rechtswissenschaft (55)
- Medienwissenschaft (53)
- Geschichte, mittlere und neuere (44)
- Wirtschaftswissenschaften (36)
- Fachbereich 3 (32)
- Germanistik (27)
Diese Dissertation gliedert sich in zehn Kapitel. Nach einem einleitenden Kapitel stelle ich die historischen Rahmenbedingungen der Arbeit der katholischen Missionare in Deutsch-Ostafrika vor (ethnische und soziale Gliederung, wirtschaftliche Lage, Grundzüge der Verwaltung). Dieses Kapitel thematisiert zudem die Situation der in der Kolonie engagierten katholischen Missionsorden und ihrer Missionsmethoden. Das dritte Kapitel untersucht die grundlegenden diskursiven Komponenten des missionarisch-männlichen Selbstverständnisses. Diese Diskurse kontrastieren meistens säkulare Diskurse. Sie bestehen einmal aus der missionarischen Adaption des katholischen Kulturdiskurses, dem christlichen Askesediskurs, modifizierten Rassediskursen, der Übernahme nationalistischer Paradigmen und den diskursiven Abgrenzungsversuchen gegenüber dem geschlechtlichen 'Anderen', repräsentiert durch die Missionsschwestern. Alle die hier untersuchten Diskurse werden in ihrer Entwicklung bestimmt durch eine Wechselwirkung zwischen heimatlichen Vorgaben und kolonialen Erfahrungen. Sie basieren auf einer dichotomischen Unterscheidung zwischen dem religiös, ethnisch und geschlechtlich kodierten 'Eigenen' und 'Anderen' und bilden die Grundlage des missionarischen Eigen- und Fremderlebens. Der vierte Hauptteil der Arbeit untersucht Konstruktionen ethnischer und religiöser Alteritäten auf dem ostafrikanischen Missionsfeld. Zwei Hauptgruppen von Gegnern sind zu unterscheiden: die "Medizinmänner/ Zauberer" und die Vertreter des ostafrikanischen Islam. Teil fünf untersucht die in den Quellen vorgestellten zentralen Methoden der missionarischen Verkündigungsarbeit. Es geht dabei besonders um die Versuche ein konfessionelles Eheideal in einer polygamen Gesellschaft zu verkünden. Zudem werden die Bedeutung der christlichen Caritas für die Konversion der OstafrikanerInnen und die Kinder- und Schulerziehung in den Blick genommen. Das folgende sechste Kapitel behandelt die Frage nach den missionarischen Umwelten und ihrem Einfluss auf die Konstruktion missionarischer Männlichkeiten. Zum einen tritt der Missionar in den Quellen als Eroberer der ostafrikanischen Flora und Fauna auf. Andererseits wird er als ständig Reisender vorgestellt. Zudem zeigen sich in den Quellen diskursive Strategien der symbolischen und repräsentativen Setzung von Heimat (Berichte über die Umstände und Mühen bei Stationsgründungen und über liturgische Feiern). Der siebte Teil der Dissertation untersucht die Wahrnehmung der sozialen Verfasstheiten der traditionellen ostafrikanischen Lebensräume. Wie wurden die OstafrikanerInnen von den Missionaren unter der Perspektive der Intelligenz, ihrer Bildungsfähigkeit und Arbeitsbereitschaft bewertet? Und was waren die Hauptkritikpunkte des missionarischen Moraldiskurses über die Indigenen in der ostafrikanischen Kolonie? Teil acht der Arbeit versucht, die Rolle der eigenen als auch der geschlechtlich und ethnisch anderen Körper für die Konstruktion missionarischer Männlichkeit auszuloten. So soll geklärt werden, wie afrikanische Nacktheit bewertet wurde. Zudem werden traditionelle Körperperformanzen der OstafrikanerInnen wie Gesänge und Tänze im Hinblick auf die Wahrnehmung und Wertung durch die asketisch ausgerichteten Missionare untersucht. Ein dritter Teil dieses Kapitels widmet sich der Bedeutung der Körperhygiene für das missionarische Selbst und den Versuchen, diese Vorgaben auf die koloniale Umwelt zu übertragen. Die Kritik am indigenen Umgang mit dem eigenen Körper findet ihren Höhepunkt in der Beschreibung und moralischen Abwertung afrikanischer Sexualität im Umfeld traditioneller Beschneidungsriten. Eine theoriegeleitete Schlussreflexion wirft einen Blick auf die den Formen missionarischer Männlichkeit zugrunde liegenden Machtkonzepte und ihre Bedeutung im kolonialen System. Dieser Abschnitt der Arbeit versucht eine Zusammenschau der bereits aus den vorhergehenden Kapiteln bekannten Fakten und Ergebnisse. Das letzte Kapitel bietet eine Zusammenfassung der Ergebnisse.
Wie geht die Medieninstitution Fernsehen mit ihrem Sendematerial um? Und wie kommt es zu der Etablierung von Fernsehsendungen, die für sich in Anspruch nehmen können, Klassiker des deutschen Fernsehens geworden zu sein und damit einen Platz im kollektiven Gedächtnis der Nation beanspruchen? Diesen Fragen geht der Artikel, der als Einleitung zu dem Buch "Fernsehklassiker"(Alfeld: Coppi, 1998 [Aufsätze zu Film und Fernsehen Bd. 61]) verfaßt wurde, nach.
Die vorliegende Meta-Analyse zeigt eindeutig, dass von Familienmitgliedern geführte Familienunternehmen eine schlechtere Performance aufweisen als Unternehmen, die von Managern geleitet werden, die der Inhaberfamilie nicht angehören. Basierend auf uni- und multivariaten Analysen von 270 wissenschaftlichen Publikationen aus 42 verschiedenen Ländern, wurde die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen untersucht. Das erste robuste Ergebnis zeigt eindeutig, dass Familienunternehmen hinsichtlich der Performance Nicht-Familienunternehmen übertreffen. Dieses Ergebnis ist im Einklang mit den meisten Primärstudien und früheren Meta-Analysen. Das zweite Ergebnis dieser Arbeit kann dem "Finance"-Forschungszweig zugeordnet werden und basiert auf der Unterscheidung von Markt- und Accounting-Performance-Kennzahlen. Markt-Performance-Kennzahlen, welche durch Analysten errechnet werden, zeigen, dass Familienunternehmen Nicht-Familienunternehmen hinsichtlich der Performance unterlegen sind. Dieses Ergebnis steht im Gegensatz zu den Accounting-Performance-Kennzahlen, welche von den Familienunternehmen selbst in ihren von Wirtschaftsprüfern freigegebenen Bilanzen veröffentlicht wurden. Die dritte Forschungsfrage untersucht im Detail, ob die Zusammensetzung des Datensatzes in Primärstudien das Gesamtergebnis in eine bestimmte Richtung verzerrt. Das Ergebnis wird nicht durch Datensätzen mit Unternehmen, welche öffentlich gelistet, im produzieren Gewerbe tätig oder Technologie getriebene Unternehmen, sind getrieben. Kleine und Mittlere Unternehmen (KMU) veröffentlichen kleinere Kennzahlen und reduzieren somit die Höhe der abhängigen Variable. Das vierte Ergebnis gibt eine Übersicht über die Art und Weise der Beteiligung der Familie an der Aufsicht oder dem operativen Geschäft des Unternehmens. Dieses Ergebnis zeigt klar, dass Manager aus Familien einen signifikanten negativen Einfluss auf die Performance des Unternehmens haben. Dies kann auf die Erhaltung des Wohlstandes der Familienmitglieder zurückzuführen sein und somit spielen finanzielle Kennzahlen keine vordergründige Rolle. Die letzte Forschungsfrage untersucht, ob die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen auch durch institutionelle Faktoren beeinflusst wird. In Europa zeigen die Familienunternehmen im Vergleich zu Nordamerika eine geringere Performance hinsichtlich der Kennzahlen. Das ist darauf zurückzuführen, dass europäische Unternehmen im Vergleich zu nordamerikanischen unterbewertet sind (Caldwell, 07.06.2014). Darüber hinaus zeigen Familienunternehmen im Vergleich zu Nicht-Familienunternehmen eine bessere Performance in eher maskulin geprägten Kulturen. Maskulinität, ist nach Hofstede, gekennzeichnet durch höhere Wettbewerbsorientierung, Selbstbewusstsein, Streben nach Wohlstand und klar differenzierte Geschlechterrollen. Rechtsregime hingegen (Common- oder Civil-Law) spielen im Performance-Zusammenhang von Familienunternehmen keine Rolle. Die Durchsetzbarkeit der Gesetze hat jedoch einen signifikanten positiven Einfluss auf die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen. Dies ist damit zu begründen, dass die Kosten für Kredite in Länder mit einer sehr guten Durchsetzbarkeit von Gesetzen für Familienunternehmen geringer sind.
Abenteuer Sprache: Spanisch und Französisch im Kontakt mit amerikanischen Ureinwohnersprachen
(2006)
Sprache - ein Abenteuer?! Spanisch und Französisch - beide romanischen Sprachen sind in Amerika mit Ureinwohnersprachen in Kontakt getreten. In der vorliegenden Dissertation wird der Sprachkontakt zwischen Spanisch und den Maya-Sprachen (Maya yucateco) mit dem Kontakt zwischen Französisch und den Algonkin-Sprachen (Montagnais) vergleichend untersucht. Besondere Schwerpunkte bilden dabei die ersten Kontakte, die Fixierung der Ureinwohnersprachen durch die Europäer und die bis heute in Yucatán und Québec spürbaren linguistischen Konsequenzen dieser europäisch-indigenen Sprachdurchdringung. Obwohl der Einfluss der genannten Ureinwohnersprachen auf die beiden romanischen Sprachen insgesamt gesehen für relativ gering gehalten wird, stellt er einen wichtigen und interessanten Aspekt bei der Sprachbetrachtung dar. Ohne das Werk der europäischen Missionare hätte die Reichhaltigkeit der indigenen Sprachen nicht bis zum heutigen Tage lebendig gehalten werden können. Wir verdanken ihnen die ersten "sprachwissenschaftlichen Abhandlungen, mit denen sie einen beachtlichen Beitrag für die Linguistik geleistet haben, auch wenn dieser von Zeit zu Zeit sehr kontrovers diskutiert wird. Der vermutete Überhang an Indigenismen im heutigen amerikanischen Spanisch kann im Anschluss an meine Untersuchungen bestätigt werden. Während im Französischen Québecs die Entlehnungen aus dem Montagnais vorwiegend im Bereich der Flora und Fauna anzutreffen sind, hat sich im yukatekischen Spanisch im Raum Mérida eine Art "Regionalcode" herausgebildet, der etliche Einflüsse aus dem Maya yucateco enthält. Die Reise der beiden Sprachen über den Ozean, die Kontaktaufnahme ihrer Sprecher, die Arbeit der Missionare und die Ergebnisse des Sprachkontakts sind in jeder Hinsicht so abenteuerlich wie eine Reise in die untersuchten Sprachgebiete!
Die vorliegende Arbeit entstand im Rahmen des EU INTERREG NWE IVB Projektes "ForeStClim - Transnational Forestry Management Strategies in Response to Regional Climate Change Impacts". Zum Zweck der Verbesserung des Prozessverständnisses von Abflussprozessen in Wäldern sowie zur Validierung und Weiterentwicklung eines GIS-basierten Tools (GIS-DRP) zur Erstellung von Abflussprozesskarten wurden auf 25 Test-Plots in vier Einzugsgebieten in Rheinland-Pfalz und dem Großherzogtum Luxemburg boden-hydrologische Untersuchungen durchgeführt. Auf Grundlage dieser Untersuchungen konnten große intraspezifische Unterschiede im Abflussverhalten von Waldstandorten erhoben werden. Die Differenzen werden dabei hauptsächlich durch das Substrat, die bodenphysikalischen Eigenschaften, die Nutzung bzw. deren Intensität und die Vorfeuchte bedingt. Es wurde nachgewiesen, dass Wälder generell hohe Infiltrationsraten aufweisen und verzögerte Zwischenabflussprozesse begünstigen. Durch einen prinzipiell naturnahen Waldbau und etwaige Meliorationsmaßnahmen auf Niederertragsstandorten bestehen zudem Möglichkeiten positiv auf die Wasserretention und das Wasserspeichervermögen eines Forstbestandes einzuwirken. Die mittels GIS-DRP erstellten Abflussprozesskarten der vier Testgebiete wurden durch die Ergebnisse der Geländeuntersuchungen sowie der Abflussprozesskartierung nach SCHERRER (2006) validiert. Hierdurch wurden für die Abflussgenerierung wichtige Parameter ermittelt und Optimierungsansätze erarbeitet, welche anschließend in GIS-DRP implementiert werden konnten. Verschlämmungsprozesse auf Ackerflächen können nun durch das modifizierte GIS-DRP-Werkzeug identifiziert werden. Zudem war es möglich, Extrem-Ereignis basierte Abflussprozesskarten zu etablieren, die Hot Spots der Abflussgenerierung identifizieren können. Die Einführung des Abflussprozesses "dSSF" (tiefer Zwischenabfluss) wurde durch eine neue Klassifizierung des geologischen Ausgangssubstrates erreicht. Forstwirten und Entscheidungsträgern im Waldmanagement wird somit die Möglichkeit geboten, Expertenwissen in ihre Planungen einfließen zu lassen. Hierdurch kann zum einen positiv auf den Landschaftswasserhaushalt eingewirkt werden, da gezielt auf Flächen nachteiliger Abflussbildung geeignete Maßnahmen des dezentralen Hochwasserschutzes angewandt werden können. Zum anderen werden Potentiale für bestmögliche Waldwachstumsvoraussetzungen in einem Landschaftsraum aufgezeigt. Der nachhaltigen Nutzung von Wäldern wird somit auch im Kontext des Klimawandels Rechnung getragen.
Bei der Preisberechnung von Finanzderivaten bieten sogenannte Jump-diffusion-Modelle mit lokaler Volatilität viele Vorteile. Aus mathematischer Sicht jedoch sind sie sehr aufwendig, da die zugehörigen Modellpreise mittels einer partiellen Integro-Differentialgleichung (PIDG) berechnet werden. Wir beschäftigen uns mit der Kalibrierung der Parameter eines solchen Modells. In einem kleinste-Quadrate-Ansatz werden hierzu Marktpreise von europäischen Standardoptionen mit den Modellpreisen verglichen, was zu einem Problem optimaler Steuerung führt. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit der Lösung der PIDG aus theoretischer und vor allem aus numerischer Sicht. Die durch ein implizites Zeitdiskretisierungsverfahren entstandenen, dicht besetzten Gleichungssysteme werden mit einem präkonditionierten GMRES-Verfahren gelöst, was zu beinahe linearem Aufwand bezüglich Orts- und Zeitdiskretisierung führt. Trotz dieser effizienten Lösungsmethode sind Funktionsauswertungen der kleinste-Quadrate-Zielfunktion immer noch teuer, so dass im Hauptteil der Arbeit Modelle reduzierter Ordnung basierend auf Proper Orthogonal Decomposition Anwendung finden. Lokale a priori Fehlerabschätzungen für die reduzierte Differentialgleichung sowie für die reduzierte Zielfunktion, kombiniert mit einem Trust-Region-Ansatz zur Globalisierung liefern einen effizienten Algorithmus, der die Rechenzeit deutlich verkürzt. Das Hauptresultat der Arbeit ist ein Konvergenzbeweis für diesen Algorithmus für eine weite Klasse von Optimierungsproblemen, in die auch das betrachtete Kalibrierungsproblem fällt.
Im Rahmen dieser Arbeit wurde die agrarklimatische und phänologische Situation in der zweiten Hälfte des vergangenen 20. Jahrhunderts für das Mittlere Moseltal am Beispiel der Moselregion im Umfeld der Stadt Bernkastel-Kues ausgewertet. Es konnten erhebliche klimatische und phänologische Veränderungen festgestellt und deren Auswirkungen auf den regionsprägenden Weinbau aufgezeigt werden. Der zeitliche Verlauf der Jahresmittel der Lufttemperatur zeigt eine deutliche Zweiteilung der Entwicklung in den Jahren 1945 bis 2000. Eine Abnahme (- 0.7 K) in der ersten Hälfte und eine deutliche Zunahme (+1.1 K) in der zweiten Hälfte der Zeitreihe. Einen vergleichbaren Verlauf zeigen die Jahresmittel der Tagestemperaturmaxima und -minima. Eine erhebliche Erwärmung lässt sich im April und Mai, August und Oktober und Januar und Dezember beobachten. Die geringsten Veränderungen zeigen Februar, Juli und November. Die Jahresniederschläge lassen keinen Trend im Gesamtabschnitt erkennen. Saisonale Verschiebungen weisen jedoch auf Änderungen in der Niederschlagscharakteristik hin. Die niederschlagsreichste Zeit im Jahr hat sich vom August auf Juni/Juli verschoben (starke Abnahme im August) und der regenärmste Monat vom März auf den Februar. Zunahmen zeigen v. a. September und Oktober. Die Jahressummen der Sonnen-scheindauer zeigen einen starken Rückgang in den Jahren 1945 bis 1981 und eine Trendumkehr in den Jahren bis 2000. Insbesondere der Monat August weist eine starke Zunahme der Sonnenscheindauer auf. Der mittlere jährliche Wachstumsverlauf der Weinrebe beginnt Anfang/Mitte April. Austrieb und Ergrünen folgen bis Mitte Mai. Die Rebe blüht im Durchschnitt zwischen dem 21.6. und 26.6. Mitte Juli sind die Beeren erbsengroß. Das Beerenwachstum und die Fruchtreife dauern in der Regel bis Anfang Oktober. Die Herbsttermine Laubfärbung und Laubfall finden zwischen Mitte Oktober und Anfang November statt. Alle in Bernkastel beobachteten phänologischen Merkmale zeigen eine Vorverlagerung der Eintrittstermine zwischen -6 Tagen und -15 Tagen in den Jahren 1967 bis 2001. Die Beerenentwicklung bzw. Reifephase im Sommer und Frühherbst verlängert sich um rund 10 Tage. Die wärmer gewordenen Monate März und April (geringere Spätfrostgefahr) äußern sich anhand eines früheren Vegetationsbeginns der Rebe. Die wärmeren, trockeneren und sonnenscheinreicheren Monate Mai und Juni führen zu einer erheblichen Vorverlagerung des Blühtermins und zu einer günstigen Verschiebung der Fruchtentwicklungs- und Reifephasen in den trockeneren, wärmeren und strahlungsreicheren Hochsommer. Die optimale Ausreife der Trauben im September und Oktober wird einerseits durch eine Temperaturzunahme gefördert, anderseits durch höhere Niederschlagswerte verzögert oder behindert. Die phänologischen Termine Knospung, Austriebs, Blüte und Reifegrad eignen sich somit hervorra-gend als Indikator für die Veränderung der klimatischen Bedingungen im Jahresverlauf. Ein starker Zusammenhang zwischen den Terminen des Blühbeginns der Rebe mit den Temperaturfaktoren und zwischen dem Reifegrad 60 -°Oe und kumulierten Temperatursummen bzw. den Sonnenscheindauern zwischen Mai und August ist ein weiterer Beleg für die stattgefundenen klimatischen Veränderungen im Mittleren Moseltal besonders in den Monaten März bis Juni und August und Oktober.
Das Grundgesetz ist keine bloße Neuauflage, sondern vielmehr eine Weiterentwicklung der Weimarer Reichsverfassung. Obwohl dem Namen nach gar keine „Verfassung“, wird das Grundgesetz spätestens seit der Wiedervereinigung nicht mehr als vorläufige, sondern als endgültige gesamtdeutsche Verfassung angesehen. Strikte Gewaltenteilung, Rechtsstaatlichkeit, umfassender Grundrechtsschutz und die Einführung der sog. „Ewigkeitsklausel“ (Art. 79 Abs. 3 GG) sind nur einige Elemente, mit denen „Bonn“ korrigierte, was „Weimar“ noch nicht vermochte. Nicht zuletzt die umfangreiche Rechtsprechung des Bundesverfassungsgerichts hat das Grundgesetz zu dem umfassenden Regelwerk gemacht, das nunmehr 70 Jahre ohne eine größere Verfassungskrise überdauert hat.
Die in dieser Ausgabe zusammengefassten Beiträge, die im Mai 2019 im Rahmen einer Festveranstaltung im Rokoko-Saal der Aufsichts- und Dienstleistungsdirektion in Trier gehalten wurden, beleuchten aus unterschiedlichen Perspektiven die Hintergründe der deutschen Verfassungsrechtsgeschichte und bieten eine Bestandsaufnahme über aktuelle Entwicklungen.
Das übergeordnete Ziel dieser Dissertation ist die Untersuchung der aktuellen Geomorphodynamik in den Gullyeinzugsgebieten der Souss-Ebene, Südmarokko. Eine Sonderstellung nehmen besonders in der Taroudant-Region die durch land-levelling Maßnahmen beeinflussten Flächen ein. Anhand von experimentellen Feldmethoden werden verschiedene Prozesse der Bodenerosion aufgenommen und bewertet. Mittels Luftbildmonitoring mit einer Drohne erfolgt eine Analyse des Gullywachstums. Durch eine Zusammenführung der Methodenkombination kann ein Gesamtbild der aktuellen geomorphologischen Prozessdynamik im Souss erstellt werden. Mit Zerfall der Zuckerindustrie Ende des 17. Jahrhunderts setzt im Souss Becken aufgrund der nahezu vollständigen Abholzung der Arganwälder die lineare Bodenerosion ein. Mit der Transformation von traditioneller Landwirtschaft zu modernen Zitrusfrucht- und Gemüseplantagen, beginnt Anfang der 1960er Jahre ein sehr dynamischer Landnutzungswandel. Die Expansion der Anbauflächen, die von Wadi- und Gullysystemen tief zerschnittenen sind, wird durch Planierungsmaßnahmen vorangetrieben. Auf den planierten Flächen entwickeln sich durch die Verdichtung des Bodens, das Entfernen von Vegetationsbedeckung sowie Krustenbildung auf dem schluffig-lehmigen Substrat bei Starkniederschlagsereignissen zumeist erneut Gullys. Die rasche lineare Zerschneidung bedroht weitere Anbauflächen. Eine nachhaltige Entwicklung auf diesen Flächen ist daher fraglich. Durch starke Verschlämmung nach Niederschlägen bilden sich auf den planierten Flächen sehr schnell physikalische Bodenkrusten aus. Ihre Mikromorphologie ist aufgrund der Belastungen mit schwerem Gerät sowie mehrfacher Erosions- und Akkumulationszyklen durch Plattenstruktur und Vesikel geprägt, wodurch die Infiltrationskapazität des Bodens verringert wird. Diese Auswirkungen können durch Messungen mit dem Einringinfiltrometer bestätigt werden. Sie zeigen auf ungestörten Flächen durchschnittlich eine 2,6-fach höhere Infiltrationsrate als auf planierten Flächen. Durch eine Inventarisierung der Bodeneigenschaften und Oberflächencharakteristika kann ihre signifikante Veränderung nach Planierungsmaßnahmen identifiziert werden. So zeigen planierte Flächen hohe Anteile an Bodenverkrustung und wenig Vegetationsbedeckung auf. Ungestörte Flächen sind dagegen weniger verkrustet und stärker mit Vegetation bedeckt. Zudem kann eine Kompaktion der oberen Bodenschicht nachgewiesen werden. Diese Faktoren wirken auf die Oberflächenabflussbildung und den Sedimentabtrag ein. Die Ergebnisse von 122 Niederschlagssimulationen mit einer Kleinberegnungsanlage zeigen einen signifikanten Anstieg der mittleren Oberflächenabflüsse und Sedimentfrachten (1,4-, bzw. 3,5-mal höher) auf planierten im Gegensatz zu ungestörten Testflächen. Mithilfe des Gullymonitorings wird die Entwicklung eines kompletten Gullys durch Starkniederschlagsereignisse auf einer planierten Fläche detektiert. Dabei wird in einem 3,5 ha großen Einzugsgebiet etwa 1080 t Bodenmaterial erodiert. Hier wurde errechnet, dass Gullyerosion für 91 % des gesamten Bodenverlustes im Einzugsgebiet verantwortlich ist. Die Fläche dient nur als Lieferant des Erosionsagens Wasser. Das Verfüllen des ursprünglichen Gullysystems mit Material der umliegenden Hänge führt zu einer Erniedrigung der Geländehöhe von durchschnittlich über 5 cm. Auf ungestörten Flächen wird dagegen nur ein geringes Gullywachstum verzeichnet. Die vorgestellte Methodenkombination lässt eine gezielte Beschreibung der aktuellen Geomorphodynamik in den Einzugsgebieten der Souss-Ebene zu. Durch die land-levelling Maßnahmen wird die Prozessdynamik signifikant erhöht. Eine Verminderung der Vegetationsbedeckung, schnelle Krustenbildung sowie Bodenkompaktion unterstützen hohe Oberflächenabflussbildung und Sedimentabtrag. Durch lineare Konzentration des Abflusses wird rapide Gullyerosion gefördert. Ganze Gullysysteme können sich auf Planierungsflächen durch nur ein einziges Starkniederschlagsereignis ausbilden. Dadurch sind Anbauflächen, Gebäude und Infrastruktur gefährdet.
Sollten Plastikverpackungen verboten werden? Was spricht gegen eine Wahlberechtigung ab 14 Jahren? Wie sollte die EU mit möglichen Auswirkungen des Brexits umgehen? – Auch solche Fragen haben im Klassenrat ihre Berechtigung, denn ihre Diskussion bietet besondere Chancen für demokratische Lernprozesse.
Algorithmen als Richter
(2022)
Die menschliche Entscheidungsgewalt wird durch algorithmische
Entscheidungssysteme herausgefordert. Verfassungsrechtlich besonders
problematisch ist dies in Bereichen, die das staatliche Handeln betreffen.
Eine herausgehobene Stellung nimmt durch den besonderen Schutz der
Art. 92 ff. GG die rechtsprechende Gewalt ein. Lydia Wolff fragt daher danach, welche Antworten das Grundgesetz auf digitale Veränderungen in diesem Bereich bereithält und wie sich ein Eigenwert menschlicher Entscheidungen in der Rechtsprechung angesichts technischen Wandels darstellen lässt.
Das Werk erörtert hierzu einen Beitrag zum verfassungsrechtlichen
Richterbegriff und stellt diesen etablierten Begriff in einen Kontext neuer digitaler Herausforderungen durch algorithmische Konkurrenz.
Ziel der vorliegenden Dissertation war es, in einem gesamtspektralen Porträt als Momentaufnahme darzustellen, welche Themen in den japanischen allgemeinen Tageszeitungen wie strukturiert dargestellt werden und in welcher gestalterischen Form dies geschieht. Anhand einer umfassenden Stichtagssammlung galt es dabei vornehmlich, Antworten auf die Fragen zu finden, ob Unterschiede in der Themenwahl und deren gestalterischer Darstellung auszumachen sind, und welche Grundmuster vorherrschen. Vor allem bezüglich der formalen Gestaltung musste einer Diskussion der bislang nur unzureichend erarbeiteten Grundlagen der japanischen Layout-Theorie gebührender Platz eingeräumt werden. Am Soll-Zustand des Mediums wurde dann im Zuge der genannten Fragestellung mittels einer Kombination von Formstruktur- und Themen- bzw. Themensenquenzanalyse der Stichtagssammlung der Ist-Zustand gemessen. Die Autopsie des Samples ergab große Übereinstimmungen bei der Seitengestaltung. Bezüglich der Themenselektion konnte zudem eine hohe Konveregenz konstatiert werden. Hier kristallisierten sich im Laufe der Betrachtung hauptsächlich zwei Zeitungstypen heraus: als dominierender Typ Erst- bzw. Hauptzeitungen, auflagenstarke nationale und regionale Set- wie Morgenzeitungen, die eine weite Bandbreite von Themen in überwiegend übereinstimmender Sequenz präsentieren, sowie Zweit- bzw. Nebenzeitungen, die nur Teile des Themenspektrums in unterschiedlicher Sequenz vorweisen. Die Analyseergebnisse führen zu dem Schluss, dass im japanischen Zeitungswesen auf breiter Basis ein bisher erfolgreiches Businessmodell kopiert wird und auch im allgegenwärtigen Wettbewerb der regionalen Zeitungen mit den nationalen Blättern nur ansatzweise Abwechslung zu erkennen ist. Die Fortsetzung der traditionellen gestalterischen Form, wie auch die Beibehaltung althergebrachter inhaltlicher Strukturen und thematischer Tendenzen beweisen, dass sich die allgemeinen japanischen Tageszeitungen eindeutig auf die älteren Leser als Zielgruppe konzentrieren und sich so zu einem Seniorenmedium wandeln.
Alt und Jung im Dialog
(2001)
Besonderheiten, die den intergenerationellen Dialog innerhalb wie auch außerhalb von Familien kennzeichnen, wurden in zwei empirischen Studien untersucht. Im Anschluß an eine umfangreiche Übersicht der einschlägigen Forschungsliteratur werden die Studien präsentiert, in denen Zusammenhänge zwischen Merkmalen dyadischer Beziehungskontexte und Aspekten des Dialogs, der in ihnen stattfindet, explorativ analysiert wurden. In der quasi-experimentellen Studie A wurde geprüft, ob Wahrnehmungen und Bewertungen eines fiktiven intergenerationellen Dialogs in Abhängigkeit seines Beziehungskontexts variieren. Jüngere (M = 22 Jahre; n = 164) und ältere Erwachsene (M = 74 Jahre; n = 139) bearbeiteten Textvignetten, in denen ein Dialog zwischen einer älteren Frau und ihrer Tochter oder aber einer professionellen Altenpflegerin wiedergegeben wurde. Die jüngere Protagonistin zeigte dabei entweder ein bevormundendes oder ein aufgabenorientiertes Sprechverhalten. Das Verhalten einer (fiktiven) Tochter wurde als respektvoller und wertschätzender beurteilt als das einer professionellen Altenpflegerin. Dies galt in der Stichprobe der älteren Erwachsenen vor allem für bevormundendes, in der Stichprobe der jüngeren Erwachsenen für aufgabenorientiertes Sprechverhalten. Im Einklang mit bisherigen Studien urteilten ältere Erwachsene generell milder über die Vignetten als jüngere, und bevormundendes Sprechverhalten wurde negativer bewertet als aufgabenorientiertes. Der Funktionsstatus der älteren Protagonistin erwies sich hingegen als irrelevant für Urteile über das an sie gerichtete Sprechverhalten. In der zweiten, explorativ angelegten Fragebogenstudie B wurden Aspekte der inhaltlichen Gestaltung des intergenerationellen Dialogs und deren systematische Zusammenhänge mit Indikatoren der Qualität intrafamilialer Generationenbeziehungen analysiert. In unabhängigen Stichproben von Erwachsenen im mittleren ("Kinder"; M = 45 Jahre, n = 299) und im höheren Lebensalter ("Eltern"; M = 71 Jahre, n = 244) wurde die perzipierte Häufigkeit erfaßt, mit der 15 ausgewählte Themen (z.B. "politische und gesellschaftliche Fragen", "Lebensführung des Kindes") im Gespräch mit einer der beiden Elternpersonen resp. mit dem ältesten Kind zur Sprache kommen. Aufgrund exploratorischer Faktorenanalysen wurden diese Angaben zu den Dimensionen "Narrativer Austausch" und "Regulativer Austausch" aggregiert. In multivariaten Auswertungen erwies sich ein häufiger narrativer Austausch als charakteristisch für "gute" Eltern-Kind-Beziehungen, die durch Zuneigung und hohe erlebte Wertschätzung seitens der anderen Generation gekennzeichnet waren. Ein häufiger regulativer Austausch deutete hingegen - vor allem in Verbindung mit einem reduzierten narrativen Austausch - auf eine eher konflikthafte Eltern-Kind-Beziehung hin.
Die Auswirkungen von Rahmenfehlern in Zensen werden bereits seit vielen Jahren untersucht. Eine Methode, um aktuelle Bevölkerungszahlen zu gewinnen, basiert auf Fortschreibung. Wegen Ungenauigkeiten in der Fortschreibung wurden aber auch andere Modelle entwickelt - die capture-recapture-Modelle. Am 29. August 2006 hat die Bundesregierung beschlossen, dass in Deutschland 2011 ein registergestützter Zensus durchgeführt wird. Der Schwerpunkt dieser Dissertation liegt in der Anwendung des capture-recapture-Modelles im deutschen Zensus 2011. Die Dissertation vergleicht den dual system estimator (DSE) und alternative Schätzer (Verallgemeinerter-Regressionsschätzer, Verhältnis-synthetischer Schätzer, Schätzer basierend auf dem Unit-level Modell) für die Schätzung der Anzahl der tatsächlich vorhandenen Personen. Die empirische Untersuchung der Güte der Schätzer basiert auf Monte Carlo Simulationen synthetischer Populationen des Bundeslandes Saarland.
In the past twenty years considerable research has focused on the distinction between implicit and explicit measures of retention. In implicit memory tests, subjects are asked to perform a task that is apparently not related to a previous study phase, e.g. to produce category exemplars or to complete word stems. Implicit memory is revealed when the previous exposure to stimuli facilitates later performance in the implicit memory task relative to a nonstudied baseline performance. Implicit memory tests are contrasted with explicit memory tests, such as recall or recognition that require an intentional recollection of previous experiences. So far, only few studies on the development of implicit memory have been published. Despite the relative paucity of research with children, findings have been quite consistent: While explicit memory improves with age, no age differences were found in implicit memory tests. In these studies, however, mainly perceptual implicit memory tests have been employed. In recent studies with adults, dissociations have been observed between different implicit tests, especially between perceptual and conceptual ones. To draw conclusions about the developmental invariance of priming from findings using only one single type of test thus seems premature. In the present study, six experiments have been conducted that compared the memory performances of preschoolers and school-aged children using conceptual implicit tests (category production and word association). Conceptual priming effects rely on conceptual knowledge and conceptual processes (e.g., organization, semantic elaboration). Age-related improvements were found in both conceptual tests. This finding is interpreted in the context of a more elaborated knowledge base and enhanced processing abilities of older children. In contrast to the hypothesis that implicit memory is in general age-invariant, the results of this study suggest that at least conceptual implicit memory is influenced by developmental changes.
Falsche Erinnerungen sind eine Gedächtnisillusion und dadurch gekennzeichnet, dass Ereignisse oder Informationen erinnert werden, die gar nicht stattgefunden haben bzw. präsentiert wurden. In der vorliegenden Arbeit wurde in insgesamt fünf Experimenten anhand des Deese/Roediger-McDermott- (DRM) Paradigmas untersucht, ob Vorschulkinder empfänglicher für falsche Erinnerungen sind als ältere Grundschulkinder und junge Erwachsene. Ausgehend von dem Aktivierungs-Monitoring Ansatz wurde darüber hinaus geprüft, inwieweit etwaige alterskorrelierte Veränderungen in falschen Erinnerungen auf Unterschiede in den Fähigkeiten zur Quellenkontrolle und/oder auf Unterschiede in der Wahrscheinlichkeit der Aktivierung der kritischen Wörter zurückgehen. Im ersten Experiment wurden neben einem abschließenden Wiedererkennenstest zwei verschiedene implizite Testverfahren eingesetzt, die nur Aktivierung ohne Quellenkontrolle erfassen. Da sich aus den Ergebnissen von Experiment 1 keine eindeutigen Schlüsse über alterskorrelierte Veränderungen der Aktivierungsstärke ziehen ließen und ein Indikator für die Quellenkontrolle eingesetzt werden sollte, wurden in den folgenden drei Experimenten explizite Testverfahren verwendet (Experiment 2: Freie Reproduktion, Experiment 3A und Experiment 3B: Wiedererkennenstest). Um die Aktivierung der kritischen Items ohne entgegenwirkende Quellenkontrolle zu prüfen, wurden Inklusionsinstruktionen erteilt. Die Quellenkontrolle wurde separat durch Nachbefragungen erfasst. Zur Förderung der Aktivierung bei Kindern, wurden in Experiment 3B und 4 spezielle Lerninstruktionen erteilt, die eine semantisch-relationale (3B) bzw. eine itemspezifische und semantisch-relationale Verarbeitung der Wortlisten verlangten (4). Im letzten Experiment (4) sollte die Quellenkontrolle differenzierter untersucht werden, in dem ein Quellentest eingesetzt wurde, der nach beiden möglichen Quellen fragte. In allen Experimenten zeigte sich eine geringe alterskorrelierte Zunahme der Aktivierung kritischer Items, aber deutliche alterskorrelierte Verbesserungen der Quellenkontrolle. Die Befunde zu falschen Erinnerungen in den verschiedenen Experimenten waren je nach Lern- und Testbedingung unterschiedlich: Die Ergebnisse deuteten sowohl auf eine alterskorrelierte Zunahme als auch auf eine alterskorrelierte Abnahme hin.
Zu den klassischen Verteilungen der mathematischen Statistik zählen die zentralen F- und t-Verteilungen. Die vorliegende Arbeit untersucht Verallgemeinerungen dieser Verteilungen, die sogenannten doppelt nichtzentralen F- und t-Verteilungen, welche in der statistischen Testtheorie von Bedeutung sind. Die Tatsache, dass die zugehörigen Wahrscheinlichkeitsdichten nur in Form von Parameterintegral- bzw. Doppelreihendarstellungen gegeben sind, stellt eine große Herausforderung bei der Untersuchung analytischer Eigenschaften dar. Unter Verwendung von Techniken aus der Theorie der vorzeichenregulären Funktionen gelingt es, die bisher vermutete, jedoch lediglich aus Approximationen abgeleitete, strikt unimodale Gestalt der Dichtefunktion für eine große Klasse doppelt nichtzentraler Verteilungen zu zeigen. Dieses Resultat gestattet die Untersuchung des eindeutig bestimmten Modus als Funktion gewisser Nichtzentralitätsparameter. Hier erweist sich die Theorie der vorzeichenregulären Funktionen als wichtiges Hilfsmittel, um monotone Abhängigkeiten nachzuweisen.
Ziel der hier bereitgestellten Anforderungskataloge ist es, einen Überblick über die Anforderungen zu geben, welche an FDM-Services in den Geisteswissenschaften und in der Psychologie gestellt werden. Dies soll Hochschulen und außeruniversitären Forschungseinrichtungen die Möglichkeit geben, ihre eigenen Servicekataloge um FDM-Services zu erweitern, welche auf die spezifischen Bedarfe der Forschenden in diesen Disziplinen abgestimmt sind. Zudem sollen diese Anforderungskataloge als Vorlage für die Entwicklung weiterer Anforderungskataloge dienen, welche die fachspezifischen FDM-Services in anderen Fachdisziplinen spezifizieren.
Ziel der hier bereitgestellten Anforderungskataloge ist es, einen Überblick über die Anforderungen zu geben, welche an FDM-Services in den Geisteswissenschaften und in der Psychologie gestellt werden. Dies soll Hochschulen und außeruniversitären Forschungseinrichtungen die Möglichkeit geben, ihre eigenen Servicekataloge um FDM-Services zu erweitern, welche auf die spezifischen Bedarfe der Forschenden in diesen Disziplinen abgestimmt sind. Zudem sollen diese Anforderungskataloge als Vorlage für die Entwicklung weiterer Anforderungskataloge dienen, welche die fachspezifischen FDM-Services in anderen Fachdisziplinen spezifizieren.
Was ist Reiseliteratur? Mit diesem vagen und historisch divergenten Begriff befasst sich dieser Artikel. Die literarische Dimension trifft, so die These, auf die historische Ankunft der Figur des Touristen und der Ausformung des Reisens als Massenphänomen im 19. Jahrhundert: ein Begriffswandel vom Reisenden zum Tourist
Psychotherapie hat sich in der Behandlung psychischer Störungen als wirksam erwiesen. Im Rahmen der klinisch-psychologischen Forschung und der Psychotherapieforschung sind die Erforschung von Ursachen und Mechanismen psychischer Störungen sowie die Identifikation von Wirkmechanismen von Psychotherapie von zentraler Bedeutung. Wichtiges Element in der Psychotherapie ist die Sprache, sodass die Betrachtung von Sprache bereits sehr früh Eingang in die Forschung fand. Beschäftigten sich frühe Forschungsarbeiten jedoch hauptsächlich mit der sehr zeitaufwendigen qualitativen Auswertung von Sprache, ermöglichen Entwicklungen im Bereich der Computer neue Ansätze wie beispielsweise die quantitative Sprachanalyse mittels Programmen wie dem Linguistic Inquiry and Word Count (LIWC). Dieses wörterbuchbasierte Auswertungsprogramm fand Anwendung in den unterschiedlichsten Bereichen wie beispielsweise der Erforschung von Motiven, Gruppenprozessen, Sprache in sozialen Netzwerken und ersten subklinischen Untersuchungen psychischer Störungen. Eine systematische Anwendung auf die Sprache von Patienten und Therapeuten im Rahmen vollständiger Therapiesitzung ist bislang jedoch nicht bekannt. Ziel der vorliegenden Arbeit war es deshalb in drei Projekten die Anwendbarkeit des Programmes in der klinisch-psychologischen Forschung und Psychotherapieforschung zu untersuchen. Das erste Projekt beschäftigte sich mit der Psychometrie von mittels LIWC ausgewerteter Sprache und fand, dass die Erkennungsraten des Wörterbuchs für die Sprache in Therapiesitzungen über den in der Literatur für das deutsche LIWC berichteten Erkennungsraten jedoch unter denen der aktuellsten englischen Versionen lag. Außerdem wurde angenommen, dass Sprache sowohl eine zeitlich stabile Komponente im Sinne eines Persönlichkeitsmerkmals als auch eine situative Komponente besitzt. Dies ist insbesondere vor dem Hintergrund relevant in der Psychotherapieforschung sowohl Patientenmerkmale als auch Veränderungen abbilden zu wollen. Die Arbeit ging davon aus, dass insbesondere Funktionsworte, also Worte, die Sprache strukturieren jedoch keine inhaltliche Bedeutung besitzen, eher individuell stabil sind, als Inhaltsworte. Entsprechend konnten für einige Wortkategorien ein Bifaktor-Modell mit einem Personen- sowie einem Zeitfaktor und adäquate Omega-Werte als Maß der Messgenauigkeit gefunden werden, für andere Kategorien zeigte sich dies nicht. Hypothesenkonform zeigten die Modelle bessere Passungen für Funktionsworte. Bezüglich der Frage nach der benötigten Länge von Sprachausschnitten aus Therapiesitzung erwies sich die Verwendung der gesamten Sitzung als beste Lösung. Im zweiten Projekt wurden Unterschiede in der Verwendung von Sprache zwischen depressiven Patienten, Patienten mit Angststörung und solchen mit beiden Störungsbildern untersucht. Es zeigten sich Unterschiede in Bezug auf Worte im Zusammenhang mit Traurigkeit und Worte im Zusammenhang mit Angst. Die Unterschiede zeigten sich derart, dass Depressive vermehrt mit Traurigkeit assoziierte Worte verwendeten, wohingegen Angstpatienten verstärkt Worte aus dem Bereich Angst verwendeten. Dies spricht für eine unterschiedliche inhaltliche Orientierung der beiden Störungsbilder. Darüber hinaus zeigten sich bei dimensionaler Betrachtung negative Zusammenhänge zwischen der Gesamtbelastung und Optimismus, positive Zusammenhänge Depression und Pronomengebrauch sowie negative Zusammenhänge zwischen Angst und unterschiedlichen Kategorien sozialer Worte. Im dritten Projekt wurden unterschiedliche weitere Fragestellungen der Psychotherapieforschung wie beispielsweise die Prädiktion von Therapieerfolgt mittels Sprache oder Zusammenhänge zwischen sprachlicher Synchronizität und der therapeutischen Beziehung untersucht. Es zeigten sich einzelne Zusammenhänge allerdings ergab sich kein einheitliches Muster. Die vorliegende Arbeit kommt zusammenfassend zu dem Schluss, dass quantitative Sprachanalyse eine Bereicherung der Psychotherapieforschung darstellt und Sprache als Datenquelle Berücksichtigung finden sollte. Allerdings bedarf es der Weiterentwicklung des LIWC sowie der Erprobung weiterer Verfahren und eine routinemäßige Erhebung von Sprache wird voraussichtlich erst im Zuge neuerer Entwicklungen im Bereich der automatischen Spracherkennung möglich werden.
Gegenstand der Dissertation ist die Rolle ideologischer Deutungsmuster in der politischen Auseinandersetzung um Arbeitsbeziehungen in Deutschland. Zunächst wird untersucht, inwiefern tendenziöses Entscheidungsverhalten von Richtern an deutschen Landesarbeitsgerichten und politische Einflussnahme auf die Rechtsprechung empirisch zu belegen sind. Mittels rechtsempirischer Analyse kann gezeigt werden, dass systematische Zusammenhänge zwischen persönlichen Merkmalen von LAG-Richtern und ihrem Entscheidungsverhalten bestehen. Während Einflussnahme von Seiten der Politik im Rahmen der verfügbaren Daten nicht nachweisbar ist, spricht die empirische Evidenz mithin dafür, dass neben rechtsimmanenten Kriterien auch individuelle Überzeugungen die Arbeitsrechtsprechung beeinflussen. Der zweite Teil der Dissertation befasst sich mit der Arena der Massenmedien. Anhand einer Inhaltsanalyse, die den Diskurs über Mitbestimmung in drei überregionalen deutschen Tageszeitungen für den Zeitraum von 1998 bis 2007 rekonstruiert, soll die Frage beantwortet werden, inwieweit die deutschen Massenmedien selbst als autonome politische Akteure in der Auseinandersetzung um Mitbestimmung zu betrachten sind. Die Ergebnisse deuten darauf hin, dass für das Agenda-Setting im Untersuchungszeitraum zwar eher generelle Nachrichtenfaktoren maßgeblich waren. Doch sowohl das Standing der verschiedenen Akteursgruppen als auch die Deutungsrahmen und Handlungsempfehlungen weisen zum Teil Differenzen zwischen den untersuchten Zeitungen auf, die nur als Ausdruck unterschiedlicher ideologischer Positionen erklärbar sind. Ob die Betriebswirtschaftslehre ihren eigenen wissenschaftstheoretischen Ansprüchen gerecht wird, ist Gegenstand des dritten Papiers. Mittels multivariater Analyse wird untersucht, inwieweit die Inhalte der marktführenden betriebswirtschaftlichen Zeitschriften in Deutschland von außerwissenschaftlichen Faktoren beeinflusst werden. Wie die Analyse ihrer Auseinandersetzung mit dem Shareholder-Value-Prinzip zeigt, ist die Betriebswirtschaftslehre offenbar nur bedingt in der Lage, dem Wertfreiheitspostulat zu genügen. Wirtschaftswissenschaftliches Denken muss zumindest in Teilen als Ausdruck subjektiver Maßstäbe und soziokultureller Rahmenbedingungen betrachtet werden, wird also von außerwissenschaftlichen Wertungen beeinflusst, die auch durch innerwissenschaftliche Diskussionsprozesse nicht eliminierbar sind.
In einer Fragebogenstudie (N = 694) wurden vollzeitbeschäftigte Arbeitnehmer online oder klassisch schriftlich befragt, welche Verzichte zugunsten der Schaffung neuer Arbeitsplätze in Deutschland sie aus welchen Motiven leisten würden. Die Arbeit geht in Abgrenzung zu dominierenden Rational-Choice-Modellen von einem Motivpluralismus aus, der das Spannungsfeld zwischen Eigeninteresse und Gemeinwohl fokussiert. Die Befunde zeigen, dass beide Motivgruppen unabhängig voneinander zur Prädiktion der Bereitschaften beitragen. Überdies zeigt sich eine systematische Überschätzung des Eigeninteresses für das Handeln anderer. Bei anderen wahrgenommene Motivationen haben nachweislich Einfluss auf die eigenen Handlungsbereitschaften. Eine spezifische Form der Ausbeutung gemeinsinnigen Handelns ist das Trittbrettfahren als Profitieren vom Engagement und Einsatz anderer, ohne selbst etwas beizutragen. Die Untersuchung zeigt, dass phänotypisch eigennütziges Verhalten wie Trittbrettfahren aus dem Motiv resultieren kann, individuelle Ungerechtigkeit gegenüber anderen zu vermeiden oder unsolidarisches Handeln anderer zu bestrafen.
Bauen und Wohnen sind Bereiche, aus denen ganz erhebliche Ressourcenbelastungen erwachsen. Daher sind Optimierungen in diesem Feld von großer gesellschaftlicher Bedeutung. Nach über 25 Jahren des Experimentierens und Forschens stehen genügend ausgereifte, finanzierbare Techniken und Maßnahmen zur Reduktion der Umweltbelastungen durch das Bauen und Wohnen zur Verfügung. Eine breite Umsetzung dieser Techniken und Maßnahmen beim Wohnungsneubau ist demgegenüber nicht auszumachen. Diese Arbeit beschäftigt sich mit der Erklärung dieser Kluft zwischen "Wissen und Handeln", am Beispiel des selbstgenutzten Wohnungsneubaus bei der Akteurgruppe der Architekten. Für die Erklärung dieser Lücke wird ein bereits vorhandenes individualpsychologisches Akteurmodell um Konstrukte aus der Ökonomie, der Planungswissenschaften und der Soziologie erweitert und spezifiziert bzw. für den speziellen Anwendungskontext modifiziert. Mit Hilfe von qualitativen Interviews (N = 25) werden die neuen und die angepassten Variablen und Itemsets auf ihre Verwendbarkeit bzw. Praktikabilität geprüft. Als Interviewpartner dienten Wissenschaftler, Architekten, Bauträger, Entscheider aus der Bauwirtschaft, Bauherren und Planer. Nach Abschluss dieser qualitativen Befragung wird ein Instrument für die quantitative Befragung, ein standardisierter Fragebogen für die Akteurgruppe Architekten, eingesetzt. Es werden 15 Konstrukte operationalisiert, der Fragebogen umfasst 192 Items. Für die Probandenakquise der Architekten stellte die Architektenkammer Rheinland-Pfalz die Adressen aller in der Kammer als Mitglieder eingetragenen Architekten der Regionen Trier, Westpfalz und Koblenz zur Verfügung. Insgesamt wurden 300 Fragebögen versandt und der Rücklauf bestand aus 220 verwertbaren Fragebögen. Die Auswertung der Erhebung erfolgt multivariat mit einer Koppelung von Faktorenanalyse, Korrelationsanalyse und Regressionsanalyse, A-priori werden verschiedene Hypothesen bezüglich der Ausprägung und Wirkungsweise der Variablen bzw. der Struktur des Modells getroffen. Allerdings herrscht keine Sicherheit über diese Beziehungszusammenhänge, dafür sind die eingesetzten Variablen zu unterschiedlich und auch zu zahlreich. Insofern sind sowohl strukturentdeckende, wie auch strukturprüfende Analysen nötig und daher wird ein mehrschrittiges Verfahren gewählt. Die Befunde widersprechen den Annahmen von Rational-Choice-Modellen, die in der Eigennutzorientierung im Sinne eines rationalen Kalküls das dominante oder gar einzige Motiv für umweltschützendes Verhalten erkennen. Bei Einsatz des gesamten erweiterten Modells, stellt sich heraus, dass eine grundsätzliche proökologische Werteinstellung ("Umweltschutz ist besonders wichtig") der stärkste Beweggrund für proökologisches Handeln von Architekten ist. Weitere wichtige Bedingungen sind die "Überlegenheit von Techniken und Maßnahmen" im Vergleich zum üblichen Standard, die "Empörung über zu wenig Umweltschutz", das Erkennen eigener Handlungsspielräume ("eigene Kontrolle") und die "technischen Risiken", die gering sein sollten. Ein ausgeprägter "Ärger über zu viel Umweltschutz" hat einen negativen Wirkungszusammenhang. Insgesamt kann festgestellt werden, dass das Handeln deutlich besser erklärt wird als die Handlungsabsichten. Außerdem ist die Menge der erklärenden Faktoren für das Handeln größer.
Mit der Einführung der Schuldenbremse ist eine wesentliche Entscheidung zur Begrenzung der Staatsschulden getroffen worden. Das wirft die Frage auf, ob und inwieweit auch Art und Umfang sozialstaatlicher Aufgaben verändert werden müssen. Sozialpolitische und finanzpolitische Handlungsmöglichkeiten sind vor dem Hintergrund einer Sozialordnung abzuwägen, die auf soziale Sicherheit, die Herstellung menschenwürdiger Lebensbedingungen und den Ausgleich sozialer Gegensätze ausgerichtet ist.
Die Dissertation untersucht den Anteil der Armutsthematik an der Etablierung des Kinos in Deutschland. Der Untersuchungsschwerpunkt konzentriert sich auf die Jahre 1907 bis 1913, einer entscheidenden Zeitspanne für die Institutionalisierung des Kinos als Medium sui generis. Ziel der Untersuchung ist es, anhand von Filmanalysen wiederkehrende Muster medialer Praktiken der kinematographischen Artikulation der Sozialen Frage zu eruieren und ihre thematische Relevanz bzw. ihren Anteil für die Etablierung des Kinos in Deutschland zu bestimmen. Im Fokus stehen die Medienprodukte, ihre Motivgestaltung und Inszenierungspraktiken.
In der Vorrede zur ersten Auflage von Die Welt als Wille und Vorstellung legt Arthur Schopenhauer dem Leser seines Werkes seine Absicht nahe, welche in der Mitteilung eines „einzigen Gedankens“ besteht. Doch dieser mitzuteilende Gedanke wird an keiner Stelle des Werkes explizit und direkt als solchen von Schopenhauer ausgesprochen und genannt. Dies gibt bis heute in der Schopenhauer-Forschung Anlass zu kontroversen Auseinandersetzungen: Wie lautet Schopenhauers „einziger Gedanke“? Wo befindet er sich konkret? Und ist er überhaupt mitteilbar?
Trotz zahlreicher Forschungsarbeiten zur Thematik des „einzigen Gedankens“ wurde bisher der Einfluss der indischen Philosophie, genauer des Oupnek’hat, vernachlässigt, obwohl genauestens nachgewiesen und nachgezeichnet werden kann, mit welchen Quellen sich Schopenhauer zum Zeitpunkt der Entstehung seiner Philosophie intensiv beschäftigt hat. Auch verweist er selbst immer wieder auf bestimmte Stellen aus dem Oupnek’hat und zitiert Passagen an ganz wesentlichen Stellen in seinem Werk.
Um den „einzigen Gedanken“ im Werk Schopenhauers erfassen zu können, reicht es nicht aus, nur vom Hauptwerk selbst auszugehen, sondern es müssen ebenfalls die Jahre und Schriften während der Entstehung seiner Philosophie bis zum Hauptwerk berücksichtigt werden, und damit verbunden auch die Quellen, die Schopenhauer beeinflusst haben, wozu insbesondere das Oupnek’hat samt seinen eigenen Randnotizen gehört.
Anlässlich der Edition des mhd. 'Geiertraktats' (Stürmer 1978), einer heilkundlichen sog. Drogen-Monographie aus dem 13. Jahrhundert mit langanhaltender volkssprachlicher Überlieferung bis in die frühe Neuzeit, werden in diesem weit ausholenden Besprechungsaufsatz unterschiedliche naturkundliche Traditionen des Mittelalters an den beiden Vögeln Geier (Medizin) und Pelikan (christliche Tierallegorese und Ikonographie) vergleichend dargestellt.
In diesem Band sind einige der Beiträge zusammengefasst, die im Rahmen und in der Folge der chinesisch-deutschen Fachkonferenz zu Aspekten der Studienvorbereitung und Studienbegleitung entstanden sind, die vom 21. bis 22. Mai 2007 mit Unterstützung des Deutschen Akademischen Austauschdienstes (DAAD) am Deutschkolleg - Zentrum zur Studienvorbereitung der Tongji-Universität in Shanghai veranstaltet wurde. Schwerpunkte bilden die Bereiche: Wissenschaftskommunikation, Interkulturelle Kommunikation / Landeskundekonzepte und " als Ausblick " Fachsprache. Der Band enthält Beiträge von: Gutjahr, Jacqueline / Yu, Xuemei (S. 1-4 = Dokument 1); Gutjahr, Jacqueline / Porsche, Sabine / Yu, Xuemei (S. 5-22 = Dokument 2); Bärenfänger, Olaf (S. 23-43 = Dokument 3); Li, Yuan (S. 44-56 = Dokument 4); Yu, Xuemei (S. 57-67 = Dokument 5); Burkhardt, Armin (S. 68-87 = Dokument 6); Dahlhaus, Barbara (S. 88-106 = Dokument 7); Freudenberg-Findeisen, Renate / Schröder, Jörg (S. 107-134 = Dokument 8); Dege, Christopher P. / Timmermann, Waltraud (S. 135-151 = Dokument 9); Brandl, Heike (S. 152-167 = Dokument 10) und Liu, Fang (S. 168-178 = Dokument 11).
Die organische Bodensubstanz (OBS) ist eine fundamentale Steuergröße aller biogeochemischen Prozesse und steht in engem Zusammenhang zu Kohlenstoffkreisläufen und globalem Klima. Die derzeitige Herausforderung der Ökosystemforschung ist die Identifizierung der für die Bodenqualität relevanten Bioindikatoren und deren Erfassung mit Methoden, die eine nachhaltige Nutzung der OBS in großem Maßstab überwachen und damit zu globalen Erderkundungsprogrammen beitragen können. Die fernerkundliche Technik der Vis-NIR Spektroskopie ist eine bewährte Methode für die Beurteilung und das Monitoring von Böden, wobei ihr Potential bezüglich der Erfassung biologischer und mikrobieller Bodenparameter bisher umstritten ist. Das Ziel der vorgestellten Arbeit war die quantitative und qualitative Untersuchung der OBS von Ackeroberböden mit unterschiedlichen Methoden und variierender raumzeitlicher Auflösung sowie die anschließende Bewertung des Potentials non-invasiver, spektroskopischer Methoden zur Erfassung ausgewählter Parameter dieser OBS. Dafür wurde zunächst eine umfassende lokale Datenbank aus chemischen, physikalischen und biologischen Bodenparametern und dazugehörigen Bodenspektren einer sehr heterogenen geologischen Region mit gemäßigten Klima im Südwesten Deutschlands erstellt. Auf dieser Grundlage wurde dann das Potential der Bodenspektroskopie zur Erfassung und Schätzung von Feld- und Geländedaten ausgewählter OBS Parameter untersucht. Zusätzlich wurde das Optimierungspotential der Vorhersagemodelle durch statistische Vorverarbeitung der spektralen Daten getestet. Die Güte der Vorhersagewahrscheinlichkeit gebräuchlicher fernerkundlicher Bodenparameter (OC, N) konnte für im Labor erhobene Hyperspektralmessungen durch statistische Optimierungstechniken wie Variablenselektion und Wavelet-Transformation verbessert werden. Ein zusätzliches Datenset mit mikrobiellen/labilen OBS Parametern und Felddaten wurde untersucht um zu beurteilen, ob Bodenspektren zur Vorhersage genutzt werden können. Hierzu wurden mikrobieller Kohlenstoff (MBC), gelöster organischer Kohlenstoff (DOC), heißwasserlöslicher Kohlenstoff (HWEC), Chlorophyll α (Chl α) und Phospholipid-Fettsäuren (PLFAs) herangezogen. Für MBC und DOC konnte abhängig von Tiefe und Jahreszeit eine mittlere Güte der Vorhersagewahrscheinlichkeit erreicht werden, wobei zwischen hohen und niedrigen Konzentration unterschieden werden konnte. Vorhersagen für OC und PLFAs (Gesamt-PLFA-Gehalt sowie die mikrobiellen Gruppen der Bakterien, Pilze und Algen) waren nicht möglich. Die beste Prognosewahrscheinlichkeit konnte für das Chlorophyll der Grünalgen an der Bodenoberfläche (0-1cm Bodentiefe) erzielt werden, welches durch Korrelation mit MBC vermutlich auch für dessen gute Vorhersagewahrscheinlichkeit verantwortlich war. Schätzungen des Gesamtgehaltes der OBS, abgeleitet durch OC, waren hingegen nicht möglich, was der hohen Dynamik der mikrobiellen OBS Parameter an der Bodenoberfläche zuzuschreiben ist. Das schränkt die Repräsentativität der spektralen Messung der Bodenoberfläche zeitlich ein. Die statistische Optimierungstechnik der Variablenselektion konnte für die Felddaten nur zu einer geringen Verbesserung der Vorhersagemodelle führen. Die Untersuchung zur Herkunft der organischen Bestandteile und ihrer Auswirkungen auf die Quantität und Qualität der OBS konnte die mikrobielle Nekromasse und die Gruppe der Bodenalgen als zwei mögliche weitere signifikante Quellen für die Entstehung und Beständigkeit der OBS identifizieren. Insgesamt wird der mikrobielle Beitrag zur OBS höher als gemeinhin angenommen eingestuft. Der Einfluss mikrobieller Bestandteile konnte für die OBS Menge, speziell in der mineralassoziierten Fraktion der OBS in Ackeroberböden, sowie für die OBS Qualität hinsichtlich der Korrelation von mikrobiellen Kohlenhydraten und OBS Stabilität gezeigt werden. Die genaue Quantifizierung dieser OBS Parameter und ihre Bedeutung für die OBS Dynamik sowie ihre Prognostizierbarkeit mittels spektroskopischer Methoden ist noch nicht vollständig geklärt. Für eine abschließende Beurteilung sind deshalb weitere Studien notwendig.
Spätestens seit dem Start ihrer zweiten Filmserie im Spätsommer 1912 war die dänische Schauspielerin Asta Nielsen ein gefeierter Filmstar. Auch in Prag hatte sich Asta Nielsen zu dieser Zeit mit ihren Langspielfilmen bereits ein beträchtliches Maß an Bekannt- und Beliebtheit "erspielt", welches die örtlichen Kinobetreiber werbestrategisch nutzten. Anhand der Werbeannoncen für die Asta-Nielsen-Filme, welche die Prager Kinobetreiber während der Kinosaisons 1910/1911 und 1911/1912 im Prager Tagblatt schalteten, zeichnet diese Arbeit nach, wie die anfangs unbekannte Schauspielerin Asta Nielsen in Prag allmählich zum Filmstar aufgebaut und etabliert wurde.rnAls Werbeträger rückt der Name der Hauptdarstellerin zunehmend in den Fokus dieser lokalen Kinoannoncen. In den ersten Werbeanzeigen für Filme mit Asta Nielsen in der Hauptrolle wird er nicht oder nur im Kleingedruckten erwähnt. Spätestens seit dem Start ihrer ersten Filmserie in Prag zur Saison 1911/1912 fungiert "Asta Nielsen" durchgehend als fettgedruckter Blickfänger. Ihr Name verdrängt und ersetzt andere, anfangs noch als Sensationen beworbene Attribute der Asta-Nielsen-Filme wie die lange Vorführungsdauer, das alleinige Aufführungsrecht oder den Autor und Regisseur Urban Gad. Die auf den Star zentrierte Werbestrategie gipfelt darin, dass einzelne Voranzeigen gänzlich auf den Filmtitel verzichten. Sie werben nicht mehr in erster Linie für den Film, sondern für den Auftritt des Filmstars. Sie werben für eine Erfolg versprechende Marke - Asta Nielsen.rn
Die Arbeit befasst sich mit der Frage, ob Asta Nielsen auch im ungarischen Pest zum Star avancierte. Um diese Frage zu beantworten, habe ich 34 einschlägige Kinoannoncen in der deutschsprachigen Zeitung Pester Lloyd im Zeitraum September 1913 bis August 1914 recherchiert. Diese Annoncen sind online zugänglich in der Datenbank Importing Asta Nielsen. Die ermittelten Informationen zu Asta Nielsen-Filmen wurden tabellarisch erschlossen. Dieses Material wird unter verschiedenen Fragestellungen untersucht: Welche Filme wurden in diesem Zeitraum gezeigt? Waren diese Teil einer Serie? Wie lange wurden die Filme gespielt? Wie viele Kinos haben Asta Nielsen-Filme gezeigt? Gab es ein Aufführungsmonopol? Wie viel Zeit verging zwischen der Premiere in Berlin und der Erstaufführung in Pest?rnWie wurden die Filme beworben? Außerdem wird auf eine Theatertournee Asta Nielsens eingegangen, welche die Schauspielerin auch nach Pest führte, wo sie im April 1913 jeden Tag live auf der Bühne auftrat.rnrnAus den täglichen Anzeigen im April 1913, die das Live-Gastspiel von Asta Nielsen auf der Bühne eines Varieté-Theaters bewerben, ist zu schließen, dass die Schauspielerin beim Publikum in Pest bereits gut bekannt war. Die Frage, ob Asta Nielsen ein Star in Pest war, lässt sich eindeutig mit ja beantworten. Ihr Name war auch in Pest Programm, auch wenn die Kinoannoncen für die sieben Filme der Asta-Nielsen-Serie 1913/14 im Pester Lloyd den Filmtitel jeweils größer setzen als die Marke Asta Nielsen. Während die Asta-Nielsen-Filme wochenweise verliehen wurden, wechselten die Kinos in Pest zweimal wöchentlich das Programm. An den Kinoannoncen im Pester Lloyd lässt sich ablesen, wie die Kinobetreiber dieses Problem behandelt haben.rnrn
Nach der Premiere ihres Debütfilms ABGRÜNDE wurde die dänische Schauspielerin Asta Nielsen innerhalb nur eines Jahres zu einem internationalen Star. Ihre Karriere wurde von Filmindustriellen befördert. Der Kölner Filmkaufmann und Kinobesitzer Christoph Mülleneisen sen. hatte die innovative Idee, gefragte Schauspielerinnen und Filmkünstler exklusiv auf mehrere Jahre zu verpflichten. Er engagierte Asta Nielsen und Urban Gad für drei Jahre. Ihre Spielfilme wurden als Serien unter dem Markennamen "Asta Nielsen" angeboten. Neue Werbestrategien fokussierten auf den Filmstar: Dies zeigen die 43 Anzeigen für die zweite Asta-Nielsen-Serie, die in der Kinosaison 1912/13 im Prager Tagblatt geschaltet wurden. Die Recherche erfolgte über das Portal AustriaN Newspapers Online (ANNO), dem digitalen Zeitungs- und Zeitschriftenarchiv der Österreichischen Nationalbibliothek. In Prag konkurrierten fünf Kinos um das deutschsprachige Publikum der Stadt. Das Kino Elite hatte sich das Aufführungsmonopol für die zweite Asta Nielsen-Monopolfilm-Serie gesichert. Asta Nielsen ist ein Präzedenzfall für die Etablierung des Starsystems im internationalen Filmvertrieb: .In den genannten 43 Kinoanzeigen dominiert die Marke ASTA NIELSEN andere Werbeelemente wie Filmtitel oder Filmdauer. Die Exklusivität von Verleih und Aufführung ermöglichte eine ertragreiche Symbiose zwischen der Schauspielerin Asta Nielsen, dem Monopolfilmverleiher und den Kinobetreibern.
Die Ménage-Polynome (engl.: ménage hit polynomials) ergeben sich in natürlicher Weise aus den in der Kombinatorik auftretenden Ménage-Zahlen. Eine Verbindung zu einer gewissen Klasse hypergeometrischer Polynome führt auf die Untersuchung spezieller Folgen von Polynomen vom Typ 3-F-1. Unter Verwendung einer Modifikation der komplexen Laplace-Methode zur gleichmäßigen asymptotischen Auswertung von Parameterintegralen sowie einiger Hilfsmittel aus der Potentialtheorie der komplexen Ebene werden starke und schwache Asymptotiken für die in Rede stehenden Polynomfolgen hergeleitet.
„Beim Nachdenken über Perspektiven der Schulentwicklung muss die Vision einer demokratischen Schule, einer lebendigen Schule im demokratischen Staat und das mit ihr verbundene Menschenbild handlungsorientierend werden. Die Schule der Zukunft muss in ihren Gestaltungsprozessen, in ihrem Alltagsleben selbst ein Stück weit gelebte Demokratie sein.“ (Hartmut Wenzel)
Vom 23.-25.9.2009 sind die wichtigsten Entscheidungen für die europäische und internationale Finanzmarktarchitektur seit langem gefallen. Die Europäische Kommission hat Vorschläge für die Bildung eines Europäischen Ausschusses für Systemrisiken (ESRB) und eines Europäischen Systems für die Finanzaufsicht (ESFS) vorgelegt und die G-20-Staaten haben sich in Pittsburgh auf neue internationale Regeln für die Finanzmärkte geeinigt. Der Autor nimmt in seinem Beitrag eine erste kritische Beurteilung dieser Vorschläge vor.
Im Rahmen der vorliegenden Dissertation wurden aus den umfassenden Daten der Umweltprobenbank des Bundes relative Vergleichsstandards abgeleitet, welche als Referenzsystem die allgemeine Belastungssituation und deren zeitliche Entwicklung in der Bundesrepublik widerspiegeln, eine Bewertung von gemessenen Schadstoffkonzentrationen in biologischen Matrizes sowie biometrischer Parameter der eingesetzten Bioindikatoren ermöglichen. Anhand der biometrischen Daten des Brassen und der rückstandsanalytischen Daten der Brassenmuskulatur wurde dieses Referenzsystem für die limnischen Systeme in der Bundesrepublik konzeptioniert und umgesetzt. Es handelt sich um ein Fünf-Klassen-System, bei dem die fünf Referenzbereiche durch vier Referenzwerte voneinander abgegrenzt werden. Die Referenzwerte sind aufgrund der repräsentativen Datenbasis in der Lage, die allgemeine Belastungssituation in der Bundesrepublik abzubilden. Da sie sich nur auf einen zweijährigen Bezugszeitraum beziehen und ständig fortgeschrieben werden, kann die zeitliche Entwicklung der allgemeinen Belastungssituation hervorragend dargestellt werden. Aufgrund ihrer rein naturwissenschaftlichen Basis sind Referenzwerte als Umweltqualitätskriterien zu verstehen. Mit den rückstandsanalytischen Umweltqualitätkriterien kann der stoffbezogene Gewässerzustand anhand von Bioindikatoren qualitativ bewertet werden, was eine deutliche Optimierung im stoffbezogenen Gewässerschutz darstellt. Zudem können die Referenzwerte als eine Basis für die Ableitung von hoheitlichen Umweltqualitätsstandards in Rechtsnormen herangezogen werden. Ergänzt werden die stoffbezogenen Umweltqualitätskriterien durch biometrischen Kenngrößen, die eine qualitative Bewertung der Lebensbedingungen des Bioindikators Brassen erlauben.
Ausgehend von einer Beschreibung der modernen conditio humana fragt diese Arbeit danach, was ein gelingendes Leben heute ausmachen könnte. Zentrale Referenzpunkte sind dabei antike und moderne hedonistische Ethiken, die genealogische Methode im Anschluss an Nietzsche und Foucault, soziobiologische Erkundungen, die Kontroverse um Freiheit und Determiniertheit des Menschen sowie wie die gegenwärtige „Glücksforschung“ und ausgewählte politische Theorien.
Mit vorliegendem Dokument sollen Überlegungen zur Rolle der Ausbildung auf dem grenzüberschreitenden
Arbeitsmarkt angestellt werden. Hierfür werden gleichzeitig die durch die verschiedenen Hefte der Großregion, als auch die bei der am 1. Dezember 2020 organisierten Online-Podiumsdiskussion zum Thema „Mismatches, Kompetenzen, Ausbildung… Welche Passverhältnisse für den grenzüberschreitenden Arbeitsmarkt?“ angeregten Diskussionen herangezogen. Konkreter ausgedrückt beabsichtigt dieser Beitrag, eine Antwort auf folgende Frage zu geben: wie können die Ausbildung und deren unterschiedliche Praxismaßnahmen in den beruflichen Bereichen, aber auch in schulischen und universitären Bereichen dazu beitragen, die Ungleichgewichte abzumildern, die auf dem Arbeitsmarkt der Großregion zu beobachten sind? Insofern liefert das Dokument einige Denkanstöße für die grenzüberschreitende Zusammenarbeit im Ausbildungsbereich.
Die vorliegende Arbeit beschreibt ausgewählte Bereiche des Stadtklimas von Trier. Anhand von langjährigen meteorologischen Messreihen ist eine Bewertung der klimatologischen Gegebenheiten für das Stadtgebiet von Trier möglich. Trenduntersuchungen der Datenreihen des Niederschlags zeigen positive Niederschlagstrends für die meteorologischen Wintermonate. Die Intensität der urbanen Wärmeinsel der Stadt Trier wurde mittels mehrerer Temperaturmessfahrten untersucht und bewertet. Es treten in den Wintermonaten maximale Differenzen von bis zu 5,5 -°C zwischen dem unbebauten Umland und den Innenstadtbereichen auf. Von der erhöhten thermischen Belastung während ausgewählter Wetterlagen sind vor allem die Anwohner der Innenstadtbereiche in den Sommermonaten betroffen. Zusätzlich fand eine Bewertung der thermischen Belastung mittels verschiedener thermischer Indizes statt. Die Auswertungen von Klimaprojektionen für den Untersuchungsraum zeigen eine starke Zunahme der thermischen Belastung ab Mitte des 21. Jahrhunderts. Die Auswirkungen des Sommers 2003 auf die Bevölkerung von Trier wurde anhand von Mortalitätsdaten von JUNK ET AL. (2007) analysiert. Die Kosten des Klimawandels (Temperaturzunahme bis 2100 um 4,5 -°C) in den kommenden 50 Jahren beziffert eine Studie des Deutschen Institutes für Wirtschaftsforschung auf rund 80 Milliarden Euro für Rheinland-Pfalz. Auch wenn diese Abschätzungen mit starken Unsicherheiten behaftet sind, so wird dringender Handlungsbedarf deutlich. Vor dem Hintergrund des Klimawandels und der zunehmenden Urbanisierung muss sich auch im Bereich der Stadtplanung und der Verwaltung von urbanen Agglomerationsräumen das Prinzip der Nachhaltigkeit in allen Skalenbereichen durchsetzen. Übertragen auf den Bereich der Stadtklimatologie heißt das, dass dies auf die Ressourcen saubere Luft, angemessener Flächen- und Energieverbrauch verbunden mit Luft-schadstoffemissionen, Recht auf Mobilität usw. übertragen werden muss. Im Vordergrund steht dabei eine Entkopplung des Ressourcenverbrauchs von dem wirtschaftlichen Wachstum durch technische Innovation, effizientere Technologien und verändertes individuelles Verhalten. Bezüglich der lufthygienischen Situation im Stadtbereich von Trier konnten Partikel und Stickoxide als wichtige Schadstoffe identifiziert werden. Da die Auswertungen der Luftschadstoffe auf die Datensätze des ZIMEN-Messnetzes beschränkt sind, können keine Aussagen über Inhaltsstoffe von Partikeln getroffen werden. Für die untersuchten Luftschadstoffe CO, SO2, NOx, O3 und PM10 treten in den letzten Jahren keine Grenzwertüberschreitungen auf, jedoch liegen die gemessenen Werte nur geringfügig unter diesen und überschreiten teilweise die unteren- und oberen Beurteilungsschwellen. Die Auswertungen des wirkungsbezogenen Luftqualitätsindex DAQx zeigen, dass in der Mehrheit der Fälle Feinstaub der bestimmende Luftschadstoff ist. Die Analyse der mittleren Mortali-tätszahlen zeigt, das bei DAQx-Werten > 4,0 (ausreichende Luftqualität) die Anzahl der täglichen Mortalitätsfälle über den Durchschnitt von 5,74 Fällen pro Tag steigt. Der Klimawandel wird auch direkte Auswirkungen auf die Luftschadstoffbelastung haben. Dies geschieht über die Veränderung der Windverhältnisse, Änderungen in der Höhe der Mischungsschicht sowie Änderungen in der Frequenz und Zugbahn von Tiefdruckgebieten. Veränderte Niederschlagsmuster beeinflussen die nassen und trockenen Depositionsraten, und die prognostizierte Temperaturerhöhung beeinflusst die chemischen Bildungs- und Abbauprozesse in der Atmosphäre, sowie die natürlichen Emissionsquellen. Der Einfluss des zu erwartenden Temperaturanstieges auf die Ozonkonzentrationen in urbanen Gebieten lässt sich gut einschätzen, da während Episoden mit hohen Ozonkonzentrationen eine signifikante Korrelation zwischen der Lufttemperatur und der Ozonkonzentration besteht. Studien zeigen einen Anstieg der Ozonkonzentration zwischen 2 -µg/m-³ und 20 -µg/m-³ pro Grad Kelvin in Abhängigkeit des Emissionsszenarios, der verwendeten Modelle und der untersuchten Region aus. Die urbanen Ballungsräume werden von diesem Ozonanstieg stärker betroffen sein, da dort genügend Ozonvorläufersubstanzen vorhanden sind. Der Einfluss auf die Partikelkonzentrationen ist schwieriger zu beurteilen, da keine klaren Zusammenhänge zwischen der Lufttemperatur und den Partikelkonzentrationen bestehen. Insgesamt ist tendenziell mit einer Stagnation bis hin zu einer kurzzeitigen Verschlechterung der Luftqualität zu rechnen. Deswegen reicht die bereits erwähnte alleinige Berücksichtigung der thermischen Gegebenheiten in einem Warnsystem nicht aus. Es geht vielmehr um die integrative Bewertung der potentiellen Gefahrensituation für die Bevölkerung und die situationsbezogene Auslösung von Interventionsmaßnahmen und Aktionsplänen. Ein solches System wird derzeit für die Modellregion Esch-sur-Alzette in Luxemburg erstellt und wird 2011 in die Pilotphase eintreten.
Sozialunternehmen haben mindestens zwei Ziele: die Erfüllung ihrer sozialen bzw. ökologischen Mission und finanzielle Ziele. Zwischen diesen Zielen können Spannungen entstehen. Wenn sie sich in diesem Spannungsfeld wiederholt zugunsten der finanziellen Ziele entscheiden, kommt es zum Mission Drift. Die Priorisierung der finanziellen Ziele überlagert dabei die soziale Mission. Auch wenn das Phänomen in der Praxis mehrfach beobachtet und in Einzelfallanalysen beschrieben wurde, gibt es bislang wenig Forschung zu Mission Drift. Der Fokus der vorliegenden Arbeit liegt darauf, diese Forschungslücke zu schließen und eigene Erkenntnisse für die Auslöser und Treiber des Mission Drifts von Sozialunternehmen zu ermitteln. Ein Augenmerk liegt auf den verhaltensökonomischen Theorien und der Mixed-Gamble-Logik. Dieser Logik zufolge liegt bei Entscheidungen immer eine Gleichzeitigkeit von Gewinnen und Verlusten vor, sodass Entscheidungsträger die Furcht vor Verlusten gegenüber der Aussicht auf Gewinne abwägen müssen. Das Modell wird genutzt, um eine neue theoretische Betrachtungsweise auf die Abwägung zwischen sozialen und finanziellen Zielen bzw. Mission Drift zu erhalten. Mit einem Conjoint Experiment werden Daten über das Entscheidungsverhalten von Sozialunternehmern generiert. Im Zentrum steht die Abwägung zwischen sozialen und finanziellen Zielen in verschiedenen Szenarien (Krisen- und Wachstumssituationen). Mithilfe einer eigens erstellten Stichprobe von 1.222 Sozialunternehmen aus Deutschland, Österreich und der Schweiz wurden 187 Teilnehmende für die Studie gewonnen. Die Ergebnisse dieser Arbeit zeigen, dass eine Krisensituation Auslöser für Mission Drift von Sozialunternehmen sein kann, weil in diesem Szenario den finanziellen Zielen die größte Bedeutung zugemessen wird. Für eine Wachstumssituation konnten hingegen keine solche Belege gefunden werden. Hinzu kommen weitere Einflussfaktoren, welche die finanzielle Orientierung verstärken können, nämlich die Gründeridentitäten der Sozialunternehmer, eine hohe Innovativität der Unternehmen und bestimmte Stakeholder. Die Arbeit schließt mit einer ausführlichen Diskussion der Ergebnisse. Es werden Empfehlungen gegeben, wie Sozialunternehmen ihren Zielen bestmöglich treu bleiben können. Außerdem werden die Limitationen der Studie und Wege für zukünftige Forschung im Bereich Mission Drift aufgezeigt.
In Mitteleuropa steigt der Anteil befestigter und damit zumeist undurchlässiger Oberflächen durch Flächenerschließung und Urbanisierung stetig. Die Verdichtung und Befestigung natürlicher Oberflächen und das einhergehende Sammeln und Abführen des Niederschlagswassers vergrößert nicht nur den Oberflächenabfluss, sondern reduziert auch die Grundwasserneubildung. Das an Regenwettertagen anfallende Oberflächenwasser von befestigten Flächen wird zwar in den Kanalnetzen gesammelt, kann jedoch nicht vollständig zur Kläranlage abgeführt werden. Das überschüssige Wasser im Kanalsystem wird dann an neuralgischen Punkten dem nächstgelegenen Gewässer zugeleitet. Auf diese Weise gelangt eine große Bandbreite an Substanzen in die Gewässer und beeinflusst den natürlichen Stoffhaushalt. Häufig sind kleine und mesoskalige Gewässersysteme in Ballungsräumen mit einem hohen Versiegelungsgrad betroffen. Neben der schadlosen Ableitung des Ereignisabflusses tritt im Zuge der Umsetzung der Europäischen Wasserrahmenrichtlinie (WRRL, 2000/60/EG) das Ziel des guten ökologischen und chemischen Zustandes des Gewässers in den Vordergrund. Mit Blick auf die Reduktion von angereichertem und vermischtem Niederschlagswasser in den Gewässern ist das Niederschlagswassermanagement das wichtigste Instrument. Die vorliegende Arbeit betrachtet beispielhaft zwei mesoskalige, urban geprägte Gewässer in der Großregion Luxemburg-Trier, die luxemburgische Mess und den deutschen Olewiger Bach. Dabei werden ebenfalls zwei unmittelbar durch Trenn- und Mischwasserkanalisation beeinflusste Teileinzugsgebiete des Olewiger Bachs untersucht. Ziel ist es, die Auswirkungen der urbanen Einleitungen an Regenwettertagen in den verschiedenen Phasen der Hochwasserwelle (Anstieg, Plateau und Rezessionsast) zu analysieren. Ein Schwerpunkt wird dabei auf den Nachweis anthropogener Spurenstoffe sowie wiederkehrende Strukturen im Wellenverlauf gelegt. Die Untersuchung der urban geprägten Bäche erfolgt mit zeitlich hochaufgelösten Einzelstichproben. Im Gegensatz zur gängigen Beprobung mittels volumen-proportionaler Mischproben kann mit diesem Ansatz der Einfluss der anthropogenen Systeme auf Hydro- und Chemographen im Hochwasserereignis analysiert werden. Auch Stoßbelastungen werden besser erfasst und abgebildet. In allen Untersuchungsgebieten werden in jeder Hochwasserwelle anthropogene Spurenstoffe nachgewiesen. Die Konzentrationen variieren sowohl während eines Hochwasserereignisses, als auch im Vergleich zwischen Ereignissen erheblich. Die nachgewiesenen Maximalkonzentrationen in Mess und Olewiger Bach übersteigen die mittleren Gehalte der einzelnen Spurenstoffe um das zwei bis 30-fache. Einige Pestizidgehalte in der Mess überschreiten zudem zeitweise die Grenzwerte der Umweltqualitätsnormen Richtlinie (UQN, 2008/105/EG). Die größten stofflichen Belastungen in Form maximaler Spurenstoffgehalte treten in der Regel bei mäßigen Niederschlagsereignissen in Kombination mit geringem Basisabfluss im Gewässer auf. Die Gesamtfracht hingegen steigt meist mit der Ereignisfülle. Die hydraulischen und stoffrelevanten Auswirkungen an der Schnittstelle von Kanal und Gewässer lassen sich in vielen urban geprägten Bächen wiederfinden. Diese Einleitungen an Regenwettertagen sind bedeutsam für die Komplexität des Abflussverhaltens sowie die Chemodynamik der betroffenen Vorfluter. Die Ergebnisse zeigen, dass es zukünftig mit Blick auf ein erfolgreiches Einzugsgebietsmanagement notwendig ist, die Niederschlagswasserbewirtschaftung in die Maßnahmenplanung einzubeziehen. Bei urbanen Gewässern muss darauf geachtet werden, dass die Maßnahmen zur Verbesserung des chemischen und ökologischen Zustandes nach der WRRL nicht im Konflikt mit der schadlosen Ableitung des Niederschlagswassers stehen. Vor allem hinsichtlich der stofflichen Dynamik, welche in der Regel mittels volumenproportionaler Mischproben untersucht wird, besteht weiterer Forschungsbedarf.
Seit seiner Unabhängigkeit erfreut sich Namibia als Reiseziel weltweit wachsender Beliebtheit, wodurch der Tourismus wirtschaftlich einen hohen Stellenwert hat. Zugleich lebt ein Großteil der Bevölkerung in Armut und ist zumeist noch immer von der Landwirtschaft abhängig. Diese dominiert flächenmäßig, zur Wertschöpfung und zur Entwicklung des Landes vermag sie allerdings nur wenig beizutragen. Kam im ariden Namibia ehemals nur Ranching als Landnutzung in Frage, sehen sich Landbesitzer wegen verschlechterter Rahmenbedingungen heute gezwungen, weitere Einkommensquellen zu erschließen. Naturtourismus ist eine der Alternativen. Ausgerechnet die wirtschaftlichen Schwächen der ländlichen Regionen mit naturnahen Landschaften, geringer anthropogener Überformung und der Abwesenheit von Industrie ermöglichen einzigartige Naturerlebnisse und stellen damit die Grundlage für Naturtourismus dar. Im Fokus der vorliegenden Studie stehen daher die Landnutzungen Ranching und Naturtourismus, die beide auf dem natürlichen Potenzial des Landes basieren und zugleich räumlich um die gleichen Flächen konkurrieren. Ziel ist die Bewertung der Auswirkungen beider Landnutzungen im Vergleich, um somit die für einen Raum am besten geeignete Nutzungsoption zu identifizieren und Verbesserungspotentiale bei der Ausgestaltung der untersuchten Landnutzungen aufzuzeigen. Die Erkenntnisse aus der einschlägigen Fachliteratur legen die Hypothese nahe, dass Naturtourismus im Vergleich zum Ranching die besser geeignete Landnutzung darstellt. Den theoretischen Rahmen zur Identifizierung der besser geeigneten Landnutzung bildet das Nachhaltigkeitskonstrukt, das wie jedes andere Theorem nicht unmittelbar mess- oder beobachtbar, sondern nur indirekt mit Hilfe von Indikatoren operationalisierbar ist. Die Mehrzahl der 34 insgesamt verwendeten Indikatoren entstammt dem Set der Vereinten Nationen. Alle verwendeten Indikatoren fanden Anwendung in einer für diese Arbeit auf Unternehmensebene adaptierten Version. Um den physischen wie humangeographischen Besonderheiten Namibias (Verfügbarkeit von Wasser, Namibia als Entwicklungsland etc.) gerecht zu werden, wurden zusätzliche Indikatoren für den regionalen Kontext der Studie konzipiert. Entsprechend dem Erkenntnisinteresse, unter Nachhaltigkeitsaspekten die am besten geeignete Landnutzung zu identifizieren, wurden anhand eines umfangreichen methodischen Kanons die empirischen Untersuchungen durchgeführt. Ausgangspunkt hierfür waren Erhebungen in Namibia, die in der Etosha-Region unmittelbar südlich der Kommunalgebiete stattfanden. Methodisch kamen dafür vorrangig quantitative Methoden zum Einsatz, wobei standardisierte Fragebögen als primäre Erhebungsinstrumente konzipiert wurden. Diese wurden von Expertengesprächen, Beobachtungen, Kartierungen und Sekundärdatenanalysen flankiert. Die Erkenntnisse aus den Erhebungen erlauben Aussagen für weite Gebiete Namibias mit vergleichbaren Bedingungen. So bestehen - entsprechend der Forschungshypothese - eindeutige Vorteile des Naturtourismus gegenüber dem Ranching hinsichtlich der betrachteten Landnutzungsauswirkungen, womit der Naturtourismus unter Nachhaltigkeitsaspekten die besser geeignete Landnutzung ist. Vor allem im Bereich der Sozialindikatoren überzeugen die Auswirkungen: Soziale Sicherheit, Wohnbedingungen (Elektrizität, Sanitäreinrichtungen, Wasserversorgung etc.), sozio-ökonomische Aufstiegschancen und die Mitarbeiterzufriedenheit sind zugunsten des Naturtourismus zu werten. Auch im Ökonomischen liegen die Vorteile bei dieser Landnutzung, wobei ein Aspekt negativ auffällt: Vor allem in puncto Regionalökonomie besteht im Tourismus Verbesserungsbedarf. Denn sowohl die Angestelltenrekrutierung als auch die Versorgung mit Waren und Dienstleistungen erfolgt mehrheitlich überregional. Dahingehend sind die Auswirkungen des Ranching als vorteilhafter anzusehen. Wie die Erhebungen ferner belegen, nimmt die Bedeutung des ausschließlichen Ranching aufgrund von Rentabilitätsproblemen auf kommerziellem Farmland sukzessive ab, stattdessen weisen Ländereien zumeist mehr als nur ein wirtschaftliches Standbein auf. Daher ist hinsichtlich der Landreform zu kritisieren, dass Neufarmer - wenn überhaupt - nur auf das Ranching vorbereitet werden. Wie die Erhebungen zeigen: eine wenig zeitgemäße Landnutzungsstrategie. Ein im Rahmen der Arbeit entwickeltes und ihr beiliegendes Farmrentabilitätstool verdeutlicht auf Basis einer Vielzahl vom Nutzer veränderlicher Einstellungen, wie schwierig die rentable Bewirtschaftung von Ranches heute ist.