Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (490)
- Wissenschaftlicher Artikel (93)
- Buch (Monographie) (92)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (55)
- Arbeitspapier (37)
- Teil eines Buches (Kapitel) (21)
- Ausgabe (Heft) zu einer Zeitschrift (11)
- Rezension (10)
- Sonstiges (9)
- Masterarbeit (7)
- Konferenzveröffentlichung (5)
- Bericht (3)
- Bachelorarbeit (2)
- Lehrmaterial (2)
- Habilitation (2)
- Vorlesung (2)
- Retrodigitalisat (2)
- Examensarbeit (1)
Sprache
- Deutsch (844) (entfernen)
Schlagworte
- Deutschland (49)
- Luxemburg (28)
- Geschichte (23)
- Film (19)
- Schule (18)
- Juden (15)
- Politischer Unterricht (15)
- Demokratie (14)
- Schüler (14)
- Tourismus (14)
Institut
- Psychologie (118)
- Raum- und Umweltwissenschaften (108)
- Politikwissenschaft (76)
- Universitätsbibliothek (75)
- Rechtswissenschaft (55)
- Medienwissenschaft (53)
- Geschichte, mittlere und neuere (44)
- Wirtschaftswissenschaften (36)
- Fachbereich 3 (32)
- Germanistik (27)
Fälle von Kindesmisshandlung schrecken immer wieder die Öffentlichkeit wach und haben den Ruf nach einem früheren Tätigwerden des Staates immer lauter werden lassen. Der Beitrag geht der Frage nach, ab wann und mit welchen Mitteln sich der Staat im Interesse des Kindesschutzes in die Familie hineinbewegen kann und darf. Damit soll ein kleiner Beitrag zur Schnittstelle zwischen Elternprimat und staatlicher Verantwortung für den Kindesschutz auf den zwei Ebenen Kinder- und Jugendhilfe einerseits sowie Familiengericht andererseits geleistet werden.
Der Beitrag skizziert rechtsstaatliche Entwicklungen unter besonderer Berücksichtigung der aktuellen terroristischen Bedrohungslage und der ihr folgenden Reaktionen der deutschen Sicherheitsgesetzgebung. Dabei zeigt der Beitrag grob auf, was heutzutage unter dem Begriff "Rechtsstaat" verstanden wird und wie sich die Prinzipien "Sicherheit" und "Freiheit" innerhalb eines modernen Rechtsstaatsverständnisses bedingen. Die Darstellung beschreibt darauf hin die aktuelle terroristische Bedrohungslage, die als ein diffuses und unbestimmtes Risiko empfunden werden kann und die aufgrund der Bedrohungslage, den komplexen Netzwerkstrukturen, dem Schadensausmaß und schließlich ihrer abschreckungsresistenten und anonymen Akteure mit einem technischen oder natürlichen Großrisiko verglichen werden kann, auf das alleine mit einem effektiven Risikomanagement präventiv reagiert werden kann. Dass dieser Präventionsgedanke bereits in aktuellen Sicherheitsgesetzen vorhanden ist, wird anhand einigen legislativen und judikativen Akten deutlich gemacht und einer kritischen Würdigung unterzogen. Insbesondere Vorhaben wie die Vorratsdatenspeicherung oder das 2009 in Kraft getretene Gesetz zur Verfolgung der Vorbereitung von schweren staatsgefährdenden Gewalttatenrn(GVVG) sind Indikatoren für eine zunehmend präventiv und risikosteuernd agierende deutsche Sicherheitsarchitektur. Außerdem sind die präventiv ausgerichteten Sicherheitsbehörden zunehmend auf die heimliche Sammlung von Informationen angewiesen. Der Beitrag warnt davor, dass damit das gesamte Sicherheitsrecht auf eine einzige Extremsituation ausgerichtet wird und somit den "Ausnahmezustand" zu einem normalen Sicherheitsrisiko reduziert.
Die erst vor einigen Jahren als System zur Qualitätssicherung eingeführte Akkreditierung von Studiengängen steht aktuell auf dem Prüfstand des Bundesverfassungsgerichts. Wegen Zweifeln an der Verfassungsmäßigkeit derrnAkkreditierungspflicht in Nordrhein-Westfalen hat das Verwaltungsgericht Arnsberg ein Klageverfahren ausgesetzt und den Fall dem Bundesverfassungsgericht vorgelegt, das nun über die Vereinbarkeit der Vorschriften mit dem Grundgesetz zu entscheiden hat. Welchen verfassungsrechtlichen Bedenken begegnet das deutsche Akkreditierungssystem im Einzelnen? Welche Erfolgsaussichten hat die Vorlage an das Bundesverfassungsgericht? Welche Konsequenzen hätte es für das gesamtdeutschernAkkreditierungswesen, wenn das Bundesverfassungsgericht die Akkreditierungspflicht für verfassungswidrig erklärt? Diesen und anderen Fragen widmet sich der vorliegende Beitrag.
Die vorliegende Arbeit beschreibt ausgewählte Bereiche des Stadtklimas von Trier. Anhand von langjährigen meteorologischen Messreihen ist eine Bewertung der klimatologischen Gegebenheiten für das Stadtgebiet von Trier möglich. Trenduntersuchungen der Datenreihen des Niederschlags zeigen positive Niederschlagstrends für die meteorologischen Wintermonate. Die Intensität der urbanen Wärmeinsel der Stadt Trier wurde mittels mehrerer Temperaturmessfahrten untersucht und bewertet. Es treten in den Wintermonaten maximale Differenzen von bis zu 5,5 -°C zwischen dem unbebauten Umland und den Innenstadtbereichen auf. Von der erhöhten thermischen Belastung während ausgewählter Wetterlagen sind vor allem die Anwohner der Innenstadtbereiche in den Sommermonaten betroffen. Zusätzlich fand eine Bewertung der thermischen Belastung mittels verschiedener thermischer Indizes statt. Die Auswertungen von Klimaprojektionen für den Untersuchungsraum zeigen eine starke Zunahme der thermischen Belastung ab Mitte des 21. Jahrhunderts. Die Auswirkungen des Sommers 2003 auf die Bevölkerung von Trier wurde anhand von Mortalitätsdaten von JUNK ET AL. (2007) analysiert. Die Kosten des Klimawandels (Temperaturzunahme bis 2100 um 4,5 -°C) in den kommenden 50 Jahren beziffert eine Studie des Deutschen Institutes für Wirtschaftsforschung auf rund 80 Milliarden Euro für Rheinland-Pfalz. Auch wenn diese Abschätzungen mit starken Unsicherheiten behaftet sind, so wird dringender Handlungsbedarf deutlich. Vor dem Hintergrund des Klimawandels und der zunehmenden Urbanisierung muss sich auch im Bereich der Stadtplanung und der Verwaltung von urbanen Agglomerationsräumen das Prinzip der Nachhaltigkeit in allen Skalenbereichen durchsetzen. Übertragen auf den Bereich der Stadtklimatologie heißt das, dass dies auf die Ressourcen saubere Luft, angemessener Flächen- und Energieverbrauch verbunden mit Luft-schadstoffemissionen, Recht auf Mobilität usw. übertragen werden muss. Im Vordergrund steht dabei eine Entkopplung des Ressourcenverbrauchs von dem wirtschaftlichen Wachstum durch technische Innovation, effizientere Technologien und verändertes individuelles Verhalten. Bezüglich der lufthygienischen Situation im Stadtbereich von Trier konnten Partikel und Stickoxide als wichtige Schadstoffe identifiziert werden. Da die Auswertungen der Luftschadstoffe auf die Datensätze des ZIMEN-Messnetzes beschränkt sind, können keine Aussagen über Inhaltsstoffe von Partikeln getroffen werden. Für die untersuchten Luftschadstoffe CO, SO2, NOx, O3 und PM10 treten in den letzten Jahren keine Grenzwertüberschreitungen auf, jedoch liegen die gemessenen Werte nur geringfügig unter diesen und überschreiten teilweise die unteren- und oberen Beurteilungsschwellen. Die Auswertungen des wirkungsbezogenen Luftqualitätsindex DAQx zeigen, dass in der Mehrheit der Fälle Feinstaub der bestimmende Luftschadstoff ist. Die Analyse der mittleren Mortali-tätszahlen zeigt, das bei DAQx-Werten > 4,0 (ausreichende Luftqualität) die Anzahl der täglichen Mortalitätsfälle über den Durchschnitt von 5,74 Fällen pro Tag steigt. Der Klimawandel wird auch direkte Auswirkungen auf die Luftschadstoffbelastung haben. Dies geschieht über die Veränderung der Windverhältnisse, Änderungen in der Höhe der Mischungsschicht sowie Änderungen in der Frequenz und Zugbahn von Tiefdruckgebieten. Veränderte Niederschlagsmuster beeinflussen die nassen und trockenen Depositionsraten, und die prognostizierte Temperaturerhöhung beeinflusst die chemischen Bildungs- und Abbauprozesse in der Atmosphäre, sowie die natürlichen Emissionsquellen. Der Einfluss des zu erwartenden Temperaturanstieges auf die Ozonkonzentrationen in urbanen Gebieten lässt sich gut einschätzen, da während Episoden mit hohen Ozonkonzentrationen eine signifikante Korrelation zwischen der Lufttemperatur und der Ozonkonzentration besteht. Studien zeigen einen Anstieg der Ozonkonzentration zwischen 2 -µg/m-³ und 20 -µg/m-³ pro Grad Kelvin in Abhängigkeit des Emissionsszenarios, der verwendeten Modelle und der untersuchten Region aus. Die urbanen Ballungsräume werden von diesem Ozonanstieg stärker betroffen sein, da dort genügend Ozonvorläufersubstanzen vorhanden sind. Der Einfluss auf die Partikelkonzentrationen ist schwieriger zu beurteilen, da keine klaren Zusammenhänge zwischen der Lufttemperatur und den Partikelkonzentrationen bestehen. Insgesamt ist tendenziell mit einer Stagnation bis hin zu einer kurzzeitigen Verschlechterung der Luftqualität zu rechnen. Deswegen reicht die bereits erwähnte alleinige Berücksichtigung der thermischen Gegebenheiten in einem Warnsystem nicht aus. Es geht vielmehr um die integrative Bewertung der potentiellen Gefahrensituation für die Bevölkerung und die situationsbezogene Auslösung von Interventionsmaßnahmen und Aktionsplänen. Ein solches System wird derzeit für die Modellregion Esch-sur-Alzette in Luxemburg erstellt und wird 2011 in die Pilotphase eintreten.
Die Europäische Union hat seit Ende des Ost-West-Konflikts 1989/90 einen dynamischen Ausbau ihrer vertraglichen und institutionellen Fundamente erfahren. Mit diesem Prozess ging zugleich eine enge Verflechtung von europäischen und nationalen Entscheidungsprozessen und politischen Arenen einher. So entwickelte sich ein zunehmend dynamischer werdendes Interaktionsverhältnis zwischen Europäischer Union, nationaler Europapolitik und Innenpolitik. Ausgehend von der These, dass die deutsche Europapolitik seit der Zäsur 1989/90 zunehmend pragmatischer, kontroverser und somit normaler geworden ist, untersucht die Arbeit diese Veränderung der deutschen Europapolitik am Beispiel zweier qualitativer Fallstudien: 1.Die Verhandlungen zum dritten mehrjährigen Finanzrahmen für die Jahre 2000 bis 2006, die sogenannte Agenda 2000. Für Deutschland als größtem Beitragszahler in der EU waren die Finanzverhandlungen von immenser Bedeutung. Denn mit der finanziellen Ausstattung der beiden größten Ausgabenblöcken, der europäischen Kohäsionspolitik und der Gemeinsamen Agrarpolitik, waren zentrale Grundsatzfragen der deutschen Europapolitik und der Rolle Deutschlands in der EU verbunden, wie zum Beispiel das bilaterale Verhältnis zum französischen Partner. 2.Der Prozess der Osterweiterung der Europäischen Union seit dem Ende des Ost-West-Gegensatzes 1989/90 von der Assoziierung der Reformstaaten in Mittel- und Osteuropa bis zum Beitritt der acht neuen Mitglieder am 1. Mai 2004. Die Ost-Erweiterung der EU war eine der wichtigsten Grundsatzentscheidungen der deutschen Europapolitik. Dieser fast 15 Jahre dauernde Prozess von 1989 bis 2004 wird in einer minuziösen Längsschnitt-Analyse nachgezeichnet und die spezifischen Interessen der zentralen politischen und gesellschaftlichen Akteure der deutschen Politik detailliert analysiert.Beide Entscheidungsprozesse beeinflussten nahezu alle Politikfelder und hatten weitreichende Konsequenzen für die innen-, wirtschafts- und sozialpolitischen Strukturen der Bundesrepublik. Damit erforderten sie sowohl eine grundsätzliche und strategische Positionierungen der deutschen Europapolitik als auch kurzfristige, auf rationalen Kosten-Nutzen-Abwägungen basierende Festlegungen zu konkreten Einzelfragen im Verlauf der Entscheidungsprozesse. Die beiden umfangreichen Fallstudien bestätigen, dass die wechselseitige Interaktion zwischen innenpolitischen Auseinandersetzungen und europäischen Entscheidungsprozessen sich verdichtet hat. Europäische Entscheidungsprozesse werden für innenpolitische Auseinandersetzungen und Debatten genutzt und häufig auch parteipolitisch polarisiert. Die Europapolitik wird zu einem Feld pragmatischer Kosten-Nutzen-Abwägungen aus begrenzten innenpolitischen oder gar parteitaktischen Kalkülen. Die Europapolitik wird unter innenpolitischen Vorzeichen politisiert und polarisiert.
Japanische Touristen in Deutschland : Analyse der Wahrnehmung der Destination Deutschland und der Kundenansprüche im interkulturellen Kontext. Auf der Angebotsseite steht die noch mittelständisch geprägte deutsche Hotellerie, mit der Tendenz einer zunehmenden Konzentration zur Groß- und Kettenhotellerie. Der japanische Kunde auf der Nachfragerseite wird aufgrund seiner kulturellen, sozialen, politischen und geschichtlichen Umgebung analysiert. Er bewegt sich in einer vorwiegend kollektivistisch und stark kontextorientierten, durch dichte Informationsnetze geprägten, maskulinen Gesellschaft. Beeinflusst durch die Lehre von Konfuzius bilden heute noch mora-lisches Handeln, Rechtschaffenheit, Höflichkeit, die Beachtung hierarchischer Beziehungen und Harmonie Handlungsgrundlage des gesellschaftlichen Lebens. Daneben hat Japan, als entwickeltes Industrieland, mit denselben Problemen wie westliche Industrienationen zu kämpfen, wie Überalterung, Wertewandel und konjunkturelle Auf- und Abschwünge. Der japanische Kunde stellt hohe Ansprüche an die Qualität des angebotenen Produktes und an den Service. Während die Hardware, z.B. die Qualität der Hotelzimmer in Deutschland positiv beurteilt wird, wird die Servicequalität hier oft als unzureichend empfunden. Dabei setzt der japanische Kunde, der an dichte Informationsnetze gewöhnt ist, viele Dinge als selbstverständlich voraus. Der Deutsche, der über diese Informationen nicht verfügt und sich stur an das Vereinbarte hält, wird als unhöflich empfunden. Als Einkaufsdestination hat Deutschland aufgrund fehlender Marken kaum Bedeutung. Japaner sind leidenschaftliche und experimentierfreudige Esser, die oft in Deutschland aufgrund der mangelnden Beachtung und Vermarktung lokaler Spezialitäten zu kurz kommen. Mittels der Methode Importance Grid konnten abgefragte Attribute in Basis-, Leistungs- und Begeisterungsfaktoren eingeteilt werden. Grundlegend und Ausschlusskriterium für einen Reiseantritt sind die öffentliche Sicherheit, die der Japaner nicht nur auf die Kriminalität sondern auch auf Lebensmittelsicherheit und Gesundheitswesen bezieht. Sehenswürdigkeiten sind wichtige Leistungsfaktoren. Das Hotelangebot, als Begeisterungsfaktor hat einen enormen Einfluss und damit großes Entwicklungspotential auf die Reisezufriedenheit. Begeisterung lösen weiterhin individuelle Begegnungen, eine originale und stimmige Atmo-sphäre und lokale Besonderheiten, aus. Der hoch kontextorientierte Japaner nimmt die Reise als Gesamterlebnis wahr und gibt seine Erinnerungen gern über Mund zu Mund Propaganda weiter. Folgereisen können sich wie ein Schneeballsystem entwickeln. Als Trends sind die zunehmende Bedeutung von Seniorenreisen, Hube-and-Spoke Reisen, Skeleton-Touren, der Furosato Trend und Honeymoonreisen zu nennen.
Der Schritt vom Stumm- zum Tonfilm in den späten 1920er Jahren wird meist mit einem singulären, vermeintlich ausschlaggebenden Ereignis assoziiert, nämlich der Premiere von Alan Croslands Film THE JAZZ SINGER am 6. Oktober 1927 in New York. Dieser Film wird in zahlreichen wissenschaftlichen Abhandlungen zum Übergang vom Stumm- zum Tonfilm als entscheidender Faktor beschrieben, welcher dem Tonfilm schlagartig und endgültig durch seinen enormen wirtschaftlichen Erfolg zum Durchbruch verhalf. Ferner soll dieser Erfolg auch die seinerzeit vermeintlich kurz vor dem Bankrott stehende Produktionsfirma Warner Bros. vor dem Ruin bewahrt haben. Diese Arbeit behandelt neben dem Mythos über die vermeintlich überwältigenden Auswirkungen von THE JAZZ SINGER hinaus noch weitere filmhistorische Legenden um den Film sowie seine tatsächliche Rolle innerhalb der ökonomischen Aktivitäten der Firma Warner Bros. Zu diesem Zweck wird die filmwissenschaftliche Kontroverse zwischen den zwei amerikanischen Autoren Douglas Gomery und Donald Crafton um die legendäre (und deshalb zweifelhafte) Bedeutung von THE JAZZ SINGER für den Wandel vom Stumm- zum Tonfilm untersucht - eine Darstellung eines wichtigen Diskurses, welche in deutscher Sprache bislang ausblieb.
Das erste Beispiel einer so genannten universellen holomorphen Funktion stammt von Birkhoff, welcher im Jahre 1929 die Existenz einer ganzen Funktion beweisen konnte, die gewissermaßen jede ganze Funktion durch geeignete Translationen approximieren kann. In der Folgezeit hat sich der Bereich der "universellen Approximation" zu einem eigenständigen Gebiet innerhalb der komplexen Approximationstheorie entwickelt, und es gibt eine Vielzahl an Ergebnissen über universelle Funktionen. Hierbei wurde sich allerdings fast ausschließlich auf das Studium holomorpher und ganzer Funktionen beschränkt, insbesondere die Klasse der meromorphen Funktionen wurde bisher kaum auf das Phänomen der Universalität hin untersucht. Die vorliegende Arbeit beschäftigt sich mit universeller meromorpher Approximation, und geht der Fragestellung nach, ob meromorphe Funktionen mit gewissen Universalitätseigenschaften existieren, und ob die klassischen Ergebnisse aus der universellen holomorphen Approximation auf den meromorphen Fall erweiterbar sind. Hierbei wird zunächst zwischen Translations- und Streckungsuniversalität unterschieden und bewiesen, dass in beiden Fällen jeweils eine im Raum der meromorphen Funktionen residuale Menge an universellen Funktionen existiert. Weiterhin werden die Eigenschaften dieser Funktionen ausführlich studiert. Anschließend werden meromorphe Funktionen auf Ableitungsuniversalität hin untersucht. Hierbei wird einerseits gezeigt, dass im Allgemeinen keine positiven Ergebnisse möglich sind, während andererseits eine spezielle Klasse meromorpher Funktionen betrachtet wird, für welche universelles Verhalten der sukzessiven Ableitungen nachgewiesen werden kann.
Aus dem Wunsch, die zentralen Prozesse im System Boden"Pflanze"Atmosphäre einschließlich der Auswirkungen verschiedener Bewirtschaftungspraktiken zu verstehen und nachzubilden, resultiert die Entwicklung verschiedener Pflanzenwachstumsmodelle. Ziel der vorliegenden Untersuchung ist zum einen, die im Realsystem auftretenden räumlichen Ertragsmuster zu identifizieren und zu charakterisieren. Mithilfe der Semivariogramm-Analyse ist eine räumliche Autokorrelation der Ertragsdaten von maximal 48 Meter abzuleiten. Die räumliche Analyse (GIS) zeigt, dass die Sommergerste ein leicht abweichendes Verhalten im Vergleich zu den Winterkulturen (Winterweizen, Winterraps) aufweist. Schließlich werden mithilfe der selbstorganisierenden Merkmalskarten die primär und sekundär für das Ertragsverhalten verantwortlichen Ursachen identifiziert. Eine abschließende hierarchische Clusteranalyse gliedert die in die Untersuchung eingehenden Standorte in vier spezifische Cluster mit charakteristischen Eigenschaften. Ein zweites Ziel ist die Klärung der Frage, ob die Pflanzenwachstumsmodelle STICS und DAISY bei entsprechender Parametrisierung in der Lage sind, das für ein detektiertes Muster charakteristische Verhalten von Pflanzenwachstum und Ertrag realitätsnah abzubilden. Den Modellanwendungen gehen eine Sensitivitätsanalyse und verschiedene Parametrisierungsansätze zur Erfassung des jeweiligen Modellverhaltens voraus. In beiden Modellen übt der Bodenwasserhaushalt einen starken Einfluss auf die Ertragsbildung aus. Des weiteren kommt in beiden Modellen den Stressfaktoren eine zentrale Bedeutung zu. Die Parametrisierung der Modelle auf der Grundlage der im Feld erhobenen Daten führt bei beiden Modellen nicht zu einem dem Realsystem entsprechenden Bild. Eine über die Sensitivitätsanalyse hinausreichende, vertiefte Modellkenntnis ist erforderlich, um die in die Modelle eingehenden Parameter bzw. deren spezifischen Einfluss auf das Modellverhalten beurteilen und interpretieren zu können. Dies betrifft insbesondere die Modellgrößen der Bodenmodule. Dieser Aspekt erschwert eine einfache räumliche Übertragung der Modelle STICS und DAISY.
Die Zielsetzung der vorliegenden Arbeit war die raumdifferenzierte und skalenübergreifende Untersuchung der Hochwasserentstehungsprozesse im Frankelbach-Einzugsgebiet, das ein Beispiel eines land- und forstwirtschaftlich genutzten Kleineinzugsgebiets in Mittelgebirgen der gemäßigten Breiten ist. Eine Kernaufgabe war die Quantifizierung der Beiträge einzelner Abflusskomponenten während des Scheiteldurchflusses eines Hochwassers. Zudem sollten Zusammenhänge zwischen der Bodenfeuchtedynamik und der Abflussreaktion herausgearbeitet werden. Zur Bodenfeuchtemessung wurde ein neu entwickeltes Spatial-TDR-Messsystem eingesetzt. Im Rahmen dieses pilothaften Einsatzes war zudem die Tauglichkeit des Messsystems zu überprüfen und zu bewerten. Das im Rotliegenden gelegene 5 km2 große Frankelbachgebiet mit Jahresniederschlägen von 750 mm a-1, steil eingeschnittenen, bewaldeten Kerbtälern und ackerwirtschaftlich genutzten Hochflächen liegt zwischen 200 und 450 m ü. NN. Auf schuttführenden Sand- und Schlufflehmen, deren Genese auf periglaziale Solifluktionsprozesse zurückgeht, sind hangabwärts mächtiger werdende Braunerden zu finden. Bemerkenswert sind die zahlreichen Quellen auf gleicher Höhenlage, die teilweise als Pipequellen ausgebildet sind. Beregnungs- und Infiltrationsversuche dienten der Beurteilung der Oberflächenabflussreaktion unterschiedlich bewirtschafteter Flächen. Durch stündliche Spatial-TDR-Messungen an 13 Standorten (60 cm lange vertikal installierte Dreistabsonden) konnten Hangwasserflüsse identifiziert werden. Zwischen 2005 und 2009 wurden die Abflüsse vier geschachtelter Einzugsgebiete sowie einer Quelle in 10min-Intervallen erfasst und 87 Hochwasserereignisse analysiert. Mittels Messungen der elektrischen Leitfähigkeit und eines Zweikomponenten-Mischungsmodells wurde der Ereigniswasseranteil für die höchsten Hochwasser abgeschätzt. Ergänzend zu den Geländeexperimenten wurde ein einfaches Modell konzipiert, das eine quantitative Abschätzung der ober- und unterirdischen Wasserflüsse in einen Gewässereinschnitt erlaubt. Zum Vergleich mit 31 anderen Untersuchungsgebieten wurde eine Codierung entwickelt, die eine Einordnung sowohl hinsichtlich der Geofaktoren der Gebiete als auch bezüglich der untersuchten Hochwasserereignisse ermöglicht. Das im hanghydrologischen Forschungsbereich als eher trocken einzuordnende Frankelbachgebiet, zeigte ein jahreszeitlich sehr unterschiedliches Abflussverhalten. Während in trockenen Sommern hohe Niederschläge im Gebiet gespeichert werden, liegen die Abflusskoeffizienten für einige schneeschmelzfreie Frühjahrsereignisse über 50 %. Das höchste beobachtete Hochwasser weist einen Abflusskoeffizient von 55 % bei einer relativ niedrigen Abflussspende von 140 l s-1 km-2 auf. Die Großberegnungsversuche, die Quellabflussmessungen, die Ereignisanalysen und die Modellierungsergebnisse weisen darauf hin, dass Dauerregen- und Schneeschmelz-Hochwasser zum Großteil aus Zwischenabfluss bestehen. Hier konnten zwei Abflusskomponenten differenziert werden: (i) eine oberflächen- und gerinnenahe Komponenten, die aufgrund des hohen Ereigniswasseranteils von etwa 60 % durch präferentielles Fließen erklärt werden kann, und (ii) eine ein bis zwei Tage verzögerte tiefere Komponente, die durch unterirdische Abflusskonzentration auf stauenden Schichten generiert wird. Letztere war in den Quellabfluss- und Spatial-TDR-Messungen erkennbar, hatte jedoch an den am Pegel beobachteten Scheiteldurchflüssen nur einen sehr kleinen Anteil. Während sehr intensiver Niederschläge könnte zusätzlich der Horton'sche Oberflächenabfluss von offen liegenden, hydraulisch angeschlossenen Äckern zum Scheiteldurchfluss beitragen. Für sämtliche Spatial-TDR-Messstandorte ist von hohen Infiltrations- und Sickerraten auszugehen. Eine Aufsättigung der Standorte war nicht erkennbar, für die nassen Wintermonate liegen jedoch nur sehr wenige Spatial-TDR-Messwerte vor. Eine in einer Tiefenlinie installierte Sonde (A08) zeigte das Umschalten des Gesamtgebiets in relativ nasse Zustände an. Hier nahm die Bodenfeuchte während zwei größerer Dauerregenereignisse infolge der unterirdischen Abflusskonzentration stark zu. In der vorliegenden Arbeit wurden die einbau- und substratbedingten Unsicherheiten sowie die Schwächen des Algorithmus zur Rekonstruktion der absoluten Bodenfeuchtewerte konkretisiert. Demzufolge wurde lediglich das Spatial-TDR-Rohsignal als Indikator für die aktuelle Bodenfeuchte verwendet. Durch eine Transformation des Spatial-TDR-Signals von der Zeit auf den Sondenort können dennoch Aussagen zur relativen Änderung der Bodenfeuchte in einer bestimmten Tiefe gemacht werden können. Diese Informationen sind hinreichend genau für die Untersuchung hanghydrologischer Prozesse und für die Ableitung von Gebietsfeuchtezuständen.
Caenorhabditis elegans Modelsysteme für Freiland und Labor Caenorhabditis elegans ist eines der am intensivsten untersuchten Tiermodelle, dabei weisen die nur unzureichenden Informationen über sein ursprüngliches Habitat eine Vielzahl offener Fragen auf. Deshalb beschäftigt sich der erste Teil vorliegender Arbeit mit einer Überprüfung der Freilandökologie und Biogeographie des Taxons. Nach den Untersuchungen spricht vieles dafür, dass die Ursprungsart der C. elegans Gruppe ein Begleiter von Gastropoden war, welche auch für ihre Ausbreitung häufig verantwortlich sind. Als Folge der Verschleppung durch Wirtstiere (u.a. die Weinbergschnecke Helix aspersa) erreichte sie ihr heutiges Areal, in allen Kontinenten. Ein nicht weniger wichtiges Ziel der vorliegenden Arbeit war die Etablierung von C. elegans als Biotest-System für die Indikation von Chemikalien-Wirkungen. In dieser Arbeit wurden ein ökotoxikologisches Testsystem entwickelt mit den C. elegans als Modellorganismus, das durch Messung von umweltbedingten intrazellulär gebildeten ROS im Gesamtorganismus eine Einschätzung der biologischen Aktivität von Chemikalien und Umweltmedien ermöglichen sollte. Als grundlegender biochemischer Parameter ist eine, die Kapazität der antioxidativen Schutzmechanismen übersteigende, ROS-Bildung ursächlich für oxidative Schädigungen der Zelle verantwortlich und damit Basis für zahlreiche pathologische Effekte. Aus den Resultaten als Bewertungsgrundlage lässt sich folgern, dass sich das erarbeitete Biotestsystem als adäquates Verfahren zur Messung von oxidativem Stress, als Folge exogener Belastung, einsetzen lässt. Damit leistet es einen Beitrag zur Beurteilung des Toxizitätspotentials von Chemikalien und Umweltproben. Zur Eignung des Einsatzes von C. elegans für Toxizitätstest wurden weitere Untersuchungen mit verschiedenen Chemikalien durchgeführt. Dabei ergibt sich bezogen auf molare Einheiten eine immer gleich bleibende Reihenfolge der Sensitivitäten gegenüber BaP > Cu2+ > AcL, ein Ergebnis welches mit Testergebnissen von anderen Versuchsorganismen zu vergleichen war. Die Wirkung von Atrazin auf die Entwicklung von C. elegans wurde auch untersucht. Es wurde festgestellt, dass Atrazin auf Wachstum und Reproduktion von C. elegans konzentrationsabhängig toxisch wirkt. Die bisherigen Ergebnisse zeigen jedoch, dass das Testsystem C. elegans hervorragend geeignet ist, um Chemikalienwirkungen frühzeitig sichtbar zu machen.
Schon seit geraumer Zeit wird darüber diskutiert, ob die Besetzung der Rundfunkgremien im Allgemeinen und beim ZDF im Besonderen mit dem aus der Rundfunkfreiheit abzuleitenden Gebot der Staatsferne vereinbar ist. Nachdem sieben der vierzehn Verwaltungsratsmitglieder des ZDF im September letzten Jahres gegen den Vorschlag des Intendanten Markus Schächter gestimmt haben, den Vertrag von Nikolaus Brender als Chefredakteur zu verlängern, hat diese Diskussion an Brisanz gewonnen. Kritiker halten die aus ihrer Sicht zu staats- und politiknahe Besetzung des ZDF-Verwaltungsrates und des Fernsehrates für unvereinbar mit dem Grundgesetz. So will die Bundestagsfraktion Bündnis 90/Die Grünen mit einem Normenkontrollverfahren, für das sie allerdings ein Viertel der Mitglieder des Bundestages benötigt, durch das Bundesverfassungsgericht klären lassen, ob die im ZDF-Staatsvertrag vorgesehene Zusammensetzung des Fernseh- und des Verwaltungsrates mit der Rundfunkfreiheit vereinbar ist. Nunmehr hat auch das Land Rheinland-Pfalz ein solches Normenkontrollverfahren angekündigt. Dabei geht es um eine wichtige Frage. Die Rundfunkfreiheit mit einem unabhängigen, staatsfernen und qualitätsvollen öffentlich-rechtlichen Rundfunk ist aus Sicht des Bundesverfassungsgerichts für die Demokratie schlechthin konstituierend.
Die Wirksamkeit und der Nutzen von Psychotherapie sind vielfach nachgewiesen. Dennoch sind die der Psychotherapie zugrunde liegenden Wirk- und Veränderungsmechanismen zu einem großen Teil noch ungeklärt und werden kontrovers diskutiert. Ein vielversprechendes Untersuchungsdesign zur Überprüfung der Wirksamkeit und Wirkungsweise spezifischer psychotherapeutischer Techniken stellt die Untersuchung psychotherapeutischer Mikrointerventionen dar. In der vorliegenden Arbeit wurde ein laborexperimentelles Untersuchungsdesign zur Überprüfung der Wirksamkeit spezifischer psychotherapeutischer Techniken und damit einhergehender hirnphysiologischer Veränderungen erstmalig erprobt. Untersucht wurden die Effekte einer 90-minütigen psychotherapeutischen Mikrointervention, in der die Technik des kognitiven Reframings vermittelt und eingeübt wurde. Probanden einer subklinisch depressiven Stichprobe (N=45) sowie gesunde Kontrollpersonen (N=47) wurden randomisiert entweder der Mikrointervention oder einer von zwei Kontrollbedingungen zugeordnet. Die Überprüfung der interventionssezifischen Effekte erfolgte über die Erfassung ereigniskorrelierter Potenziale (EKPs) sowie Affekt-Ratings der Probanden. In einem spezifischen EEG-Paradigma wurden den Probanden negativ affektive Bilder gezeigt, die sie entweder aus einem neuen, positiven Blickwinkel betrachten oder nur anschauen sollten. Am Ende jedes Durchganges wurden die Probanden aufgefordert die Intensität ihrer emotionalen Reaktion einzuschätzen. Die Ergebnisse zeigen, dass die Psychotherapeutische Mikrointervention zu spezifischen Effekten, insbesondere auf der Ebene elektrokortikaler Veränderungen führte. Dabei wiesen die Probanden der Gruppe mit der psychotherapeutischen Mikrointervention größere mittlere frontale LPP Amplitudenwerte in Folge der Instruktionsbedingung "Umdeuten" auf. Die Ergebnisse werden im Sinne einer intensivierten kontrollierten Nutzung relevanter, über den präfrontalen Kortex vermittelter, kognitiver Verarbeitungsressourcen im Zusammenhang mit der Herunterregulierung emotionaler Reaktionen interpretiert.
In Europa haben sich im Laufe der vergangenen Jahrhunderte zahlreiche Kriege und Auseinandersetzungen Art abgespielt, die die Menschen und Nationen, ihre Ideologien und Ansichten stark geprägt haben. Gerade im SaarLorLux-Raum, einer grenzüberschreitenden Region im Gebiet von Deutschland, Frankreich, Luxemburg und Belgien, wurden die Grenzen von den Siegermächten immer neu gezogen und verschoben. Heute leben hier Menschen mit sehr verschiedenen kulturellen Hintergründen in einer multikulturellen Gesellschaft zusammen, die aber oftmals stark von einem Nebeneinander und von Unterschieden geprägt ist. Für die Grenzräume haben sich mit dem Konzept "Europa der Regionen", das kleineren räumlichen Einheiten ein Mitwirken bei Entscheidungsprozessen ermöglicht, große Kooperationschancen eröffnet. Von politischer Seite wird der SaarLorLux-Raum oft als "Mitte Europas" (BRÜCHER, QUASTEN, REITEL 1982, S. 13) oder "einzige europäische Kernregion" bezeichnet, in die "besonders hohe Erwartungen gesetzt" (SANTER 1997) werden. Wie aber sieht das Leben jenseits der Politik auf der ganz alltäglichen Ebene aus? Welche Möglichkeiten bieten sich den Menschen, die kulturelle Vielfalt, die Andersartigkeit der Nachbarländer sowie die Vor- und Nachteile hautnah in Alltagssituationen zu erleben? Die Dissertation untersucht, inwieweit die Grenzen in den Köpfen der Menschen auch nach ihrer Öffnung durch das Schengener Abkommen verankert bleiben und ob die Bewohner einer Grenzregion diesen besonderen Lebensraum in ihrem Alltag nutzen und zu grenzüberschreitend agierenden Europäern werden. Dazu werden wahrnehmungsgeographische Forschungsmethoden (mental maps) genutzt und auf das konkrete Beispiel des SaarLorLux-Raumes angewendet. In drei Studien (2000, 2002 und 2006) wurden insgesamt 5865 Schüler und Bewohner in 20 Orten in den vier Ländern zu ihren Vorstellungen vom SaarLorLux-Raum, zu ihrem aktionsräumlichen Verhalten und zu ihrer Abgrenzung der Region befragt. Dabei wurden bewusst grenznahe und grenzferne Standorte ausgewählt wurden, um Unterschiede im Verhalten herauszuarbeiten. Ziel der Analyse ist es, das Leben in der Großregion über den Zeitraum von sechs Jahren zu untersuchen und mit dieser Langzeitstudie Veränderungen beziehungsweise Gemeinsamkeiten im Verhalten der Bewohner herauszuarbeiten. Die Wahrnehmung des Lebens im SaarLorLux-Raum aus der Sicht seiner Bewohner wird herausgearbeitet und -ausgehend von den Ergebnissen- werden Potentiale und Defizite im grenzüberschreitenden Zusammenleben abzuleiten. Die politische und ökonomische Liberalisierung ist seit mehr als einem halben Jahrhundert Realität in Westeuropa. Ob allerdings die sich daraus ergebenden Chancen von den Bewohnern der grenznahen Räume erkannt, erwünscht und erlebt werden, ist Gegenstand der Untersuchungen. Durch die Fokussierung auf die Befragung von Schülern, also den jungen Menschen, die die Zukunft darstellen, wird die Frage beantwortet, ob sich traditionelle und eventuell auch eingefahrene Sichtweisen von Generation zu Generation übertragen und somit das aktionsräumliche Verhalten beeinflussen und erstarren lassen. Einen Beitrag zu einer funktionierenden Zusammenarbeit leistet die kulturelle und regionale Identität, die dazu beiträgt, dass sich die Menschen über die Grenzen hinaus als Bewohner der gleichen Region definieren. Dabei sollen nicht die Unterschiede, die zwischen den Bewohnern mit unterschiedlichen Nationalitäten bestehen, geleugnet oder verwischt werden. Abschließend werden, losgelöst vom regionalen Beispiel, Möglichkeiten aufgezeigt, wie durch unterschiedliche Initiativen vor allem auf schulischer Ebene zur Stärkung einer gemeinsamen europäischen Identität bei der jungen Bevölkerung beigetragen werden kann. Die Dissertation endet "ausgerichtet auf die Hauptzielgruppe bei den Befragungen- mit dem Entwurf einer Unterrichteinheit zur Stärkung eines grenzüberschreitenden Wir-Gefühls. Der Schulunterricht kann einen Beitrag dazu leisten, dass die zukünftigen Generationen ein tieferes Bewusstsein für das Zusammenleben im Grenzraum und in Europa erhalten.
Einen literarischen Text entlang eines figürlichen Körperleibs zu lesen und zu deuten, lenkt die Lektüre zwangsläufig auf unwiderrufliche und unabänderliche Grunddispositionen des menschlichen Daseins wie Sterblichkeit, Verletzlichkeit, Verwundbarkeit, Bedürftigkeit und wechselseitige Angewiesenheit. Eine der korporalen Entsprechungen für die eigene Bedürftigkeit äußert sich in den Stücken der deutschsprachgigen Gegenwartsdramatik häufig als Suche nach oder Bitte um Beistand. Die eigene Schwäche bedarf der fremden Kraft, um aufgefangen zu werden. In der Korrespondenzfigur des fallenden und haltenden Körpers wird das Phänomen der Fürsorge entfaltet. Die Verweigerung von Fürsorge wird in der Zweifachfigur eines abwehrenden und eines zurückgewiesenen Körpers zugespitzt. Mit der leiblichen Präsenz der Figuren wird ein solidarisches Potenzial angeboten. Die Rücknahme des eigenen Körperleibs aus dem Blickfeld des Anderen suspendiert jedoch die Möglichkeit, dass die potenziell vorhandene Solidaritätsfähigkeit tatsächlich in Anspruch genommen werden kann. Im Rückzug der Figuren deutet sich meist die Entscheidung an, den eigenen Körperleib nicht als möglichen Halt oder Anhaltspunkt für den Anderen zu erkennen zu geben.
Die Ménage-Polynome (engl.: ménage hit polynomials) ergeben sich in natürlicher Weise aus den in der Kombinatorik auftretenden Ménage-Zahlen. Eine Verbindung zu einer gewissen Klasse hypergeometrischer Polynome führt auf die Untersuchung spezieller Folgen von Polynomen vom Typ 3-F-1. Unter Verwendung einer Modifikation der komplexen Laplace-Methode zur gleichmäßigen asymptotischen Auswertung von Parameterintegralen sowie einiger Hilfsmittel aus der Potentialtheorie der komplexen Ebene werden starke und schwache Asymptotiken für die in Rede stehenden Polynomfolgen hergeleitet.
In der Tagespresse bestehen Berichte über Nordkorea meistens aus Schreckens-meldungen: Von Nuklearem Wahn, Menschenrechtsverletzungen oder Terror ist hier die Rede. Gleichzeitig ist die Informationspolitik dieses Landes so restriktiv, dass kaum anderweitige Informationen nach außen dringen. Dies macht es in den Augen vieler Menschen umso gefährlicher, weil es dadurch unbegreiflich und unkalkulierbar erscheint. Nach dem Zusammenbruch der DDR und der Öffnung von bislang unzugänglichen Archiven hat diese Undurchdringlichkeit Risse bekommen, und es erschlossen sich der Forschung vollkommen neue Quellen. Ziel der vorliegenden Arbeit ist es, mit Hilfe der nun zugänglichen Dokumente einen Teil der Informationslücken über Nordkorea und vor allem über seine Beziehungen zur DDR zu schließen. Neben der Entwicklung der bilateralen Beziehungen in den Bereichen Politik, Wirtschaft und Kultur wird hier auch ein besonderer Aspekt der bilateralen Beziehungen untersucht: Nordkoreas Umgang mit seiner Abhängigkeit von der DDR und dem damit verbundenen Sicherheitsrisiko. Zu diesem Zweck wird anhand konkreter Fallbeispiele die Zusammenarbeit zwischen der DDR und Nordkorea analysiert. Obwohl auch in anderen Gebieten Abhängigkeiten bestanden, ist die wirtschaftliche Abhängigkeit im Zusammenhang mit einem möglichen Sicherheitsrisiko von besonderer Relevanz. Dieses Risiko definiert sich in diesem Zusammenhang als Gefährdung der inneren Sicherheit Nordkoreas. Nordkorea ist seit seiner Gründung ein Staat, der seine Bürger aufs Äußerste überwacht, um ihre vollständige Indoktrination zu gewährleisten. Da die nord-¬koreanische Regierung eine eigene, künstliche Wirklichkeit für die Bewohner des Landes erschaffen hatte, musste alles, was diese Wirklichkeit in Frage stellte, als Sicherheitsrisiko eingeschätzt werden. Dazu gehörte z.B. das Sichtbarwerden von Abhängigkeit, weil hierdurch der selbsterhobene Anspruch der Chuch"e-Ideologie "alles aus eigener Kraft" konterkariert wurde. Gleichfalls musste der Kontakt mit einer anderen Wirklichkeit als der koreanischen ein Sicherheitsrisiko darstellen, wenn sich dadurch die Einstellung zur koreanischen Realität änderte. In diesem Zusammenhang spielen vor allem die nordkoreanischen Studenten, die in der DDR studierten, eine besondere Rolle. Die vorliegende Arbeit zeigt, dass der Umgang Nordkoreas mit seiner Abhängigkeit von der DDR durchaus einer Logik entsprach und sich daraus Handlungsmuster ergaben, die diesen Umgang prägten. Zunächst versuchte die nordkoreanische Regierung, sich immer aus bestehenden Abhängigkeiten zu befreien oder sie zum größtmöglichen eigenen Vorteil zu nutzen. Dabei schreckte sie auch nicht vor illegalen Maßnahmen wie Industriespionage zurück. Das oberste Primat der nordkoreanischen Politik lag jedoch in der Wahrung Innerer Sicherheit und damit in der Regimestabilität. Diesem Ziel wurden alle anderen Ziele wie auch Entwicklung der Wirtschaft untergeordnet. Ergaben sich für das Erreichen von Wirtschaftszielen Abhängigkeiten, dann wurden diese nur so lange in Kauf genommen, wie sie die Innere Sicherheit nicht gefährdeten. Wurde hier allerdings ein Sicherheitsrisiko wahrgenommen, dann wurden alle Mittel eingesetzt, um dieses auszuschalten oder zu minimieren. Dabei spielte es keine Rolle, wie drastisch diese Maßnahmen waren und wer von ihnen betroffen war. Vergleicht man dieses Verhalten mit der heutigen nordkoreanischen Politik, so finden sich kaum Unterschiede. Die Innere Sicherheit ist für Nordkorea das oberste Ziel geblieben. Um es durchzusetzen, werden alle als notwendig erachteten Maßnahmen ergriffen, von der Bespitzelung der eigenen Bevölkerung bis hin zu Internierung und Terror. Was für den Umgang der nordkoreanischen Regierung mit dem eigenen Volk gilt, lässt sich auch in seiner Außenpolitik nachvollziehen. Die Regimestabilität bleibt das oberste Ziel. Im Gegensatz zur weitverbreiteten Meinung, die Volksrepublik sei in ihrer Politik nicht kalkulierbar, macht das Wissen um dieses Ziel Nordkorea zu einem sehr berechenbaren Staat. In Übereinstimmung mit dem Primat der Inneren Sicherheit wird die nordkoreanische Führung alles ablehnen, was diese gefährden könnte. Konkret ergibt sich daraus z.B., dass Nordkorea sein Nuklearprogramm niemals aufgeben wird, weil das Einstellen seiner Ambitionen auf diesem Gebiet die Führung in P"yÅngyang angreifbar machen könnte.
Virtuelle Umgebungen erfreuen sich in den letzten Jahren einer großen Beliebtheit und können kontinuierlich wachsende Nutzerzahlen vorweisen. Deshalb wird erwartet, dass die ohnehin große Nutzergemeinde weiterhin wächst. Dieses Wachstum stellt jedoch die Entwickler und die Betreiber von virtuellen Umgebungen vor eine Herausforderung. Die meisten heutzutage erfolgreichen virtuellen Umgebungen basieren auf einer Client-Server-Infrastruktur, in der der Server für die Verwaltung der gesamten Umgebung zuständig ist. Bei einer gleichzeitigen Inanspruchnahme durch viele Nutzer werden die serverbasierten Umgebungen jedoch massiven Skalierbarkeits- und Lastverteilungsproblemen ausgesetzt. Diese Probleme führen beispielsweise dazu, dass Nutzer Wartezeiten beim Einloggen in Kauf nehmen müssen bzw. selbst im Falle eines erfolgreichen Logins die "überfüllten" virtuellen Regionen nicht betreten dürfen. Deshalb wird in dieser Arbeit untersucht, ob eine Verbesserung der Skalierbarkeit und der Lastverteilung in virtuellen Umgebungen durch die Verwendung alternativer Infrastrukturansätze erreicht werden kann. Außerdem werden Maßnahmen zur weiteren Entlastung der Basis-Infrastruktur entwickelt. Diese Verbesserung soll zum einen dadurch erzielt werden, dass anstelle eines Servers ein Server-Verbund (Peer-to-Peer-System) als eine Art Management-Schicht agieren soll, in der jeder Knoten nur einen bestimmten Teil der virtuellen Umgebung verwaltet. Dabei wird die gewünschte Lastverteilung durch die Aufteilung der Verantwortungsbereiche auf die Knoten der Management-Schicht erreicht. Gleichzeitig entsteht aber ein Mehraufwand für die Konstruktion bzw. Erhaltung einer solchen Management-Schicht. Deshalb werden in dieser Arbeit die Vor- und Nachteile eines Infrastrukturwechsels hin zu dezentralisierten Infrastruktur-Ansätzen untersucht. Zum anderen wird eine spürbare Entlastung der Management-Schicht und somit eine Verbesserung der Skalierbarkeit und der Lastverteilung durch die Übertragung einiger Verwaltungsaufgaben an die Clients angestrebt. Zu diesen Verwaltungsaufgaben zählen die Gruppenkommunikation und das Konsistenz-Handling. Dazu wird in dieser Arbeit erforscht, inwiefern die Clients, die sich innerhalb derselben virtuellen Region befinden, selbst die Gruppenkommunikation über eine Multicast-Infrastruktur regeln können bzw. in die Wahrung der Konsistenz eines gemeinsamen Zustandes und der gemeinsam genutzten Objekte involviert werden können. Bei dem clientbasierten Konsistenz-Handling sollte vor allem auf die besonderen Interaktivitäts- und Konsistenzanforderungen, die Nutzer an die virtuellen Umgebungen stellen, geachtet werden. Dazu wird ein neues Konsistenzmodell definiert, welches die Einhaltung der strengen Interaktivitätsanforderungen erzwingt und die Konsistenz mit einer bestimmten Wahrscheinlichkeit garantieren kann.
Im Fokus der Dissertation steht das Spannungsfeld zwischen betriebswirtschaftlichen Zielen und unternehmerischer Sozialverantwortung. Dieses wird im Hinblick auf die Ebene des Arbeitsmarktes und die Beschäftigung von Menschen mit Behinderung im Tourismus untersucht. Das Ziel der Untersuchung ist die Identifikation des durch die sozialwirtschaftlichen Intentionen integrativer Hotels entstehenden gesamtgesellschaftlichen Nutzens. Ob integrativen Hotels der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt, wird hierbei ermittelt. Bei dem herangezogenen Untersuchungsobjekt integrativer Hotelbetrieb handelt es sich um Hotels, die Menschen mit und ohne Behinderung beschäftigen, als Integrationsprojekte anerkannt sind und vom Gesetzgeber als Unternehmen des allgemeinen Arbeitsmarktes definiert werden. Da es sich um ein in der Tourismuswissenschaft weitgehend unbekanntes Untersuchungsobjekt handelt, wird dieses grundlegend erläutert, sodass neben dem Konzept, den rechtlichen Rahmenbedingungen und den Fördermöglichkeiten auch eine situative Beschreibung integrativer Hotels in Deutschland Bestandteil der Arbeit ist. Da es sich um Betriebe handelt, die im Rahmen der Beschäftigung von Menschen mit Behinderung staatlich gefördert werden, ist darüber hinaus die fiskalische Bilanz der Beschäftigungssituation Integrationshotel Gegenstand der Untersuchung. Des Weiteren stehen die Werte, die integrative Hotels über monetär messbare Werte hinaus schaffen, im Mittelpunkt. Neben der sozial- und volkswirtschaftlichen Ebene findet auch die betriebswirtschaftliche Ebene Berücksichtigung. Sowohl Merkmale und interne Strukturen integrativer Hotelbetriebe als auch deren betriebswirtschaftliche Situation und deren Gäste werden in diesem Zusammenhang behandelt. Das Methodenspektrum der Untersuchung ist entsprechend des erläuterten Inhaltes der Arbeit vielschichtig. Neben der Analyse relevanter Literatur liefern Experteninterviews wesentliche Ergebnisse. Die Analyse der sozial- und volkswirtschaftlichen Ebene basiert zunächst auf der Sekundäranalyse vorhandener Daten und darüber hinaus auf der Analyse und Weiterentwicklung eines Bewertungsmodells. Im Rahmen der betriebswirtschaftlichen Analyse werden betriebliche/betriebsinterne Daten analysiert und die Methode der standardisierten Gästebefragung angewendet. Als Abschluss der Arbeit werden die Untersuchungsergebnisse zusammengefasst und die Übertragbarkeit sowie die gesellschaftliche Relevanz des Themas diskutiert. Durch die Zusammenfassung der zentralen Befunde wird der Nutzen, der durch das Wirken integrativer Hotels auf verschiedenen Ebenen entsteht, benannt. Mit der Identifikation des durch integrative Hotels entstehenden gesamtgesellschaftlichen Nutzens liefert die Arbeit einen erweiterten theoretischen Ansatz der Argumentationslinie für Integrationsprojekte in der Hotellerie und weist nach, dass diesen ein Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt. Die Balance zwischen den parallelen Motiven Wirtschaftlichkeit und Gemeinnützigkeit bzw. der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen ist zugleich der kritischste als auch der für den Erfolg integrativer Hotels entscheidendste Punkt. Die Herstellung eines Ausgleiches zwischen konträren Zielen ist dementsprechend die Voraussetzung für den maximal erreichbaren Zusatznutzen. Die Schlussfolgerung der Arbeit zielt jedoch nicht auf die ausnahmslos überall umzusetzende Integration von Menschen mit Behinderung im Teilarbeitsmarkt Tourismus ab, sondern weist auf das Potential eines erfolgreichen Ansatzes hin, der für die Entstehung eines eigenständigen Hoteltyps geeignet ist. Die Wahrnehmung der sozialen Verantwortung sollte hierbei jedoch nicht in den Vordergrund rücken, denn auch unter Einsatz des Alleinstellungsmerkmals Beschäftigung von Menschen mit Behinderung muss die vom Gast gebuchte touristische Dienstleistung vordergründig sein.
WICHTIGER HINWEIS: Aufgrund eines Computerfehlers bei der Rohdatenaufbereitung, müssen die 5.2.3. Ergebnisse (S. 43 ff.) wie folgt korrigiert werden: Explizite Einstellungsmessung Die Ergebnisse ändern sich inhaltlich: Haupteffekt Wortvalenz F(1, 94) = 51.10, p < .001, η2 = .35, (Mpos= 5.06; Mneg= -28.51); Interaktionseffekt Wortvalenz und kognitive Belastung F(1, 94) = 7.90, p < .01, η2 = .08, (Mpos/load= -5.01; Mpos/kein load= 15.13; Mneg/load= -25.43; Mneg/kein load= -31.75); Haupteffekt Wortnegation F(1, 94) = 8.58, p < .01, η2 = .08, (Mkeine = -7.95; Mnegation= -15.58). Implizite Einstellungsmessung Die Ergebnisse bleiben inhaltlich gleich: Zweifach-Interaktion von Wortvalenz und Prime, F(1, 80) = 4.61, p < .05, η2 = .06, (Mpos/wahr= 20.33; Mpos/falsch= 3.85; Mneg/wahr= 4.44; Mneg/falsch = 14.14). ABSTRACT: Ziel der vorliegenden Arbeit war es Evidenz für die Existenz einer Antonymie-Heuristik bei der Falsifikation valenter Information zu finden. Es wird angenommen, dass die vorherige Ankündigung, dass eine nachfolgende valenzhafte Information falsch ist, zu einer Änderung der Enkodierungsstrategie der valenzhaften Information führt. Dies bedeutet, dass zu der Valenz der gegebenen Information automatisch eine Gegenvalenz oder antonyme Valenz aktiviert werden sollte. Dementsprechend sollten falsche positive Informationen negativer und falsche negative Informationen positiver beurteilt werden als ihre wahren Entsprechungen. In vier Studien konnte dieser Effekt nachgewiesen werden. Die Ankündigung, dass eine valenzhafte Information falsch ist, beeinflusst, unabhängig von kognitiver Belastung, die Valenzübertragung in einem evaluativen Konditionierungsparadigma in vorhergesagter Weise (Experiment1). Ebenso führen generierte Gegenvalenzen, wenn eine Information als falsch angekündigt wurde, zu einem Verarbeitungsvorteil in einer Valenzkategorisierungs-Aufgabe, bei welcher positive Informationen als negativ und negative Informationen als positiv eingeschätzt werden sollten (Experiment 2). Die Ankündigung, dass eine nachfolgende Information falsch ist, führt außerdem dazu, dass positive (negative) Eigenschaften schnell und effizient negativer (positiver) eingeschätzt werden als bei einer Ankündigung der Informationen als wahr (Experiment 3 und 4). Zusammenfassend werden diese Befunde als Evidenz für die Existenz einer Antonymie-Heuristik im Zuge der Falsifikation valenter Information interpretiert.
Das Studium des christlichen Briefstils im spätantiken Ägypten steht im Zentrum dieser Arbeit. Anhand der dokumentarischen Papyrusbriefe berührt diese Arbeit hauptsächlich die Epistolographie des Altertums, besonders die Phraseologie des frühen Christentums. So sieht man in der Arbeit die Beobachtung, Analyse und Erklärung der griechischen christlichen Privatbriefe im Hinblick auf ihre Struktur und ihre typischen christlichen Elemente insbesondere in Anredeformen, Grußformeln und typischen Redewendungen. Für diese Forschung wurden etwa 200 christliche Briefe zur intensiven Auswertung als Textgrundlage ausgewählt; zum Vergleich wurden auch heidnische Briefe aus ptolemäischer und römischer Zeit herangezogen. Diese Studie, besonders bei der Untersuchung der Formeln, bezieht sich auf den Zeitraum, zwischen dem 3. und 4./5. Jh. n.Chr.
320 Probandinnen bekamen Portraitfotos von Männern und Frauen, kombiniert mit geschlechterstereotypkongruenten, -inkongruenten und -neutralen Eigenschaften unter verschiedenen Instruktions- und Rahmenbedingungen vorgelegt. Anschließend erfolgten, für Items und Assoziationen, explizite Gedächtnistests. Die Ergebnisse belegen einen wiederholten assoziativen Inkongruenzvorteil, stereotypkongruente Rateverzerrungen, ein moderierendes individuelles Stereotypizitätsniveau, Ausbleiben stereotypkongruenten Einflusses nach intentionaler Instruktion, die Interaktion von Gedächtnisleistung und instruktionsvermittelnder Fokussierung, einen Erinnerungsvorteil für assoziative im Vergleich zu Iteminformationen sowie Leistungsminderung bei paralleler Aufmerksamkeitsbelastung. In der zeitunbegrenzten Testphase bwz. der Erfassung der probandeneigenen Reaktionszeiten wird eine wichtige Aufklärungsquelle vermutet.
Die vorliegende Arbeit ist eine Fallstudie zu Gender- und ethnischen Identitäts- und Differenzkonstruktionen in einer indigenen Gemeinde im Tiefland Ecuadors. Sie sucht folgende Fragen zu beantworten: I. Wie wird Gender im sog. "Oriente" Ecuadors verhandelt und performativ produziert? Existieren Gegenstimmen und Subversionen zu dominanten Genderrollen, und wenn ja, in welcher Form? II. Wie entwerfen die Napo Runa von der sogenannten Peripherie aus ihre nationale und ethnische Identität? Welche Diskurse und praktischen Strategien entwickeln sie im Umgang mit den ethnisch "Anderen" innerhalb des nationalen, ecuadorianischen Kontextes? III. Auf welche Art und Weise sind die Kategorien Gender, Ethnizität und Nation ineinander verwoben? Wie werden Männlichkeiten und Weiblichkeiten in Abgrenzung und Anziehung zum ethnisch "Anderen" konstruiert? Wie werden dabei hegemoniale Gender-, ethnisch-rassische und nationale Diskurse und Praxen von den Runa aufgenommen, verarbeitet und umgedeutet? In der feministisch ausgerichteten Gender-Forschung dienen "nicht-westliche" Beispiele häufig dazu, Alternativen zur euro-amerikanischen binären, heteronormativen Geschlechterordnung aufzuzeigen und letztere somit zu dekonstruieren. Diese Fallstudie zu den Tiefland-Runa in Ecuador kann dazu nur sehr bedingt einen Beitrag leisten: Die Runa bestehen auf der Dichotomie weiblich-männlich, die nach dem biologischen Geschlecht des Kindes bei der Geburt bestimmt wird. Und dennoch erfordert das Herausbilden der "richtigen" Genderidentität aus indigener Perspektive von Kindheit an beständige Formung, was sich besonders in der früh einsetzenden Arbeitsteilung äußert, welche Wissen in den Körper "einschreibt". Wer die gegenderten, alltagspraktischen Techniken in seinen/ihren Körperhabitus übernommen hat, gilt als "richtiger Mann" resp. "richtige Frau", als erwachsen. Der biologischen Reifung des Körpers wird dagegen weniger Bedeutung beigemessen. Explizit ausformuliert wird die für gesellschaftliches Leben als unerlässlich angesehene Komplementarität beider Geschlechter. Die jüngere ethnographische Literatur zum Amazonastiefland tendiert mehrheitlich zur Gleichsetzung dieser Komplementarität mit einem egalitären Geschlechterverhältnis. Meine Daten deuten jedoch auf ein unausgeglichenes Machtverhältnis zwischen Männern und Frauen hin. Eine klare Hierarchie lässt sich in verschiedenen Bereichen ablesen, wie z.B. dem unterschiedlichen Zugang zu politischer Macht, spirituellem Wissen, ökonomischen Möglichkeiten, Arbeitszeitaufteilung, Bewegungsfreiheit und Verfügungsgewalt über den eigenen und fremde Körper. Auch in der Abgrenzung der Runa gegenüber anderen ethnischen Gruppen spielt die Kategorie Geschlecht eine zentrale Rolle. Entlang der Runa-Ideale von geschlechtsspezifischer Arbeitsteilung und Verhaltensidealen werden Grenzen gezogen. Dabei sind es die MestizInnen, welche die wichtigste Rolle in diesem fortwährenden identitätszeichnenden und -versichernden Prozess als direkte und dominanteste Gegenüber spielen. Einerseits sucht man sich gegen mestizische Dominanz und Vereinnahmung durch Betonung der eigenen, ethnisierten Kraft und Stärke und einer "reinen" Heiratspraxis zu erwehren. Andererseits eifert insbesondere die jüngere Generation, auch in ihren Genderentwürfen, einem mestizischen Lebensstil als Inbegriff von "Zivilisation", Modernität, Urbanität und Fortschrittlichkeit nach und versucht, dies besonders durch Bildung zu erreichen. Speziell in den Feminitätsentwürfen der ruralen, traditionellen runa warmi und ihrem Gegenstück "urbane Mestizin" findet dieser Widerspruch seinen Ausdruck. Für Männer stellt das Militär den größten außerdörflichen Einfluss auf jugendliche maskuline Runa-Identitätsbildung dar und drängt diese zusehends in die Richtung eines mestizisch-virilen Männlichkeitsideals, das eng verbunden ist mit einer nationalen Identität als Ecuadorianer. Beruhend auf Viveiros de Castros" Multinaturalismus-Theorie findet man in der wissenschaftlichen Literatur zum Amazonastiefland immer wieder die Darstellung äußerst aufnahmefähiger, flexibler Gesellschaften, welche starren ethnischen Grenzen mit größter Skepsis zu begegnen wüssten. Die Inkorporierung "Fremder", seien sie Affinalverwandte oder ethnisch different, geschehe über die konstante gemeinsame Produktion entlang der gegenderten Arbeitsteilung und den Konsum der gleichen Nahrung, die zusehends und fortlaufend die Unterschiede zwischen Menschen nivellieren. Ich halte diese Einschätzung amazonischen Gemeinschaftslebens für idealisiert. Sie mag partiell richtig sein, jedoch wird "Fremdartigkeit" nie ganz vergessen. Eine gewisse "fremde" Essenz, welcher Art diese auch immer sein möge, bleibt bestehen " unabhängig davon, ob die Betreffenden die geschlechtsspezifischen Runa-Körpertechniken erlernt haben. Es stehen hier m. E. zwei Diskurse nebeneinander.
Umweltschutz wird in dieser Arbeit als Soziales Dilemma betrachtet. Es wird mittels eines experimentellen Online-Spiels (N = 182) primär überprüft, inwieweit unkooperatives Verhalten von Akteuren zu genuinem Ungerechtigkeitserleben bei anderen Personen führt und ob diese in Folge u. a. das eigene kooperative Verhalten reduzieren. Somit wird im Gegensatz zu Erklärungen der Rational-Choice-Theorien angenommen, dass ein Teil des phänotypisch unkooperativen, umweltschädigenden Verhaltens nicht auf Egoismus, sondern auf einem genuinen Gerechtigkeitsmotiv beruht. Zur Erhöhung der internen Validität wird ebenfalls der moderierende Einfluss der Persönlichkeitseigenschaften "Eigeninteresse" und "Gerechtigkeitszentralität" untersucht. Die Hypothesentestungen zeigen, dass unkooperatives Verhalten anderer Akteure in Sozialen Dilemmata bei vielen Personen Ungerechtigkeitserleben auslöst, was sich u. a. in Emotionen der Empörung, Ungerechtigkeitskognitionen, Bestrafungsverhalten und einer Reduktion des eigenen kooperativen Verhaltens niederschlägt. Hierbei spielen interindividuelle Unterschiede hinsichtlich der Stärke des Gerechtigkeitsmotivs bei etlichen gefundenen Effekte eine moderierende Rolle. Es wird somit ein motivpluralistischer Ansatz bestätigt, der die Rolle des Gerechtigkeitsmotivs bei der Vorhersage und Veränderung von Verhalten in Sozialen Dilemmata hervorhebt. Implikationen in Hinblick auf Theorie, zukünftige Forschung und Interventionen in Sozialen-Dilemma-Situationen werden erörtert.
Bei der Realisierung einer nachhaltigen Entwicklung kommt dem Erhalt und der Sanierung des vorhandenen Altbaubestands zentrale Bedeutung zu. Sanierungen versprechen in erster Line Einsparpotentiale beim Energieverbrauch, bei den CO2-Emissionen und den anthropogen induzierten Stoffströmen. Auch im sozialen Bereich sind Verbesserungen möglich, weil sich beispielsweise attraktive und energetisch optimierte Wohnungen positiv auf die Bleibeabsichten der Bewohner auswirken und so Wohnquartiere sozial stabilisiert werden können. In der Arbeit wird untersucht, welchen signifikanten Beitrag Bestandssanierungen zur Realisierung einer global nachhaltigen Entwicklung leisten können. Zudem wird gefragt, warum Altbausanierungen bislang nur zögerlich umgesetzt werden. So soll die Kluft zwischen Wissen und Handeln bei der Realisierung einer nachhaltigen Entwicklung erklärt werden. Um die Forschungsfragen beantworten zu können, werden vier Sanierungsmaßnahmen in den Städten Ludwigshafen und Köln als Einzelfälle untersucht: (1) Ludwigshafen Brunckviertel, (2) Ludwigshafen Ebertsiedlung, (3) Köln Vingst und (4) Köln Zollstock. Gewählt wird ein qualitativer Forschungsansatz. Zur Anwendung kommen die Erhebungsmethoden teilstrukturierte Befragung und Dokumentenanalyse.
Diese Arbeit beschäftigt sich mit (frequent) universellen Funktionen bezüglich Differentialoperatoren und gewichteten Shiftoperatoren. Hierbei wird ein Charakteristikum von Funktionen vom Exponentialtyp untersucht, das bisher im Rahmen der Universalität noch nicht betrachtet wurde: Das konjugierte Indikatordiagramm. Dabei handelt es sich um eine kompakte und konvexe Menge, die einer Funktion vom Exponentialtyp zugeordnet ist und gewisse Rückschlüsse über das Wachstum und die mögliche Nullstellenverteilung zulässt. Mittels einer speziellen Transformation werden (frequent) universelle Funktionen vom Exponentialtyp bezüglich verschiedener Differentialoperatoren ineinander überführt. Hierdurch ist eine genaue Lokalisation der konjugierten Indikatordiagramme möglicher (frequent) universeller Funktionen für diese Operatoren ableitbar. Durch Konjugation der Differentiation mit gewichteten Shiftoperatoren über das Hadamardprodukt, wird auch für diese Operatoren eine Lokalisation möglicher konjugierter Indikatordiagramme ihrer (frequent) universellen Funktionen erreicht.
Die Beobachtung und Bewertung von Wäldern ist eins der zentralen Themen der Fernerkundung. Wälder sind auf der Erde die größten Speicher von Biomasse und damit, neben den Ozeanen, die größte Senke für Kohlendioxid. Eine genaue Kenntnis über Zusammensetzung, Zustand und Entwicklung der Wälder ist wegen ihrer vielfältigen Funktionen und ihres großen Anteils an der Landesfläche von großem wissenschaftlichem und gesellschaftlichem Wert. Eine flächen-deckende detaillierte Beobachtung ist nur mit fernerkundlichen Mitteln möglich. Eine vielversprechende moderne Technik für hochauflösende Waldfernerkundung ist luftgestütztes Laser-¬scanning. Für die Arbeit stand ein Laserscanner-Datensatz aus dem Idarwald bei Morbach in Einzelpunkten und als Wellenformdatensatz zur Verfügung, der zur Ableitung von strukturellen Waldparametern genutzt wurde. Als wichtigster Bestandsstrukturparameter wurde die Baumhöhe sowohl aus Einzelpunktdaten als auch aus gerasterten Bilddaten flächendeckend mit hoher Genauigkeit abgeleitet. Die Kronenuntergrenzen konnten anhand der Wellenformdaten identifiziert werden und stimmten ebenfalls in hoher Genauigkeit mit Geländemessungen überein. Aus Baumhöhen und Höhe der Kronenuntergrenzen konnte die jeweilige Kronenlänge bestimmt werden. Eine größere Herausforderung ist die Bestimmung der Anzahl der Bäume pro Hektar. Während die einzelnen Kronen älterer Nadelbäume gut erkennbar sind, lassen sich Laubbäume und jüngere Nadelbäume nur schwer identifizieren. Trotzdem konnte mit Hilfe eines adaptiven Moving-Window-Ansatzes eine hohe Übereinstimmung mit im Gelände bestimmten Stammzahlen erzielt werden. Aus dem Anteil der Laserstrahlen, die im Bestand den Boden erreichen, können der Kronenschlussgrad und der Blattflächenindex bestimmt werden. Beide Größen sind für den Strahlungstransfer im Bestand und für ökologische Fragestellungen von Bedeutung und konnten ebenfalls flächendeckend und mit hoher Genauigkeit gemessen werden. Eng verknüpft mit dem Blattflächenindex sind die Biomasse und der Holzvorrat. Der Holzvorrat kann zwar nicht direkt aus den Laser-¬scannerdaten abgeleitet werden, da aber enge Beziehungen zu Baumhöhe und Stammzahl bestehen, kann er aus diesen statistisch abgeleitet werden. Auch die Biomasse wurde indirekt bestimmt: aus den Baumhöhen und dem Bedeckungsgrad. Die detaillierteste Charakterisierung von Waldbeständen kann durch Kombination unterschiedlicher Datensätze erreicht werden. Neben dem Laserscanningdatensatz stand auch ein hyperspektrales Bild des Untersuchungsgebiets zur Verfügung. Um diese zu kombinieren, wurde aus den Wellenformen die jeweils über der Fläche eines Hyperspektralpixels zurückgestreute Laserenergie in Höhenschritten von 0.5 m berechnet. Diese Höhenprofile zeigen die Position und Dichte der Baumkronen. Der kombinierte Datensatz wurde für eine Klassifikation zwischen Fichten und Douglasien in jeweils mehreren Altersstufen verwendet und konnte gegenüber dem Hyperspektralbild alleine eine deutliche Verbesserung der Klassifikationsgenauigkeit erzielen. Als weitere Methode, die Vorteile von hyperspektraler Fernerkundung mit denen von Laser-scanning zu verbinden, wurden Methoden zur Verwendung von Laserscanning für die Invertierung von zwei Reflexionsmodellen entwickelt und getestet. Da mit Laserscanning Größen bestimmt werden können, die aus einem Reflexionsspektrum nicht eindeutig ableitbar sind, können die Daten verwendet werden, um den Parameterraum bei der Invertierung zu verkleinern und damit die Invertierung zuverlässiger zu machen.
In der vorliegenden Arbeit wurden potentielle Kandidatengene für Periodische Katatonie und Schizophrenie untersucht. Es erfolgte eine strukturelle und funktioneller Promotoranalyse des Megalencephalic leukoencephalopathy with subcortikal cysts 1 (Mlc1/MLC1)-Gens, welches eine Rolle bei der Entwicklung der Megalenzephalen Leukoenzephalopathie spielt und auch für die Ätiogenese der Periodischen Katatonie diskutiert wird. Die in silico Promotoranalyse ergab, daß Bindestellen für wichtige Transkriptionsfaktoren und gängige Promotorelemente wie TATA- und GC-Boxen fehlten. Ebenso konnte in vitro keine Aktivität des Promotors nachgewiesen werden, was vermuten läßt, daß ein noch nicht identifiziertes Enhancer-Element oder einen Ko-Faktor für die Aktivierung des Mlc1-Promotors nötig ist. Als ein weiteres Kandidatengen für die Periodische Katatonie wurde das Gen für die mitotic checkpoint kinase BUB1B auf eine mögliche Ätiologie für die Periodische Katatonie untersucht. Aufgrund fehlender kausativer Mutationen konnte BUB1B als Kandidatengen für die Periodische Katatonie ausgeschlossen werden. Ein weiterer Teil dieser Arbeit umfaßte eine Studie zur Untersuchung der Gene für den nikotinergen Acetylcholinrezeptor (CHRNA7), des D-aminosäure Aktivators (DAOA) und des bromodomain containing protein 1 (BRD1) mit einer Assoziation zur Schizophrenie. Es konnte hierbei eine Assoziation von BRD1 mit Schizophrenie bestätigt werden.
Im Rahmen der vorliegenden Dissertation wurden aus den umfassenden Daten der Umweltprobenbank des Bundes relative Vergleichsstandards abgeleitet, welche als Referenzsystem die allgemeine Belastungssituation und deren zeitliche Entwicklung in der Bundesrepublik widerspiegeln, eine Bewertung von gemessenen Schadstoffkonzentrationen in biologischen Matrizes sowie biometrischer Parameter der eingesetzten Bioindikatoren ermöglichen. Anhand der biometrischen Daten des Brassen und der rückstandsanalytischen Daten der Brassenmuskulatur wurde dieses Referenzsystem für die limnischen Systeme in der Bundesrepublik konzeptioniert und umgesetzt. Es handelt sich um ein Fünf-Klassen-System, bei dem die fünf Referenzbereiche durch vier Referenzwerte voneinander abgegrenzt werden. Die Referenzwerte sind aufgrund der repräsentativen Datenbasis in der Lage, die allgemeine Belastungssituation in der Bundesrepublik abzubilden. Da sie sich nur auf einen zweijährigen Bezugszeitraum beziehen und ständig fortgeschrieben werden, kann die zeitliche Entwicklung der allgemeinen Belastungssituation hervorragend dargestellt werden. Aufgrund ihrer rein naturwissenschaftlichen Basis sind Referenzwerte als Umweltqualitätskriterien zu verstehen. Mit den rückstandsanalytischen Umweltqualitätkriterien kann der stoffbezogene Gewässerzustand anhand von Bioindikatoren qualitativ bewertet werden, was eine deutliche Optimierung im stoffbezogenen Gewässerschutz darstellt. Zudem können die Referenzwerte als eine Basis für die Ableitung von hoheitlichen Umweltqualitätsstandards in Rechtsnormen herangezogen werden. Ergänzt werden die stoffbezogenen Umweltqualitätskriterien durch biometrischen Kenngrößen, die eine qualitative Bewertung der Lebensbedingungen des Bioindikators Brassen erlauben.
Es zählt zu den Gemeinplätzen der sozialwissenschaftlichen Forschung, dass politische Wirklichkeit sozial konstruiert ist. Wenig wissen wir hingegen darüber, wie politische Wirklichkeit entsteht, insbesondere wie Sprache bewirkt, dass etwas zu einer allgemein akzeptierten politischen Wirklichkeit wird. In Anknüpfung an die bisherige konstruktivistische Forschung rekonstruiert der Band auf methodisch innovative Weise den Gebrauch von Sprachbildern und Metaphern im deutschen Diskurs über den EU-Verfassungsvertrag. Durch die quantitative und qualitative Extrapolation des metaphorischen Sprechens in der Europadebatte lassen sich nicht nur signifikante Veränderungen in den Diskursen der bundesdeutschen Parteien offenlegen, sondern die Einzelmetaphern lassen sich auch zu machtvollen handlungsleitenden Narrativen verdichten. Dass die europäische Verfassungsfrage vor allem eine Frage der demokratischen Legitimation und europäischen Identität, des politischen Gestaltungswillens und der Finalität Europas ist, scheint dabei wenig überraschend. Dass die Frage der Konstitutionalisierung Europas aber auch und gerade ein Diskurs über neue Grenzziehungen und die partielle Schließung "offener Staatlichkeit" ist, kann hingegen als das eigentlich "Neue" in der deutschen Europapolitik angesehen werden.
Während deutsche Einwanderer sich nur bedingt gegen die Institution der Sklaverei aussprachen, zeigten sie in ihrer Sicht auf African Americans ein weit höheres Maß an Geschlossenheit in ihrer ablehnenden Haltung. Um die Divergenz zwischen der Wahrnehmung von Sklaverei und African Americans sinnvoll zu kontextualisieren und zu erklären, erscheint die Kategorie der race als erhellende Untersuchungseinheit, welche hilft, die einseitige Wahrnehmung auf der menschlichen im Vergleich zur institutionellen Ebene zu beleuchten. Da der Begriff race weit weniger ideologisch belastet ist als der Begriff des Rassismus, bietet er ein Instrument, welches die nötige Offenheit für verschiedene Erklärungsansätze besitzt. Als Arbeitsgrundlage dient dabei die Definition von Stephen Cornell und Douglas Hartman. Die Autoren betonen besonders stark den menschlichen Ursprung der Kategorie race, ein für diese Untersuchung besonders wichtiger Aspekt, weil er auf die soziale Eingebundenheit des Konzepts verweist. Als solches handelt es sich bei race um eine historische Einheit, die Diskussionen und Wandlungen unterworfen war. Menschen schufen diese Kategorie als distinktes Merkmal für eine Gruppe von Menschen, die sie so eindeutig als von sich selbst unterschiedlich darstellten und damit eine möglichst große und eindeutige Differenz schufen. Diese Vorüberlegungen bilden die Basis für den Kontext, in dem die deutschen Einwanderer ihre Unterschiedlichkeit zu schwarzen Menschen wahrnahmen und davon ausgehend diese als Menschen beurteilten, was häufig mit einer Bewertung der Institution der Sklaverei einherging, der viele der in Amerika lebenden African Americans unterworfen waren. Die Divergenz zwischen dem Selbst und dem Gegenüber schlägt sich dabei in den komplementären Konzepten von blackness und whiteness nieder. Im Zusammenhang mit den deutschen Immigranten spielen diese beiden Perspektiven eine wichtige Rolle, weil so die Denkmuster der Deutschen zum Teil aus ihrem Fokus auf das Anderssein ihres Gegenübers, also der blackness, und zum Teil aus dem Gefühl der eigenen besonderen Stellung, also der whiteness, zu erklären sind. Deutsche Einwanderer schlossen sich Argumentationsmustern aus der Literatur oder der Populärwissenschaft in unterschiedlichen Ausprägung sowohl direkt auch indirekt an, was darauf hindeutet, dass sie wohl mit Gedanken um die Thematik blackness bereits schon in der alten Heimat in variierender Intensität konfrontiert worden waren und damit ihre Äußerungen zu schwarzen Menschen, welche sie nach ihrer Ankunft in den USA trafen, auch auf Vorstellungen beruhten, die sie vor einem direkten Kontakt mit Schwarzen geformt hatten. In Anlehnung an die Diskussionen innerhalb der USA zu schwarzen Menschen wurde Blackness für die deutschen Einwanderer zu einer gesellschaftlichen Kategorie, mit der sie sich in unterschiedlichen Intensitätsgraden auseinandersetzten mussten, weil sie potentiell enorme Auswirkungen auf die verschiedensten Aspekte des Lebens haben konnte. Die Institution der Sklaverei als eine auf race basierende Arbeitsform spielte dabei eine wichtige Rolle, weil hier eine institutionalisierte Manifestation der rassistischen Hierarchisierung in der amerikanischen Gesellschaft existierte. Innerhalb dieser hierarchisierten Gesellschaft stellte die Distanzierung von schwarzen Menschen und, damit einhergehend, die Integration in die Gruppe der weißen Amerikaner eine grundlegende Tendenz dar. Die Kategorie whiteness gewann also enorm an Wichtigkeit für die Einwanderer, wobei die sich daraus ergebenden Folgen etwa in wirtschaftlicher Hinsicht nicht unbedingt der Realität entsprechen mussten, sondern auch auf subjektive Wahrnehmungen beschränkt sein konnten. Vor diesem Hintergrund erklärt sich die hohe Zahl der deutschen Immigranten, die eine latente Abneigung oder sogar offene Abscheu gegenüber African Americans zeigte. Dieser Anreiz zur Differenzierung in Weiße und Schwarze war im Zusammenhang mit der Diskussion um die Institution der Sklaverei nicht gegeben, denn dabei ging es vor allem den intellektuellen Deutschen primär um abstrakte Ideen wie Freiheit und Gleichheit, die sie dann ohne oder nur mit geringem Bezug zu schwarzen Menschen diskutierten. Solange also die Distanz zu African Americans und damit die Zugehörigkeit zur Kategorie whiteness gewahrt blieb, konnten die Deutschen ihre Meinungen gegen die Sklaverei äußern. Es ging dann nicht um das Wohl der Schwarzen, sondern um die Institution und die damit verbundenen abstrakten Prinzipien.
Zu Beginn des 18. Jh. setzten sich der Franzose Jean-Baptiste Du Bos (Réflexions critiques sur la poësie et sur la peinture, Paris 1719) und der Italiener Francesco de Ficoroni (Le maschere sceniche e le figure comiche d"antichi romani, Rom 1736) mit der Frage auseinander, ob die antiken Theatermasken die Aufgabe gehabt haben könnten, die Stimme ihrer Träger zu verstärken. Beide kamen zu einem bejahenden Ergebnis, was zur Folge hatte, dass sich viele Handbücher der damaligen Zeit ihrer Meinung anschlossen. Bisweilen wurde dieser Ansicht widersprochen, die Frage offengelassen oder ganz übergangen. Mit der Veröffentlichung von Otto Dingeldeins Aufsatz "Haben die Theatermasken der Alten die Stimme verstärkt?" (Berlin 1890) schien das Interesse an dieser Thematik zu versiegen. Dingeldein erteilte der Stimmverstärkungsfunktion eine entschiedene Absage. Zahlreiche spätere Autoren folgten ihm, indem sie hinsichtlich der akustischen Funktion der Masken lediglich auf seine Abhandlung verwiesen. Kann die Frage der Stimmverstärkung durch die antiken Theatermasken wirklich als vollständig geklärt gelten? Die Tatsache, dass dieses Thema bisher überwiegend aus archäologisch-philologischer Sicht betrachtet wurde, gibt zu Bedenken Anlass, denn eine umfassende Untersuchung desselben erfordert unweigerlich interdisziplinäre Behandlung: Kenntnisse der alten Sprachen, der antiken Kultur (Religion, Theater- und Maskengeschichte, Theater- und Maskenbau), der Akustik sowie insbesondere der menschlichen Stimme. Die bisherigen Beiträge auf diesem Gebiet versuchten zwar teilweise, diesem Anspruch zu genügen, doch fördert eine Einsichtnahme derselben häufig ein unzureichendes phonetisches Verständnis zutage. Aus diesem Grund greift die vorliegende Arbeit die Überprüfung der Verstärkungsfunktion erneut auf, mit dem Ziel, sowohl archäologisch-philologischen als auch phonetischen Erwartungen zu entsprechen. Da die Maske nicht nur zu den Requisiten des antiken Theaters zählte, sondern auch ein Element der griechischen Religion bildete, ist der eigentlichen Untersuchung der Verstärkungsfähigkeit antiker Masken eine Einführung in das antike Theaterwesen und den mit diesem stets verbunden gebliebenen Dionysos-Kult vorangestellt. Ausgehend von einer knappen Skizzierung der antiken Maske (Definition, Aussehen, Handhabung) und ihrer Verankerung im religiösen Bereich (Herkunft) wird zunächst ein Einblick in die Entstehungsgeschichte des griechischen Theaters gegeben (der Gott Dionysos, seine Begleiter, seine Attribute und sein Kult). Danach erfolgt eine Einführung in das dem Kult entsprungene eigentliche Theater, das Theater als staatliche Institution: angefangen bei den attischen Dionysos-Festen, aus denen exemplarisch die Städtischen Dionysien herausgegriffen werden (Festverlauf, -vorbereitung, Ehrungen und Weihgeschenke, Chancengleichheit, Publikum, Schauspieler), über die außerattischen Aufführungen bis hin zu der Geschichte der antiken Maske als theatralischem Requisit, ihrer Entwicklung in der Tragödie und Komödie sowie ihrem Einfluss auf das Mienenspiel. Im Anschluss daran wird das Theaterwesen der Römer vorgestellt, da diese nicht nur das Bühnenspiel, sondern auch den Gebrauch der Maske (nicht aber deren religiöse Komponente) von den Griechen übernommen haben. So weit es möglich war, wurde hierbei versucht, die bei den Griechen besprochenen Aspekte auch bei den Römern Erwähnung finden zu lassen, so dass auch hier der Ursprung des Bühnenspiels den Anfang bildet, gefolgt von den verschiedenen "Spielen" (ludi), unter denen vor allem die "Bühnenspiele" (ludi scaenici) hervorgehoben werden, bis hin zu den Spielbedingungen, Schauspielern und Masken. Den Auftakt für die Untersuchung der akustischen Funktion der antiken Masken macht die Definition der Begriffe "Verstärkung" und "Verständlichkeit", die in der Vergangenheit oft miteinander in Zusammenhang gebracht wurden, deren phonetische Differenzierung für die Analyse der vorliegenden Fragestellung jedoch von erheblicher Wichtigkeit ist. Anschließend werden die für eine Verstärkungsfähigkeit der antiken Masken vorgebrachten Belege vorgestellt, unterteilt in literarische Zeugnisse (Angaben antiker und spätantiker Autoren, aus denen eine Stimmverstärkungsfunktion hervorzugehen scheint), architektonische Beobachtungen (häufig sehr auffallende Mundöffnungen der antiken Masken, für die man eine andere Erklärung als Stimmverstärkung nicht zu finden wusste) sowie pragmatische Überlegungen (Glaube an die Unerlässlichkeit einer künstlichen Stimmverstärkung angesichts der gewaltigen Größe der antiken Freilufttheater und der damit verbundenen Zuschauermassen; befremdende Wirkung maskierter Schauspieler, woraus geschlossen wurde, dass die Masken eine spezielle Bedeutung gehabt haben müssen), deren Gültigkeit detailliert untersucht wird. Als Abschluss werden die Ergebnisse zusammengefasst.
Im Fokus dieser Untersuchung steht die Evaluation allgemeinpsychiatrischer tagesklinischer Behandlung, einerseits zur Überprüfung der Wirksamkeit der teilstationären Intervention bzgl. der Symptomatik, andererseits unter der speziellen Berücksichtigung von generalisierten Vertrauensaspekten (Vertrauenstrias) auf dem theoretischen Hintergrund des Handlungstheoretischen Partialmodells der Persönlichkeit (Krampen, 1987) und ihren Zusammenhängen zu psychischen Erkrankungen. Dem wurde in einer Fragebogenstudie mit 200 tagesklinischen Patienten im Alter von 16 bis 80 Jahren, die im Zeitraum von Oktober 2002 bis Februar 2004 in einer südwestdeutschen Kleinstadt teilstationär aufgenommen worden waren, nachgegangen. Die Patienten unterscheiden sich sowohl in den soziodemographischen Variablen als auch in Diagnosen und Behandlungszeiträumen. Wie in den Hypothesen angenommen, kann in dieser Studie gezeigt werden, dass die teilstationäre Behandlung eine deutliche Verringerung der psychischen Belastung mit sich bringt und Vertrauen " mit Ausnahme von interpersonalem " gesteigert wird. Weiterhin wurden negative Zusammenhänge zwischen Vertrauen und psychischer Krankheit/Gesundheit und Unterschiede bezüglich einzelner Störungsbilder angenommen. Die einzelnen Hypothesen hierzu werden ebenfalls durch diese Studie größtenteils bestätigt.
Ausgangspunkt ist der demographische Wandel und die damit einhergehende älter werdende Erwerbsbevölkerung. Es wird davon ausgegangen, dass aufgrund dieser Entwicklung einige Unternehmen senioritätsorientierte Entgeltstrukturen grundlegend verändern bzw. abschaffen müssen. Es gibt bisher einige wenige theoretische Überlegungen, wie diese veränderten Entgeltstrukturen aussehen könnten. Jedoch wird hierbei nicht berücksichtigt, wie ältere Beschäftigte auf eine derartige Veränderung reagieren könnten. Dieser Frage wird im Rahmen der Dissertation nachgegangen. Ein gesondertes Augenmerk, wird zudem auf die möglichen Reaktionen älterer Arbeitnehmer auf eine Anhebung des Renteneintrittsalters auf 67 Jahre gelegt. Zu diesem Zweck werden aus verschiedenen theoretischen Perspektiven mögliche Verhaltensreaktionen älterer Arbeitnehmer abgeleitet. Grund für die breitangelegte Betrachtung des Sachverhaltes ist die mehrdeutige Bedeutung von Einkommen. Die Höhe der Entlohnung ist nicht nur als Gegenleistung der erbrachten Arbeitsleistung zu sehen, sondern immer auch als Ausdruck von Macht, Prestige, sozialen Status etc. Berücksichtigung finden klassische ökonomische Theorien, Motivationstheorien, Wertwandeltheorien, Theorien zur Arbeitszufriedenheit und Machttheorien. Bei der Behandlung der verschiedenen Theorien wurde des Weiteren der Frage nach alternativen Anreizen zu monetären Anreizen nachgegangen, welche eine spezifische Wirkung auf ältere Arbeitnehmer entwickeln können. Durch eine weiterentwickelte Typologie drei verschiedener Typen der Arbeitsorientierung werden als Ergebnis mögliche Verhaltensreaktionen näher erläutert und auf mögliche alternative Anreize eingegangen.
Seuchen und Krieg waren jedem einzelnen Individuum der spätmittelalterlichen Gesellschaft als elementare Bedrohungen des eigenen Lebens stets gegenwärtig. Welch hohen Stellenwert diese Katastrophen im Bewußtsein der Bevölkerung einnahmen, läßt sich anhand der vielfältigen zeitgenössischen Bild- und Textzeugnisse erschließen. Während diese vor der Mitte des 15. Jahrhunderts aufgrund der manuellen Fertigung in Skriptorien und den Werkstätten von Kartenmalern nur einem relativ kleinen Personenkreis zugänglich waren, herrschten nach der Erfindung des Buchdrucks völlig neue Voraussetzungen bei der Produktion, Reproduktion und Vervielfältigung von Schriftlichkeit. Mit der Druckkunst stand erstmals eine Technologie zur Verfügung, welches es erlaubte, in kurzer Zeit Abbildungen und Texte in bisher nicht geahnter Auflagenhöhe zu fertigen. Mit den Einblattdrucken wurde früh eine Form gefunden - der erste datierbare Einblattdruck ist ein Mainzer Ablaßbrief aus dem Jahre 1454 -, die es erlaubte, mit niedrigem Aufwand einen großen Personenkreis zu erreichen. Die inhaltliche Bandbreite dieser Sonderform des frühen Drucks war beträchtlich. Sowohl textliche als auch bildliche Elemente wurden genutzt, um Ablaßbriefe, Almanache, Lehr- und Mahnblätter sowie Wunderberichte, Sensationsmeldungen usw. zu gestalten. Auftraggeber dieser Blätter waren in der Regel kirchliche und weltliche Institutionen. Neben den bereits genannten Ablaßbriefen bildeten die sogenannten "Andachtsblätter" eine weitere wichtige Gruppe dieser Druckgattung. Nachweislich ist diese besondere Form der Gebets-Fokussierung bereits für das 14. Jahrhundert. Mit dem Aufkommen des Typendrucks setzte eine erste serielle Herstellung von Andachtsblättern ein. Speziell Blätter, welche die Seuchenabwehr thematisierten, wurden bald in großer Vielfalt verlegt. Der Schutz vor Pest und Syphilis nahm hierbei einen hohen Stellenwert ein.rnDas inhaltliche Spektrum dieser "Pestblätter" reichte von der einfachen Fürbitte um Interzession durch den jeweils angerufenen Krankheitspatron bis hin zu komplexen medizinisch, diätetischen Anweisungen in Bild und Text. Neben diesem eher anleitenden Charakter verband der mittelalterliche Mensch mit dieser Variante des Einblattdrucks auch die Funktion eines apotropäischen Talismans.rnAußer der Bedrohung durch Krankheiten sah sich die mittelalterliche Gesellschaft des 15. Jahrhunderts mit einer weiteren existentiellen Bedrohung konfrontiert - dem Krieg. Auch wenn die deutschen Territorien im 15. Jahrhundert weitgehend von großen kriegerischen Auseinandersetzungen verschont blieben, so reichte der sogenannte Schweizer- oder Schwabenkrieg sowie der Bayerisch-Pfälzische (oder Landshuter) Erbfolgekriege aus, die gravierenden Folgen der Kriegsführung für die zivile Gesellschaft vor Augen zu führen. Zu einer weiteren Steigerung der "Kriegsangst" führten die in diesem Zeitraum stattfindenden Auseinandersetzungen mit dem expandierenden Osmanischen Reich. Diese dezidierte Untersuchung der frühesten Einblattdrucke baut auf mehreren grundsätzlichen Fragestellungen auf: Wie, von wem, warum und wann wurden Einblattdrucke hergestellt? Wie und wo erfolgte die Verbreitung von Einblattdrucken? Wer erwarb wann Einblattdrucke und aus welcher Absicht heraus tat er dies? Diese recht komplexen Fragestellungen lassen sich auf drei Schlagworte reduzieren: »Produktion - Diffusion - Rezeption« Aus diesen drei Aspekten des "Lebenslaufes" eines Einblatts ergeben sich die zentralen Forschungsschwerpunkte dieses Projekts. Daher wird auch nach einer einführenden Begriffsdefinition des "Katastrophenblattes" das Hauptaugenmerk zunächst auf der Produktion dieser Druckgattung - den Einblattdrucken - liegen. Bei der anschließend untersuchten Diffusion ist von besonderem Interesse, an welchen Orten, zu welchem Zeitpunkt die Drucke vom Hersteller oder Auftraggeber in den Besitz des "Endverbrauchers" gelangten. Dieses Detail der Untersuchung ist auch daher von besonderer Bedeutung, da über die hier zu ermittelnden Ergebnisse eine Zuordnung erfolgen kann, in welchem gesellschaftlichen Umfeld die Blätter ihre Verwendung fanden. Der Kreis der Rezipienten schließlich ist in mehr als einer Beziehung für dieses Projekt von Bedeutung. Zunächst erlaubt die Kenntnis um ihren gesellschaftlichen Stand eine Einordnung in ein soziales Umfeld. Hieraus wiederum sind Rückschlüsse auf die Formen des Gebrauchs, in diesem Zusammenhang ist insbesondere die Lesefähigkeit von außerordentlicher Relevanz, der Einblattdrucke, welche Katastrophen thematisieren - möglich. Die somit gleichsam am Ende stehenden Gebrauchsformen - diese lassen sich nicht nur aus den Textinhalten der Blätter, sondern auch anhand von Benutzungsspuren, Fundorten usw. ermitteln - bieten Erkenntnisse, wie katastrophalen Ereignissen auf die spätmittelalterliche Gesellschaft einwirkten und welche Schlußfolgerungen diese daraus zog, um letztlich eine Antwort auf sie zu finden.
Theoretischer Hintergrund der vorliegenden Arbeit bildet das Persönlichkeitskonstrukt der Kontrollüberzeugungen (locus of control). Es wurde im Rahmen der sozialen Lerntheorie von Rotter (1954, 1966) entwickelt und beinhaltet generalisierte Handlungs-Ergebnis-Erwartungen. Die zunächst eindimensionale Erfassung der internalen versus externalen Kontrollüber-zeugungen erfuhr " nicht zuletzt aufgrund widersprüchlicher empirischer Befunde " durch Levenson (1972) eine Differenzierung in eine sozial bedingte und eine fatalistische Externalität. In Bezug auf die Vorhersage des Behandlungserfolgs bei Alkoholabhängigkeit hat sich in bisherigen Studien die mehrdimensionale, bereichsspezifische Erfassung der Kontrollüberzeugungen etabliert. In den zahlreichen Untersuchungen, die sich in ihrer Methodik stark voneinander unterscheiden, stellte sich eine höhere Internalität als prädiktiv für eine günstige, eine erhöhte fatalistische Externalität hingegen als prädiktiv für eine ungünstige Prognose heraus. Dabei wird von einem umgekehrt u-förmigen Verlauf eines günstigen Kontrollüberzeugungsstils ausgegangen, wonach sowohl eine zu hohe als auch eine zu niedrige Internalität zu einer inadäquaten Wahrnehmung der eigenen Kontrollmöglichkeiten führen. In dieser Arbeit interessieren die Veränderungen in den generalisierten und bereichsspezifischen Kontroll- und Kompetenzüberzeugungen bei stationär behandelten alkoholabhängigen Patienten. Unter Berücksichtigung weiterer Variablen wie Therapiemotivation, psychopathologische Symptombelastung, Suchtverlangen und komorbide depressive Erkrankung sollen Prädiktoren für die Rückfälligkeit während der Behandlung sowie bis zu einem Jahr danach identifiziert werden. Im Weiteren werden bedeutsame Zusammenhänge zwischen der Ausprägung der Kontrollüberzeugungen und kognitiven Leistungsbeeinträchtigungen vermutet. Externale Kontrollüberzeugungen werden dabei mit Leistungsdefiziten in Verbindung gebracht. Zur Untersuchung der Frage, ob eine hohe Internalität mit einer generellen Überschätzung der eigenen Fähigkeiten und damit einem ungünstigeren Behandlungsergebnis einhergeht, soll die Selbsteinschätzung in fünf neuropsychologischen Testverfahren herangezogen werden. Es wurden 102 alkoholabhängige Patienten in die Studie eingeschlossen. 81 davon konnten sowohl am Anfang als auch am Ende einer durchschnittlich zehnwöchigen stationären Behandlung untersucht werden. 51 Patienten wurden zusätzlich nach einem Jahr schriftlich befragt. Während der Behandlung konnten bei der gesamten Stichprobe, insbesondere bei Patienten mit einem ungünstigeren Kontrollüberzeugungsstil, Veränderungen in die gewünschte Richtung beobachtet werden: Das Selbstkonzept und die Internalität nahmen zu, während sich die sozial bedingte und fatalistische Externalität verringerten. Als einziger signifikanter Prädiktor für die Ein-Jahres-Abstinenz stellte sich das bereichsspezifische, prospektiv ausgerichtete Selbstkonzept zu Beginn der Behandlung heraus. Die bei Behandlungsende erhobenen Variablen besassen keinen Vorhersagewert. Insofern kann angenommen werden, dass die Veränderungen während der Behandlung in nicht unerheblichem Masse durch kurzzeitige Hospitalisations- und soziale Erwünschtheitseffekte beeinflusst worden sind. Patienten, die bereits während der Behandlung rückfällig wurden, zeichneten sich im Vergleich zu abstinenten Patienten bereits zu Beginn durch ein niedrigeres Selbstkonzept, eine niedrigere Internalität sowie eine erhöhte fatalistische Externalität aus. Sie waren psychisch belasteter, hatten ein grösseres Suchtverlangen und wiesen häufiger eine komorbide depressive Störung auf. Bezüglich der bereichsspezifischen, nicht jedoch der generalisierten Kontrollüberzeugungen unterschieden sie sich am Ende der Behandlung noch deutlicher von abstinen-ten Patienten. Die Differenzen blieben bis zur Ein-Jahres-Katamnese bestehen. Insgesamt stellten für die Rückfälligkeit während der Behandlung ein ungünstigerer Kontrollüberzeugungsstil, eine depressive Erkrankung, ein hohes Suchtverlangen und kognitive Leistungseinbussen Risikofaktoren dar, die sich wechselseitig beeinflussten. Patienten mit sehr hoher Internalität zeichneten sich durch eine generelle Überschätzung ihrer kognitiven Leistungsfähigkeit aus. Übereinstimmend damit schützte eine sehr hohe Internalität nicht vor Rückfälligkeit. Eine niedrige Internalität ging hingegen mit einer Unterschätzung der Leistungsfähigkeit in zwei von fünf Tests einher. Die Ergebnisse entsprechen grösstenteils den Erwartungen. Sie werden abschliessend unter Berücksichtigung der methodischen Stärken und Schwächen der vorliegenden empirischen Untersuchung erörtert, in den aktuellen Kenntnisstand eingeordnet und im Hinblick auf zukünftige Forschungsperspektiven diskutiert.
Die vorliegende Arbeit widmet sich der Beantwortung der Fragestellung, inwieweit die NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen erfolgreich war, und aufgrund welcher Akteure, Praktiken und Bedingungen die Normübernahme (nicht) erfolgte. NATOisierung wird hierbei als Sozialisationsprozess im Politikfeld Sicherheit begriffen. Konzeptioneller Ausgangspunkt für die theoriegeleiteten Fallstudien bildet die Entwicklung eines Forschungsdesigns, mittels dessen der rational-institutionalistische und der konstruktivistisch-institutionalistische Strang der internationalen Sozialisations-forschung für die Analyse der NATOisierung postkommunistischer Sicherheitspolitik nutzbar gemacht werden kann. In Kritik an der Mehrheit der Sozialisationsstudien, die die Übernahme von Normen internationaler Institutionen seitens der postkommunistischen Staaten entweder als Verhandlungs- und Anpassungsprozess strategisch handelnder Akteure oder als sozialen Lern- und normativen Überzeugungsprozess intrinsisch motivierter Akteure betrachten, argumentiert diese Studie, dass die Wahl eines komplementären Zugangs sowohl aus theoretisch-konzeptionellen als auch empirisch-phänomenologischen Erwägungen unabdingbar ist. Die hierbei zu Grunde liegende Methode der doppelten Interpretation, mittels derer der Verlauf und das Ergebnis der NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen sowohl aus Sicht des rationalen als auch des konstruktivistischen Institutionalismus beleuchtet worden sind, hat sich als tragfähig erwiesen. In der Tat variiert die Erklärungskraft beider theoretischer Ansätze im Hinblick auf die unterschiedlichen Akteure, Phasen und/oder Kontexte des sicherheitspolitischen Sozialisationsprozesses. Wenngleich die NATO durch ihre Sozialisationspolitik den Demokratisierungsprozess Polens und Tschechiens im Politikfeld Sicherheit begünstigte, bestätigt die empirische Analyse die weit verbreitete Betrachtungsweise der 'Partnerschaft für den Frieden' als ausschließliche Erfolgsgeschichte nicht. Vielmehr war die Erweiterungs- und Sozialisationspolitik der NATO mit gravierenden (nichtintendierenden) Konsequenzen verbunden, die sich hinderlich auf die Transformation der zivil-militärischen Beziehungen postkommunistischer Staaten auswirkten.
In dieser Abhandlung wird die Stellung der Mädchenbildung in der staatlichen Bildungspolitik in der Phase verdichteter staatlicher Reformbestrebungen an der Wende vom 18. zum 19. Jahrhundert untersucht. Dazu wird ein Vergleich zwischen der preußischen Kurmark und dem Land Österreich unter der Enns in Österreich durchgeführt.
Die Arbeit beschäftigt sich mit der Interaktion zwischen den Juden des Regnum Teutonicum und den verschiedenen Herrschaftsträgern, mit denen die Juden in Kontakt kamen. Dies waren neben dem König auch geistliche und weltliche Landes- und Stadtherren. Chronologisch an vier Herrschaftsphasen Rudolfs ausgerichtet, analysiert die Studie sämtliche überlieferte schriftliche Zeugnisse, um insbesondere der Frage nach der Bedeutung der Kammerknechtschaft im Reich nachzugehen. Diese stellt sich als höchst ambivalente und keinesfalls nur negative Beziehungsform heraus, die zudem nur in einem europäischen Kontext verständlich wird.
Markenaufbau von Destinationen ist eine kostenintensive und langfristige Angelegenheit. In den vergangenen Jahren stieg das Interesse von Kommunen, Regionen und Ländern die Markenbildung zu verstärken. Gleichzeitig wird aber auch immer mehr der Ruf lauter ein Instrument zu schaffen, das Markenbewertung für Destinationen vornimmt. Vor allem in der Konsumgüter und Investitionsgüterindustrie finden sich zahlreiche Ansätze zur Markenbewertung, im Destinationsmanagement gibt es das bisher kaum. Es gibt drei verschiedene Arten von Verfahren, die meist von Unternehmensberatungen oder Wissenschaftlern entwickelt wurden: Messung des Markenwertes, Messung der Markenstärke und hybride Verfahren. Für Destinationen machen rein quantitative Verfahren wenig Sinn, da es beim Thema "Reise" auch auf eine Vielzahl von qualitativen Merkmalen ankommt. Von daher wurde im Rahmen dieser Dissertation entschieden, sich primär auf ein qualitatives Verfahren zu konzentrieren und verschiedene Modelle der Markenbewertung zu überprüfen. Das Resultat der Überprüfung zeigte, dass es notwendig war verschiedene Modelle zu kombinieren, um damit die Markenstärke einer Destination zu messen. Als empirisches Beispiel wurde hier Spanien ausgewählt, da dies als ein erfolgreiches Beispiel für Branding in der Fachliteratur gesehen wird. Dieses neu entwickelte Verfahren wurde an der Destination Spanien überprüft im Rahmen einer Projektstudie mit Studierenden der Universität Trier. Das Ergebnis zeigte, dass der Ansatz eines qualitativen Verfahrens richtig war, allerdings könnte es in ein hybrides Verfahren überführt werden. Kooperationspartner für die Dissertation war Turespana, Berlin.
Die Fauna-Flora-Habitat-Richtlinie (Richtlinie 92/43/EWG) stellt derzeit das umfangreichste Instrument des internationalen Naturschutzes zur Erhaltung der europäischen Biodiversität dar. Das Grundkonzept der FFH-RL beruht hierbei sowohl auf dem Schutz gefährdeter Arten als auch auf dem Erhalt natürlicher Lebensräume. Dieser ganzheitliche Ansatz verursacht jedoch infolge der großen Anzahl zu berücksichtigender Schutzgüter einen hohen personellen wie finanziellen Aufwand bei der Umsetzung der Richtlinienvorgaben. Daher wurde in der vorliegenden Arbeit am Beispiel der Schmetterlingsart Euphydryas aurinia (Anhang II FFH-RL) überprüft, inwieweit die Konzepte von ESUs (Evolutionarily Significant Units) und MUs (Management Units) geeignete Möglichkeiten bieten, um die Prioritätensetzung bei der Auswahl besonders schützenswerter Vorkommen gefährdeter Arten zu erleichtern. Zu diesem Zweck wurden mit drei verschiedenen Subspezies von E. aurinia (E. aurinia beckeri, E. aurinia debilis, E. aurinia aurinia) Fang-Markierung-Wiederfangstudien durchgeführt, sowie mit Hilfe von Allozym-Elektrophoresen populationsgenetische Parametern in europäischem Kontext und auf regionaler Ebene (Westtschechien) erfasst. Die drei untersuchten Subspezies zeigten hierbei spezifische ökologische Adaptationen an die jeweiligen Habitatbedingungen (z.B. bzgl. der Populationsdichte, Demographie und Mobilität). Ferner wiesen die genetischen Analysen starke Differenzierungen bei E. aurinia in Europa nach, die u.a. Antworten auf phylogeographische und taxonomische Fragestellungen ermöglichen. Auch auf regionaler Ebene (Westtschechien) konnten genetische Differenzierungen festgestellt werden. Auf Basis der erhobenen populationsökologischen und -genetischen Daten wird abschließend die generelle Anwendbarkeit und der Nutzen der Konzepte von ESUs und MUs bei der Etablierung von Schutzkonzepten für E. aurinia und andere Arten der FFH-RL diskutiert. rnDer zweite Teil der vorliegenden Arbeit beschäftigt sich exemplarisch mit dem aktuellen Schutzverfahren für deutsche E. aurinia-Vorkommen im Rahmen der FFH-RL und den damit verbundenen Problemen. Der Schwerpunkt lag hierbei auf der Schutzgebietsauswahl, dem Monitoring und dem Gebietsmanagement. In diesem Kontext werden u.a. Problematiken angesprochen, die sich aus der großen ökologischen Variabilität der Art ergeben bzw. die aufgrund von Koordinierungsschwierigkeiten zwischen einzelnen Bundesländern bestehen. Vor dem Hintergrund dieser Erkenntnisse werden Lösungsvorschläge unterbreitet, wie das aktuelle Schutzverfahren für E. aurinia in Deutschland weiter verbessert werden könnte.
Der Forschungsbereich der Systembiologie hat sich in den letzten Jahren mit unvergleichlicher Dynamik entwickelt und sich als interdisziplinäres Feld in den Biowissenschaften etabliert. Die Systembiologie verfolgt hierbei unter anderem das Ziel, biologische Systeme als Ganzes zu betrachten. Die analytische Erfassung der Stoffwechselzwischenprodukte, auch Metaboliten genannt, eröffnet hierbei neue Möglichkeiten. Metaboliten stellen Zwischenprodukte in vivo ablaufender biochemischer Reaktionen dar und stehen in enger Abhängigkeit zu Vorgängen, welche auf der Ebene von Transkriptom und Proteom gesteuert und ermöglicht werden. In dieser Arbeit wurden Zeitreihen von Metabolitkonzentrationen untersucht, welche im Rahmen von Fermentationsexperimenten mit dem nicht-pathogenen Bodenbakterium Corynebacterium glutamicum erfasst worden sind. Die Fermentationsexperimente wurden auf unterschiedlichen Ausgangssubstraten durchgeführt, wobei die Erfassung der Metabolitkonzentration in äquidistanten zeitlichen Abständen gehandhabt wurde. Zur Korrektur von Messfehlern und zur optimalen Vorverarbeitung der Daten wurde ein maßgeschneidertes System der Datenprozessierung entwickelt. Eine unüberwachte Datenstrukturanalyse ergab, dass sich die Metaboliten ihrer zeitlichen Ausprägung nicht uniform oder gar zufällig verhalten, sondern sich in Gruppen unterschiedlichen Prozessverhaltens einordnen lassen. Diese unüberwachte Eingruppierung anhand der in den Zeitreihen vorhandenen Strukturen erlaubte eine erste grundlegende funktionelle Zuordnung der Metaboliten. Weiterhin konnten in den Konzentrationsdaten Strukturen gefunden werden, welche deutliche Übereinstimmungen mit den physiologischen Phasen des bakteriellen Wachstums zeigten. Die Analyse der Metabolomdaten wurde in einem nächsten Schritt durch eine theoretische Betrachtungsweise erweitert. Hierzu wurde der Stoffwechsel von C. glutamicum rechnergestützt modelliert. Zu diesem Zweck wurde eine Genomannotation durchgeführt, mit dem Ziel einen möglichst umfangreichen und qualitativ hochwertigen Katalog über das enzymatische Repertoire von C. glutamicum aus Sequenzinformation abzuleiten. Generiertes Wissen über vorhandene Enzyme wurde in biochemische Reaktionen übersetzt, welche zu Reaktionsnetzwerken zusammengefügt wurden. Die erzeugten Reaktionsnetzwerke wurden unter Verwendung graphentheoretischer Ansätze analysiert. Die integrative Analyse experimenteller und theoretischer Daten ergab, dass sich Eigenschaften von Metabolitzeitreihen deutlich topologischen Merkmalen zuordnen lassen. So zeigt sich beispielsweise, dass ein auffälliger Zusammenhang zwischen der experimentell erfassten Sensitivität im Konzentrationsverlauf eines Metaboliten und seinem theoretischen Verknüpfungsgrad existiert. Weiterhin konnte gezeigt werden, dass eine hochsignifikante Prozessähnlichkeit zwischen Metaboliten sowohl in direkter Nachbarschaft als auch in größeren Reaktionsabständen auftreten kann, jedoch vorzugsweise dann existiert, wenn beide Metaboliten ihrerseits wenige Reaktionspartner haben. Die integrative Datenanalyse wurde in einem weiteren Schritt abermals erweitert, indem Transkriptominformation weiterer Studien integriert wurde. Im Detail wurde in dieser Analyse die Prozessähnlichkeit theoretisch benachbarter Metaboliten des Zentralstoffwechsels in Zusammenschau mit der Transkription enzymkodierender Gene untersucht. Die Ergebnisse zeigten deutlich, dass eine erhöhte Prozessähnlichkeit benachbarter Metaboliten dann existiert, wenn die entsprechenden enzymkodierenden Gene in Abhängigkeit des verwendeten Ausgangssubstrates signifikant exprimiert waren. Somit konnte ein Zusammenhang zwischen der Prozessähnlichkeit benachbarter Metaboliten in Abhängigkeit zur Genexpression als Resultat substratinduzierter Anpassungsvorgänge gezeigt werden. Es konnte folglich im systembiologischen Kontext belegt werden, dass auf der Ebene des Transkriptoms stattfindende Vorgänge sich deutlich bis in die Zeitreiheneigenschaften erfasster Metabolitkonzentrationen durchpausen können. Darüber hinaus zeigte sich, dass die Berechnung paarweiser Prozessähnlichkeiten das Potenzial zur Charakterisierung der zugrundeliegenden Systemeigenschaften besitzt. So ermöglichte die Betrachtung paarweiser Prozessähnlichkeiten aus allen untersuchten Fermentationsexperimenten, signifikante substrat-induzierte Veränderungen als auch invariante Merkmale im Stoffwechsel von C. glutamicum zu detektieren.
Die vorliegende Arbeit umfasst ein Modell der Zusammenhänge zwischen Führungsverhalten und psychologischen Kontrakten als Einflussfaktoren mitarbeiterbezogener Einstellungen. Auf Seiten der Konsequenzen liegt der Fokus insbesondere auf der Entgeltzufriedenheit der Mitarbeiter. Jede der drei in der Dissertation dargestellten Studien trägt zu dem Verständnis bei, wie sich das Führungsverhalten und psychologische Kontrakte auf die Entgeltzufriedenheit auswirken. Die erste Studie stellt den Zusammenhang zwischen transformationaler Führung und Arbeits- und Entgeltzufriedenheit sowie dem Commitment in den Vordergrund. Zusätzlich wird untersucht, inwiefern der Effekt des Führungsverhaltens durch verschiedene Formen des psychologischen Kontrakts vermittelt wird. Auf Basis dieser Ergebnisse wird in einer zweiten Studie geprüft, inwiefern Entgeltzufriedenheit als multidimensionales Konstrukt betrachtet werden kann. Ferner wird transformationales mit transaktionalem Führungsverhalten kontrastiert, um deren differentielle Effekte zu analysieren. In einer dritten Studie werden die kausalen Beziehungen fokussiert, indem eine Stichprobe von 169 Mitarbeitern aus acht caritativen Unternehmen, in denen leistungsabhängige Vergütungssysteme implementiert wurden, analysiert wird. Zusammenfassend zeigen die Ergebnisse, dass die perzeptuellen Variablen Führung und psychologische Kontrakte als entscheidende Einflussfaktoren der Entgeltzufriedenheit dienen. Eine Diskussion der theoretischen und praktischen Implikationen schließt die Arbeit ab.
Die Verwendung von unbestimmten Rechtsbegriffen bereitet Schwierigkeiten bei der Anwendung und gefährdet die Rechtssicherheit. In vielen Rechtsnormen des Umweltrechts (u. a. UVPG) findet der unbestimmte Rechtsbegriff "voraussichtliche erhebliche Umweltauswirkungen" Verwendung. In dieser Arbeit wird ein Beitrag zur Konkretisierung dieses Begriffes im Rahmen der strategischen Umweltprüfung (SUP) geleistet. Dabei wird ein interdisziplinärer Forschungsansatz gewählt, der durch juristische, wie naturwissenschaftliche Methodik geprägt ist und dazu beiträgt das Schutzgut der Biodiversität genauer zu bestimmen. Dazu wird zunächst auf juristischer Ebene geprüft, ob aus dem UVPG sowie weiteren Rechtsnormen des Umweltrechts Informationen zur Konkretisierung dieses Begriffes zu gewinnen sind. Hiernach ergibt sich, dass der Erheblichkeitsbegriff insbesondere dazu dient, Bagatellfälle auszuklammern und Angleichungen zwischen den Rechtsnormen zu erreichen. Da die SUP seit 2005 geltendes Recht ist, ist es wichtig zu sehen, wie in der Gutachtenpraxis mit diesem unbestimmten Rechtsbegriff umgegangen wird. Daher sind vier Umweltberichte gemäß -§14g Satz 2 Nr.5 UVPG überprüft worden. Es stellte sich heraus, dass die Umweltberichte weder in der Lage sind die voraussichtlichen erheblichen Umweltauswirkungen zu Konkretisieren, noch wie es vom UVPG gemäß -§14g Satz 2 Nr.3 UVPG gefordert wird das Schutzgut der Biodiversität hinreichend darzustellen. Aus naturwissenschaftlicher Sicht wurden zunächst natürliche und anthropogene Auswirkungen auf die Biodiversität geprüft, um so die Faktoren zu ermitteln, die die Biodiversität besonders negativ zu beeinflussen vermögen. Demnach gilt es die Faktoren Habitatfragmentierung, Angleichungsprozesse (Biotic homogenization) und Intensität der Landnutzung im Rahmen der SUP frühzeitig zu vermeiden. Die "Convention of Biodiversity" zählt neben den Arten und Landschaften auch die genetische Ebene zum Begriff der Biodiversität. So ist es sinnvoll auch genetische Aspekte in die Schadensbewertung zu integrieren. Daher wurden in einer phylogeographischen Analyse die zwei Genorte Cytochrom Oxidase I und die Control Region der mtDNA des silbergrünen Bläuling, Polyommatus coridon (30 Populationen) untersucht. Es konnte gezeigt werden, dass genetische Analysen zwar wichtige Informationen für die Konkretisierung des unbestimmten Rechtsbegriffes liefern, aber dennoch mit Vorsicht diesbezüglich zu behandeln sind. Letztendlich stellte sich heraus, dass die Konkretisierung des unbestimmten Rechtbegriffes der voraussichtlichen erheblichen Umweltauswirkungen sich im Rahmen der strategischen Umweltprüfung mehr als schwierig und in Hinblick auf der Konzeption der SUP wenig sinnvoll erweist.
Von erinnerungsinduziertem Vergessen wird gesprochen, wenn die Gedächtnisleistung für bestimmte Information dadurch beeinträchtigt wird, dass zu ihr assoziierte Information zuvor abgerufen wurde. Die vorliegende Arbeit beschäftigt sich mit Effekten von Generierung und Selbstreferenz, die aus der Gedächtnisforschung als meist günstige Arten der Enkodierung bekannt sind, auf dieses Phänomen. Die bislang weitgehend vernachlässigt gebliebenen Gemeinsamkeiten von Generierung und Selbstreferenz sind der Ausgangspunkt für die Prüfung von Hypothesen über das Ausmaß erinnerungsinduzierten Vergessens generierter und selbstreferentiell enkodierter Items und dessen Moderation durch die Stimulusqualität der emotionalen Tönung von Items. Dabei wird auch eine funktionale Perspektive eingenommen, nach der erinnerungsinduziertes Vergessen als Ergebnis eines adaptiven Mechanismus verstanden wird und gefragt wird, nach welchen selbstdienlichen und handlungsrelevanten Funktionen erinnerungsinduziertes Vergessen verhindert werden mag und wie solche Funktionen mit verschiedenen Informationsverarbeitungsprozessen assoziiert sind.rnNachdem zunächst Enkodierungsprozesse und gespeicherte mentale Repräsentationen als Determinanten des Erinnerns, sowie die bisherige Forschung zu erinnerungsinduziertem Vergessen, Generierung und Selbstreferenz dargestellt werden, werden vier eigene Experimente geschildert. In Experiment 1 findet sich eine kontraintuitive Intensivierung erinnerungsinduzierten Vergessens infolge von Generierung, die zugleich aber in Einklang mit bestehenden Theorien steht und diese stützt. Außerdem ergeben sich Hinweise auf eine mit Generierung assoziierte Funktion, die durch die Aktivierung selbstrelevanter Repräsentationen gekennzeichnet ist. Beginnend mit Experiment 2 wird dann das Vorhaben verfolgt, Generierung und Selbstreferenz direkt gegenüberzustellen. Während die Experimente 2 und 3 zwar die Generalität des Phänomens erinnerungsinduzierten Vergessens weiter bestätigen und dessen Beeinflussung durch die emotionale Tönung demonstrieren, aber noch keine Ergebnisse zu Tage fördern, die eine Bewertung hinsichtlich unterschiedlicher oder identischer Konsequenzen von Generierung und Selbstreferenz erlauben, zeigt Experiment 4 schließlich eine Äquivalenz der Effekte von Generierung und Selbstreferenz auf, die in der identischen Moderation erinnerungsinduzierten Vergessens durch diernemotionale Tönung besteht. Diese Äquivalenz wird als Beleg der mit beiden Arten der Enkodierung gleichermaßen assoziierten Funktion selbstrelevanter Informationsverarbeitung interpretiert.
Die Breite und Tiefe der zu bewältigenden Aufgaben der Unternehmensführung, der Grad und die Geschwindigkeit der Veränderung der Umwelt der Unternehmung, die Interdependenz von Entscheidungen und ein schier unüberschaubares Netzwerk von Wechselbeziehungen mit den, von den Aktivitäten der Unternehmung betroffenen Individuen und Gruppen resultieren in sich laufend verändernden Ausgangslagen für die Unternehmung und verleihen der Notwendigkeit eines Gestaltungs-, Lenkungs- und Entwicklungsrahmens für das erforderliche Wechselspiel von Stabilisierung und Wandel der Unternehmung ihre Aktualität und Bedeutung. Die Hauptaufgabe der Unternehmensführung im Spannungsfeld komplexer systeminterner und systemexterner Beziehungsgeflechte ist der Umgang und die Bewältigung der sich aus diesen Beziehungsgeflechten bzw. deren Wandel ergebenden Komplexität. Der Paradigmenwechsel von einem reduktionistischen Unternehmensführungsverständnis, welches sich auf die Lenkung der Unternehmung auf Basis monistischer Zielvorstellungen versteht hin zu einem systemisch-evolutorischen Unternehmensführungsverständnis, welches sich auf die Gestaltung und Entwicklung der Unternehmung aufgrund von pluralistischen Zielsystemen und multiplen Kausalitätsbeziehungen versteht, ist noch nicht vollzogen. Auch sieht sich die Unternehmensführung den, im Wettbewerb stehenden Prämissen der opportunistischen Management-Philosophie des Shareholder-Value-Ansatzes und der verpflichteten Management-Philosophie des Stakeholder-Value-Ansatzes gegenüber. Diese Transitionsphase in Wissenschaft und Praxis sieht ein "Ringen zweier Paradigmen um ihre Durchsetzung", wobei diese Entwicklungsdynamik vom Spannungsverhältnis zwischen Bewahrung und Proliferation geprägt ist. Das vorgelegte systemisch-koevolutionäre Modell der strategischen Unternehmensführung stellt einen solchen Beitrag zum Paradigmenwechsel in der Unternehmensführung hin zu einem systemisch-evolutorischen Unternehmensführungsverständnisses auf Basis einer verpflichteten Management-Philosophie dar. Das, auf den dargelegten erkenntnistheoretischen Grundannahmen, Beschreibung von Wirkungszusammenhängen und Handlungsheuristiken der betrachteten Fallstudie aufbauende Modell für die langfristig erfolgreiche Unternehmensführung wird als ein Erklärungsmodell einerseits, welches die Wirkungszusammenhänge erfassen und verstehen helfen soll, und ein Gestaltungsmodell andererseits, welches den Entscheidungsprozess unterstützen soll, verstanden. Die strategische Unternehmensführung - als Prozess der Orientierung und Animation verstanden - soll in diesem Zusammenhang die nachhaltige Sicherung und den Aufbau von Erfolgspositionen, sowie die Aufrechterhaltung der bestehenden Koalitionen bzw. Schaffung der Voraussetzungen für die Bildung zukünftiger, nutzenstiftender Koalitionen zur Sicherung der sinnvollen langfristigen Lebensfähigkeit der Unternehmung, ermöglichen. Die Strategieentwicklung im "10-Stufen-Strategiemodell" wird durch die Komplementarität von marktorientierten und ressourcen- bzw. fähigkeitenorientierten Prozessen und Ansätzen geprägt, um die Wettbewerbsfähigkeit der Unternehmung im Zeitalter der "Hypercompetition" und Streben nach dynamischen und differenzierenden Fähigkeiten zu entwickeln und nachhaltig zu sichern. Dieser Strategieentwicklungsprozess erhält seinen Rahmen durch ein übergelagertes Stakeholdermanagementsystem, welches die Anspruchsbefriedigung und Nutzenoptimierung aller relevanten Stakeholdergruppen zur nutzenstiftenden Verankerung der Unternehmung in seiner Stakeholderumwelt zum Ziel hat. Das so genannte "Strategic Corporate Social Performance Modell" gibt diesem Stakeholdermanagementsystem Namen, Orientierung, Prozesse und Kontrollinstrumente und soll die gegenseitige Anerkennung der Ansprüche der so unterschiedlichen Stakeholdergruppen ermöglichen und zur Sicherung der wirtschaftlichen Basis, zur Wertsteigerung der Unternehmung und der Steigerung der Nutzenbefriedigung aller relevanter Stakeholder führen.
Die vorliegende Arbeit untersucht zwei grundlegende Fragestellungen im Hinblick auf den Betrieb von Genbanken als Beitrag zur Sicherung der genetischen Diversität. Das erste Kapitel behandelt aus rechtlicher Sicht die juristischen Fragen nach dem Zugang zu genetischen Ressourcen, nach dem Ausgleich aus der Nutzung entstehender Vorteile (Access and Benefit Sharing, ABS) und nach den Möglichkeiten des Handels mit Proben gefährdeter Tierarten, dies sowohl im Hinblick auf die rein wissenschaftliche Forschung als auch in Bezug auf kommerziell orientierte Zwecke. Grundlegend für die Bearbeitung dieser Fragen war die detaillierte Betrachtung des Übereinkommens über die biologische Vielfalt (CBD) und des Übereinkommens über den internationalen Handel mit gefährdeten Arten freilebender Tiere und Pflanzen (CITES). Da das CBD im Hinblick auf den Zugang zu genetischen Ressourcen in der Bundesrepublik Deutschland bisher nicht umgesetzt ist, bleibt dem Betreiber einer Genbank zur rechtlichen Absicherung und Klarheit nur die Aushandlung von Materialübertragungsverträgen mit den Ursprungsländern der genetischen Ressourcen. Der nachfolgende Handel mit gelagerten Proben gefährdeter Tierarten ist möglich, wenn dies nicht-kommerziell zur wissenschaftlichen Forschung erfolgt und die beteiligten Institutionen bei ihren Regierungen als wissenschaftliche Institutionen registriert sind. Bei kommerziellen Absichten unterliegt der Handel streng den durch das CITES vorgegebenen Regulierungen. Ausnahmen des Handelsverbotes sind möglich, z.B. dann wenn es sich um Proben von Tieren handelt, die in Gefangenschaft gezüchtet worden sind. Das zweite Kapitel behandelt aus naturwissenschaftlicher Sicht die Möglichkeit der direkten Gewinnung genetischer Materialien von Tieren. Hierbei wurde die Isolierung adulter Stammzellen aus der Haut von Säugetieren als Zielzellen zur Lagerung in Genbanken fokussiert. Am Modellorganismus Hausschwein (Sus scrofa domestica) wurde eine Methode zur Isolation adulter stammzellähnlicher Zellen aus der Haut etabliert. Durch nachfolgende Laborversuche wurden die isolierten stammzellähnlichen Zellen (pSSCs, porcine skin derived stem cell-like cells) charakterisiert. Wie mesenchymale Stammzellen haben pSSCs eine fibroblasten-ähnliche Morphologie und exprimieren die Oberflächenproteine CD9, CD29, CD44 , CD105 und sehr gering CD90. Neben diesen konnte die Expression der stammzellasoziierten Gene Stat3, Oct3/4, Sox2, Nestin, Bcrp1/ABCG2 und Bmi1 nachgewiesen werden. Weitere Versuche zeigten die induzierte Differenzierung der pSSCs zu Zellen zweier embryonaler Keimblätter, dem Ektoderm (Neuronen, Astrozyten) und dem Mesoderm (glatte Muskelzellen und Adipozyten). Zur vollständigen Charakterisierung und gänzlichen Ermittlung des Differenzierungspotentials bedarf es allerdings weiterer Versuche, die wegen der Kostspieligkeit und einem erhöhten zeitlichen Aufwand hier nicht realisierbar waren. Die Expansion und die Kryokonservierung der pSSCs zeigten geringfügige Auswirkungen auf den Phänotyp und das Differenzierungspotential. In Bezug auf die Kryokonservierung konnte wegen der geringen Anzahl an Versuchen eine definitive Aussage über ihre Folgen nicht getroffen werden. Folglich bedarf es weiterer Untersuchungen zur Ermittlung der Auswirkungen der Kryokonservierung auf adulte Stammzellen, die aus der Haut gewonnen werden können. Durch ihre Lagerung in Genbanken eröffnen aus der Haut isolierbare Stammzellen neue Möglichkeiten für den Artenschutz, dies vor allem durch ihre Anwendbarkeit im Rahmen modernster Reproduktionsmethoden und als nahezu unendliche DNA-Quelle für phylogenetische Studien, die zum Populationsmanagement unerlässlich sind. Trotz der sich aus dieser Arbeit ergebenden neuen Fragen - im Hinblick auf den Zugang, die Gewinnung und auch die Lagerung genetischer Materialien gefährdeter Tierarten -, bleibt festzuhalten, dass Genbanken generell die Möglichkeit bieten, vitales, biologisches Material bereitzuhalten. Dies ist sowohl bedeutend für die Grundlagenforschung als auch für den Einsatz dieser Materialien zur Steigerung der Reproduktion gefährdeter Arten, letztlich mit dem Ziel, genetische Variationen zu erhalten, die anderenfalls verloren gehen würden.
Reisen ist zum Spiegelbild einer Welt in Bewegung und ihrer Beschwörung grenzenloser Mobilität geworden. Dabei geht es nicht nur um die konkrete Bewegung zwischen Orten, sondern auch um das damit verbundene Bedeutungsnetzwerk, jene Imaginationen und Narrationen, die die Orte als Heimat und Ferne, Provinzen oder Urlaubsparadiese, Flucht- oder Treffpunkte erst entstehen lassen. Der vorliegende Band bietet einen multiperspektivischen Blick auf diese Topologien des Reisens, die utopische wie dystopische Raum- und Identitätsentwürfe evozieren. Neben geographischen und tourismuswissenschaftlichen Überlegungen zur Gestaltung und Nutzung von konkreten Tourismusräumen versammelt er vor allem kunst- und literaturwissenschaftliche Reflexionen über die Darstellung von Heimat und Fremde in Kunst und Literatur wie auch ethnologische Studien über das Leben spezifischer Personengruppen in der Migration. Häufig werden dabei Fragestellungen aus Postcolonial und Gender Studies zugrunde gelegt, die neben der politischen Dimension des Reisens auch die perspektivische Engführung bisheriger Erklärungsansätze aufzeigen, die beispielsweise in der analytischen Trennung von Reiseformen und Akteursperspektiven sowie in der Ignoranz gegenüber bestimmten Reiseformen ihren Ausdruck fand. rnSo steht der Band nicht nur für die Vielfalt an zeitgenössischen Reiseformen und -imaginationen im Zeitalter von Massentourismus, Migration und Virtualisierung, sondern auch für eine andere, theoretisch wie empirisch kritische Betrachtung eines globalen Phänomens. Inhalt: Alexandra Karentzos, Alma-Elisa Kittner, Julia Reuter Einleitung: Topologien des Reisens Julia Reuter Einleitung: Tourismus und Migration Andreas Ackermann Reisende Kulturen? Das Konzept der Diaspora in den Kulturwissenschaften, illustriert am Beispiel der Yeziden Jacqueline Knörr Vom "Expat Brat" in Afrika zum "Third Culture Kid" in Deutschland Ramona Lenz Migration und Tourismus als Gegenstand wissenschaftlicher und künstlerischer Projekte Alexandra Karentzos, Alma-Elisa Kittner Einführung: Holiday in Art - Kunst und Tourismus Christian Kravagna The Artist as Traveller. Aus den Reisealben der (Post-)Moderne Peter Schneemann "Miles and More". Welterfahrung und Weltentwurf des reisenenden Künstlers in der Gegenwart Hanna Büdenbender Massimo Vitali: Traumstrand versus Touristenmassen Thomas Küpper Einführung: Reisen in die heile Welt Ute Dettmar Berge voll Glück. Literarische Wege ins Reiseparadies Schweiz Christiane Holm Hier und Jetzt. Zur "Heilen Welt" in Reisetagebüchern und Weblogs von Frauen Peter Gendolla Phantome des Südens. Zur utopischen Differenz der Literatur im virtuellen Raum. Karlheinz Wöhler Tourismusräume: Virtualisierung des Realen - Realisierung des Virtuellen Viktoria Schmidt-Linsenhoff, Dorothea Coskun Einführung: Wandernde Objekte. Die Bedeutung der Mobilität der Dinge Gabriele Genge Grand Tour der reisenden Objekte: Performative Strategien in der afrikanischen Gegenwartskunst Jens Baumgarten Transformation asiatischer Artefakte in brasilianischen Kontexten
Der Radtourismus hat in den letzten 15 bis 20 Jahren eine dynamische Entwicklung genommen, die ihn zu einer wichtigen Tourismusart für viele Regionen in vor allem ländlich geprägten Regionen werden ließ. Die Konsequenz war und ist ein erheblicher Ausbau der radtouristischen Infrastruktur, die hauptsächlich aus öffentlichen Mitteln finanziert wurde. Die radtouristische Nachfrage umfasst in Deutschland - je nach zu Grunde gelegten Daten - zwischen 4,2 und 7,9 Mio. Bundesbürger. Dabei ist die Entwicklung dieser Nachfrage in den letzten Jahren eher stagnierend verlaufen, trotzdem steht ihr ein weiter wachsendes radtouristisches Angebot gegenüber. Die Frage, ob sich diese Investitionen über die durch den Radtourismus ausgelösten regionalwirtschaftlichen Effekte bezahlt machen, steht im Zentrum dieser Arbeit und wurde mit Hilfe einer empirischen Erhebung untersucht. Für das Bundesland Rheinland-Pfalz insgesamt konnte eine Spannweite von 4,2 bis 7,7 Mio. Radtouristen pro Jahr ermittelt werden, wovon zwischen 2,9 und 6,0 Mio. Tagesgäste sind. Auf Grund der während der Radurlaube getätigten Ausgaben lassen sich die durch den Radtourismus induzierten regionalwirtschaftlichen Effekte in einer Größenordnung von 275 Mio. € bis 327 Mio. € bestimmen, was rund 10% der gesamttouristischen Wertschöpfung in Rheinland-Pfalz entspricht. Werden die Investitionskosten für die vier untersuchten Radwege " Mosel-Radweg, Nahe-Radweg, Maare-Mosel-Radweg und Kraut und Rüben-Radweg " der jährlich auf diesen Wegen erzielten Wertschöpfung in Höhe von ca. 62 Mio. € gegenübergestellt, muss festgestellt werden, dass sich die Investitionen schon nach kurzer Zeit über die positiven, indirekten wirtschaftlichen Effekte in den Regionen bezahlt gemacht haben. Insgesamt gesehen stellt sich somit der Radtourismus als attraktives, wirtschaftlich tragfähiges touristisches Segment dar, welches in der Lage ist, auch in peripheren Regionen touristische Wertschöpfung zu erzeugen. Voraussetzung hierfür ist aber die Beachtung der dargestellten Anforderungen, welche die Nachfrage an das Produkt Radtourismus stellt und die Einhaltung von verschiedenen Qualitätsanforderungen. Erst wenn Radtourismus als Qualitätsprodukt verstanden wird, hinter dem auch die touristischen Leistungsträger einer Region stehen, kann Radtourismus zu einem wichtigen Wirtschaftsfaktor innerhalb einer Region entwickelt werden.
Auf der Grundlage von bodenphysikalischen Standortdaten wurden mit dem physikalisch basierten Modell CATFLOW Bodenwassergehalte und Abflussprozesse von verschiedenen Standorten im Mesozoikum der Trierer Bucht auf der Plotskale simuliert. Die Standorte unterscheiden sich durch das Ausgangssubstrat der Bodenbildung (lehmig-tonig, schluffig-sandig) und die Landnutzung (Acker, Grünland, Wald). Für die Modellvalidierung standen wöchentliche Bodenwassergehaltsmessungen, monatliche Sickerwassersummen aus Lysimetermessungen und Oberflächen- und Zwischenabflusskurven von Beregnungsversuchen zur Verfügung. Ziel der Arbeit ist es zu untersuchen, inwieweit Retentionseigenschaften, Abflussprozesse und Abflussmengen aus Standortdaten ohne eine weitere Kalibrierung des Modells abgeleitet werden können. Besonderer Wert wird dabei auf die Parametrisierung des Bodens gelegt. Das Modell simuliert den Wassertransport in der Bodenmatrix über die zweidimensionale Richardsgleichung und den schnellen Wassertransport in Makroporen über ein einfaches Bulk-Modell. Daneben werden Oberflächenrauhigkeit, Durchwurzelungstiefe und Vegetationsbedeckung im Jahresgang berücksichtigt. Um den Einfluss von unterschiedlichen Parametrisierungen des Bodens aufzuzeigen, werden verschiedene Parametrisierungsvarianten untersucht. Die van Genuchten/Mualem-Parameter, welche die Retentions- und Leitfähigkeitseigenschaften der einzelnen Bodenhorizonte beschreiben, wurden zum einen über die Bodenart und Trockenrohdichte bestimmt und zum anderen über die Anpassung von Retentionskurven an im Labor bestimmte Punkte der Wasserspannungskurve ermittelt. Die Ergebnisse der Simulationen für die Standorte mit Bodenfeuchtemessung zeigen, dass mit dem Modell der Jahresgang der Bodenfeuchte prinzipiell nachvollzogen werden kann. Jedoch führt keine der drei Parametrisierungsvarianten zu einer eindeutigen Überlegenheit bei der Simulationsgüte. Um neben den üblichen Gütemaßen ein weiteres Kriterium für den Erfolg oder Misserfolg einer Standortsimulation zu gewinnen, wurden die Simulationsergebnisse mit den Messwerten der anderen Standorte verglichen. An vier von zehn Standorten führt der Vergleich der Messwerte mit den Simulationen von anderen Standorten zu einer deutlich besseren Übereinstimmung als die Simulation für diesen Standort. Die Ergebnisse der Simulationen der Lysimeterstandorte zeigen, dass mit dem Makroporenansatz ein schneller Wasserfluss im Sommer nicht simuliert werden kann, da das "Anspringen" der Makroporen im Modellkonzept an den Bodenwassergehalt geknüpft ist. Auch hier wurden die Simulationsergebnisse mit den Messwerten der anderen Standorte verglichen. Für fünf von acht Standorten konnte mit den simulierten Sickerwassermengen von anderen Standorten eine bessere Übereinstimmung erzielt werden. Die Simulation der Sickerwassermenge aus Lysimetern scheint daher auf Grundlage der vorliegenden Datenbasis den jeweiligen Standort nicht in seiner Einzigartigkeit charakterisieren zu können. Die mit den Beregnungsversuchen bestimmten Abflussprozesse konnten für die Mehrheit der 18 Standorte mit dem Modell abgebildet werden. Der Oberflächenabfluss konnte für Standorte, die nicht zur Verschlämmung neigen, unter Berücksichtigung von Infiltrationsdaten sehr gut nachgezeichnet werden. Zwischenabfluss wird zwar simuliert, bleibt aber auf der Plotskale in Dynamik und Abflussmenge hinter dem Realsystem zurück. Mit der Untersuchung konnte gezeigt werden, dass sich sowohl die zeitliche Entwicklung des Bodenwassergehaltes, als auch die gemessenen Abflussprozesse allein über die Standortdaten, ohne eine weitere Kalibrierung des Modells, abbilden lassen. Die Trennschärfe der Modellierung ist bei Standorten mit relativ ähnlicher bodenphysikalischer Ausstattung begrenzt. Andererseits müssen aber auch Messungenauigkeiten, besonders bei der thermogravimetrischen Bestimmung des Bodenwassergehaltes, berücksichtigt werden. Eine standortbezogene Aussage über Retentions- und Abflussverhalten ist über eine Simulation möglich, jedoch bleibt die quantitative Aussagekraft begrenzt.
Diese Arbeit stellt eine Methodik zur Analyse kundenbezogener Arbeitsanforderungen personenbezogener Dienstleistungen am Beispiel der Verkäufertätigkeit im Einzelhandel vor. Eine Besonderheit der Arbeit ist die Einbeziehung des Kunden als Arbeitsanalytiker. Sie umfasst drei aufeinander aufbauende Studien. In der ersten Studie wurden mit Hilfe von Critical-Incident-Technique-Interviews mit Vorgesetzten (N = 35) und Verkäufern (N = 39) von drei Einzelhandelsvertriebsformen (Warenhaus, SB-Warenhaus, Supermarkt) sowie Kunden (N = 29) erfolgsrelevanten Verhaltensweisen von Verkäufern im Kontakt mit Kunden ermittelt. Darauf aufbauend wurde KAVEK V_VG/VK/K - ein Instrument zur Analyse kundenbezogener Arbeitsanforderungen und -aufgaben von Verkäufern im Einzelhandel " konzipiert und im Rahmen der zweiten Studie in den Stichproben der Vorgesetzten (N = 52), der Verkäufer (N = 157) und der Kunden (N= 511) der genannten Einzelhandelsvertriebsformen erprobt und validiert. Schließlich untersucht die dritte Studie Antezedenten kundenbezogener Arbeitsanforderungen sowie deren Effekte auf die arbeitsbezogenen Einstellungen und Befinden von Verkäufern (N = 155). Die Diskussion der Implikationen der Ergebnisse für die Forschung und Praxis schließt die Arbeit ab.
Zehn Jahre nach dem Beginn des Eurosystems haben die beteiligten Euro-Zentralbank den Umfang ihrer Gold- und Devisenreserven in der Summe nahezu beibehalten. Hingegen wurde vor der Euro-Einführung erwartet, dass die Europäische Währungsunion einen substanziellen Abbau des Reservevolumens begünstigt. Vor diesem Hintergrund hat die Arbeit das Ziel,die Haltung von Währungsreserven im Eurosystem zu analysieren, deren Höhe, Struktur und Management zu prüfen und strategische Optionen für eine Optimierung aufzuzeigen. Im Ergebnis lässt sich ein signifikanter Abbau von Währungsreserven sowie eine Neuausrichtung im Management der Reservebestände hinsichtlich deren Struktur und Verwaltung begründen. Exemplarisch für das Notenbanksystem der Eurozone werden hierzu die Reservepolitiken der Europäischen Zentralbank und der Deutschen Bundesbank als Fallstudien ausführlich untersucht und Vorschläge für eine Optimierung dieser volkswirtschaftlichen Vermögensbestände aufgezeigt.
Zurzeit werden gesundheitliche Auswirkungen von Mobilfunkstrahlung auf den Menschen kontroversiell diskutiert. Die vorliegende Arbeit untersuchte mögliche Auswirkungen auf Befindlichkeit und psychische Variablen in zwei Studien. Es zeigte sich ein Trend bei einer Variable, es gab jedoch keine signifikanten Effekte. Bei den nicht-experimentellen Befunden wiesen Anrainer von Mobilfunksendeanlagen (self-rater) höhere psychische Belastung auf.
Ziel der vorliegenden Forschungsarbeit war es, den Einfluss des dispositionellen Bedürfnisses nach kognitiver Geschlossenheit (NCC) auf Entscheidungen unter Unsicherheit zu untersuchen. Es wurde vorhergesagt, dass NCC Entscheidungsphänomene moderiert, die sich durch unterschiedliche Ausmaße an Unsicherheit kennzeichnen. Um diese Annahme zu testen, wurden im Rahmen dreier Studien klassische Entscheidungsprobleme vorgegeben, die eine Wahl zwischen Entscheidungsalternativen mit unterschiedlichen Ausmaßen an Unsicherheit, aber gleichem Erwartungswert erforderten. Studien 1 bis 3 untersuchten den Einfluss des NCC auf den fundamentalen Ambiguitätsaversionseffekt im Ellsberg-Paradigma (Ellsberg, 1961). Hierzu wurde eine Adaption des klassischen Zwei-Farben-Urnenproblems vorgegeben, in dem eine Wahl zwischen einer Urne mit bekanntem Risiko und einer ambiguen Urne getroffen werden musste. Hypothesenkonform erwies sich NCC als signifikanter Prädiktor der Urnenwahl. Einzelanalysen zeigten, dass der Ambiguitätsaversionseffekt, der als Präferenz der bekannten (versus der ambiguen) Urne definiert ist, nur in der Gruppe mit hohem NCC auftrat. In der Gruppe mit niedrigem NCC zeigte sich keine systematische Präferenz. Dieser Effekt konnte in allen drei Studien nachgewiesen werden und erwies sich somit als besonders robust und reliabel. Zudem wurde in der dritten Studie der Einfluss des NCC auf Risikoframingeffekte im Asian-Disease-Paradigma untersucht. Hierbei mussten sich die Teilnehmer und Teilnehmerinnen zwischen einer sicheren und einer riskanten Option entscheiden, die in zwei kontextuellen Bedingungen dargeboten wurden: einem Gewinnframe und einem Verlustframe. Die Ergebnisse dieser Studie zeigten, dass sich Individuen mit einem hohen und einem niedrigen NCC in ihren Präferenzen in Abhängigkeit vom jeweiligen Problemframe unterschieden. In der Gruppe mit einem hohen NCC zeigte sich unter Gewinnframing eine starke Präferenz der sicheren Alternative (Risikovermeidung), wohingegen unter Verlustframing keine Option bevorzugt wurde. Individuen mit einem niedrigen NCC wiesen hingegen unter Gewinnframing keine systematische Präferenz auf, wohingegen sie unter Verlustframing stark die riskante Option bevorzugten. Zudem zeigte eine Betrachtung des Verhaltens über die untersuchten Entscheidungsprobleme hinweg, dass Individuen mit einer starken Ausprägung auf dieser Variablen dazu neigten, sich über die untersuchten Entscheidungssituationen hinweg konsistent zu verhalten. Insgesamt unterstützen die Ergebnisse die Annahme, dass NCC eine Persönlichkeitsvariable darstellt, die Entscheidungsverhalten unter Unsicherheit bedeutsam beeinflusst. Implikationen und Konsequenzen dieser Ergebnisse werden diskutiert.
Das Ziel dieser Forschungsarbeit liegt in der Entwicklung einer innovativen Klassifikationsstrategie zur satellitengestützten Forstinventur in einem europäischen Mittelgebirgsraum. Über die Ableitung von thematischen Karten der flächenscharfen Verbreitung von fünf Baumartengruppen (Eiche, Buche, Fichte, Douglasie und Kiefer) sowie drei Entwicklungsphasen (Qualifizierung, Dimensionierung und Reife) werden wichtige für eine nachhaltige Bewirtschaftung von Wäldern erforderliche Grundlagendaten bereitgestellt. rnDie nachhaltige Bewirtschaftung der Vielfachfunktionen von Wäldern (Nutz-, Schutz- und Erholungsfunktionen) sowie der steigende Informationsbedarf in Folge nationaler und internationaler Monitoring- und Berichtspflichten (u.a. Montréal Prozess und Kyoto Protokoll) erfordern aktuelle und flächendeckende Informationen über den Zustand der Wälder. In diesem Kontext können fernerkundliche Daten und Methoden zur Unterstützung konventioneller terrestrischer Verfahren zum Einsatz kommen.rnDas Untersuchungsgebiet dieser Studie umfasst den südlichen und östlichen Teil der rheinland-pfälzischen Eifel mit einer Fläche von mehr als 5200 km-², davon rund 2080 km-² bewaldet. Die naturräumliche Heterogenität, die wuchsklimatischen Unterschiede, die Variabilität von Relief und Topographie, die große Zahl vorkommender Baumarten sowie die kulturhistorische Waldentwicklung in der Eifel stellen eine besondere Herausforderung für satellitengestützte Inventurmethoden dar.rnDurch die bevorzugte Verwendung von Referenzdaten aus der unmittelbaren räumlichen Umgebung eines zu klassifizierenden Bereichs wird bei der Parametrisierung des Klassifikationsansatzes die jeweilige naturräumliche und wuchsklimatische Charakteristik berücksichtigt. Der Vergleich dieses räumlich adaptiven Klassifikationsansatzes mit einer konventionellen Maximum-Likelihood Klassifikation zeigt, dass eine Verbesserung der Klassifikationsgenauigkeit um 12 Prozentpunkte erreicht werden konnte. Die Adaptierung der Klassifikationsstrategie an die naturräumlichen und wuchsklimatischen Bedingungen sowie die Anpassung an bestehende Erhebungsmethoden und Datenorganisation bilden die Grundlage für eine erfolgreiche Anwendung des Verfahrens in einem heterogenen Mittelgebirgsraum. Die hohe erreichte Gesamtgenauigkeit des Klassifikationsergebnisses von rund 74% (über 87% für die fünf Hauptbaumarten) erlaubt die Einbindung der Methode in operationelle Erhebungsverfahren zur Unterstützung der terrestrischen Forstinventur.
Quantitative Untersuchungen im Französischen: Häufigkeitsverteilungen und funktionale Zusammenhänge
(2009)
Die Quantitative Linguistik ist eine relativ junge Disziplin, deren Hauptziel es ist, Gesetzmäßigkeiten zu erforschen, denen sprachliche Phänomene folgen, und gesetzmäßige Zusammenhänge zwischen sprachlichen Variablen zu erklären. Es hat sich inzwischen in einer ganzen Reihe von Untersuchungen immer wieder gezeigt, dass solche Gesetzmäßigkeiten aufgedeckt und erklärt werden können. Die vorliegende Untersuchung stellt einen Beitrag zu dieser Thematik dar. Sie dient der Überprüfung bestimmter lexikalischer und syntaktischer Hypothesen an französischem Sprachmaterial unter der Anwendung quantitativer Methoden. Diese Hypothesen betreffen zweidimensionale Zusammenhänge zwischen den operational definierten quantitativen Eigenschaften der Länge, Frequenz und Polylexie von sprachlichen Einheiten und die Häufigkeitsverteilungen der Einheiten hinsichtlich dieser Eigenschaften. Jede Untersuchungshypothese wird mathematisch modelliert, wobei eine direkte Anwendung der Statistik betrieben wird. D.h.: Bereits existierende theoretische Modelle, die als wahres Bild der zu überprüfenden Hypothesen angesehen werden, werden verwendet. Die Güte der Anpassung des jeweiligen Modells an die empirischen Daten wird aus den Differenzen zwischen den empirischen und den entsprechenden theoretischen Werten abgeschätzt. Bei der empirischen Überprüfung der Hypothesen werden zwei Testverfahren eingesetzt: die Berechnung des Determinationskoeffizienten für die Zusammenhänge zwischen zwei quantitativen Größen und der Chiquadrat-Test für die Verteilungshypothesen. Die durchgeführten Tests bestätigen im Großen und Ganzen die Verträglichkeit der Daten mit den aufgestellten Hypothesen.
Welche Ziele verfolgen Forscher/innen in interdisziplinären Kooperationen mit welchen Handlungen und unter welchen Bedingungen? Ausgehend von dieser Frage ergänzt diese Arbeit die Wissenschaftsforschung zur Interdisziplinarität und die psychologische Forschung zur handlungsleitenden Wissensbasis langfristiger Vorhaben. Mentale Modell von Handlungsstrategien werden aufbauend auf kognitiven und handlungstheoretischen Ansätzen als kognitiv-motivationale Aggregate von Ziel-, Handlungs- und Bedingungswissen konzipiert. Derartige Handlungsstrategien können als Wissensrepräsentationen zur Planung, Regulation und Bewertung des Handelns genutzt werden. Zur theoriegeleiteten Erhebung von Handlungsstrategien wird die Struktur-Lege-Technik Action Strategy Mapping (ASM) neu entwickelt und empirisch validiert. Die ASM-Technik erweist sich als sehr praktikabel, gut erlernbar sowie qualitativ reliable und valide zur Repräsentation handlungsleitenden Wissens im Rahmen eines teilstrukturierten Interviews. Die Analysen der in drei Sonderforschungsbereichen bei 57 Wissenschaftler/innen erhobenen Handlungsstrategien interdisziplinärer Forschungskooperation belegen empirisch sehr heterogene aufgabenbezogene, koorientierte und persönliche Ziele. Der kommunikative Austausch bestätigt sich als zentrale und besonders häufige Handlung interdisziplinärer Kooperation. Die Interdependenz der Handlungsstrategien hängt zudem mit der Projektinterdependenz der Forscher/innen zusammen. Ein Vergleich der Handlungsstrategien von Forscher/innen mit hoher, mittlerer und niedriger Projektinterdependenz zeigt mehrere Zusammenhänge: Bei mittlerer Interdependenz korrelieren inhaltliche und strukturelle Merkmale der Handlungsstrategien positiv mit dem selbst berichteten Erfolg. Bei hoher und niedriger Projektinterpendenz zeigen sich aber negative Zusammenhänge mit dem Erfolg. Die Ergebnisse werden diskutiert im Hinblick auf den Einsatz der ASM-Technik als Diagnose- und Reflexionsmethode sowie inhaltlich auf ihre Bedeutung für das Management interdisziplinärer Forschungskooperation in Sonderforschungsbereichen, insbesondere einer zweckmäßigen Kommunikation und Interdependenz der Wissenschaftler/innen.
Ziel der durchgeführten Arbeit war mittels einer geophysikalischen Untersuchungsmethode die Wasserverteilung in Deponien nach einer Infiltration zu beobachten. Für den Nachweis der Wasserverteilung unterhalb von Infiltrationsstellen wurde die geoelektrische Impedanztomografie eingesetzt. Um das Messverfahren auf seine Eignung zur Detektierung der Infiltrationsauswirkungen in der Deponie zu überprüfen, wurde ein mehrjähriges Untersuchungsprogramm durchgeführt. Dabei hat sich herausgestellt, dass Deponiesickerwasser eine Verringerung des spezifischen Widerstandes im Untersuchungsgebiet verursacht und dieser Tatbestand vom Messsystem gut detektiert wird. Durch das Aufreihen der Ergebnisse als Tomogrammsequenzen wurden die Infiltrationsauswirkungen unterhalb der Infiltrationsstelle visualisiert. Anhand der entstandenen Tomogrammsequenzen und aufgestellten Modellbetrachtungen werden die Einschränkungen und Rahmenbedingungen des eigens dafür entwickelten Darstellungs- und Auswertungsalgorithmus der Arbeit erörtert.
Auf der Grundlage der Beobachtung, dass Städte und Regionen in Deutschland signifikant unterschiedliche durchschnittliche Lohnniveaus aufweisen, macht es sich die Dissertation zur Aufgabe, die Gründe für die Divergenz regionaler Lohnniveaus in Westdeutschland zu erforschen. Theoretischer Ausgangpunkt der Analyse ist das Konzept der lokalen Humankapitalexternalitäten. Dieses besagt, dass der individuelle Bildungsstand eines Arbeitnehmers nicht nur für diesen selbst produktivitätsbestimmend ist, sondern darüber hinaus auch einen Einfluss auf die Produktivität anderer Arbeitnehmer in räumlicher Nähe ausüben kann. Das Vorliegen von Humankapitalexternalitäten ist für den deutschen Fall potenziell relevant, da sich beträchtliche Unterschiede in den durchschnittlichen regionalen Bildungsniveaus feststellen lassen. Die Dissertation untersucht daher, in welchem Umfang regionale Lohndisparitäten in Deutschland auf externe Produktivitätseffekte des regionalen Bildungsniveaus zurückzuführen sind und durch welche mikroökonomischen Mechanismen derartige Effekte entstehen. Diese Frage wird in vier thematisch eng miteinander verknüpften Artikeln beantwortet. Der erste Artikel stellt eine Überblicksstudie dar, in der die Literaturen zu regionalen Humankapitalexternalitäten und zur städtischen Lohnprämie hinsichtlich ihrer Ergebnisse und Methodik miteinander verglichen werden. Der Literaturvergleich zeigt, dass sowohl Agglomerationseffekte, als auch Humankapitalexternalitäten gültige Erklärungen für regionale Lohnunterschiede darstellen. Weiterhin werden die ökonometrische Methodik und die Identifikationsstrategien, die beiden Literaturen zugrunde liegen, verglichen. Es wird gezeigt, dass ein beträchtliches gegenseitiges Lernpotenzial zwischen beiden Literaturen besteht. Der zweite Artikel untersucht empirisch die Bedeutung von Humankapitalexternalitäten für die Divergenz regionaler Lohnniveaus in Deutschland. Es werden individuelle Lohngleichungen geschätzt, die um regionale Variablen erweitert werden. Einer möglichen Inkonsistenz der Schätzer wird durch den Einsatz von Instrumentvariablen begegnet. Die Ergebnisse weisen darauf hin, dass ebenso wie in anderen Ländern der regionale Humankapitalbestand auch in Deutschland einen signifikanten Einfluss auf die Löhne von Arbeitnehmern ausübt und somit zum Auftreten regionaler Lohndifferenziale beiträgt. Der dritte Artikel untersucht das Auftreten von Matchingeffekten als möglichen mikroökonomischen Mechanismus, durch den Humankapitalexternalitäten individuelle Löhne beeinflussen. Konkret wird überprüft, ob in humankapitalintensiven Regionen stärker ausgeprägte lokale Karrierenetzwerke bestehen, die durch einen besseren Informationsfluss im Hinblick auf Karrierechancen zu einer erhöhten Matchingeffizienz und damit zu höheren Löhnen in regionalen Arbeitsmärkten führen. Hierzu wird untersucht, ob sich signifikante Unterschiede zwischen humankapitaintensiven und humankapitalschwachen Regionen hinsichtlich des Lohnanpassungs- und Arbeitsplatzwechselverhaltens von Arbeitnehmern feststellen lassen. Die empirischen Ergebnisse zeigen, dass regionale Humankapitalexternalitäten unter anderem durch verbesserte Matches zwischen Arbeitnehmern und Unternehmen in humankapitalintensiven Regionen entstehen. Der vierte Artikel untersucht, ob erfolgreicher industrieller Wandel und regionale Humankapitalexternalitäten insoweit zwei Seiten derselben Medaille sind, als dass die produktivitätsbestimmende Wirkung des einen Einen das Vorliegen des Anderen voraussetzt. Die Ergebnisse deuten auf eine Komplementarität dynamischer Arbeitsmärkte und regionaler Humankapitalausstattungen hin. So weisen lokale Industrien eine signifikant höhere Produktivität auf, wenn sie in regionalen Arbeitsmärkten beheimatet sind, die gleichermaßen einen hohen Anteil hochqualifizierter Arbeitnehmer und eine überdurchschnittliche Arbeitsmarktdynamik aufweisen. Die Ergebnisse zeigen weiterhin, dass Humankapitalexternalitäten vor allem dann entstehen, wenn Arbeitnehmer ihren Arbeitsplatz innerhalb einer Region wechseln und damit zum Auftreten von produktivitätssteigernden Wissenspillovers und einer erhöhten Matchingeffizienz beitragen. Die Ergebnisse aus allen vier Artikeln untermauern die Bedeutung regionaler Humankapitalexternalitäten für das Entstehen regional unterschiedlicher Lohnniveaus. Hieraus erwachsen zwei zentrale Implikation für die regionale Bildungs- und Infrastrukturpolitiken, die im Schlusskapitel der Dissertation erörtert werden. So können staatliche Investitionen in Humankapital effizienzsteigernd wirken, da eine Unterinvestition in Bildung eine wahrscheinliche Folge beim Vorliegen von Humankapitalexternalitäten ist. Weiterhin können Infrastrukturinvestitionen zu einem Verschmelzen von humankapitalarmen mit humankapitalintensiven Arbeitsmärkten führen und somit eine größere Zahl an Arbeitnehmern an den positiven Produktivitätseffekten, die durch regionale Humankapitalexternalitäten entstehen, teilhaben lassen.
Diese Dissertation behandelt das Thema des Sprachkontakts zwischen der Maya-Sprache k'iche' und das Spanische in Guatemala. Der Sprachkontakt ist seit der Eroberung des Eroberung des K'iche'-Königreichs durch Don Pedro de Alvarado im 16. Jahrhundert von verschiedenen Faktoren geprägt worden: Diese sind ethnohistorischer, sprachpolitischer, religiöser und soziokultureller Natur. So waren die ersten, die sich mit den indigenen Sprachen in der Neuen Welt befassten, die katholischen Missionaren, die Katechismen und Gebetsbücher in einheimische Sprachen übersetzten. Die Renaissance der Erforschung dieser Sprachen wiederum verdankt man den modernen Missionaren, die in den 70er Jahren des vergangenen Jahrhunderts nach Guatemala kamen. Heute versteht man die Maya-Lingustik als Teil einer soziokulturellen Bewegung, die in den letzten 20 Jahren ganz Lateinamerika verändert hat: der sogenannte indigenismo. Das Spanische Guatemalas zeigt sich in der Gegenwart von der Jahrhunderte lange Koexistenz mit den Mayasprachen (hier vor allem der Mayasprache k'iche') geprägt. Diese Prägung ist, wie in dieser Arbeit dargelegt wird, auf phonologischer, morphologischer, morphosyntaktischer und pragmatischer Weise zu erkennen.
Das Konzept psychologischer und philosophischer Hilfe des niederländischen Psychologen und Philosophen Jac van Essen (1908-1989) ist in der wissenschaftlichen Literatur bislang weitgehend unbekannt. Es beruht auf dem sog. Allmenschlichkeitsgedanken. Zunächst wird Theorie und Praxis der Allmenschlichkeit eingehend als eigenständiger Ansatz dargestellt. Danach werden exemplarisch diverse Konzepte psychologischer Hilfe (Freud, Jung, Adler, Kognitive Therapie, Rogers u.a.) im Licht dieses Ansatzes diskutiert. Er erweist sich als geeigneter Prüfstein dafür, inwieweit Theorie und Praxis jener Konzepte zugleich wissenschaftlich und integral humanitär befriedigen, auch in bezug auf existentielle Aspekte.
Die Studie beschäftigt sich mit der kommunalen Armenfürsorge in Galway und Gort,im Westen Irlands und ihrem Einfluss auf die Entwicklung der lokalen Verwaltung. Der zeitliche Rahmen wird von der Einführung der irischen Armengesetzgebung 1838 und der Unabhängigkeit Irlands 1921 bestimmt. Im Mittelpunkt der Arbeit steht die Frage,welche Bedeutung der Armenverwaltung bei der generellen Ausbildung staatlicher Administration in Irland zukam. Im ersten Teil werden zunächst die sozioökonomischen Rahmenbedingungen in Galway und Gort vorgestellt. Die Lage und Größe,aber auch die wirtschaftliche Situation des Untersuchungsgebietes beeinflusste die Arbeitsweise der lokalen Aufsichtsgremien der Armenverwaltung. Von zentraler Bedeutung ist der rechtliche Rahmen,innerhalb dessen die Aufsichtsgremien der Armenverwaltung operierten. Um die "spezifische Ausprägung" der irischen Institutionen der Armenverwaltung zu analysieren,wird der Vergleich zur englischen und schottischen Armengesetzgebung gezogen. Die Studie untersucht jedoch nicht nur die normative Ebene der Armengesetzgebung zwischen 1838 und 1921,sondern beschäftigt sich vor allem mit der alltäglichen Praxis der Verwaltung vor Ort. Im Mittelpunkt stehen dabei die Akteure auf der lokalen und zentralen Ebene: die Board of Guardians und die Poor Law Commission bzw das Local Government Board. Andere lokale Verwaltungseinrichtungen,wie die Grand Juries oder die Town Commissioners,werden in die Betrachtung einbezogen,soweit sie mit den Aufsichtsgremien der Armenverwaltung in Berührung kamen. Dabei werden besonders parallele und/oder konkurrierende Zuständigkeitsbereiche in den Blick genommen. Diese Analyse der Akteure ermöglicht die Untersuchung von Ausdifferenzierungs- und Veränderungsprozessen in der lokalen Verwaltung in Irland. Der zweite Teil der Arbeit untersucht detailliert die Aufsichtsgremien der Armenverwaltung von Galway und Gort in vergleichender Perspektive. Durch den Stadt-Land Vergleich sollen Unterschiede und Gemeinsamkeiten in der personellen Zusammensetzung und der Arbeitsweise der lokalen Aufsichtsgremien der Armenverwaltung herauspräpariert werden. Dabei werden zunächst die (Armen-)Steuerzahler analysiert. Sie wählten einen Teil der Mitglieder der lokalen Armenverwaltung und beeinflussten so die Zusammensetzung der Aufsichtsgremien. Ein Kapitel im zweiten Teil der Arbeit untersucht die Mitglieder der Aufsichtsgremien der Armenadministration. Sozioökonomische, familiäre, religiöse und berufliche Hintergründe sowie Angaben zu anderen Ämtern dienen dazu, deren Auswirkungen auf die Arbeitsweise der Personen in der lokalen Armenadministration zu untersuchen. Wie regelmäßig nahmen die einzelnen Mitglieder an den Sitzungen teil? In diesem Kapitel können nicht alle der erfassten Mitglieder behandelt werden, so dass besonders die Vorsitzenden und ihre Stellvertreter analysiert werden. Weiterhin werden Mitglieder, die einflussreiche politische Funktionsträger waren, untersucht. Ein weiteres Kapitel widmet sich der Professionalisierung der Aufsichtsgremien der Armenadministration in der zeitlichen Entwicklung nach 1838. Es wird der Frage nachgegangen, ob mit der Aufgabenakkumulation über die eigentliche Armenadministration hinaus auch eine Zunahme des Einflusses der Aufsichtsgremien der Armenverwaltungen im Hinblick auf ihr Verhältnis zur Dienststelle in Dublin einherging. Der Kontakt zur zentralen Behörde war sehr ausgeprägt und regelmäßig, so dass die Kommunikation mit der übergeordneten Verwaltungsebene als sehr wichtig angesehen werden kann. Wie wirkten sich die umfassenden Kontroll- und Weisungsbefugnisse auf die Arbeitsweise der lokalen Armenadministration aus und welchen Einfluß hatten diese Befugnisse auf das Kommunikationsverhältnis? Gelang es den Mitgliedern der Armenverwaltung ihren Handlungsspielraum zu erweitern, etwa durch die Nutzung alternativer Kommunikationswege oder in ihrer Aufgabe als politische Funktionsträger? Wie häufig war die Kommunikation mit anderen irischen lokalen Aufsichtsgremien der Armenverwaltung und gab es Kooperationen? Ein weiteres Kapitel im zweiten Teil der Arbeit untersucht den Stellenwert von politischen Themen in den Diskussionen der Aufsichtsgremien der Armenverwaltungen, wobei insbesondere das Spektrum der Diskussionen innerhalb des Board of Guardians analysiert wird. Wie wirkten sich die Auseinandersetzungen um die Landfrage oder die Forderung nach Selbstverwaltung aus? Kam es zu personellen Veränderungen in den Aufsichtsgremien oder veränderten Arbeitsweisen der örtlichen Armenverwaltung? Ein Paragraph dieser Studie geht der Frage nach, ob und inwieweit die Board of Guardians mit anderen lokalen Apparaten vernetzt waren, anhand des Beispiels der Verflechtungen von Medizin und Armenadministration.
Die Arbeit untersucht das Lexem 'Fusion' in Fachtexten verschiedener medizinischer Disziplinen: Ophthalmologie, Orthopädie, Chirurgie, Pädiatrie. Dabei treten semantische Widersprüchlichkeiten, Ungenauigkeiten und Doppeldeutigkeiten zutage, die die Leser mehr verwirren als sachkundig informieren. Die expertensprachliche Kommunikation ist gestört. Des weiteren finden sich Hinweise darauf, dass die verwendete Semantik von fachlich-kognitive Einflüsse geprägt wird; so spiegelt das Lexem 'Fusion' beispielhaft den dreiteiligen Denkschritt der Mediziner wider: Physiologie, Pathologie, Therapie. Auch andere kognitive Einflüsse werden bei der semantischen Untersuchung des Lexems deutlich.
In einer empirischen Neuroimaging Studie an einer Gruppe von 141 rechts- und linkshändigen Probanden beiderlei Geschlechts wurden fMRT-Korrelate der funktionalen Sprachrepräsentation untersucht. Es fanden sich bedeutsame Unter-schiede in der Sprachverarbeitungskompetenz der beiden Hemisphären sowohl zwischen Rechts- und Linkshändern als auch zwischen Männern und Frauen.
Synergieeffekte und Kollaboration bei e-Learning-Anwendungen in selbstorganisierenden Computernetzen
(2009)
In den letzten Jahren haben sich mehrere neue Netzklassen im Bereich der Verteilten Systeme etabliert. Diese können unter Ausnutzung von Selbstorganisationsprinzipien und verschiedener kollaborativer Aspekte viele der netzinhärenten Probleme wie Skalierbarkeit, Latenz- und Lastverteilungsbetrachtungen sowie Konsistenzwahrung entschärfen. Gleichzeitig kann die Nutzung entsprechender Prinzipien zu positiven Synergieeffekten führen, die von den verschiedenen auf diesen Netzen aufsetzten Applikationsdomänen genutzt werden können. Von besonderer Bedeutung sind diese Aspekte für die beiden neuartigen Netzklassen der Multi-Hop Adhoc-Netze (MANETs) und der globalen virtuellen Umgebungen (MMVEs). Beiden Netzklassen ist gemeinsam, dass sie aufgrund der erwähnten Problemstellungen nicht mit traditionellen verteilten Architekturen, wie zentralistischen und monolithischen Systemen, umgesetzt werden können. Hier muss ein Paradigmenwechsel hin zu dezentralen, selbstorganisierenden Systemstrukturen erfolgen, um den angesprochenen Herausforderungen zu begegnen. Die erste in dieser Arbeit untersuchte Netzklasse der MANETs zeichnet sich dadurch aus, dass sie Nutzern erlaubt, immer und überall auf Ihre Daten zugreifen zu können und mit der vor Ort vorhandenen Infrastruktur transparent zu kommunizieren. Dabei erfolgen die Daten-zugriffe vermehrt über immer kleiner werdende mobile Endgeräte, die sowohl aufgrund ihrer inhärenten Mobilität als auch ihrer eingeschränkten Ressourcen daran angepasste Netzstrukturen erfordern. Die neuartige Netzklasse der MMVEs dagegen soll Dateninhalte in einem dreidimensionalen Rahmen und damit nativ und intuitiver als die vorherrschende zweidimensionale Darstellung, wie z.B. im Internet, präsentieren. Der Datenzugriff erfolgt hier meist über eine virtuelle Benutzerrepräsentation " einen Avatar. MMVEs basieren zwar im Vergleich zu MANETs in der Regel auf physisch verlässlichen Netzen, benötigen aber aufgrund der massiven Verteilung und der großen Nutzerzahlen neue Netzwerkarchitekturen. Die Anwendungsdomäne e-Learning eignet sich in diesem Zusammenhang besonders gut für wissenschaftliche Untersuchungen, da hier eine ähnliche Entwicklung beobachtbar ist, wie bei den eingangs erwähnten Netzklassen. Genauso wie mobile Endgeräte immer kleiner und ubiquitär verfügbar werden und das Internet praktisch an jedem Ort der Welt mit hoher Bandbreite nutzbar ist, finden e-Learning Inhalte immer mehr Einzug in das tägliche Leben. Während sie früher nur eine vernachlässigbare Ergänzung zu etablierten Schulungsformen darstellten, die mehr oder weniger invasiv und starr zentral administriert wurde, steigt Ihre Bedeutung besonders im Zusammenhang mit neuen Zugangsformen täglich. Besonders das Bedürfnis an Schulen oder Universitäten sowie bei der innerbetrieblichen Aus- und Weiterbildung, immer und überall verteilt, nativ und transparent auf entsprechende Lehr- und Lerninhalte zugreifen zu können, steigt mit dem wachsenden und teilweise rein wirtschaftlich bedingten Bedarf nach einer qualitativ hohen, kontinuierlichen gesellschafts- und technikdurchdringenden Grund- und Weiterbildung. Die geforderte Transparenz und Ubiquität kann für die angesprochene Anwendungsdomäne dadurch erreicht werden, dass spezielle, auf die neuartigen verteilten Netzstrukturen abgestimmte, Applikationen entwickelt werden, die die netzinhärenten Selbstorganisations-prinzipien explizit ausnutzen. Eine wichtige Fragestellung in diesem Zusammenhang ist, welche Auswirkungen ein solcher Paradigmenwechsel auf die Qualität der Wissens-vermittlung und der Inhalte hat. Erste Evaluationen mit prototypischen Applikationen haben gezeigt, dass dieser Wechsel problemlos möglich ist. Dabei spiegeln auftretende Synergie-effekte die Abbildung auf soziale Netze wieder, die beiden Aspekten inhärent zugrunde liegt und einen Mehrwert erzeugen, der die dabei auftretenden technischen Herausforderungen und Probleme relativiert. Entsprechende Effekte lassen sich sogar noch weiter verstärken, indem kollaborative Aspekte sowohl auf Applikationsebene als auch in den darunter liegenden Basisstrukturen ausgenutzt werden. Die vorliegende Arbeit soll diese Annahmen durch adäquate Beispiele aus beiden Bereichen (MANETs und MMVEs) aus verschiedenen Perspektiven beleuchten und anhand von beispielhaften Anwendungen und darauf aufbauende Evaluationen den Synergiegewinn von e-Learning Applikationen und mögliche kollaborative Aspekte in diesem Umfeld aufzeigen.
Quantitative Studien zur Plansprache Esperanto zu ausgewählten Fragestellungen der Phonologie, Morphologie, Syntax, Lexik, Semantik, Worthäufigkeit und - als Schwerpunkt - Wortbekanntheit wurden durchgeführt. Hauptergebnisse: Die Phonem-Häufigkeitsverteilung des Esperanto kann besonders gut mit dem Yule-Modell beschrieben werden; bei biphonematischer Wertung der Affrikaten ergibt sich eine etwas schlechere Anpassung als bei monophonematischer Wertung. Die Anwendung des klassifikatorischen Schlüssels von Altmann und Lehfeldt bestätigt die Meinung der meisten Autoren, wonach Esperanto agglutinierend mit einigen Merkmalen einer isolierenden Sprache ist. Die bei anderen Sprachen gefundene Gesetzmäßigkeit zwischen Lexermlänge und Polysemie gilt auch für Esperanto. Zur Untersuchung des Zusammenhangs zwischen Wortbekanntheit und Worthäufigkeit sowie zur Untersuchung der Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher wurde das Verfahren der logistischen Regression (einschließlich statistischer Sicherheit) ausführlich dargestellt und als eine innovative Option auch zur Untersuchung analoger Fragestellungen angeboten. Zu den nachfolgend beschriebenen Haupthypothesen kann auf Grundlage der Untersuchung Folgendes ausgesagt werden (es sei angemerkt, dass die Haupthypothesen- (a) und (b) dabei ausschließlich für solche Esperanto-Sprecher gelten, die ihr Esperanto-Anwendungsvermögen als ausreichend gut einschätzen; die Haupthypothese- (c) gilt auch für solche Esperanto-Sprecher, die ihr Esperanto-Anwendungsvermögen als nicht ausreichend gut einschätzen): (a) Die Häufigkeit der zuverlässig bekannten Wörter entspricht der Häufigkeitsgruppe- 7 aus neun Häufigkeitsgruppen der von der Esperanto-Akademie entwickelten Statistik ("offizielle Basis-Wortwurzelsammlung", BRO; Häufigkeitsgruppe- 1: häufigste Wörter). (b)- Sei- A die Häufigkeit der Esperanto-Wörter, die Menschen mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig zuverlässig bekannt sind. Sei- B die Häufigkeit der Esperanto-Wörter, die Menschen mit Muttersprache Chinesisch, Japanisch oder aus der finno-ugrischen Sprachfamilie zuverlässig bekannt sind. Die Untersuchung zeigte: Zwischen A und B besteht kein signifikanter Unterschied. Das heißt: Die naheliegende Vermutung, dass Sprecher mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig (= Quelle der meisten Esperanto-Wörter) einen Vorteil haben und seltenere Esperanto-Wörter vergleichsweise besser kennen als Sprecher mit anderen Muttersprachen, wurde durch die vorliegende empirische Überprüfung nicht bestätigt. (c)- Bei einer statistischen Sicherheit von 95% ist die Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher auch nach 100- Lernjahren nur 73%. Für eine zuverlässige Anwendbarkeit (also 90% bei 95%- statistischer Sicherheit) konnte keine Lernzeit ermittelt werden.
Die vorliegende Arbeit entstand im Rahmen des INTERREG III B-Projektes WaReLa (Water Retention by Landuse), das sich mit dem Rückhalt von Wasser in der Fläche als Beitrag zum vorbeugenden Hochwasserschutz beschäftigt. Im Vordergrund stehen dabei die so genannten dezentralen Rückhaltemaßnahmen als Alternative bzw. Ergänzung zum technischen Hochwasserschutz. Gegenstand dieser Arbeit ist die Frage nach der Effizienz von Retentionsmaßnahmen in urbanen Räumen und deren Beitrag zum Hochwasserschutz. Es handelt sich um ein relativ junges Forschungsthema, welches die Fachwelt bis heute kontrovers diskutiert. Wie bisherige Untersuchungen zeigen, sind allgemeine Aussagen über die Retentionswirkung nicht möglich, da das Potential der Regenwasserbewirtschaftung und deren Rückhaltewirkung von mehreren gebietsspezifischen Faktoren gesteuert werden. Untersuchungen an einem Retentionssystem im Neubaugebiet Trier-Petrisberg sollten weitere Erkenntnisse bringen. Hierzu wurde zum einen die hydraulische Belastung einzelner Retentionsanlagen untersucht und zum anderen wurden N A-Simulationen mit dem Programm erwin 4.0 durchgeführt. Laut N-A-Simulationen hält das Retentionssystem, welches für ein 100-jährliches Ereignis mit 56 mm Niederschlag und der Dauerstufe 3 Stunden konzipiert wurde, im Vergleich zur Entwässerung des Gebietes über ein Trennsystem zwischen 58 % und 68 % des Jahresniederschlags zurück. Ähnlich hohe Werte (60 80 %) nennen GÖBEL, STUBBE, WEINERT, ZIMMERMANN, FACH, DIERKES, KORIES, MESSER, MERTSCH, GEIGER & COLDEWEY (2004: 270f) und WEGNER (1992: 7f) für die von ihnen untersuchten Anlagen. Sehr hoch erscheint die Scheitel abmindernde Wirkung des Retentionssystems im Vergleich zu einer konventionellen Ableitung. Im Mittel beträgt diese 82 %, so dass der Scheitel der Einleitung in den Vorfluter Brettenbach im Vergleich zur Regenwasserableitung auf 1/5 reduziert wird. Aufschluss über die Scheitelabminderung im Vorfluter selbst kann nur eine Quantifizierung der einzelnen Abflusskomponenten geben. Das Retentionssystem arbeitet im Sommerhalbjahr effektiver als im Winterhalbjahr, da trockene Vorperioden, höhere Lufttemperaturen und die Vegetation im Sommer einen besseren Rückhalt konvektiver Niederschläge begünstigen. Korrespondierende Aussagen machen ASSMANN & KEMPF (2005), GANTNER (2003a) und NIEHOFF (2002). Beobachtungen und Simulationen zeigen, dass das Retentionssystem bisher effektiv arbeitet. Sämtliche Retentionsanlagen entleeren sich innerhalb von 48 Stunden. Die Arbeit wird ergänzt durch Handlungsempfehlungen zu Planung, Bau und Betrieb von Anlagen zur Regenwasserbewirtschaftung auf Privatgrundstücken. Sie sollen helfen, die Akzeptanz naturnaher Maßnahmen zur Bewirtschaftung von Regenwasser zu steigern, Fehler zu vermeiden und Projekte erfolgreich umzusetzen.
Wie gestaltete sich adlige Erziehung im Übergang vom Mittelalter zur Neuzeit, noch vor dem auch bildungsgeschichtlichen Wandel durch Reformation und Humanismus? Wie ist in diesen Zeiten ein junger Prinz für seine künftigen Aufgaben als Herrscher und Politiker vorbereitet worden? Gab es einen bestimmten Kanon von Fächern oder Lehrinhalten, deren Vermittlung durch Unterricht oder auch durch adlig-höfische Sozialisation eine spezifische, an seiner hohen Stellung und Verantwortung orientierte Bildung und Ausbildung eines Fürstensohns zum Ziel hatte? Diesen Fragen, welche die historische Forschung bisher weitgehend vernachlässigt hat, geht die Trierer Dissertation nach. Sie bietet damit die erste ausführliche und quellengestützte Darstellung der Kindheit und Jugend Karls V., die in den großen Biographien immer voreilig übergangen wird, wo meist ein bereits "fertiger" Kaiser in Erscheinung tritt. Ein Blick zurück auf die direkten Vorfahren - Kaiser Friedrich III., Kaiser Maximilian I. und Karls früh verstorbenen Vater, Philipp den Schönen - erkundet die Traditionen und Formen habsburgisch-burgundischer Fürstenerziehung, ihren Platz sowie ihre Organisation und personales Umfeld am Hofe. Der frühe Tod des Vaters und die psychische Labilität der Mutter bestimmten Karls Kindheit und Jugend. Anstelle der leiblichen Eltern waren es Großvater, Tante und Erzieher, die sich um ihn bemühten; daneben weitere Lehrer - darunter Adrian von Utrecht, der spätere Papst Hadrian VI., und Erasmus von Rotterdam, aber auch nicht wenige aus den spanischen Ländern -, Beichtväter und Edelknaben, die das soziale Umfeld der Erziehung komplettierten. Somit befand sich der Zögling inmitten verschiedener Interessengruppen, die in Konkurrenz untereinander sowie gemäß eigener Vorteile und Absichten agierten. Schon früh musste der junge Habsburger zu der Rolle finden, die nicht nur seine Familie, sondern auch die großen europäischen Dynastien von ihm erwarteten; denn es ging in erster Linie um Kontinuität und Berechenbarkeit, in der Familie wie in der Politik. Oft genug wurde der im höchsten Grade umsorgte wie überwachte, lange unselbständige Prinz zum Spielball der stark divergierenden Interessen seines Umfeldes, was sich auch an der Praxis der zahlreichen Heiratsoptionen zeigte, in die er ungefragt "eingepasst" wurde. Die Jugendjahre Karls V. spielten sich am Hof seiner Tante, Margarete von Österreich, ganz im burgundischen Milieu ab, das ihn kulturell und politisch prägte. Einen nachhaltigen Eindruck hinterließ hier die burgundische Rittertradition, aufs höchste symbolisiert im Orden vom Goldenen Vlies. Die Erziehung Karls, der in den ersten Jahren zusammen mit seinen Schwestern unterrichtet wurde, verlief im Prinzip zweigleisig. Neben einer fundamentalen religiösen Unterweisung durch Geistliche und Beichtväter konzentrierten sich seine Lehrer - Gelehrte wie Höflinge - einmal auf die Vermittlung eines angemessenen, gelehrten Bildungswissens und dann aber vor allem auf das praktische Handlungswissen, dabei insbesondere auf die adlige Sozialisation im Milieu des Hofes. Erziehung und Ausbildung blieben immer pragmatisch auf die späteren Aufgaben des Regierens, der Politik und der herrscherlichen Repräsentation ausgerichtet. Die Wirkung dieser Erziehung lässt sich exemplarisch fassen in Karls während der späteren Jahre konsequent verfolgten Familienpolitik, die von den Betroffenen allerdings nicht immer kritiklos akzeptiert wurde. Stationen seiner Persönlichkeitsentwicklung, die sich über viele Jahre, wenn nicht das ganze Leben, hinzog, werden vor diesem Hintergrund beleuchtet. Als die wohl prägendste Erfahrung auf dem schweren Weg vom früh verwaisten, schwächlichen und meist unsicher wirkenden Knaben zum selbständig agierenden Monarchen kann Karls erste Reise nach Spanien im Jahre 1517 gesehen werden. Hier stieß er erstmals auf offene Ablehnung und sah sich mit unerwarteten, bis dahin völlig fremden Problemen konfrontiert. Zugleich bedeutete sein Regierungsantritt als spanischer König für ihn persönlich eine entscheidende kulturelle Neuorientierung.
Verfuegen die USA ueber eine Sicherheitsstrategie fuer Suedostasien? Die grosse Mehrheit der Experten vertritt die Auffassung, dass sich die Politik Washingtons vor allem an tagespolitischen Erfordernissen orientiert. Entscheidungen werden demnach ad hoc gefaellt. Unklar ist dabei, von welchen Kriterien solche Bewertungen abhaengig gemacht werden: Was ist eine Strategie? An diesem Punkt setzt die vorliegende Abhandlung an und kommt zu dem Ergebnis, dass das Verhalten der USA in Suedostasien sicherheitsstrategischen Kriterien gerecht wird. Die Dissertation soll in drei Gebieten einen Beitrag zum Forschungsstand der politikwissenschaftlichen Teildisziplin der Internationalen Beziehungen leisten: Fuer den Begriff der Strategie werden, erstens, konkrete Messkriterien entwickelt. Innerhalb des realistischen Paradigmas wird, zweitens, der Forschungsstrang des funktionalen offensiven Realismus herausgearbeitet. Gezeigt wird, dass eine Akteursoeffnung auch unter systemischen Bedingungen moeglich ist, wozu methodisch die Instrumente der Impulsverarbeitung und Impulsumsetzung entwickelt werden. Der dabei entstandene idealtypische, theoretisch aufgeladene Strategiebegriff wird so formuliert, dass er fuer weitere Arbeiten, die sich mit staatlicher Sicherheitspolitik befassen, verwendbar ist. Empirisch traegt die Dissertation, drittens, zur Aufarbeitung des amerikanisch-chinesischen Wettbewerbs um Macht und Einfluss in Suedostasien bei. Dabei werden saemtliche bilateralen Beziehungen Chinas und der USA im ASEAN-Raum analysiert und aufeinander bezogen.
Seit den frühen siebziger Jahren ist im anglo-amerikanischen Raum eine große Anzahl an Romanen erschienen, die alle auf einer bzw. zwei eng verwandten schottischen Feenballaden ("Thomas the Rhymer" und "Tam Lin") basieren. Die vorliegende Arbeit untersucht eine Auswahl dieser Romane in vergleichender Perspektive. Der erste Teil beschäftigt sich mit Feenglauben und -literatur im Allgemeinen, während der zweite Teil der Analyse von zehn auf den Balladen basierenden Romanen gewidmet ist. Da im Ausgangsmaterial Elemente keltischen Volksglaubens eine zentrale Rolle spielen, untersucht das erste Kapitel die Grundlagen und möglichen Ursprünge des keltischen Feenglaubens. Um neben einer Einführung in die volkskundlichen Grundlagen auch eine Verankerung der Arbeit in aktuellen literaturwissenschaftlichen Theorien zu gewährleisten, gibt das zweite Kapitel einen Überblick über Theorien der phantastischen Literatur. Vorgestellt werden strukturalistische und funktionale Ansätze, die sich chronologisch von J.R.R. Tolkien (1948) über Tzvetan Todorov (1970) bis hin zu Farah Mendlesohn (2005) bewegen. Um die Bearbeitungen der frühmodernen Balladen literaturgeschichtlich einzuordnen, zeichnet das nächste Kapitel die Geschichte der literarischen Bearbeitungen des Elfenstoffes in der Literatur vom Mittelalter bis ins späte 20. Jahrhundert nach, mit Schwerpunkt auf englischsprachigen Werken. Von im Mittelalter noch stark vom Volksglauben beeinflussten, moralisch ambivalenten Figuren entwickeln sich die Elfen seit dem 16. Jahrhundert zu satirisierten, miniaturisierten und verniedlichten Gestalten; die Fantasyromane des späten 20. Jahrhunderts scheinen jedoch wieder zu stärker bedrohlichen Elfen zurück zu finden. Das nächste Kapitel widmet sich der Darstellung des Ausgangsmaterials, der zwei Balladen, die als Nr. 37 bzw. 39 in der Balladensammlung von Francis James Child zu finden sind. Erläutert werden die Entstehungsgeschichte der traditionellen Ballade (traditional ballad) im Allgemeinen und von Child Nr. 37 und 39 im Besonderen, sowie Varianten, Symbolik und Besonderheiten der zwei Balladen. Die anschließenden Analysekapitel beschäftigen sich jeweils schwerpunktmäßig mit einer Balladenadaption in Romanform: - Dahlov Ipcar: The Queen of Spells (1973) - Elizabeth Marie Pope: The Perilous Gard (1974) - Diana Wynne Jones: Fire and Hemlock (1984) - Ellen Kushner: Thomas the Rhymer (1990) - Pamela Dean: Tam Lin (1991) - Terry Pratchett: Lords and Ladies (1992) und The Wee Free Men (2003) - Patricia McKillip: Winter Rose (1996) Alle Analysekapitel sind ähnlich strukturiert: Nach kurzer Vorstellung des Autors folgt eine Zusammenfassung der Romanhandlung. Da alle Romane mehr oder weniger stark intertextuell sind, werden daraufhin Einflüsse und intertextuelle Anspielungen untersucht. Besonderes Augenmerk liegt dabei auf der Verarbeitung der zwei Child-Balladen. Da nahezu alle untersuchten Romane ähnliche Hauptcharaktere aufweisen (junges Mädchen, junger Mann, Elfenkönigin) untersuchen die Analysekapitel diese Figurenkonstellation sowie die hier verarbeiteten folkloristischen Einflüsse. Trotz der großen zeitlichen und geographischen Bandbreite der Schauplätze sind sich die Romane erstaunlich ähnlich, vor allem in der Darstellung ihrer Hauptfiguren. Die weibliche Heldin ist meist jung, eigenwillig und unterscheidet sich oft durch eine negative Charaktereigenschaft oder Umweltbedingung von ihren Altersgenossinnen. Nahezu alle Romane werden aus der Perspektive der weiblichen Hauptfigur erzählt. Dies führt dazu, dass die männliche Hauptfigur weniger zentral und oft durch eine gewisse Passivität gekennzeichnet ist. Infolgedessen ist die zweite aktive Figur der Konstellation ebenfalls eine Frau " die Elfenkönigin. Auch in ihrer Darstellung lassen sich in allen Romanen große Gemeinsamkeiten finden: Sie ist attraktiv und grausam, kühl und oft überheblich. Insgesamt werden die Elfen in den Romanen deutlich unsympathisch geschildert. Sie sind eine Spezies schöner, (fast) unsterblicher, oft übernatürlich intelligenter und mit magischen Fähigkeiten begabter Wesen, doch sind sie auch kalt, grausam und vollkommen fremdartig und unverständlich für die Menschen. Ein möglicher Grund für die negative Darstellung der Elfen scheint didaktischer Art zu sein, da die Botschaft aller Adaptionen an die Leser lauten könnte: "Akzeptiere deine Unvollkommenheit und lass dich nicht von vermeintlich überlegenen Gegnern einschüchtern " auch sie haben Schwächen". Auch in Richtung Gender-Diskurs scheinen viele der Autoren eine Aussage machen zu wollen. Sie zeichnen ihre Heldinnen als "starke Mädchen", die in einer Umkehrung des "damsel in distress"-Schemas einen Mann aus der Gefangenschaft der Elfen retten. Als feministisch kann man die Adaptionen jedoch nicht bezeichnen, da sie hierzu eher zu konservativ sind, was sich vor allem darin zeigt, dass die einzige Frau im Roman, die wirklich über Macht verfügt " nämlich die Elfenkönigin " am Ende die Verliererin ist.
Wenn eine stets von Null verschiedene Nullfolge h_n gegeben ist, dann existieren nach einem Satz von Marcinkiewicz stetige Funktionen f vom Intervall [0,1] in die reelle Achse, die in dem Sinne maximal nicht differenzierbar sind, dass zu jeder messbaren Funktion g ein Teilfolge n_k existiert, so dass (f(x+h_n_k)-f(x))/h_n_k fast sicher gegen g konvergiert. Im ersten Teil dieser Arbeit beweisen wir Erweiterungen dieses Satzes im Mehrdimensionalen und Analoga für Funktionen in der komplexen Ebene. Der zweite Teil dieser Arbeit befasst sich mit Operatoren die in enger Beziehung zum Satz von Korovkin über positive lineare Operatoren stehen. Wir zeigen, dass es Operatoren L_n gibt, die jeweils eine der Eigenschaften aus dem Satz von Korovkin nicht erfüllen und gleichzeitig eine residuale Menge von Funktionen f existiert, so dass L_nf nicht nur nicht gegen f konvergiert, sondern sogar dicht im Raum aller stetigen Funktionen des Intervalls [0,1] ist. Ähnliche Phänomene werden bei polynomieller Interpolation untersucht.
In der vorliegenden Arbeit geht es um die Frage nach der Rolle der Zeit im Werk Friedrich von Hardenbergs (Novalis, 1772-1801). Sowohl die Zeitstruktur in der Dichtung als auch das Zeitbewusstsein in der Transzendentalphilosophie bei Novalis wurden in der Forschung mehrfach thematisiert. Eberhard Haufe (1957) und Peter Küpper (1959) analysierten die Zeitstruktur im Heinrich von Ofterdingen eingehend und kamen zu dem Schluss, dass die Entwicklung des Romaninhalts dem Stil und der Symbolhaftigkeit der Sprache unterworfen werden und dass damit die Zeit aufgehoben wird. Manfred Frank (1972) analysierte das Zeitbewusstsein in den Fichte-Studien und legte dar, dass das Bewusstsein der Zeitlichkeit aus dem Gefühl eines unlösbaren "Mangels" an Sein entstehe und dass deshalb die Freiheit des Ich nicht durch Aufhebung der Zeit, sondern in einer Synthese von Zeit und Ewigkeit in der Zeit realisiert werden sollte. Während Frank den Ort der Dynamik des "Ordo inversus" zwischen Subjekt und Objekt in der Zeit bestimmte, entwickelte Richard Warren Hannah (1981) die These, dass die Synthese von Ich und Du, Zeit und Raum, Vergangenheit und Zukunft in der Gegenwart liege und dass das Bewusstsein der Gegenwart der Ausgangspunkt der Dichtung bei Novalis wurde. Durch die Arbeiten von John Neubauer (1978) und Gordon Birrell (1979) wurde die Aufhebung der Zeit im Ofterdingen zwar verleugnet und die Rolle der Zeit und der Gegenwart im Roman hervorgehoben, aber es fehlt in der Forschung m. E. noch ein roter Faden zwischen dem transzendentalphilosophischen Zeitbewusstsein und der Zeitstruktur in der Dichtung. In seiner ersten Fragmentsammlung Blüthenstaub (1798) schreibt Novalis: "Nichts ist poëtischer, als Erinnerung und Ahndung, oder Vorstellung der Zukunft. Die gewöhnliche Gegenwart verknüpft beyde durch Beschränkung " Es entsteht Contiguitaet, durch Erstarrung " Crystallisation. Es gibt aber eine geistige Gegenwart " die beyde durch Auflösung identificirt " und diese Mischung ist das Element, die Atmosphäre des Dichters. Nicht Geist ist Stoff." (II, 468, 123) In dieser Arbeit wird erläutert, dass die Idee der "geistigen Gegenwart" ein roter Faden ist, der Philosophie und Dichtung bei Novalis verbindet. Um zwischen Theorie und Dichtung eine Brücke zu schlagen, soll der Gedankengang von Novalis von den Fichte-Studien (1795/96) bis zum Heinrich von Ofterdingen (geschrieben um 1800) nachvollzogen werden. Die vorliegende Arbeit geht davon aus, dass das Bewusstsein der Gegenwart als einer Synthese nicht nur die philosophischen Studien, sondern auch die Poetik und die Dichtung von Novalis durchgängig prägt. Es soll erläutert werden, wie er den Begriff der "geistigen Gegenwart" begründete und wie er ihn auf seine Poetik und dichterische Praxis übertrug. Diese Arbeit stellt einen Versuch dar, den ganzen Gedankengang von Novalis als eine Suche nach Möglichkeiten einer sinnlichen Erfahrung der "geistigen Gegenwart" darzustellen.
Die Dissertation behandelt die Sakralarchitektur Triers des 13. und 14. Jahrhunderts, die mit Ausnahme der Liebfrauenkirche in der bisherigen Forschung keine ausreichende Würdigung erfahren hat. In Trier werden drei Rezeptionsstränge gotischer Architektur ins Reich deutlich: Nach der anfäng-lichen Übernahme einzelner Neuerungen aus dem zisterziensischen Architekturkreis und der Aneignung einzelner Strukturen werden schließlich ganze Konzepte rezipiert. Das Zisterzienserkloster Himmerod kann entgegen der bisherigen Forschungsmeinung nicht als Auslöser des gotischen Baubooms in Trier gelten - keinerlei Quellen weisen darauf hin. Um 1221 beginnen die in Stadt gelangten Dominikaner und Franziskaner, später die Augustiner-Eremiten und Karmeliter mit dem Bau ihrer Kirchen, die neben der champagnesischen Baugruppe eine eigenständige Bautengruppe bilden. Bettelordenarchitektur verdeutlicht eine ordensinterne Repräsentationsstrategie, die sich in der Ablehnung des Hauptbaus der champagnesischen Baugruppe - der Liebfrauenkirche - zeigt und die auf der Wiedererkennung als Bettelordenkirche in einem Stadtgefüge basiert. So ist die Sakralarchitektur Triers das Ergebnis unterschiedlicher Repräsentationsbedürfnisse des Erzbischofs bzw. der Bettelorden. Trier muss aufgrund der enormen und frühen Bautätigkeit als frühgotisches Zentrum des Reiches gelten.
In der Arbeit wird untersucht, wie die EU mit Diversität umgeht, wie sich entsprechende Maßnahmen in der Personalpolitik der verschiedenen europäischen Behörden niederschlägt und welche Auswirkungen dies hat. Es wird herausgearbeitet, dass die EU als Institution einige Spezifika aufweist, die diese Frage beeinflussen und die bei einer Beurteilung Berücksichtigung finden müssen. So ist die EU verpflichtet, die Vielfalt der Mitgliedstaaten in den eigenen Institutionen abzubilden. Eine Besonderheit ist auch, dass die Effizienz der Organisation " und damit auch der mögliche Wert von Diversity Management (DiM) " mangels marktinduzierter Kriterien schwer zu bestimmen ist. Die Arbeit gliedert sich in vier Teile. Nach einer überblickartigen Einführung (Teil A) werden in Teil B der Anspruch von DiM und dessen Vor- und Nachteile dargestellt. Als Bezugspunkt für erfolgreiches DiM werden einige Beispiele aus deutschen Großunternehmen angeführt, wo DiM eine relativ bedeutende Rolle spielt. Die Einschätzung, was diese Erfahrungen für die EU bedeuten könnten, schließt den Teil B ab. Dabei werden die Besonderheiten einer Behörde, die durch starke rechtliche Regelungen gebunden ist und für die es kaum eindeutige Effizienzkriterien gibt, besonders hervorgehoben. Der Teil C enthält die empirischen Recherchen, die angestellt wurden. Dazu werden zunächst das Weißbuch des Kinnock Reports und das Statut für die Beamten der Europäischen Gemeinschaften von 2004 ausführlich dargestellt und anschließend gewürdigt. Es stellt sich heraus, dass bei einzelnen Personalmaßnahmen bereits weitgehende Öffnungen und Flexibilitäten vorgesehen sind, die sich unmittelbar zur Implementierung von DiM anbieten. Im Weiteren wurde ein leitender Mitarbeiter des Europäischen Parlaments zu dem Statut ausführlich interviewt. Die Ergebnisse verleihen den vorher geschilderten Regelungen des Statuts Farbe und vermitteln dem Außenstehenden ein lebendiges Bild vom Innenleben einer solchen Behörde. Die Einschätzung der neuen Regelungen durch den Interviewten ist zwar differenziert, aber insgesamt ergibt sich doch ein positives Bild der personalpolitischen Maßnahmen im Hinblick auf die mögliche Implementierung von DiM. Die zweite wesentliche empirische Quelle der Arbeit sind Publikationen der EU selbst zu Problemen der Diversität, Diskriminierung und verwandten Themen. Die dazu erschienenen Broschüren geben Auskunft darüber, welche Ansichten die Mitarbeiter zu Bestrebungen um Diversität und Chancengleichheit äußern, welche Aktionen die EU plant und welche Erfolge man sich erhofft. Die Prüfung dieser Unterlagen ergibt, dass in einer solchen Organisation die Integration von Minderheiten weit fortgeschritten ist und Vorurteile und offene Diskriminierungen weitgehend fehlen. Jedoch werden Umsetzungsprobleme der Maßnahmen zur Chancengleichheit der Geschlechter, zur work-life balance, zur Respektierung von Behinderungen oder sexuellen Orientierungen konstatiert. Um die geschilderten Maßnahmen zu beurteilen, werden sie mit entsprechenden Entwicklungen der im zweiten Teil der Arbeit beschriebenen privatwirtschaftlichen Organisationen, die als Vorreiter des DiM in Europa angesehen werden können, verglichen. In einem weiteren Schritt sollten die Einschätzung der Mitarbeiter zu Diversität und zu den vorher beschriebenen Maßnahmen ergründet werden. Die ins Auge gefasste repräsentative Befragung konnte trotz anfänglicher Ermutigung in einer Behörde der EU, dem Europäischen Parlament (EP), nicht durchgeführt werden, da die EU-Behörden eine offizielle Unterstützung der Untersuchung und damit den Zugang zu anderen Interviewpartnern nicht zustimmten. Daher beschränkte sich die Befragung auf Mitarbeiter, die sich nach Ansprache durch einige leitende Beamte zur Beantwortung gleichsam als Privatpersonen zur Ausfüllung des Fragebogens bereit erklärten. Die Befragung hat also keinerlei repräsentativen, sondern rein explorativen Charakter. Im Teil D der Arbeit wird eine Gesamtbewertung der Recherchen abgegeben. Es wird konstatiert, dass zwar eine Menge an Einzelinitiativen und -maßnahmen in den Behörden der EU zu finden ist, dass aber mit einem übergreifenden Konzept des DiM diese Aktionen koordiniert und in ihrem Nutzen verstärkt werden könnten.
In der vorliegenden Arbeit wurden die regulatorischen Regionen der Gene für den Kaliumchloridtransporter 3 (KCC3, SLC12A6) und den Glukokortikoidrezeptor (NR3C1) untersucht. Hierbei handelt es sich um Gene, die bereits mit psychiatrischen Erkrankungen assoziiert worden sind. Die Promotorregionen beider Gene wurden in Abhängigkeit von bereits in der Literatur beschriebenen DNA-Polymorphismen und unter besonderer Berücksichtigung epigenetischer DNA-Modifikationen mittels bisulfitspezifischer Sequenzierung und Luciferase-Assay funktionell charakterisiert. Es konnte gezeigt werden, dass DNA-Polymorphismen und epigenetische Veränderungen der Erbinformation - letztere können in Abhängigkeit unterschiedlicher Lebenserfahrungen entstehen - funktionelle Relevanz für die Promotoraktivität der untersuchten Gene haben. Strukturelle und modifikatorische DNA-Variationen sowie Gen-Umwelt Wechselwirkungen beeinflussen somit die Genregulation und können unter bestimmten Bedingungen krankheitsrelevant werden.
Der Handlungsspielraum der deutschen Außen- und Sicherheitspolitik hat sich mit dem Wegfall der systemischen Zwänge des Kalten Krieges und der letzten formalen Souveränitätsbeschränkungen nach 1990 erhöht. Zugleich bewahrheitete sich die von einigen neorealistischen Beobachtern vertretene Befürchtung nicht, Deutschland könne nun seine Bindungen im Rahmen der euro-atlantischen Sicherheitsinstitutionen aufgeben und fortan einen unilateraleren sicherheitspolitischen Kurs einschlagen. Stattdessen unterstrichen alle Bundesregierungen die weiterhin zentrale Bedeutung der NATO für die deutsche Sicherheitspolitik. Auf der Grundlage dieser beiden Beobachtungen " dem erweiterten Handlungsspielraum und dem fortdauernden deutschen Bekenntnis zur NATO " kann die Erwartung formuliert werden, dass Deutschland den zu Beginn der 1990er Jahre neu einsetzenden Transformationsprozess der Allianz aktiv und mit eigenen Impulsen begleitet hat und entsprechende Initiativen unternahm. Ein erster Blick auf die sicherheitspolitische Praxis enttäuscht diese Erwartungen jedoch. Lediglich im Zusammenhang mit der ersten Osterweiterung wurde der deutschen Bundesregierung (und insbesondere dem früheren Verteidigungsminister Volker Rühe) eine gestaltende Funktion zuerkannt, während sie im Bereich des militärischen Krisenmanagements in der Regel als Bremser qualifiziert wurde. Auch im Zusammenhang mit der globaleren Ausrichtung der NATO nach dem 11. September 2001 scheint die Bundesrepublik Deutschland sich über weite Strecken eher den Vorgaben des amerikanischen Bündnispartners angepasst zu haben, als dass sie den Prozess aktiv mitgestaltete. Die vorliegende Arbeit untersucht vor diesem Hintergrund den Gestaltungswillen der deutschen NATO-Politik von 1991 bis 2005 in den zentralen Bereichen der NATO-Osterweiterungen, des militärischen Krisenmanagements und der Antiterrorpolitik nach dem 11. September 2001. Trifft das Urteil weitreichender deutscher Passivität zu oder lassen sich differenziertere Handlungsmuster identifizieren? Wie lassen sich diese Handlungsmuster erklären? Zur Bearbeitung der Fragestellung wird ein Analyserahmen entwickelt, dem das spezifische deutsche Funktionsverständnis gegenüber der NATO als Institution zugrunde liegt. Die institutionalistische Theorie in den Internationalen Beziehungen hat ein Spektrum allgemeiner und spezifischer Funktionen entwickelt, welche die europäischen Sicherheitsinstitutionen aus Sicht ihrer Mitgliedstaaten erfüllen sollen. An dem einen Ende dieses Spektrums steht die allgemeine und primär nach innen gerichtete Funktion. Sie zielt auf die kooperative Sicherheit im Sinne der gegenseitigen Beeinflussung und Einbindung der Mitgliedstaaten ab. Dagegen handelt es sich bei der militärischen Interventionsfähigkeit um eine in erster Linie nach außen gerichtete, die militärische Handlungsfähigkeit der NATO betreffende spezifische Funktion. Zwar umfasst dieses Spektrum nicht ausschließlich Entweder-Oder-Kategorien. Allerdings stehen allgemeine und spezifische Funktionen vor dem Hintergrund begrenzter finanzieller Ressourcen sowie unterschiedlicher Anforderungen an die NATO-Strukturen (beispielsweise im Sinne der Exklusivität vs. Inklusivität) in einem Spannungsverhältnis. Somit werden die Mitgliedstaaten der Allianz die verschiedenen Funktionen der NATO unterschiedlich gewichten. Auch der deutschen Politik liegt ein spezifisches Funktionsverständnis zugrunde, welches durch innenpolitische, z.T. kulturell und historisch geprägte, Faktoren bestimmt wird. Das Ziel der Arbeit ist es, den Gestaltungswillen der deutschen Politik im NATO-Transformationsprozess nach dem Ende des Kalten Krieges nachzuzeichnen und das dieser Politik zugrunde liegende Funktionsverständnis von institutioneller Kooperation zu analysieren. Dem erkennbaren Bestreben der Bundesregierungen auch nach 1990, die Institution NATO zu erhalten, zu stärken und schließlich auch um neue Mitglieder zu erweitern steht dabei eine zögerliche Haltung gegenüber dem militärischen Krisenmanagement und der Schaffung der militärischen Voraussetzungen zur Umsetzung der gemeinsamen Ziele gegenüber (Verteidigungshaushalt, Bundeswehrreform). Die Arbeit kommt zu dem Schluss, dass sich dieser scheinbare Widerspruch mit dem deutschen Funktionsverständnis erklären lässt, welches der kooperativen Sicherheit einen deutlich höheren Stellenwert einräumt als der militärischen Interventionsfähigkeit.
Vor dem Hintergrund mehrerer Jahrhunderthochwasser im letzten Jahrzehnt werden Aspekte des präventiven (dezentralen) Hochwasserschutzes diskutiert. Dabei wird die gegenwärtige Intensität der Landnutzung mit einem verringerten Retentionsvermögen der Landschaft in Verbindung gebracht; in Extensivierungsmaßnahmen wird ein entsprechendes Potenzial zur Vermeidung von Hochwasserrisiken gesehen. Dabei ist zu beachten, dass einerseits hydrologische Simulationsmodelle zur Bewertung möglicher Landnutzungsszenarien eingesetzt werden, andererseits aber auf wissenschaftlicher Seite Defizite beim grundlegenden Erkenntnisstand über die Abflussbildung zu konstatieren sind. Der Fokus der vorliegenden Arbeit lag auf der grundlegenden Prozessforschung zur Abflussbildung in der Mikroskale und griff methodisch die Forderung nach mehr Erkenntnissen aus Geländeuntersuchungen auf. Hierzu wurden Beregnungsversuche und bodenkundliche Untersuchungen in zwei unterschiedlichen Einzugsgebieten der Trier-Bitburger Mulde durchgeführt, wodurch die substratbedingten dominanten Abflussbildungsprozesse identifiziert werden konnten. Bei dem schluffig-sandigen Substrat war die hohe texturbedingte Grobporosität für die Tiefensickerung entscheidend. Für das lehmig-tonige Substrat hingegen waren laterale Fließprozesse entlang von Regenwurmröhren über dichten Unterböden charakteristisch. Die Landnutzung führte zur Modifikation des substratspezifischen Abflussprozesses, indem sie vor allem Einfluss auf die Infiltrationseigenschaften der Bodenoberfläche nahm. Die hohe Verschlämmungsneigung des schluffig-sandigen Substrates führte zu Oberflächenabfluss unter Ackernutzung. Auf extensiv genutzten Grünlandstandorten hatte ein dichtes Geflecht von Feinwurzeln, abgestorbener Blattbiomasse und Moosen eine deutliche Reduktion der Infiltration zur Folge, so dass Oberflächenabfluss als dominanter Prozess auftrat. Auch Wälder verfügen nicht unweigerlich über ein großes Retentionsvermögen, wenn sie auf Ungunststandorten verbreitet sind. Auf dem untersuchten lehmig-tonigen Substrat wiesen die flachgründigen Waldstandorte die höchsten Abflusskoeffizienten an Subsurface Flow auf. Um die Abflussprozesse eines Landschaftsausschnittes zu charakterisieren, wurden quantifizierbare Kriterien zur flächendistributiven Ausweisung dominanter Einflussfaktoren auf die Abflussprozessbildung in einem Entscheidungsbaum zusammengefasst. Hierdurch können räumlich homogene Einheiten von hydrologischen Prozessen oder Komponenten des Wasserhaushaltes ausgewiesen werden. Die Identifikation von Abflussprozessen am Ort ihrer Entstehung ermöglicht die Planung flächenbezogener Maßnahmen des dezentralen Hochwasserschutzes
Die Renaissance und die frühe Neuzeit sind entscheidende Phasen für die Entstehung der modernen Naturwissenschaften " und weisen gleichzeitig Merkmale auf, die zunächst ganz und gar nicht wissenschaftlich erscheinen. Dies gilt insbesondere für die Weltbilder, denen die Forscher dieser Zeit verhaftet waren und für die Methoden, mit denen sie zu wissenschaftlichen Erkenntnissen gelangten. Nachvollziehen lässt sich dieser Befund bei Paracelsus, Robert Boyle und Isaac Newton. Sie alle haben die Wissenschaft vorangetrieben und ihr zu neuen Einsichten verholfen. Ihre Vorgehensweise war dabei weder einheitlich noch im heutigen Sinne streng wissenschaftlich " es genügt zu sagen, dass alle drei sich ernsthaft mit der Alchemie beschäftigt haben. Der Alchemie liegt eine ganz andere Weltanschauung zugrunde als der sich entwickelnden modernen Naturwissenschaft: Magische Wechselwirkungen, Entsprechungen und Ähnlichkeiten sowie Kräfte wie Sympathien und Antipathien sind unumstrittene Grundelemente. Das Weltbild der modernen Naturwissenschaften wird dagegen zunehmend mechanisiert und quantifiziert " mit dem Ziel, alles auf rein mechanische Wechselwirkungen zwischen den atomaren Bausteinen der Materie zu reduzieren. Die naturwissenschaftlichen Erklärungen und Hypothesen, die innerhalb dieser beiden unterschiedlichen Weltbilder entstanden sind, waren demzufolge grundsätzlich voneinander verschieden. Gleiches gilt für die Methoden, die jeweils als adäquate Mittel des Erkenntniserwerbs akzeptiert wurden. Die Beurteilung von Forschern, die sich mit Alchemie beschäftigt haben, ist daher nicht immer einfach. Gerade das Verhältnis von alchemistischer und anerkannt wissenschaftlicher Forschung verlangt eine differenzierte Untersuchung. Wie kann man sowohl Newtons Interesse für Alchemie als auch seinen quantitativ-mathematischen Erkenntnissen Rechnung tragen und dennoch zu einem einheitlichen Bild kommen? Müssen beide Bereiche getrennt betrachtet werden " und damit eindeutig in "wissenschaftlich" und "unwissenschaftlich" geschieden werden " oder kann es sein, dass sich beides gegenseitig befruchtet hat? Die vorliegende Dissertation versucht zu zeigen, dass der eigentümliche weltanschauliche und methodologische Pluralismus der Renaissance und der frühen Neuzeit die Wissenschaft in vieler Hinsicht bereichert hat. So verschieden die zur Debatte stehenden Weltbilder waren, so reich war auch das Repertoire an unterschiedlichen Erfahrungstatsachen, Erklärungsmustern, theoretischen Begriffen und wissenschaftlichen Methoden, das sie zur Verfügung stellten. In diesem Sinne lässt sich feststellen, dass Paracelsus, Boyle und Newton nicht wissenschaftliche Erfolge erzielten, obwohl sie Alchemisten waren, sondern auch weil sie es waren.
In der vorliegenden Dissertation wurde Belohnungssensitivität mit Spielverhalten und elektrophysiologischen Korrelaten wie dem Ruhe-EEG und ereigniskorrelierten Potenzialen auf Feedback-Reize in Verbindung gebracht. Belohnungssensitivität ist nach der zugrundeliegenden Definition als Konstrukt mit mehreren Facetten zu verstehen, die eng mit Extraversion, positiver Affektivität, dem Behavioral Activation System, Novelty Seeking, Belohnungsabhängigkeit und Selbstwirksamkeit assoziiert sind. Bei der Untersuchung einer spezifischen Spielsituation, in der 48 gesunde Studentinnen durch eigene Entscheidungen Belohnungen erhalten konnten, zeigte sich, dass das Spielverhalten mit den während des Spiels erfassten ereigniskorrelierten Potentialen (hier: FRN (feedback related negativity)und P300) auf die Belohnungssignale in Form eines Feedbacks korreliert. Belohnungssensitive Personen zeigen tendenziell nach einem Gewinn-Feedback eine weniger negative FRN-Amplitude, die wiederum positiv mit der gewählten Einsatzhöhe assoziiert ist. Auch die Amplitude der P300 scheint mit dem Spielverhalten zusammenzuhängen. So zeigte sich ein positiver Zusammenhang zwischen typisch belohnungssensitivem Verhalten und der mittleren Amplitude der P300: Gewinne gehen mit einer größeren P300-Positivierung und schnelleren Entscheidungen im Spiel einher. Dagegen konnte weder das Spielverhalten noch die über diverse Fragebögen erfasste Ausprägung der Belohnungssensitivität in der kortikalen Grundaktivierung im Ruhezustand einer Person abgebildet werden. Die vorliegenden Ergebnisse deuten darauf hin, dass Belohnungssensitivität ein Persönlichkeitsmerkmal ist, das sich sowohl im Verhalten, als auch in der elektrokortikalen Aktivität in belohnungsrelevanten Situationen widerspiegelt.
Im 18. Jahrhundert manifestierte sich ein grundlegendes Kennzeichen moderner Kunst: ihr Öffentlichkeitsanspruch. Dessen diskursiven Verdichtungen konkretisierten sich in der zeitgenössischen Kunsttheorie und -literatur, in der Kunstkritik, in Beschreibungen und bildlichen Darstellungen, und ebenso in vielfachen impliziten Strategien zur Adressierung bildender Kunst. In der Entstehung der Kunstausstellung, der Kunstkritik, dem Wandel des Patronagesystems und den damit verbundenen Kommunikationsstrategien bildender KünstlerInnen wird nicht nur eine historisch reale Figur beschrieben, sondern zugleich ein imaginäres Konstrukt entworfen: das Kunstpublikum. Am Beispiel zweier bedeutender Kunstzentren des 18. Jahrhunderts, Paris und London, wird der Umgang mit dieser neuen Öffentlichkeit in der bildenden Kunst, Kunstliteratur und Ausstellungspraxis verfolgt. Tatsächlich ist die Anrede des "enlightened public" oder "public éclairé" allgegenwärtig, doch ist es oft schwierig, die Grenzen zwischen höflicher Leerformel, Euphemismus und Ironie richtig zu lesen. Das Sprechen über Öffentlichkeit ist nicht einfach eine Quelle für einen historisch-soziologischen Wandel, sondern stellt ein Symptom der zunehmenden Emphatisierung des Öffentlichkeitsbegriffs im Zuge der Aufklärung dar. Dabei ist das "Publikum" auch eine Konstruktion, die Leerstellen auffüllen muss, und der ihm zugewiesene Platz wechselt immer wieder. Die Formierung des Öffentlichkeitsbegriffs geschah nicht nur als Prozess der Öffnung, sondern auch der Abgrenzung. Ebenso bedeutend wie die positiven Formulierungen sind die negativen Zerrbilder des Publikums, die im 18. Jahrhunderts vielfach entwickelt werden. Am Beispiel zweier solcher Negativbilder, des "Connaisseurs" und der "multitude" werden die Verbindungen zur ästhetischen Theorie untersucht. Traditionelle Öffentlichkeitstheorien hinterlassen noch weit in das 18. Jahrhundert hinein ihre Spuren. Dies führt zu Begrifflichkeiten, die nicht emanzipatorisch oder demokratisch geprägt sind und zu einem Verständnis von Öffentlichkeit, das nicht nur prinzipiell kritisch oder widerständig, subversiv oder oppositionell gedacht werden kann, sondern mit jeder Öffnung auch eine Schließung unternimmt. Das "Kunstpublikum" entwickelt sich in einem konfliktreichen Prozess, in dem sich die Zugangsberechtigungen zur Institution Kunst immer wieder verändern und neu ausdifferenzieren.
Im Rahmen der Vertrauensforschung ermöglicht das handlungstheoretische Partialmodell der Persönlichkeit von Krampen (1997) eine differenzierte Betrachtung der drei Vertrauenskonstituenten, interpersonales Vertrauen, Selbstvertrauen und Zukunftsvertrauen, welche auch als Vertrauens-Trias bezeichnet werden. Diese Vertrauenskonstrukte wurden in der vorliegenden Arbeit mit der klinischen Bindungsforschung und der differenziellen Allianzforschung in Zusammenhang gebracht. Vor diesem theoretischen Hintergrund wurde in der vorliegenden klinischen Studie die prognostische Bedeutung der Vertrauenskonstituenten für den Therapieerfolg an einer diagnostisch heterogenen Stichprobe von 280 Patientinnen und Patienten im Rahmen der Routineversorgung untersucht. Dabei wurden die Vertrauenskonstituenten sowohl auf generalisierter Ebene operationalisiert als auch auf bereichsspezifischer Ebene im Rahmen der therapeutischen Beziehung. Durch Item- und Skalenanalysen konnten die Eindimensionalität, Konstruktvalidität und Änderungssensitivität der in dieser Studie realisierten generalisierten und bereichsspezifischen Facetten von Vertrauen bestätigt werden. Die Analysen zur prognostischen Bedeutung der Vertrauens-Trias für den Therapieerfolg zeigten eine bedeutsame Varianzaufklärung durch die bereichsspezifischen Vertrauensskalen. Das bereichsspezifische Zukunftsvertrauen stellte dabei den varianzstärksten Prädiktor für den Therapieerfolg dar. Darüber hinaus wurde dieser Zusammenhang von der Art des Störungsbildes moderiert und lieferte damit einen wichtigen Hinweis auf die differenzielle Indikationsstellung für die psychotherapeutische Behandlung von Patientinnen und Patienten mit psychischen Störungen.
Seit 15. Juli 2004 besteht in Form des Radfernwegs "Via Bavarica Tyrolensis" auf 228 Kilometern eine ringförmige Radfernwegeinfrastruktur südlich von München, einschließlich einer Verbindung nach Österreich hinab ins Tiroler Inntal. Das Erhebungsjahr 2006 zugrunde gelegt, wird die Via Bavarica Tyrolensis von ca. 62.000 Fahrradtouristen pro Radsaison zwischen dem 01. April und dem 31. Oktober genutzt. Den 376 im Juni 2006 auf dem Radfernweg befragten Personen zufolge gehören sie bei einem Altersdurchschnitt von 51,8 Jahren eher dem Segment der (Jung-)Senioren an und sorgen in der Summe für mindestens 1,01 Mio. Euro an Ums ätzen pro Jahr (genau genommen: pro Radsaison) am Wegesrand. Allerdings ist derzeit nur rd. jeder Achte (13%) auf der Via Bavarica Tyrolensis als mehrtägiger Radreisender unterwegs. Somit wird der Status Quo ihren eigentlichen Chancen und Potentialen bei weitem nicht gerecht. Der Anteil dieser in Bezug auf die Wertschöpfung besonders lukrativen radfahrenden Gästegruppe erscheint nämlich durchaus steigerungsfähig. Hierzu bedarf es allerdings eines größeren, für mehrtägige Radreisen attraktiveren Rahmens. Als Lösungsmöglichkeit böte sich die Integration der Via Bavarica Tyrolensis als Teilstück eines .Radfernwegs München . Verona. nach dem Dachmarkenprinzip an. Besonders ermutigend für ein solches alpen- übergreifendes Projektvorhaben ist die Tatsache, dass die Wegeinfrastruktur von München bis hinab ins tiroler Inntal bereits existiert und im Anschluss daran bis nach Südtirol bzw. Verona ebenfalls weitgehend fertig gestellt ist. Das Interesse an einer Alpenüberquerung mit dem Fahrrad wäre bei den derzeitigen Via Bavarica Tyrolensis- Fahrradtouristen jedenfalls schon in sehr großem Maße vorhanden: für etwas mehr als die Hälfte (52%) von ihnen nimmt eine Alpenüberquerung mit dem Fahrrad einen hohen Stellenwert ein, sie erachten diese Option als wichtig oder gar sehr wichtig. Als Ergebnis der SWOT-Analyse erscheint zum einen die Inwertsetzung der reichhaltigen, geschichtlichkulturellen Grundlagen sinnvoll. Zum anderen könnte sich .München . Verona. aufgrund der guten Kombinationsmöglichkeiten mit dem öffentlichen Personenverkehr als Produkt des gemäßigt-sportlichen, alpinen Komfort-Radreisens positionieren. Hierfür bedarf es zur Vernetzung aller Partner sowie zur Sicherstellung von Qualitäts- und Vermarktungsstandards einer Geschäftsstelle mit einer Finanzausstattung in Höhe von jährlich 400.000 Euro auf drei Jahre. Als Rechtsform sollte die .Europäische wirtschaftliche Interessensvereinigung. (EWIV) in Betracht gezogen werden. Dabei ist die Nutzung von Fördermitteln zu prüfen, z.B. aus dem Programmraum .Alpine Space in Interreg IV B der Europäischen Union. Gerade angesichts der aktuellen Diskussion um den Klimawandel würde damit ein sehr lukratives Tourismussegment für die beteiligten Regionen umfassend erschlossen werden . mit dem sog. Zero Emission Vehicle. Fahrrad.
Im Lebensrückblick wird bedeutsamen Ereignissen lebensgeschichtliche Bedeutung zugeschrieben; diese werden sodann als zugehörig zur eigenen Person und Lebensgeschichte wahrgenommen. Dieser Vorgang wurde als "Stiftung von Kohärenz" bezeichnet und für ein zurückliegendes belastendes Ereignis explorativ untersucht. In einer Fragebogenerhebung mit Daten von insgesamt N = 260 Probanden im Alter zwischen 41 und 86 Jahren wurde die Stiftung von Kohärenz für ein belastendes Ereignis daraufhin untersucht, inwieweit diese mit verschiedenen Formen der gedanklichen Auseinandersetzung mit dem Ereignis zusammenhängt. Weiterhin wurden die Zusammenhänge der Kohärenzstiftung mit ereignisbedingten Veränderungen des Selbstbildes und bestimmter Lebensumstände sowie mit Merkmalen des Ereignisses und der Person exploriert.
Schlaf fördert die Gedächtnisbildung. Nach einem anerkannten Modell beruht der förderliche Effekt des Schlafs auf einer verdeckten Reaktivierung der initial im Hippokampus gespeicherten Gedächtnisspuren während des Tiefschlafs, die durch ihre Reaktivierung in neokortikale Hirnareale zur langfristigen Speicherung transferiert werden. Obwohl die Existenz von Gedächtnisreaktivierungen im Schlaf gut belegt ist, ist bislang ungeklärt, ob diese Reaktivierungen tatsächlich in einem kausalen Zusammenhang zu den Prozessen der Gedächtnisbildung im Schlaf stehen. Zur Klärung dieser Frage habe ich in der vorliegenden Arbeit den Effekt von experimentell induzierten Gedächtnisreaktivierungen im Schlaf auf die Gedächtnisbildung untersucht. Zur Reaktivierung von Gedächtnisinhalten im Schlaf wurde ein während der Lernphase mit den Lerninhalten assoziierter Geruch verwendet. Achtzehn gesunde Probanden lernten sowohl einen deklarativen, den Hippokampus involvierenden als auch einen prozeduralen, weniger hippokampalen Gedächtnistest am Abend unter der Präsenz einen Geruchs, der sich als Kontextstimulus mit den Lerninhalten verbinden sollte. In der darauf folgenden Nacht wurde ihnen während des Tiefschlafs entweder erneut der Geruch oder eine geruchslose Substanz präsentiert. Die Abfrage am nächsten Morgen erfolgte ohne Duftdarbietung. Nach der Nacht mit Duft war die Erinnerungsleistung in dem deklarativen Gedächtnistest signifikant erhöht, im Vergleich zu der Nacht ohne Duft. Der positive Effekt des Geruchs auf die Gedächtnisbildung trat nicht auf, wenn der Geruch während der Lernphase nicht dargeboten wurde, und zeigte sich ausschließlich im Tiefschlaf, nicht dagegen nach einer erneuten Darbietung des Dufts im rapid-eye movement (REM)-Schlaf oder Wachzustand. Die prozedurale Gedächtnisbildung im Schlaf wurde in keinem der Experimente von einer Geruchsdarbietung nach dem Lernen beeinflusst. Die geruchsinduzierten Gedächtnisreaktivierungen im Tiefschlaf hatten keine Effekte auf die mittels der Elektroenzephalographie (EEG) gemessenen Hirnaktivität im Schlaf. Dagegen konnten zusätzliche Experimente unter Verwendung der funktionellen Kernspintomographie (fMRT) zeigen, dass eine erneute Geruchsdarbietung im Tiefschlaf den linken Hippokampus aktiviert, vorausgesetzt der Duft war bereits während der Lernphase präsent. Die Befunde der verbesserten Erinnerungsleistung nach einer experimentell induzierten Reaktivierung der neu enkodierten, hippokampalen Gedächtnisinhalte liefern einen eindeutigen Beleg für den kausalen Zusammenhang zwischen hippokampalen Gedächtnisreaktivierungen im Tiefschlaf und den Prozessen der deklarativen Gedächtnisbildung. Damit bestätigen sie die Kernannahme des Modells der schlaf-abhängigen Gedächtnisbildung durch Reaktivierungen im Tiefschlaf. Zusätzlich liefern die Experimente einen neuen Ansatz zur Untersuchung und Manipulierbarkeit von Gedächtnisreaktivierungen im Schlaf, durch den möglicherweise auch im klinischen oder alltäglichen Kontext positive Ergebnisse auf die Gedächtnisbildung im Schlaf zu erzielen sind.
Die vorliegende Arbeit untersucht Effekte des Alters auf die Rezeption schmerzvoller Selbstenthüllungen in dialogischen Situationen. Schmerzvolle Selbstenthüllungen werden als verbales Kommunikationsverhalten verstanden, bei dem eine Person selbstbezogene, schmerz- oder leidvolle Erfahrungen preisgibt, beispielsweise gesundheitliche oder finanzielle Probleme. In der überschaubaren Anzahl von Studien zu dieser Thematik wurde ausschließlich die Rezeption schmerzvoller Selbstenthüllungen älterer Personen untersucht. Im Zentrum der vorliegenden Arbeit steht die Frage, ob sich die Befunde dieser Studien auf alle Konstellationen des inter- und intragenerationellen Dialogs übertragen lassen. Über die Untersuchung altersdifferentieller Effekte hinaus wird angestrebt, einige vermittelnde Prozesse zu erhellen, die der Beurteilung schmerzvoller Selbstenthüllungen zugrunde liegen. Es wird eine empirische Studie beschrieben, an der ältere Probandinnen (M = 73.54 Jahre; n = 100) und jüngere Probandinnen (M = 34.24 Jahre; n = 101) teilnahmen. Diese bearbeiteten ein Fragebogeninventar mit Untersuchungsvignetten, in denen schmerzvolle Selbstenthüllungen einer älteren (ca. 75- bis 80jährigen) oder jüngeren (35- bis 40jährigen) Protagonistin beschrieben wurden. Inhaltlich wurden die schmerzvollen Selbstenthüllungen dahingehend variiert, dass sie von einer nonnormativen vs. normativen belastenden Lebenslage handelten. Nach jeder Vignette schrieben a) die Probandin-nen der Protagonistin Eigenschaften zu, sie schätzten b) die Angemessenheit der Selbst-enthüllung ein sowie c) die vermutlichen Motive und Ursachen für die Selbstenthüllung. Als Personmerkmal wurde die Ausprägung der dispositionellen Empathie erfasst und mit Eigenschaftszuschreibungen an die Protagonistin in der Vignette in Beziehung gesetzt. Die Ergebnisse zeigen, dass die Rezeption schmerzvoller Selbstenthüllungen in erster Linie mit dem Alter der urteilenden Probandin variierte und weniger in Abhängigkeit vom Alter der Protagonistin in der Vignette oder von der dyadischen Alterskomposition von Probandin und Protagonistin. Darüber hinaus war die Preisgabe einer nonnormativen verglichen mit einer normativen belastenden Lebenslage insgesamt mit einer positiveren Beurteilung der Protagonistin und ihrer Äußerungen assoziiert. Eine hohe Ausprägung der dispositionellen Empathie war mit positiveren Eigenschaftszuschreibungen an die Protagonistin in der Vignette assoziiert. Dieser Zusammenhang erwies sich zum einen in der Teilstichprobe der älteren Probandinnen als bedeutsam, zum anderen dann, wenn die Protagonistin in der Vignette eine ältere Person war.
Das Motiv "Wasser" in der Kunst " unter Berücksichtigung der Werke Bill Violas und Fabrizio Plessis
(2008)
Wasser ist ein beliebtes Motiv in allen Kunstepochen. Der Grund für die Beliebtheit des Wassers als Sujet bei Künstlerinnen und Künstlern liegt einerseits an seiner existenziellen und kulturellen Bedeutung für das menschliche Leben und andererseits an seinen physikalischen Eigenschaften mit den daraus resultierenden vielfältigen gestalterischen Möglichkeiten. Auch in der Videokunst wird es häufig als Gegenstand aufgegriffen. Insbesondere Bill Viola (1952, USA), der tief von der östlichen Philosophie beeinflusst ist, und Fabrizio Plessi (1940, Italien) stellen in ihren Werken ein je besonderes Verhältnis zwischen Video und Wasser dar. Die vorliegende Arbeit befasst sich zunächst mit einer vergleichenden Be-trachtung der Bedeutung des Wassers in der westlichen und östlichen Kultur und einem Überblick über das Motiv in der Kunst vom Mittelalter bis zum 20. Jahrhundert. Im Mittelpunkt dieser Arbeit steht die Untersuchung der Videoskulpturen, Videoinstallationen und Videobänder Bill Violas und Fabrizio Plessis. Erörtert werden folgende Fragen: In welcher Weise hat das Wasser ästhetische, formale, inhaltliche oder symbolische sowie persönliche Bedeutung für die einzelnen Künstler? Auf welche Art haben sie ihre Vorstellungen in die Arbeiten umgesetzt? Wie weit wird dieses tradierte Thema und in welcher Form wird das natürliche Element in der Videokunst durch das moderne, technische Medium wieder aufgegriffen, weiter entwickelt oder modifiziert? Aus diesen Beobachtungen heraus zeigt die Autorin die Charakteristika der mit technischen Medien produzierten Kunstwerke der besprochenen Künstler bei der Verwendung des Motivs Wasser auf.
In diesem Band sind einige der Beiträge zusammengefasst, die im Rahmen und in der Folge der chinesisch-deutschen Fachkonferenz zu Aspekten der Studienvorbereitung und Studienbegleitung entstanden sind, die vom 21. bis 22. Mai 2007 mit Unterstützung des Deutschen Akademischen Austauschdienstes (DAAD) am Deutschkolleg - Zentrum zur Studienvorbereitung der Tongji-Universität in Shanghai veranstaltet wurde. Schwerpunkte bilden die Bereiche: Wissenschaftskommunikation, Interkulturelle Kommunikation / Landeskundekonzepte und " als Ausblick " Fachsprache. Der Band enthält Beiträge von: Gutjahr, Jacqueline / Yu, Xuemei (S. 1-4 = Dokument 1); Gutjahr, Jacqueline / Porsche, Sabine / Yu, Xuemei (S. 5-22 = Dokument 2); Bärenfänger, Olaf (S. 23-43 = Dokument 3); Li, Yuan (S. 44-56 = Dokument 4); Yu, Xuemei (S. 57-67 = Dokument 5); Burkhardt, Armin (S. 68-87 = Dokument 6); Dahlhaus, Barbara (S. 88-106 = Dokument 7); Freudenberg-Findeisen, Renate / Schröder, Jörg (S. 107-134 = Dokument 8); Dege, Christopher P. / Timmermann, Waltraud (S. 135-151 = Dokument 9); Brandl, Heike (S. 152-167 = Dokument 10) und Liu, Fang (S. 168-178 = Dokument 11).
Nach getroffenen Entscheidungen werden gewählte Alternativen typischerweise aufgewertet, abgewählte Alternativen werden abgewertet (spreading apart of alternatives). Die vorliegende Arbeit ordnet solche tendenziösen Umwertungen in einen handlungstheoretischen Zusammenhang ein und untersucht vor diesem Hintergrund mögliche Bedingungen solcher Umwertungen. Ausgangspunkt der Überlegungen ist das Assimilations-Akkommodations-Modell von Brandtstädter. Demnach sind die beschriebenen Umwertungen Ausdruck eines akkommodativen Modus der Zielablösung und sollten zum einen von der Irreversibilität der Entscheidung abhängen, zum anderen von zwei dispositionellen Faktoren, die die Stärke akkommodativer Prozesse bestimmen (Flexibilität der Zielanpassung, Hartnäckigkeit der Zielverfolgung). Drei Studien bestätigen die Vorhersagen des Assimilations-Akkommodations-Modells und geben zudem Hinweise auf vermittelnde Prozesse der Umwertung von Alternativen. So scheinen insbesondere solche Attribute aufgewertet zu werden, deren Zutreffen bei der betreffenden Alternative subjektiv nicht abzuleugnen ist. Die individuelle Ausprägung solcher selektiven Umwertungen wird in einem Anpassungsindex (AI) abgebildet. Abschließend wird der empirische Befund diskutiert und auf die Frage der Rationalität der gefundenen Umwertungen eingegangen.