Refine
Year of publication
Document Type
- Doctoral Thesis (489) (remove)
Language
- German (489) (remove)
Keywords
- Deutschland (24)
- Stress (13)
- n.a. (10)
- Bodenerosion (9)
- Tourismus (8)
- Fernerkundung (7)
- Geschichte (7)
- Modellierung (7)
- Motivation (6)
- Nachhaltigkeit (6)
Institute
- Psychologie (117)
- Raum- und Umweltwissenschaften (98)
- Wirtschaftswissenschaften (34)
- Geschichte, mittlere und neuere (28)
- Germanistik (25)
- Kunstgeschichte (21)
- Mathematik (18)
- Politikwissenschaft (15)
- Soziologie (15)
- Fachbereich 1 (10)
Im Mittelpunkt der Arbeit steht der spätgotische Kirchenbau der 2. Hälfte des 15. Jahrhunderts im alten Erzbistum Trier. Dabei soll besonderes Augenmerk auf die unter Erzbischof und Kurfürst Johann II. von Baden (1456-1503) neu entstandenen und/oder umgebauten bzw. "modernisierten" Kirchen gelegt werden. Diese wurden in der bisherigen Forschung, bis auf Einzelmonographien, nicht in einer Zusammenschau betrachtet. Auch auf die Bau- und Stiftungspolitik Johanns II. von Baden, der scheinbar sämtliche in seiner Regierungszeit entstandenen Baumaßnahmen durch sein Wappen kennzeichnete, und deren Hintergründe, soll näher eingegangen werden. Neben den bekannteren Bauten in den Zentren des Erzstiftes Trier " Trier und Koblenz - entstanden in der 2. Hälfte des 15. Jahrhunderts im gesamten Erzbistum bedeutende spätgotische Bauten, so etwa in St. Wendel, in Klausen oder die Kirche des ehem. Kreuzherrenklosters Helenenberg. Neben den allgemein bekannteren Bauten sollen in der geplanten Dissertation aber vor allem auch die zahlreichen ländlichen Pfarrkirchen in Eifel, Hunsrück, Westerwald und Rhein-Lahn-Kreis gewürdigt werden. Diese blieben in der bisherigen kunsthistorischen Forschung außen vor, obwohl sie zum Teil von großer künstlerischer Qualität zeugen und einen wesentlichen Beitrag der Kunst- und Kulturgeschichte des Trierer Raumes leisten. Mit einer solchen Arbeit könnte eine Lücke der bisherigen Forschung zum spätmittelalterlichen Kirchenbau in Westdeutschland geschlossen werden, was nicht nur aus kunsthistorischer Sicht, sondern auch aus lokal-historischer, sozial- und kirchengeschichtlicher Sicht dringend erforderlich wäre.
Diese Dissertation behandelt das Thema des Sprachkontakts zwischen der Maya-Sprache k'iche' und das Spanische in Guatemala. Der Sprachkontakt ist seit der Eroberung des Eroberung des K'iche'-Königreichs durch Don Pedro de Alvarado im 16. Jahrhundert von verschiedenen Faktoren geprägt worden: Diese sind ethnohistorischer, sprachpolitischer, religiöser und soziokultureller Natur. So waren die ersten, die sich mit den indigenen Sprachen in der Neuen Welt befassten, die katholischen Missionaren, die Katechismen und Gebetsbücher in einheimische Sprachen übersetzten. Die Renaissance der Erforschung dieser Sprachen wiederum verdankt man den modernen Missionaren, die in den 70er Jahren des vergangenen Jahrhunderts nach Guatemala kamen. Heute versteht man die Maya-Lingustik als Teil einer soziokulturellen Bewegung, die in den letzten 20 Jahren ganz Lateinamerika verändert hat: der sogenannte indigenismo. Das Spanische Guatemalas zeigt sich in der Gegenwart von der Jahrhunderte lange Koexistenz mit den Mayasprachen (hier vor allem der Mayasprache k'iche') geprägt. Diese Prägung ist, wie in dieser Arbeit dargelegt wird, auf phonologischer, morphologischer, morphosyntaktischer und pragmatischer Weise zu erkennen.
Untersuchungsgegenstand der Arbeit bildete die politische Bedeutung der spanischen Sprache in den Niederlanden unter Philipp II., der als König Kastiliens in Personalunion zugleich Landesherr der niederländischen Provinzen war. Das Corpus, das untersucht wurde (hauptsächlich der Briefwechsel zwischen den Regierungsstellen in Brüssel und Madrid), zeigt, daß die Wahl der Sprache wesentlich häufiger von politisch-ideologischen Faktoren bestimmt war, als dies von der Forschung bisher wahrgenommen wurde. Bereits 1562 — als die Auseinandersetzungen zwischen Philipp II. und den Adligen in den Niederlanden in eine neue Phase traten — wurden das Italienische und das Spanische in der Form eines "zweiten Verbindungskanals" in die Korrespondenz zwischen der Landvogtin Margarete von Parma und dem König eingeführt, in welcher fortan Angelegenheiten größerer Wichtigkeit diskutiert wurden. Seit der Ankunft des Herzogs Alba im Jahre 1567 ist dieser inoffizielle Briefwechsel ausschließlich in Spanisch gehalten und entwickelte sich verstärkt zu einem herausragenden Instrument, um die Macht der niederländischen Regierungsstellen zu untergraben. Hatten die niederländischen Adligen vor dem Aufstand nichts dabei gefunden, sich des Spanischen zu bedienen, wenn es ihren Zwecken nützte, so änderte sich diese Haltung besonders nach der Ankunft Herzog Albas im Jahre 1567: die Sprachwahl wurde fortan eher von strategischen Faktoren determiniert und der Gebrauch der spanischen Sprache wurde aus ideologischen beziehungsweise propagandistischen Gründen negativ bewertet. Besonders innerhalb der Oberklasse und bei denjenigen Niederländern, die aus politischen oder beruflichen Gründen außerhalb der Siebzehn Provinzen lebten, wuchs die Zahl derer, welche die Niederlande als Einheit wahrnahmen und zugleich ihrer Muttersprache einen höheren Wert zuerkannten. Die Anhänger des Aufstandes instrumentalisierten ihre eigene Sprache als eine Waffe und ein Argument gegen die "spanische Vorherrschaft". Zugleich gab es einige — allerdings unvollendete — Pläne Philipps II. durch Einrichtung eines spanischen Lehrstuhles an der Universität Löwen oder eines Austauschprogramms für Studenten in Salamanca und Leuven für die Verbreitung seiner Muttersprache zu sorgen und somit "Sprachpolitik" zu betreiben. Ein weiteres Kapitel der Arbeit ist der Sprachpolitik in der Schweiz und Frankreich im 16. und 17. Jahrhundert gewidmet. In Übereinstimmung mit dem oben zitierten Zeitgenossen Tomaso Campanella kann das Ergebnis der Arbeit folgendermaßen umschrieben werden: Drei Instrumente sind nötig, um Staaten zu erwerben und zu erhalten: Sprache, Militär und Geld.
Die Dissertation untersucht vergleichend deutsch-japanische fotografische Kriegspropaganda des Zweiten Weltkrieges anhand der zu jener Zeit auflagenstärksten illustrierten Zeitschriften "Illustrierter Beobachter" auf deutscher und "Shashin Shūhō" (Fotografische Wochenzeitung) auf japanischer Seite. Unter Rückgriff auf die ikonographisch-ikonologische Methode des Kunsthistorikers Erwin Panofsky bei gleichzeitiger Bezugnahme auf das Bildverständnis Charles Sanders Peirces werden Muster der bildlichen Darstellung von Kindern und Jugendlichen analysiert, um hierdurch Rückschlüsse zu ziehen auf Gemeinsamkeiten und Unterschiede in der Ausgestaltung der Bildpropaganda beider Länder unmittelbar vor und im Zweiten Weltkrieg (1939-1945), auf allgemeine Tendenzen in der Gestaltung von Propaganda im selben Zeitraum, auf die Organisation und Funktion von Propaganda in radikalnationalistischen Staaten. Gleichzeitig wird durch Einbeziehung der Rezipientensicht die Frage nach Mehrdeutigkeit und, hiermit einhergehend, Wirkungsweise und Wirkungsgrad der Propaganda gestellt. Schwerpunkt der Untersuchung bilden sämtliche publizierten Ausgaben der zweiten Jahreshälften 1938 und 1943.
Seit dem Godesberger Programm 1959 entwickelte sich aus dem Umgang der SPD mit Geschichte und Geschichtswissenschaft eine sozialdemokratische Geschichtskultur. Sie manifestierte sich in zweierlei Hinsicht. Zum einen wurde auf geschichtspolitischer Ebene das national-konservative Geschichtsbild und insbesondere die staats- und kontinuitätszentrierten Vorstellungen von Nation und Nationalstaat kritisiert und die Stellung des Nationalsozialismus in der deutschen Geschichte neu bewertet. Zum anderen wurde auf geschichtswissenschaftlicher Ebene das Forschungsfeld der Geschichte der Arbeiterbewegung und der Sozialdemokratie erfolgreich etabliert. Parallel dazu entstand eine große Gruppe akademischer Historiker, die der SPD angehörten oder ihr nahestanden. Sie beschäftigten sich mit Themen der Partei-, der Arbeiter- und der Sozialgeschichte, unterstützten die Geschichtspolitik der SPD, kümmerten sich um Geschichtsbewusstsein dieser Partei und nahmen - zuweilen auch kritisch - an den Diskussionen ihrer Tagespolitik teil. Aus diesen beiderseitigen Aktivitäten bildeten sich vielfältige Kommunikationswege und personelle Netzwerke zwischen SPD und Historikern. Von 1959 bis 1969 vermied die SPD im Zuge ihrer Strategie der Regierungsbeteiligung eine deutliche Profilierung ihrer eigenen Geschichtspolitik, gleichzeitig lenkte nur eine kleine und fachlich eher marginale Gruppe von Historikern die Aufmerksamkeit auf die sozialdemokratische Geschichtsschreibung und ihre Themen. Aber inzwischen wurden seitens der SPD die organisatorischen Rahmenbedingungen für die Intensivierung der Kommunikation gelegt und wurden Kontakte zu einer wachsenden Zahl jüngerer Historiker geknüpft. Trotzdem waren die damaligen Kommunikationsnetzwerke räumlich und personell beschränkt. Seit 1969 erweiterten sich die Verbindungen zwischen beiden Seiten dank des politischen Aufschwungs der Sozialdemokratie und des Generationswechsels der Historikerschaft. Bis 1982 kommunizierten SPD und Historiker miteinander über viele aktuelle Themen: das Spektrum reichte von den historischen Gedenktagen über den Geschichtsunterricht in den Schulen bis hin zur Neuen Ostpolitik der sozialliberalen Koalition. Parallel dazu erlebte die sozialdemokratische Historiographie eine Konjunktur der Arbeiterbewegungsgeschichte, eine sozialgeschichtliche Neuorientierung und einen Erfolg der Sonderwegsthese. Die Kommunikationsnetzwerke umfassten immer mehr jüngere Fachhistoriker. In den Jahren 1983 bis 1989 wurden die Verbindungen der Sozialdemokratie mit den ihr nahestehenden Historikern auf politischer Ebene wegen ihrer geschichtspolitischen Auseinandersetzung mit der Christdemokratie immer enger, während die sozialdemokratische Geschichtsschreibung vor allem von der Strömung der Alltagsgeschichte und -»Geschichte von unten-« gefördert wurde. Haupttendenzen der dreißigjährigen Entwicklung der Kommunikation zwischen SPD und Geschichtswissenschaft waren wechselseitiger Austausch und Zusammenarbeit. Dabei darf jedoch nicht vernachlässigt werden, dass nicht nur die Historiker, die der Sozialdemokratie nahestanden, sondern auch die, die sich von ihr entfremdeten bzw. kritisch gegenüberstanden, Einfluss auf die Kommunikationslandschaft ausübten.
Im Fokus der Dissertation steht das Spannungsfeld zwischen betriebswirtschaftlichen Zielen und unternehmerischer Sozialverantwortung. Dieses wird im Hinblick auf die Ebene des Arbeitsmarktes und die Beschäftigung von Menschen mit Behinderung im Tourismus untersucht. Das Ziel der Untersuchung ist die Identifikation des durch die sozialwirtschaftlichen Intentionen integrativer Hotels entstehenden gesamtgesellschaftlichen Nutzens. Ob integrativen Hotels der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt, wird hierbei ermittelt. Bei dem herangezogenen Untersuchungsobjekt integrativer Hotelbetrieb handelt es sich um Hotels, die Menschen mit und ohne Behinderung beschäftigen, als Integrationsprojekte anerkannt sind und vom Gesetzgeber als Unternehmen des allgemeinen Arbeitsmarktes definiert werden. Da es sich um ein in der Tourismuswissenschaft weitgehend unbekanntes Untersuchungsobjekt handelt, wird dieses grundlegend erläutert, sodass neben dem Konzept, den rechtlichen Rahmenbedingungen und den Fördermöglichkeiten auch eine situative Beschreibung integrativer Hotels in Deutschland Bestandteil der Arbeit ist. Da es sich um Betriebe handelt, die im Rahmen der Beschäftigung von Menschen mit Behinderung staatlich gefördert werden, ist darüber hinaus die fiskalische Bilanz der Beschäftigungssituation Integrationshotel Gegenstand der Untersuchung. Des Weiteren stehen die Werte, die integrative Hotels über monetär messbare Werte hinaus schaffen, im Mittelpunkt. Neben der sozial- und volkswirtschaftlichen Ebene findet auch die betriebswirtschaftliche Ebene Berücksichtigung. Sowohl Merkmale und interne Strukturen integrativer Hotelbetriebe als auch deren betriebswirtschaftliche Situation und deren Gäste werden in diesem Zusammenhang behandelt. Das Methodenspektrum der Untersuchung ist entsprechend des erläuterten Inhaltes der Arbeit vielschichtig. Neben der Analyse relevanter Literatur liefern Experteninterviews wesentliche Ergebnisse. Die Analyse der sozial- und volkswirtschaftlichen Ebene basiert zunächst auf der Sekundäranalyse vorhandener Daten und darüber hinaus auf der Analyse und Weiterentwicklung eines Bewertungsmodells. Im Rahmen der betriebswirtschaftlichen Analyse werden betriebliche/betriebsinterne Daten analysiert und die Methode der standardisierten Gästebefragung angewendet. Als Abschluss der Arbeit werden die Untersuchungsergebnisse zusammengefasst und die Übertragbarkeit sowie die gesellschaftliche Relevanz des Themas diskutiert. Durch die Zusammenfassung der zentralen Befunde wird der Nutzen, der durch das Wirken integrativer Hotels auf verschiedenen Ebenen entsteht, benannt. Mit der Identifikation des durch integrative Hotels entstehenden gesamtgesellschaftlichen Nutzens liefert die Arbeit einen erweiterten theoretischen Ansatz der Argumentationslinie für Integrationsprojekte in der Hotellerie und weist nach, dass diesen ein Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt. Die Balance zwischen den parallelen Motiven Wirtschaftlichkeit und Gemeinnützigkeit bzw. der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen ist zugleich der kritischste als auch der für den Erfolg integrativer Hotels entscheidendste Punkt. Die Herstellung eines Ausgleiches zwischen konträren Zielen ist dementsprechend die Voraussetzung für den maximal erreichbaren Zusatznutzen. Die Schlussfolgerung der Arbeit zielt jedoch nicht auf die ausnahmslos überall umzusetzende Integration von Menschen mit Behinderung im Teilarbeitsmarkt Tourismus ab, sondern weist auf das Potential eines erfolgreichen Ansatzes hin, der für die Entstehung eines eigenständigen Hoteltyps geeignet ist. Die Wahrnehmung der sozialen Verantwortung sollte hierbei jedoch nicht in den Vordergrund rücken, denn auch unter Einsatz des Alleinstellungsmerkmals Beschäftigung von Menschen mit Behinderung muss die vom Gast gebuchte touristische Dienstleistung vordergründig sein.
Diese Arbeit stellt die Ergebnisse eines abgeschlossenen Dissertationsprojektes zur sozialen Einbettung eines ländlichen Kreditmarktes im 19. Jahrhundert dar. Das Hauptziel der Untersuchung war es, herauszufinden, ob die soziale Einbettung von Akteuren einen messbaren positiven oder negativen Effekt auf ihren ökonomischen Erfolg im Rahmen eines historischen Kreditmarktes hatte. Das Fallbeispiel der Untersuchung ist der ländliche Kreditmarkt des in der Nähe von Reutlingen im Königreich von Württemberg im Südwesten Deutschlands gelegenen Dorfes Ohmenhausen. Die Datengrundlage der Untersuchung sind die Hypothekenbücher, Vermögensinventare, Steuerlisten und Kirchenbücher des Dorfes. In Übereinstimmung mit der Neuen Institutionenökonomik werden Kreditmärkte als soziale Netzwerke von Schuldnern und Gläubigern betrachtet. Die soziale Einbettung der Dorfbewohner ist über die (Re-)Konstruktion ihrer dorfinternen Verwandtschaftsnetzwerke operationalisiert worden. Die Akteure in diesen Verwandtschaftsnetzwerken sind alle Haushalte, die Grundsteuern bezahlt haben. Diese Haushalte besaßen Land und waren deshalb in der Lage Hypotheken aufzunehmen. Die Untersuchung wird durch den Vergleich der Verteilung der Kredite innerhalb der Verwandtschaftsnetzwerke der Stichjahre von 1825 und 1850 durchgeführt. Im Jahr 1830 trat eine signifikante Reform der Pfandgesetzgebung in Kraft. Deshalb wurde jeweils ein Stichjahr vor dem Inkrafttreten der Reform mit einem Stichjahr nach Inkrafttreten der Reform verglichen. Dies geschah um zu untersuchen, ob die Reform einen Einfluss auf die Marktstruktur hatte und ob sich im Rahmen der Reform auch die Verteilung der Kredite innerhalb der Verwandtschaftsnetzwerke änderte.
Soziale Dienste in Taiwan
(2001)
Soziale Dienste sind Ausdruck einer wichtigen Form von Helfen innerhalb einer Gesellschaft. Die Entfaltungsmöglichkeit und der Entwicklungsgrad der sozialen Dienste sind nicht unabhängig von spezifischen räumlichen und zeitlichen Hintergründen, und sie werden auch von den gesamtgesellschaftlichen Bedingungen (z. B. politisch-rechtlichen, wirtschaftlichen, soziokulturellen Faktoren) beeinflusst. Um die Besonderheiten der sozialen Dienste innerhalb der taiwanesischen Gesellschaft zu verdeutlichen, sollen die oben erwähnten Hintergründe und Bedingungen analysiert und dargestellt werden. In Taiwan erfolgte die Entwicklung wohlfahrtsstaatlicher Institutionen und Programmen im Vergleich zu Westeuropa zeitlich schnellen. Dabei ist ein Zusammenhang zu sehen mit der gezielt vorangetriebenen wirtschaftlichen Modernisierung. Dies gilt auch für die Demokratisierungsbewegung, die gleichzeitig auf Druck von unten wie auf Initiative von oben ausging. Sozialpolitische Maßnahmen konnten nur dann Erfolg haben, wenn Systemvertrauen gewonnen werden konnte. Dies erwies sich in Taiwan als notwendig, weil in der taiwanesischen Gesellschaft traditionell nur eine Vertrauensbasis innerhalb überschaubarer Personenkreise bestand. In dieser Arbeit zeigte es sich, dass entgegen einer häufig geäußerten Behauptung von der Überlegenheit "asiatischer Werte" bestimmte kulturelle Muster (z. B. Drei-Generationen-Zusammenleben) angesichts eines rasanten sozialen Wandels anpassungshemmend wirken werden können. Es handelt sich im vorliegenden Fall um die innerfamiliäre Solidarität bei der Versorgung älterer Angehöriger. Wenn dieses Leitbild weiterhin Orientierung geben soll, müssen in der sich verändernden Gesellschaft unterstützende Maßnahmen entwickelt werden. Ohne entsprechende Innovationen auf diesem Gebiet und in verwandten Bereichen gerät der "Confucian welfare state" in Gefahr.
Die publikationsbasierte Dissertation untersucht die Bedeutung sozialer Bewegungen für die Entwicklung der Sozialen Arbeit am Ende des 19. und den ersten Jahrzehnten des 20. Jahrhunderts als Profession und Disziplin in den USA und in Deutschland. Dabei wird die entstehende Soziale Arbeit als ‚Formbildung‘ sozialer Bewegungen verstanden und gefragt, wie sich die Bewegungen in die sich etablierende und institutionalisierende Profession und Wissenschaft Soziale Arbeit einschreiben, welche Anliegen dabei verfolgt werden und wie dadurch Wissen in der Sozialen Arbeit auch über nationalstaatliche Grenzen hinweg zirkuliert.
Die Untersuchung konzentriert sich auf Prozesse der Pädagogisierung, also unterschiedliche ‚Formbildungen des Pädagogischen‘, die die Bewegungsanliegen zum Thema von Aufklärung, (Selbst)Bildung und Pädagogik machen, und auf solche der Verwissenschaftlichung, die sich auf den Aufbau einer Wissensgrundlage zur Bearbeitung von sozialen Problemen richten und dabei alternative Formen der Wissensproduktion ausbilden. Diese Prozesse werden in drei Teilstudien – zur Charity Organization Movement und der Settlement House Movement in den USA sowie der bürgerlichen Frauenbewegung in Deutschland – in sieben Einzelbeiträgen näher untersucht. Im Mittelpunkt stehen dabei die Handlungsmethoden und das Praxisverständnis sowie Forschungskonzepte und –projekte exemplarisch ausgewählter sozialbewegter Initiativen der Sozialen Arbeit. Dabei werden unter anderem nicht-intendierte Effekte untersucht, die zum Beispiel in Konservierungen normativer Vorstellungen und Ideologien in als demokratisierend angelegten Ansätzen, aber auch in ‚differenzverstärkenden‘ Effekten bestehen können.
Thema der Untersuchung ist die Sklaverei im nördlichen Schwarzmeerraum (heute Ukraine und Südrußland), wofür die von der Forschung bislang wenig beachtete Quellengruppe der Grabreliefs ausgewertet wird. An erster Stelle steht dabei die Identifizierung möglicher Dienerdarstellungen anhand verschiedener ikonographischer Kriterien wie 1) dem Prinzip der Bedeutungsgröße bzw. der Bedeutungskleinheit, 2) Komposition und technische Ausführung, 3) Haltung, Gesten und Gebärden, 4) Kleidung und 5) Haartracht. Diese Kriterien werden auf ausgesuchte Grabreliefs aus dem Bosporanischen Reich, Chersonesos und Olbia angewendet. Nach Auswertung der literarischen Überlieferung kann als Ergebnis festgehalten werden, daß es sich bei den auf Grabreliefs regelmäßig erscheinenden Hausdienerinnen, Mundschenken und Waffenburschen in den meisten Fällen tatsächlich um Unfreie gehandelt hat. Die Dissertation widmet sich darüber hinaus der Frage nach dem Status der in Grabinschriften erwähnten threptoi und trophimoi; hierbei bestätigt die Analyse der Reliefs ältere Untersuchungsergebnisse, nach denen die Termini eine Beziehung zwischen Personen unterschiedlichen Ranges ausdrücken. Aufgrund der schmalen Materialbasis von nur vier Stelen können keine allgemeingültigen Aussagen zum Freigelassenenwesen im nördlichen Schwarzmeerraum getroffen werden. Allerdings läßt sich beobachten, daß sich die ehemaligen Sklaven entweder im bürgerlichen Habitus oder realistisch haben darstellen lassen. Abschließend wird nach der Funktion der Dienerfiguren im Bild gefragt. So dienten sie als Attribute zur Charakterisierung der Herrschaften und hatten die Aufgabe, deren hohen sozialen Rang vor Augen zu führen.
Die Wechselwirkungen zwischen Atmosphäre und Schnee sind für die Simulation der Grenzschicht (BL) über Schneedecken von Bedeutung. Um diese Wechselwirkungen zu untersuchen, wird das mesoskalige Lokalmodell (LM) des Deutschen Wetterdienstes (DWD) mit einer horizontalen Auflösung von etwa 14 km und einer hohen vertikalen Auflösung in der Grenzschicht für Simulationen über Grönland verwendet. Weil die Verwendung des Bodenmodells des LM zu unrealistischen Ergebnissen führt, wurden dessen Schneeeigenschaften angepasst. Die Simulationen werden für zehn Tage im Juli 2002 durchgeführt, währenddessen ein Feldexperiment an der Station Summit stattfand. Zur Validation des LM wurden die Simulationsergebnisse mit diesen Messungen verglichen. Der Vergleich ergibt Defizite bei der bodennahen Temperatur sowie bei Turbulenzgrößen. Die Turbulenzparametrisierung des LM weist bei stabiler Schichtung Defizite auf. Daher wurde ein lokaler Mischungswegansatz und eine skalare Rauhigkeitslänge über Eis und Schnee implementiert und ihr Einfluss untersucht. Beide Parametrisierungen zeigen eine Verbesserung der turbulenten kinetischen Energie und des fühlbaren Wärmeflusses. Um die Schneedrift und ihren Einfluss auf die Schneeakkumulation zu untersuchen, wurde das eindimensionale Schneemodell SNOWPACK mit PARCA-Messungen und LM-Ergebnissen angetrieben, sowie eine gekoppelte Version LM/SNOWPACK verwendet. SNOWPACK hat eine realistischere Darstellung des Schnees als das LM-Bodenmodell und ermöglicht die Simulation der mikrophysikalischen Schneeigenschaften. Die mit PARCA-Messungen angetriebenen Simulationen ergeben einen Zusammenhang zwischen Schneedrift und Neuschnee sowie hohen Windgeschwindigkeiten, diese Faktoren sind jedoch nicht die alleinigen Mechanismen. Während die Eigenschaften des Schneefeldes von den Anfangsbedingungen abhängen, ist der Einfluss des Anfangsfeldes auf die Schneedrift gering. Die Simulationen mit dem LM ergeben eine Verbesserung der bodennahen Temperaturen durch die Kopplung. Die Schneedrift ist in erster Linie in den Randgebieten des grönländischen Eisschildes zu finden. Dort ist die Schneeakkumulation durch Schneedrift von gleicher Größenordnung wie Evaporation/Sublimation von Schnee.
Ausgangspunkt der vorliegenden Untersuchung sind die deutlichen Unterschiede in den Ukrainepolitiken Polens und Tschechiens. Das Erkenntnisinteresse ist, worauf diese Unterschiede im außenpolitischen Verhalten zweier Staaten, die in der Außenpolitikforschung meistens als Vertreter einer relativ homogenen Gruppe betrachtet werden, zurückzuführen sind. Die Studie geht auf Basis bisheriger konstruktivistischer Forschung zur polnischen Sicherheitspolitik von der Hypothese aus, dass dies mit kulturellen Faktoren zu tun hat, speziell der unterschiedlichen sicherheitspolitischen Bewertung der Ukraine und Osteuropas im Allgemeinen sowie unterschiedlichen ukrainepolitischen Rollenkonzeptionen, die sich hieraus ergeben. Die Fragestellung lautet daher, welche ukrainebezogenen, sicherheitspolitisch motivierten Rollenkonzeptionen sich in Polen und Tschechien nach 1989 herausgebildet haben.Zur Beantwortung dieser Fragestellung wird zunächst auf Grundlage der Forschung zur politischen und zur strategischen Kultur das Konzept der sicherheitspolitischen Kultur entwickelt und die Rollentheorie als bislang in der diesbezüglichen Forschung kaum rezipiertes Analyseinstrument vorgestellt, das aus mehreren Gründen Vorteile gegenüber anderen Ansätzen hat. Methodisch wird eine wissenssoziologische Diskursanalyse durchgeführt, die als Instrument zur Erfassung von sozial konstruierter Wirklichkeit dient, sich aufgrund derselben metatheoretischen Grundlagen hervorragend in das Modell sicherheitspolitischer Kultur einfügt und daher für eine Analyse der Entstehung von Rollenkonzeptionen geeignet ist. Die Untersuchung ergibt, dass in Polen die Bedrohungskonstruktion einer möglichen Wiederkehr des russischen Imperiums zentral ist und eine unabhängige, stabilisierte Ukraine als Schutz hiergegen aufgefasst wird. Die sich ergebenden ukrainepolitischen Rollenkonzeptionen sind Teil eines weitgehend konsensuellen Komplexes sicherheitspolitischer Rollenkonzeptionen, die abgesehen von rollenspezifischen sicherheitspolitischen Zielen auch zentral durch die Bedrohungskonstruktion der politischen Marginalisierung motiviert und daher häufig als Führungsrollen charakterisierbar sind. Tschechien zeichnet sich hingegen durch das weitgehende Fehlen einer Bedrohungskonstruktion des russischen Imperialismus aus, stattdessen wird die Ukraine stärker als Quelle von Gefahren konstruiert. Zudem ist die sicherheitspolitische Kultur Tschechiens von einer konzeptionellen Unterkomplexität, einem Mangel an Konsens, einer Konstruktion Tschechiens als machtloser Akteur sowie einer Unterordnung der Außenpolitik unter innenpolitische Fragen gekennzeichnet. Daher fehlen im tschechischen Falle nicht nur jegliche ukrainepolitische Rollenkonzeptionen, es ist grundsätzlich ein Mangel an klaren Vorstellungen darüber festzustellen, welche Rollen Tschechien in der internationalen Politik spielen soll.
Michel Foucaults Überlegungen zu Wahrheits- und Erfahrungsbüchern zugrunde legend, untersucht die Promotionsschrift Wechselwirkungen von Fremd- und Selbstrepräsentation, von Repräsentation und Subjektkonstitution und fragt ausgehend von diesen Zusammenhängen nach einer möglichen Poetik entsubjektivierender Erfahrungsbücher. Exemplarisch nachgezeichnet werden die oft paradoxalen Effekte dieser Wechselwirkungen zunächst anhand des kriminalisierenden und pathologisierenden Diskurses über Jenische und der daran anknüpfenden Ausarbeitung jenischer Subjektpositionen im Zuge der politischen Selbstrepräsentation der Schweizer Minderheit seit den 1970er Jahren. Die in diesem Kontext entstandenen literarisch-publizistischen Texte der Schweizer Autorin und ehemaligen jenischen Bürgerrechtlerin Mariella Mehr, in denen sich ebenfalls normalisierende, am Wahrheitsdiskurs orientierte Ausarbeitungen jenischer Subjektpositionen finden, werden als Wahrheitsbücher im Sinne Foucaults gelesen. An Mehrs späten Texten wird daran anschließend gezeigt, wie mittels einer Hyperbolisierung des Wahrheitsdiskurses in Kombination mit sich durchkreuzenden auto- und heteroreferentiellen Erzählverfahren der von Foucault im Interview mit Ducio Trombadori beschriebene entsubjektivierende Effekt eines Erfahrungsbuches erreicht werden kann.
Die Arbeit befasst sich mit der malerischen Darstellung von Sibyllen im Italien des sechzehnten und siebzehnten Jahrhunderts. Die Sibyllen sind ursprünglich heidnisch-antike Prophetinnen, finden aber später einen Platz innerhalb des christlichen Heilsgeschehens. Seit dem fünfzehnten Jahrhundert häuft sich ihre bildliche Darstellung in Italien und erlebt bis zum Ende des sechzehnten Jahrhunderts einen Höhepunkt in der Freskomalerei, wobei meistens mehrere Sibyllen in einem zyklischen Zusammenhang auftreten. Zu Beginn des Seicento erscheint die Prophetin unvermittelt als Einzelfigur in der Bologneser Tafelbildmalerei, namentlich in Werken von Guercino und Domenichino. Verschiedene Aspekte dieses auffälligen Wechsels sowohl des Mediums als auch der Anzahl der Figuren in der sibyllinischen Darstellung werden untersucht. Ausgegangen wird dabei von einem letzten großen Freskenzyklus des sechzehnten Jahrhunderts, dem des Oratorio del Gonfalone in Rom, welcher bereits wissenschaftlich bearbeitet wurde. Insofern konnte auf fundiertes Material zurückgegriffen werden, um sich intensiver auf die inhaltliche Problematik der Sibyllendarstellungen zu konzentrieren, welche bisher vernachlässigt wurde. Die bislang von der Kunstgeschichte angewandten Methoden " namentliche Identifikation der einzelnen Sibyllen, Spekulation über die variable Anzahl der dargestellten Figuren und Interpretation der von ihr verkündeten Worte " werden dabei als verfehlt entlarvt. Stattdessen wird ein neuer, tiefergehender Ansatz vorgeschlagen, der dem allgemeinen Bedeutungsgehalt der Prophetin und dem Gesamtzusammenhang des Bilderzyklus, in welchem sie erscheint, Rechnung trägt und sinnvolle Ergebnisse zeitigt. Im Fall des Oratorio del Gonfalone wird so der Bezug der Sibylle zum Goldenen Zeitalter, der Eucharistie und dem Heiligen Grab analysiert. Dieser Versuch, das Verständnis der Sibylle über ihre bloße Rolle als prophetische Verkünderin zukünftiger Ereignisse auszuweiten, erscheint ebenso angemessen und tatsächlich notwendig hinsichtlich der Tafelbilder des siebzehnten Jahrhunderts, in welchen die Figur als isolierte Halbfigur in porträtähnlicher Manier auftaucht. Die Bedeutung dieser Figuren ist nicht mehr in einem übergeordneten Zusammenhang zu suchen, sondern muss sich aus den Ideen und Vorstellungen zum "sibyllinischen Charakter" erklären. Zwei besonders eminente Merkmale werden untersucht: die sibyllinische Melancholie und die reuige Buße der Figur. Durch die Betrachtung der für die Arbeit ausgewählten Bildbeispiele ergibt sich schließlich eine weitere Entdeckung: Die grobe Einteilung in Fresken vor und Tafelbilder nach 1700 wird genauer fassbar. Die Fresken zeigen einerseits Sibyllen, deren körperliche Präsenz im Bild stark hervorgehoben wird, während andernorts die mimetische Darstellung der Figuren zugunsten einer Betonung der beigefügten Orakeltexte deutlich vernachlässigt wird. So schälen sich schließlich nicht zwei, sondern drei verschiedene Arten bildlicher Sibyllendarstellung heraus, welche in der Arbeit erstmals präzise beschrieben und in ihren wichtigsten Teilaspekten interpretiert werden.
Rotary, Kiwanis, Lions, Zonta, Soroptimist und Round Table. Bereits seit 100 Jahren setzen sich Service Clubs mit den verschiedensten Service-Projekten weltweit für sozialen Frieden und Menschenrechte ein. Heute gibt es unzählige Service Clubs mit unterschiedlichen Entstehungsgeschichten und Denkweisen. Obwohl Service Clubs insbesondere auf der Gemeinde-Ebene durch soziales und ökonomisches Engagement, aber auch über die Nutzung sozialer Netzwerke wichtigen Einfluss ausüben, sind sie bislang, zumindest in Europa, kaum wissenschaftlich untersucht worden. Dieses Defizit versucht Sebastian Gradinger im Rahmen einer Studie auszuräumen. Die Studie stellt vor diesem Hintergrund die historische Entstehung der traditionellen Service Clubs dar und widmet sich der Frage nach der Funktion von Service Clubs für unterschiedliche Ebenen der Gesellschaft wie auch für ihre individuellen Mitglieder. Schließlich wird die Zukunftsperspektive der Clubs in einer gewandelten Gesellschaft diskutiert.
By means of complex interaction-processes sea ice not only modifies the regional climate in the ocean-atmosphere-sea-ice system but also the general circulation of the atmosphere and the ocean's circulation. Besides a strong interannual variability sea-ice extent shows an arcticwide significant negative trend during the last two decades with maximum rates in spring and summer. These are often linked to (small-scale) processes in the Siberian Arctic and the Laptev Sea, respectively. The objective of this thesis is the expansion of the understanding of the processes concerning atmosphere-sea-ice interactions on the regional scale during the summer from 1979 to 2002 in the Arctic with a special emphasis on the Laptev Sea. To achieve this, numerical simulations of the regional climate model HIRHAM4 are used in conjunction with ground- and satellite-based observational data. A precondition for the numerical experiments and the realistic reproduction of atmospheric processes is an improved lower boundary forcing dataset for HIRHAM4 based on observational datasets, which is developed, validated and described. To investigate the effects of the sea-ice distribution, its properties and small-scale features on the atmosphere, HIRHAM4 is used in sensitivity studies systematically with different model settings, each of which incorporates the lower boundary forcing data in a different manner. Even little changes in the lower boundary forcing fields, while retaining the lateral boundary forcing, are sufficient to cause the model to produce significantly different atmospheric circulation patterns relative to the control simulations which use standard forcings and settings. Cyclone activity, which is a special focus of this study, is also altered. The mean atmospheric circulation patterns and the near-surface air temperature distribution can be reproduced more realistically with the new forcing dataset, which is shown by validation experiments with observational data. The biggest relative impact, besides an altered sea-ice coverage and distribution, can be reached by using sea-ice concentrations instead of a binary sea-ice mask. By utilizing sea-ice drift data, dynamic and thermodynamic processes can be partially separated from each other to investigate the development of sea-ice anomalies in the Laptev Sea. They depend on a time-critical succession of atmospheric conditions and the properties of sea ice during May and August. Positive air temperature anomalies are identified to be the key driving factors for the development of negative sea-ice anomalies. They are found to be a result of enhanced short-wave radiation balances, which are coupled to high pressure areas and intermediate anticyclones. The polynyas during early summer seem to have an important influence too. Because of lower process rates, the wind-induced sea-ice drift is enhancing and damping the development of the sea-ice area anomalies, but it cannot cause an anomaly all by itself. A precise separation of the effectiveness of the sea-ice transport and the melting rates is not possible due to the available data.
Die vorliegende Arbeit setzt sich die Übertragung und Anwendung des pragma-semantischen Ansatzes der germanistischen Phraseologie auf die englische Sprache zum Ziel, wobei die beiden Konzepte des semantischen Mehrwerts und der Multifunktionalität als dominante Charakteristika im Mittelpunkt stehen. Dazu wird die Verwendung von Phraseologismen in einer bestimmten Textsorte - der englischsprachigen Werbung - untersucht. Ihre besondere Bedeutungsstruktur und ihre kommunikativen Funktionen prädestinieren Phraseologismen als effektvolles sprachliches Gestaltungsmittel für die kreative Verwendung in Texten der Medienwelt. Werbung als wesentlicher Bestandteil nationaler Alltags- und Medienkultur und Phraseologismen als in ihrer Ausprägung spezifisch kulturelle Phänomene weisen viele Gemeinsamkeiten auf, die sich bei beiden in Form von semantischem Mehrwert und Multifunktionalität äußern.
Die vorliegende Arbeit liefert eine Kritik der Performativity-of-Economics-Debatte, welcher theoretische Probleme unterstellt werden. Dies betrifft insbesondere Defizite hinsichtlich einer handlungstheoretischen Erschließung und Erklärung ihres Gegenstandes.
Zur Überwindung dieses Problems wird eine Verknüpfung mit dem Mechanism Approach der analytischen Soziologie vorgeschlagen, welcher erstens einen explizit handlungstheoretischen Zugang bietet, zweitens über die Identifikation der zugrundeliegenden sozialen Mechanismen die Entschlüsselung sozialer Dynamiken und Prozesse erlaubt und, drittens, verschiedene Ausprägungen des zu untersuchenden Phänomens (die Performativität ökonomischer Theorien) in Theorien mittlerer Reichweite übersetzen kann. Eine Verbindung wird durch den Mechanismus der Self-fulfilling Theory als spezifische Form der Self-Fulfilling prophecy hergestellt, welche im weiteren Verlauf der Argumentation als Erklärungsinstrument des Mechanism Approach verwendet und dabei kritisch reflektiert wird.
Die handlungsbasierte Erklärung eines spezifischen Typs der Performativität ökonomischer Theorien wird schließlich anhand eines Fallbeispiels – dem Aufstieg und der Verbreitung des Shareholder-Value-Ansatzes und der zugrundeliegenden Agency Theory – empirisch demonstriert. Es kann gezeigt werden, dass mechanismenbasierte Erklärungen zur allgemeinen theoretischen Aufwertung der besagten Debatte beitragen können. Der Mechanismus der Self-fulfilling Theory im Speziellen bietet zur Erklärung des untersuchten Phänomens verschiedene Vor- und Nachteile, kann allerdings als eine theoretische Brücke ebenfalls einen fruchtbaren Beitrag leisten, nicht zuletzt indem er eine differenzierte Betrachtung des Zusammenhangs zwischen starken Formen von Performativität und selbsterfüllenden Prophezeiungen erlaubt.
Es wird eine Personenbezogene (differenzielle) Kontinuitätshypothese formuliert, in der angenommen wird, dass Personen, die kognitive Defizite als Folge massiven Alkoholkonsums erleiden, drei aufeinanderfolgende Schädigungsstufen durchlaufen. Ziel der vorliegenden Untersuchung war es, eine Prävalenzrate von Störungen der (selektiven) Aufmerksamkeit und der nonverbalen Intelligenzfunktionen als Maße für exekutive Funktionsstörungen und der Gedächtnisleistungen bei alkoholabhängigen Patienten zu Beginn einer medizinischen Rehamaßnahme zu ermitteln. Zudem wurde zu einem zweiten Messzeitpunkt eine Remissionsrate festgestellt. Im Zeitraum von November 2005 bis Ende April 2006 wurden in den Kliniken Wied 87 konsekutiv aufgenommene Patienten mit einer neuropsychologischen Testbatterie untersucht. Es zeigte sich eine Prävalenzrate von 49.4% für Beeinträchtigungen nicht sprachlicher Intelligenzfunktionen und von 43.7% für Störungen der selektiven Aufmerksamkeit. Gedächtnisdefizite traten lediglich bei 15% auf. Nach fünf Wochen fanden sich deutliche Verbesserungen der selektiven Aufmerksamkeit, während sich die Gedächtnisleistungen kaum verbesserten.
Beim Rückschaufehler handelt es sich um eine systematisch verzerrte Erinnerung an früher getroffene Urteile. Der Rückschaufehler ist eine robuste kognitive Täuschung, die bislang aber nur unbefriedigend erklärt wurde. In dieser Arbeit wird ein detailliertes kognitives Prozeßmodell (SARA) vorgestellt. Der grundlegende Prozeß ist demnach ein zyklischer, probabilistischer Abruf von Informationen aus dem Langzeitgedächtnis ins Arbeitsgedächtnis. Dies führt zu einer höheren Abrufwahrscheinlichkeit dieser Informationen und wird daher im Modell als selektive Aktivierung bezeichnet. Der Rückschaufehler ist somit auf veränderte Abrufwahrscheinlichkeiten von durch die Enkodierung der Lösung selektiv aktivierten Informationen zurückzuführen. In fünf Experimenten wurde das Konzept selektive Aktivierung überprüft. Probanden sollten die Entwicklung von Sachverhalten beurteilen und sich später nach Bekanntgabe der Lösung wieder daran erinnern. Zusätzlich wur-den Argumente dargeboten, die für eine Zu- bzw. Abnahme des Sachverhalts sprachen. Durch die Lösung selektiv aktivierte Argumente sollten zu einem verbesserten Abruf führen. In drei Wiedererkennenstests konnte eine selektive Aktivierung der Argumente durch die Lösung nicht nachgewiesen werden. In diesen Experimenten trat allerdings auch der Rückschaufehler nicht auf. In zwei Experimenten mit freier Wiedergabe ließen sich die erwarteten Effekte dagegen zeigen. Dies kann als erster Nachweis selektiver Aktivierung interpretiert werden.
Auf der Mikroebene einer durch verwandtschaftliche Kohäsion verbundenen Personengruppe werden in einer prosopographischen Fallstudie Konsistenz und Persistenz sozialer Rangbildung im rheinisch-maasländischen Adel des späten Mittelalters untersucht. Ausgehend von dem wohl berühmtesten Vertreter der Familie von Schönau/von Schönforst, Reinhard von Schönau (ca. 1305-1376), dessen Karriere bereits in der zeitgenössischen Chronistik in Anbetracht seiner sozialen und wirtschaftlichen Ausgangsbedingungen als außergewöhnlich qualifiziert wurde, greift die Themenstellung sowohl auf dessen genealogische Aszendenz wie auch auf seine Deszendenz aus, um in mehr als 35 Biogrammen aus dem Zeitraum von ca. 1250 bis ca. 1450 in einem Längsschnitt über acht Generationen hinweg das überaus disparate Quellenmaterial für die einzelnen Familienmitglieder zusammenzutragen und in seinem historischen Kontext darzustellen. Der innerhalb verschiedener Stratifikationsdimensionen " wirtschaftliche Stellung, politische Position, Konnubium, administrative Funktionen in den miteinander konkurrierenden Landesherrschaften im Westen des Reiches sowie Selbst- und Fremdbezeichnungen " differenziert evaluierte soziale Status der einzelnen Familienmitglieder jenseits einer schematischen Zuweisung in 'hohen' und 'niederen' Adel erlaubt es, strukturelle von individuellen statusbildenden Faktoren zu unterscheiden und deren unterschiedliche Bedeutung für die Persistenz sozialen Ranges darzustellen. Diese Analyse mündet in die These, daß sich die Weitergabe sozialen Ranges in der Generationenabfolge im Rahmen eines Modells hierarchisierter statusbildender Faktoren beschreiben läßt. Dieses Modell ist nicht nur auf andere genealogisch definierte Personengruppen übertragbar, sondern kann im Ergebnis auch Gültigkeit über die Familie von Schönau/von Schönforst und den Rhein-Maas-Raum hinaus beanspruchen.
Mittels Querschnittserhebungen ist es möglich Populationsparameter zu einem bestimmten Zeitpunkt zu schätzen. Jedoch ist meist die Veränderung von Populationsparametern von besonderem Interesse. So ist es zur Evaluation von politischen Zielvorgaben erforderlich die Veränderung von Indikatoren, wie Armutsmaßen, über die Zeit zu verfolgen. Um zu testen ob eine gemessene Veränderung sich signifikant von Null unterscheidet bedarf es einer Varianzschätzung für Veränderungen von Querschnitten. In diesem Zusammenhang ergeben sich oft zwei Probleme; Zum einen sind die relevanten Statistiken meist nicht-linear und zum anderen basieren die untersuchten Querschnittserhebungen auf Stichproben die nicht unabhängig voneinander gezogen wurden. Ziel der vorliegenden Dissertation ist es einen theoretischen Rahmen zur Herleitung und Schätzung der Varianz einer geschätzten Veränderung von nicht-linearen Statistiken zu geben. Hierzu werden die Eigenschaften von Stichprobendesigns erarbeitetet, die zur Koordination von Stichprobenziehungen in einer zeitlichen Abfolge verwendet werden. Insbesondere werden Ziehungsalgorithmen zur Koordination von Stichproben vorgestellt, erarbeitet und deren Eigenschaften beschrieben. Die Problematik der Varianzschätzung im Querschnitt für nicht-lineare Schätzer bei komplexen Stichprobendesigns wird ebenfalls behandelt. Schließlich wird ein allgemeiner Ansatz zur Schätzung von Veränderungen aufgezeigt und es werden Varianzschätzer für die Veränderung von Querschnittschätzern basierend auf koordinierten Querschnittstichproben untersucht. Insbesondere dem Fall einer sich über die Zeit verändernden Population wird eine besondere Bedeutung im Rahmen der Arbeit beigemessen, da diese im Anwendungsfall die Regel darstellen.
Während deutsche Einwanderer sich nur bedingt gegen die Institution der Sklaverei aussprachen, zeigten sie in ihrer Sicht auf African Americans ein weit höheres Maß an Geschlossenheit in ihrer ablehnenden Haltung. Um die Divergenz zwischen der Wahrnehmung von Sklaverei und African Americans sinnvoll zu kontextualisieren und zu erklären, erscheint die Kategorie der race als erhellende Untersuchungseinheit, welche hilft, die einseitige Wahrnehmung auf der menschlichen im Vergleich zur institutionellen Ebene zu beleuchten. Da der Begriff race weit weniger ideologisch belastet ist als der Begriff des Rassismus, bietet er ein Instrument, welches die nötige Offenheit für verschiedene Erklärungsansätze besitzt. Als Arbeitsgrundlage dient dabei die Definition von Stephen Cornell und Douglas Hartman. Die Autoren betonen besonders stark den menschlichen Ursprung der Kategorie race, ein für diese Untersuchung besonders wichtiger Aspekt, weil er auf die soziale Eingebundenheit des Konzepts verweist. Als solches handelt es sich bei race um eine historische Einheit, die Diskussionen und Wandlungen unterworfen war. Menschen schufen diese Kategorie als distinktes Merkmal für eine Gruppe von Menschen, die sie so eindeutig als von sich selbst unterschiedlich darstellten und damit eine möglichst große und eindeutige Differenz schufen. Diese Vorüberlegungen bilden die Basis für den Kontext, in dem die deutschen Einwanderer ihre Unterschiedlichkeit zu schwarzen Menschen wahrnahmen und davon ausgehend diese als Menschen beurteilten, was häufig mit einer Bewertung der Institution der Sklaverei einherging, der viele der in Amerika lebenden African Americans unterworfen waren. Die Divergenz zwischen dem Selbst und dem Gegenüber schlägt sich dabei in den komplementären Konzepten von blackness und whiteness nieder. Im Zusammenhang mit den deutschen Immigranten spielen diese beiden Perspektiven eine wichtige Rolle, weil so die Denkmuster der Deutschen zum Teil aus ihrem Fokus auf das Anderssein ihres Gegenübers, also der blackness, und zum Teil aus dem Gefühl der eigenen besonderen Stellung, also der whiteness, zu erklären sind. Deutsche Einwanderer schlossen sich Argumentationsmustern aus der Literatur oder der Populärwissenschaft in unterschiedlichen Ausprägung sowohl direkt auch indirekt an, was darauf hindeutet, dass sie wohl mit Gedanken um die Thematik blackness bereits schon in der alten Heimat in variierender Intensität konfrontiert worden waren und damit ihre Äußerungen zu schwarzen Menschen, welche sie nach ihrer Ankunft in den USA trafen, auch auf Vorstellungen beruhten, die sie vor einem direkten Kontakt mit Schwarzen geformt hatten. In Anlehnung an die Diskussionen innerhalb der USA zu schwarzen Menschen wurde Blackness für die deutschen Einwanderer zu einer gesellschaftlichen Kategorie, mit der sie sich in unterschiedlichen Intensitätsgraden auseinandersetzten mussten, weil sie potentiell enorme Auswirkungen auf die verschiedensten Aspekte des Lebens haben konnte. Die Institution der Sklaverei als eine auf race basierende Arbeitsform spielte dabei eine wichtige Rolle, weil hier eine institutionalisierte Manifestation der rassistischen Hierarchisierung in der amerikanischen Gesellschaft existierte. Innerhalb dieser hierarchisierten Gesellschaft stellte die Distanzierung von schwarzen Menschen und, damit einhergehend, die Integration in die Gruppe der weißen Amerikaner eine grundlegende Tendenz dar. Die Kategorie whiteness gewann also enorm an Wichtigkeit für die Einwanderer, wobei die sich daraus ergebenden Folgen etwa in wirtschaftlicher Hinsicht nicht unbedingt der Realität entsprechen mussten, sondern auch auf subjektive Wahrnehmungen beschränkt sein konnten. Vor diesem Hintergrund erklärt sich die hohe Zahl der deutschen Immigranten, die eine latente Abneigung oder sogar offene Abscheu gegenüber African Americans zeigte. Dieser Anreiz zur Differenzierung in Weiße und Schwarze war im Zusammenhang mit der Diskussion um die Institution der Sklaverei nicht gegeben, denn dabei ging es vor allem den intellektuellen Deutschen primär um abstrakte Ideen wie Freiheit und Gleichheit, die sie dann ohne oder nur mit geringem Bezug zu schwarzen Menschen diskutierten. Solange also die Distanz zu African Americans und damit die Zugehörigkeit zur Kategorie whiteness gewahrt blieb, konnten die Deutschen ihre Meinungen gegen die Sklaverei äußern. Es ging dann nicht um das Wohl der Schwarzen, sondern um die Institution und die damit verbundenen abstrakten Prinzipien.
Die Verwendung von unbestimmten Rechtsbegriffen bereitet Schwierigkeiten bei der Anwendung und gefährdet die Rechtssicherheit. In vielen Rechtsnormen des Umweltrechts (u. a. UVPG) findet der unbestimmte Rechtsbegriff "voraussichtliche erhebliche Umweltauswirkungen" Verwendung. In dieser Arbeit wird ein Beitrag zur Konkretisierung dieses Begriffes im Rahmen der strategischen Umweltprüfung (SUP) geleistet. Dabei wird ein interdisziplinärer Forschungsansatz gewählt, der durch juristische, wie naturwissenschaftliche Methodik geprägt ist und dazu beiträgt das Schutzgut der Biodiversität genauer zu bestimmen. Dazu wird zunächst auf juristischer Ebene geprüft, ob aus dem UVPG sowie weiteren Rechtsnormen des Umweltrechts Informationen zur Konkretisierung dieses Begriffes zu gewinnen sind. Hiernach ergibt sich, dass der Erheblichkeitsbegriff insbesondere dazu dient, Bagatellfälle auszuklammern und Angleichungen zwischen den Rechtsnormen zu erreichen. Da die SUP seit 2005 geltendes Recht ist, ist es wichtig zu sehen, wie in der Gutachtenpraxis mit diesem unbestimmten Rechtsbegriff umgegangen wird. Daher sind vier Umweltberichte gemäß -§14g Satz 2 Nr.5 UVPG überprüft worden. Es stellte sich heraus, dass die Umweltberichte weder in der Lage sind die voraussichtlichen erheblichen Umweltauswirkungen zu Konkretisieren, noch wie es vom UVPG gemäß -§14g Satz 2 Nr.3 UVPG gefordert wird das Schutzgut der Biodiversität hinreichend darzustellen. Aus naturwissenschaftlicher Sicht wurden zunächst natürliche und anthropogene Auswirkungen auf die Biodiversität geprüft, um so die Faktoren zu ermitteln, die die Biodiversität besonders negativ zu beeinflussen vermögen. Demnach gilt es die Faktoren Habitatfragmentierung, Angleichungsprozesse (Biotic homogenization) und Intensität der Landnutzung im Rahmen der SUP frühzeitig zu vermeiden. Die "Convention of Biodiversity" zählt neben den Arten und Landschaften auch die genetische Ebene zum Begriff der Biodiversität. So ist es sinnvoll auch genetische Aspekte in die Schadensbewertung zu integrieren. Daher wurden in einer phylogeographischen Analyse die zwei Genorte Cytochrom Oxidase I und die Control Region der mtDNA des silbergrünen Bläuling, Polyommatus coridon (30 Populationen) untersucht. Es konnte gezeigt werden, dass genetische Analysen zwar wichtige Informationen für die Konkretisierung des unbestimmten Rechtsbegriffes liefern, aber dennoch mit Vorsicht diesbezüglich zu behandeln sind. Letztendlich stellte sich heraus, dass die Konkretisierung des unbestimmten Rechtbegriffes der voraussichtlichen erheblichen Umweltauswirkungen sich im Rahmen der strategischen Umweltprüfung mehr als schwierig und in Hinblick auf der Konzeption der SUP wenig sinnvoll erweist.
Chronische primäre Schmerzen im Kindes- und Jugendalter sind weit verbreitet. Das Risiko für die Chronifizierung von kindlichen Schmerzen erhöht sich, wenn die Eltern selbst unter chronischen Schmerzen leiden. Elterliche kognitiv-affektive und verhaltensbezogene Reaktionen auf die kindlichen Schmerzen spielen eine zentrale Rolle in der Chronifizierung und familialen Transmission der Schmerzen. Welche spezifischen Faktoren die elterlichen Reaktionen auf die kindlichen Schmerzen modulieren, ist bis dato allerdings unklar. Ziel der vorliegenden Dissertation ist daher die Analyse des elterlichen schmerzbezogenen Verhaltens (maladaptive Reaktionen wie Katastrophisieren und Zuwendung) hinsichtlich möglicher modulierender Faktoren sowohl auf Eltern- (top-down-Variablen) als auch auf Kindebene (bottom-up-Variablen). Dafür wurden differenzierende Stichproben generiert und mit Hilfe von validierten Fragebögen befragt. In Studie 1 wurde eine Stichprobe von N = 105 schmerzfreien Elternteilen aus der Allgemeinbevölkerung und N = 80 Elternteilen aus der Allgemeinbevölkerung mit selbstberichteten chronischen Schmerzen erhoben. Die Stichprobe von Studie 2 umfasste N = 118 Elternteile mit chronischen Schmerzen, Angstsymptomen oder beidem sowie deren N = 190 Kinder, in Studie 3 wurden N = 63 Mütter, Väter und Kinder (Eltern-Kind-Triaden mit jeweils N = 21 Müttern, Vätern und Kindern mit der Diagnose einer chronischen Schmerzstörung) befragt. Nach der Überprüfung der Einsetzbarkeit der zentralen Erhebungsinstrumente auch in nicht-klinischen Samples wurden in Studie 1 die Reaktionen von schmerzfreien Eltern und Eltern mit selbstberichteten chronischen Schmerzen auf die Schmerzen ihrer Kinder mit anderen Stichproben sowie untereinander verglichen. Die Analyse der Einflüsse von top-down- und bottom-up-Variablen (elterliche und kindliche Schmerz- und Angstsymptomatik, elterliche und kindliche Somatisierung bzw. schmerzbezogene Beeinträchtigung sowie Alter und Geschlecht von Eltern und Kindern) auf die elterlichen
maladaptiven Reaktionen wurde in Studie 2 und Studie 3 mit Hilfe von hierarchisch linearen Modellen durchgeführt. Die Ergebnisse zeigen, dass Eltern von Kindern mit chronischen
Schmerzen grundsätzlich stärker katastrophisierten als Eltern von gesunden Kindern. Außerdem zeigte sich, dass insbesondere top-down-Variablen wie elterliche Angst das Katastrophisieren und die Zuwendung der Eltern verstärken. Bottom-up-Variablen erwiesen sich ausschließlich in der Interaktion von kindlicher Schmerz- und Angstsymptomatik als verstärkender Faktor für die Katastrophisierungsneigung der Eltern. Demnach scheinen zentrale modulierende Faktoren für kognitiv-affektive und verhaltensbezogene elterliche Reaktionen im Kontext der Chronifizierung von kindlichen chronischen Schmerzen vor allem top-down-Variabeln wie die elterliche Katastrophisierungsneigung und Angstsymptomatik zu sein. Als potentielle Risikogruppen für die Entwicklung von chronischen Schmerzen lassen sich so neben Kindern von Eltern mit eigenen chronischen Schmerzen auch Kinder von Eltern mit Angststörungen und erhöhter Katastrophisierungsneigung benennen. Daher sollte die Elternrolle in Therapien von Erwachsenen eine ausreichende Berücksichtigung finden, um eine Reduktion der maladaptiven Reaktionen auf die Kinder zu erreichen und so einer Entwicklung von chronischen Schmerzen vorzubeugen. Auch die psychoedukative Einbindung der Eltern in die kindliche Schmerztherapie erscheint aufgrund der vorliegenden Ergebnisse unabdingbar, vor allem wenn die Kinder neben den chronischen Schmerzen auch unter komorbiden psychischen Störungen wie beispielsweise Angststörungen leiden.
Rückkehrprozesse aus Genderperspektive: remigrierte (Spät-)Aussiedler-Ehepaare in Westsibirien
(2019)
Die Studie untersucht die Rückkehrprozesse von (Spät-)Aussiedler-Ehepaaren aus Deutschland nach Westsibirien. Ein besonderes Augenmerk wird auf die Sichtweisen der Frauen und Männer hinsichtlich ihrer gemachten Erfahrung der Remigration gelegt. Darüber hinaus analysiert die Studie einerseits die Gemeinsamkeiten und Unterschiede beider Geschlechter im Hinblick auf die Rückkehrmotive, die Zufriedenheit mit der Wiederanpassung in Russland sowie die Einstellung hinsichtlich einer erneuten Migration nach Deutschland. Andererseits fokussiert die Arbeit auf die Geschlechterverhältnisse unter den Ehegatten im Prozess der Entscheidungsfindung zur Remigration. Die Studie folgt einem qualitativen methodischen Ansatz und verbindet verschiedene Forschungsrichtungen, genauer (Re)Migrations-, Familien-, (Spät-)AussiedlerInnen- und Geschlechterforschung.
Im Mittelpunkt dieser Untersuchung stand die in der Umweltbeobachtung bestehende Diskrepanz zwischen dem Wunsch nach flächendeckender Information und der Tatsache, dass meist nur punktuell und stichprobenartig Information erhoben wird. Über das Zusammenführen von unterschiedlichsten Informationen über die Umwelt wurde die Frage der räumlichen Übertragbarkeit von Umweltdaten und die Leistungsfähigkeit von Umweltdaten untersucht. Zur Überprüfung der Hypothese, dass die in einem bestimmten Ökosystemtyp ermittelten Ergebnisse auf andere Vertreter desselben Ökosystemtyps übertragbar sind, wurden PAK gewählt, die als Indikatoren für die luftgetragene stoffliche Immission dienen. Grundlegend für den Untersuchungsansatz war die Annahme, dass die ökologisch-strukturelle Ausstattung eines Ökosystems auch einen bestimmenden Einfluss auf die stoffliche "Belastung" in diesem Ökosystem hat. Dazu wurden zunächst Hinweise auf ein Faktorengefüge erarbeitet, welches den Stoffeintrag bestimmen und welches die ökologisch-struktuelle Ausstattung im Hinblick auf die Zielsetzung in einem ausreichenden Maße beschreiben kann. Die erarbeiteten Faktoren gehören zu den Komplexen Klima, Topographie, Flächennutzung und Biometrie. Entsprechend dem Untersuchungsansatz wurde nach einem Modell gesucht, das den funktionalen Zusammenhang zwischen Faktoren zur Beschreibung der ökologisch-strukturellen Ausstattung der Gebiete und der entsprechenden PAK-Immission annähert. Für diesen Anwendungsfall ist der Netztyp des GRNN (General Regression Neural Network) besonders gut geeignet. Mit Hilfe des Modells wurden Prognosen der PAK-Immission für fünf Ökosysteme in Deutschland berechnet. Die Validierung dieser Ergebnisse erfolgte anhand von rückstandsanalytischen Untersuchungen an einjährigen Fichtentrieben aus diesen Gebieten. Über die Modellbildung mit unterschiedlichen Input-Sets wurden die für die PAK-Immission relevanten Faktoren herausgearbeitet. Es konnte gezeigt werden, dass sich das gewählte Modell für die Frage der räumlichen Übertragbarkeit eignet, wobei hinsichtlich der Güte der Prognose deutliche Unterschiede zwischen den beiden Gruppen leichtflüchtige und schwerflüchtige PAK bestehen. Zudem bestehen qualitative Unter-schiede hinsichtlich der Prognosen zwischen den Gebieten, da durch die bisherige ökologisch-strukturelle Beschreibung wahrscheinlich einige die Immission bestimmende oder beeinflussende Faktoren nicht oder nicht ausreichend berücksichtigt wurden. Insgesamt wurde durch den gewählten Ansatz auch die Leistungsfähigkeit von Umweltdaten aus unterschiedlichen Monitoring- und Untersuchungsprogrammen durch deren gemeinsame Auswertung verdeutlicht.
Gerade in der heutigen Zeit im Spannungsfeld zwischen der globalen Klimaveränderung und einer stetig wachsenden Weltbevölkerung wird es immer wichtiger, die Oberflächenprozesse quantifizieren zu können. In fünf Untersuchungsgebieten in Deutschland, Luxemburg und Spanien wurden experimentelle Geländemessmethoden zur Quantifizierung von Oberflächenabflussbildung und Bodenerosion eingesetzt. Je nach geographischer Lage der Testgebiete sind unterschiedliche Einflussgrößen wichtig für die Abflussreaktion und den Bodenabtrag. Jahreszeit und Vorfeuchte des Bodens können zu verschiedenen Systemzuständen führen und damit die Oberflächenabflussbildungs- und Bodenerosionsraten beeinflussen. Die Verwendung von experimentellen Messmethoden (Beregnungen) ermöglicht es uns, die Reaktion derselben Flächen bei unterschiedlichen Ausgangsbedingungen auf ein und dasselbe (simulierte) Niederschlagsereignis zu messen. Durch die Kombination mit Geländekartierungen und GIS-Auswertungen wird eine qualitative Übertragung der punktuellen Messergebnisse auf die Fläche ermöglicht. In den beiden Untersuchungsgebieten in Deutschland wurden häufig hydrophobe Eigenschaften der Böden festgestellt. Durch diese Hydrophobizität dringt ein Teil des Niederschlagswassers gar nicht bis zum Mineralboden durch, sondern wird in der Streuschicht gehalten oder fließt innerhalb der Streuschicht ab. Dies führt zu einer Erhöhung der Oberflächenabflussraten. Auch der Einfluss der Landnutzung auf die Intensität der Oberflächenprozesse konnte für die Testgebiete in Deutschland und Luxemburg nachgewiesen werden. Auf Wegen und Fahrspuren, sowie auf Ackerflächen wurden die höchsten Oberflächenabfluss- und Bodenabtragsraten gemessen. Aber auch hydrophobe Waldstandorte zeigten hohe Oberflächenabflussraten, allerdings keinen nennenswerten Bodenabtrag, weil die Humusauflage die Bodenoberfläche schützt. Die im Rahmen dieser Arbeit verwendeten Rinnenerosionsversuche ermöglichen es, die Effizienz natürlicher Erosionsrinnen zu messen und zu vergleichen. Durch die Verwendung von beiden Methoden, Beregnung und Rinnenerosionsversuch, können die im Rinneneinzugsgebiet gemessenen Abtragsraten und -mengen mit den Abtragswerten der Erosionsrinne selbst verglichen werden. Insgesamt kann festgestellt werden, dass die Ergebnisse der experimentellen Messungen in Kombination mit einer Kartierung der aktuellen Geomorphodynamik sowie der Auswertung großmaßstäbiger Luftbilder, eine Quantifizierung der aktuellen Prozessdynamik ermöglichen.
Wastewater treatment is of great financial concern in many states of Germany. In the rural areas of the Saarland (German state at the border to Luxembourg and France) investments for wastewater treatments in the next years will mount up to 400 mio. €. Nevertheless, decision makers are still left with the question, if these investments result in an effective and sustainable water treatment. To answer this question, the ministry of environment, related authorities and the University of the Saarland (Geographical Institute) started a Project to investigate seven small headwater catchments with predominantly Triassic series of Muschelkalk. Aims of this study were the following: (i) the description of the spatial variability of water chemistry upstream and downstream of small villages (in these villages only mechanically treated waste water is discharged into the brooks), (ii) calculation of nutrient loads of differently managed catchments (predominantly woodland, meadows or fields) and (iii) the relative importance of non-point pollution sources to point pollution sources. Results indicated that spatial variability of nitrate concentration during base-flow conditions was quite similar in intensively used agricultural areas. Nitrogen fluxes were predominantly controlled hydrologically. The nitrogen load (kg N per ha) from non-point pollution sources amounts from 32.5 to 43 kg N / ha * a in intensively used agricultural areas. This load, forecast to one square-km, is equal to the N-load of 800 " 1000 population equivalents. Thus, non-point pollution sources are a major part of the overall nitrogen pollution in the rural areas. The results are important criterias for the sewage disposal plan of the Saarland (disposal plans are obligate according to German water law) and can serve as a first part of a river basin management according to the European Water Framework Directive. To lower non-point N-pollution changes in agricultural management practices are necessary.
Die Dissertation behandelt die Sakralarchitektur Triers des 13. und 14. Jahrhunderts, die mit Ausnahme der Liebfrauenkirche in der bisherigen Forschung keine ausreichende Würdigung erfahren hat. In Trier werden drei Rezeptionsstränge gotischer Architektur ins Reich deutlich: Nach der anfäng-lichen Übernahme einzelner Neuerungen aus dem zisterziensischen Architekturkreis und der Aneignung einzelner Strukturen werden schließlich ganze Konzepte rezipiert. Das Zisterzienserkloster Himmerod kann entgegen der bisherigen Forschungsmeinung nicht als Auslöser des gotischen Baubooms in Trier gelten - keinerlei Quellen weisen darauf hin. Um 1221 beginnen die in Stadt gelangten Dominikaner und Franziskaner, später die Augustiner-Eremiten und Karmeliter mit dem Bau ihrer Kirchen, die neben der champagnesischen Baugruppe eine eigenständige Bautengruppe bilden. Bettelordenarchitektur verdeutlicht eine ordensinterne Repräsentationsstrategie, die sich in der Ablehnung des Hauptbaus der champagnesischen Baugruppe - der Liebfrauenkirche - zeigt und die auf der Wiedererkennung als Bettelordenkirche in einem Stadtgefüge basiert. So ist die Sakralarchitektur Triers das Ergebnis unterschiedlicher Repräsentationsbedürfnisse des Erzbischofs bzw. der Bettelorden. Trier muss aufgrund der enormen und frühen Bautätigkeit als frühgotisches Zentrum des Reiches gelten.
Anmerkung: Es handelt sich um die 2. überarbeitete Auflage der Dissertation.
1. Auflage siehe:
"https://ubt.opus.hbz-nrw.de/frontdoor/index/index/docId/2083".
Ausgangspunkt der politisch-ikonographischen Untersuchung, in deren
Zentrum zwei Staatsporträts König Maximilians II. von Bayern stehen, ist die Beobachtung, dass diese beiden Bildnisse grundsätzlich unterschiedliche Inszenierungsformen wählen. Das erste von Max Hailer gefertigte Werk zeigt Maximilian II. im vollen bayerischen Krönungsornat und greift eine tradierte Darstellungsweise im Staatsporträt auf. Es entstand zwei Jahre nach Maximilians II. Thronbesteigung und damit nach den revolutionären Unruhen der Jahre 1848/49 im Jahr 1850. Das zweite wurde von Joseph Bernhardt 1857 bis 1858 gemalt und im Jahr 1858 zum zehnjährigen Thronjubiläum des Monarchen erstmals präsentiert. Die Inszenierung ändert sich im zweiten Bildnis: Das bayerische Krönungsornat ist der Generalsuniform gewichen, ebenso weitere Details, die sich noch in der ersten Darstellung finden: Draperie und Wappen fehlen, der übliche bayerisch-königliche Thronsessel ist durch einen anderen ersetzt. In den Hintergrund gedrängt ist die Verfassung, immerhin seit 1818 staatliche Rechtsgrundlage des bayerischen Königreichs. Die beiden Staatsporträts Maximilians II. leiten offensichtlich von den Herrscherbildnissen im vollen bayerischen Krönungsornat seines Großvaters Maximilian I. und Vaters Ludwig I. über zu einer solchen in Uniform mit Krönungsmantel wie sie sich bei Napoleon III. und Friedrich Wilhelm IV. finden und wie sie sein Sohn Ludwig II. weiterführte. Es stellt sich somit die Frage, welche Faktoren zu diesem prägnanten Wandel in der Inszenierung Maximilians II. als König von Bayern führten. Die Arbeit geht der These nach, dass beide Darstellungen grundlegend auf eine reaktionäre, gegen die Revolution 1848/49 gerichtete Politik ausgelegt sind, wobei dieser reaktionäre Charakter in Maximilians II. Bildnis von 1858 noch eine Steigerung im Vergleich zu derjenigen von 1850 erfährt. Zudem wandelt sich die innenpolitisch-historische Ausrichtung des ersten Porträts bei der zweiten Darstellung des bayerischen Monarchen in eine außenpolitisch-progressive. Die Legitimation Maximilians II. begründet sich nicht mehr, wie bei ersterem, in der Geschichte und der Herrschaft der Wittelsbacher, sondern in seinen eigenen Errungenschaften und seiner eigenen Herrschaft. Dieser Wechsel der politischen Bildaussage fußt sowohl auf den politischen Veränderungen und Entwicklungen innerhalb und außerhalb Bayerns als auch auf der Entwicklung des Staatsporträts in der Mitte des 19. Jahrhunderts. Nach nur zehn Jahren wird so eine veränderte Botschaft über Maximilians II. Position und Machtanspruch ausgesendet.
Anmerkung: Es handelt sich um die 1. Auflage der Dissertation.
2. überarbeitete Auflage siehe:
"https://ubt.opus.hbz-nrw.de/frontdoor/index/index/docId/2166".
Ausgangspunkt der politisch-ikonographischen Untersuchung, in deren Zentrum zwei Staatsporträts König Maximilians II. von Bayern stehen, ist die Beobachtung, dass diese beiden Bildnisse grundsätzlich unterschiedliche Inszenierungsformen wählen. Das erste von Max Hailer gefertigte Werk zeigt Maximilian II. im vollen bayerischen Krönungsornat und greift eine tradierte Darstellungsweise im Staatsporträt auf. Es entstand zwei Jahre nach Maximilians II. Thronbesteigung und damit nach den revolutionären Unruhen der Jahre 1848/49 im Jahr 1850. Das zweite wurde von Joseph Bernhardt 1857 bis 1858 gemalt und im Jahr 1858 zum zehnjährigen Thronjubiläum des Monarchen erstmals präsentiert. Die Inszenierung ändert sich im zweiten Bildnis: Das bayerische Krönungsornat ist der Generalsuniform gewichen, ebenso weitere Details, die sich noch in der ersten Darstellung finden: Draperie und Wappen fehlen, der übliche bayerisch-königliche Thronsessel ist durch einen anderen ersetzt. In den Hintergrund gedrängt ist die Verfassung, immerhin seit 1818 staatliche Rechtsgrundlage des bayerischen Königreichs. Die beiden Staatsporträts Maximilians II. leiten offensichtlich von den Herrscherbildnissen im vollen bayerischen Krönungsornat seines Großvaters Maximilian I. und Vaters Ludwig I. über zu einer solchen in Uniform mit Krönungsmantel wie sie sich bei Napoleon III. und Friedrich Wilhelm IV. finden und wie sie sein Sohn Ludwig II. weiterführte. Es stellt sich somit die Frage, welche Faktoren zu diesem prägnanten Wandel in der Inszenierung Maximilians II. als König von Bayern führten. Die Arbeit geht der These nach, dass beide Darstellungen grundlegend auf eine reaktionäre, gegen die Revolution 1848/49 gerichtete Politik ausgelegt sind, wobei dieser reaktionäre Charakter in Maximilians II. Bildnis von 1858 noch eine Steigerung im Vergleich zu derjenigen von 1850 erfährt. Zudem wandelt sich die innenpolitisch-historische Ausrichtung des ersten Porträts bei der zweiten Darstellung des bayerischen Monarchen in eine außenpolitisch-progressive. Die Legitimation Maximilians II. begründet sich nicht mehr, wie bei ersterem, in der Geschichte und der Herrschaft der Wittelsbacher, sondern in seinen eigenen Errungenschaften und seiner eigenen Herrschaft. Dieser Wechsel der politischen Bildaussage fußt sowohl auf den politischen Veränderungen und Entwicklungen innerhalb und außerhalb Bayerns als auch auf der Entwicklung des Staatsporträts in der Mitte des 19. Jahrhunderts. Nach nur zehn Jahren wird so eine veränderte Botschaft über Maximilians II. Position und Machtanspruch ausgesendet.
Die Einführung leistungsorientierter Entgeltsysteme stellt Mitarbeiter und Unternehmen vor besondere Herausforderungen. Dabei verändert sich vor allem die Rolle des Mitarbeiters. War er vormals Ausführender der ihm übertragenen Arbeitsaufgaben, wird er zunehmend zum eigenverantwortlichen Gestalter und Mitunternehmer. Im Rahmen einer multiplen Fallstudie wird zunächst der Frage nachgegangen, wie die Mitarbeiter in drei karitativen Einrichtungen die Einführung einer leistungsorientierten Vergütungskomponente erleben. Dazu werden inhaltliche Gestaltungsmerkmale der Entgeltsysteme, Merkmale des Einführungsprozesses und ihre Auswirkungen untersucht. Die Ergebnisse zeigen, dass die Mitarbeiter in allen Einrichtungen dem Aspekt der Finanzierung des variablen Vergütungsanteils eine wesentliche Bedeutung beimessen. Wird dieser Anteil durch die Variabilisierung bisher garantierter, fixer Vergütungsanteile finanziert, entstehen unsichere Gehalts-anteile und es erhöht sich das Risiko von möglichen Gehaltsverlusten. In der Einrichtung mit dem höchsten Entgeltrisiko führte dieser Umstand dazu, dass Mitarbeiter und Vorgesetzte durch informelle Absprachen versucht haben, mögliche Verluste zu vermeiden. Wird der variable Entgeltanteil durch die Einrichtungen mitfinanziert, erhöhen sich hingegen die Chancen auf Einkommensgewinne, was auch zu einer höheren Akzeptanz der neuen Entgeltsysteme beiträgt. Aufbauend auf den Ergebnissen der Fallstudie werden in einer quantitativen Analyse die Auswirkungen eines erhöhten Entgeltrisikos auf die Zufriedenheit der Mitarbeiter mit ihrem variablen Vergütungsanteil (Bonuszufriedenheit) untersucht. Dabei wird das Entgeltrisiko durch drei konzeptuelle Facetten operationalisiert: die Variabilität der Entlohnung, das Ausmaß möglicher Verluste und das Verhältnis von Risiko und Chance (RCV). Entgegen der bisherigen Annahme in der Forschungsliteratur, dass vor allem die Variabilität der Entlohnung ausschlaggebend für die Auswirkungen von Entgeltrisiko ist, zeigen regressionsanalytische Ergebnisse, dass in der Einführungsphase neuer Entgeltsysteme vor allem das RCV einen signifikanten Effekt auf die Bonuszufriedenheit der Mitarbeiter hat. Die Ergebnisse einer multiplen Mediationsanalyse legen nahe, dass der Effekt von RCV auf die Bonuszufriedenheit zum Teil von Einstellungen der distributiven und prozeduralen Gerechtigkeit vermittelt wird. Wei-terführende Analysen ergeben, dass der Zusammenhang zwischen dem RCV und der Bonuszufriedenheit durch zwei moderierende Variablen beeinflusst wird: zum einen durch die partizipative Beteiligung der Mitarbeiter am Einführungsprozess und zum anderen durch die individuelle Präferenz für leistungsorientierte Entlohnung. Vor allem bei hoher partizipativer Beteiligung wirkt sich ein günstiges RCV positiv auf die Bonuszufriedenheit der Mitarbeiter aus. Außerdem sind jene Mitarbeiter unzufriedener mit einem risiko-reichen Entgeltsystem, die eine stark ausgeprägte Präferenz für leistungsorientierte Entlohnung besitzen.
Die Dissertation beschäftigt sich mit der Frage, inwieweit und unter welchen Bedingungen psychophysiologische Maße gewinnbringend zur empirischen Prüfung physiologisch orientierter Persönlichkeitstheorien genutzt werden können. Am Beispiel des Extraversionsmodells von Brebner & Cooper (1985), das mit Hilfe ereigniskorrelierter Hirnrindenpotentiale (EKP) empirisch geprüft wurde, wird deutlich herausgearbeitet, mit welchen Herausforderungen sich eine solche Forschung konfrontiert sieht: die konsequente und streng theoriegeleitete Verknüpfung psychologischer Konzepte mit psychophysiologischen Maßen, die sorgfältige Berücksichtigung der funktionalen Bedeutung und der komplexen auslösenden Bedingungen der elektrophysiologischen Parametern im Kontext des gewählten Paradigmas sowie die umfassende Kontrolle experimenteller und situationsspezifischer Rahmenbedingung. Das Brebner-Cooper-Modell führt Verhaltensunterschiede zwischen Extravertierten und Introvertierten auf differentiell wirksame exzitatorische und inhibitorische Prozesse zurück, die im Zusammenhang mit der Analyse von Reizen (Reizanalyse) und der Vorbereitung von Reaktionen (Reaktionsorganisation) in einer spezifischen Situation stehen. Der empirische Teil der Arbeit beschreibt zwei EKP-Experimente, in denen langsame Potentiale zur Untersuchung dieser Modellkonzepte herangezogen wurden. Das Ausmaß kortikaler Aktivierung und Deaktivierung bei Introvertierten vs. Extravertierten in Abhängigkeit von variierenden Anforderungen an Reizanalyse und Reaktionsorganisation wurde über die Contingent Negative Variation (CNV) abgebildet. Aufgrund theoretischer wie empirischer Überlegungen wurde davon ausgegangen, dass sich Unterschiede in der Reizanalyse in der initial CNV (iCNV), Unterschiede in der Reaktionsorganisation dagegen in der terminal CNV (tCNV) niederschlagen. Die Ergebnisse bestätigen, dass der Einsatz psychophysiologischer Methoden zur Theorienprüfung erst dann vielversprechend ist, wenn zuvor eine Validierung der elektrophysiologischen Maße als geeignete Indikatoren für die psychologischen Konstrukte erfolgt ist.
Erstmals wird der gesamte Zeichnungsnachlass des in Aachen tätigen Goldschmieds Reinhold Vasters (1827-1909) wissenschaftlich bearbeitet. Schwerpunkt ist ein Katalogteil, der die 1079 Zeichnungen (Inv.Nrn. E.2570- bis E. 3649-1919) zu Objekten in Gruppen ordnet. Die Katalognummern erfassen alle Entwürfe eines Objektes (Angabe von u. a. Maßen, Literatur) mit Farbabbildungen, stellen historische Vorbilder höfischer Sammlungen (Wien, München, Paris) und Ideengrundlagen gegenüber sowie Verbindungen im Konvolut her. Des weiteren sind liturgische Geräte chronologisch aufgeführt, deren Zahl im Vergleich mit profanen Arbeiten klein ist und für die sich im Gegensatz zu diesen meist kein Entwurf erhielt. Texte zu den Objektgruppen geben einen Überblick und erläutern exemplarisch die für Vasters typischen und symptomatischen Vorgehensweisen. Biographische Erkenntnisse (unter anderem ein Stammbaum) informieren über Ereignisse in seiner Vita und revidieren den Wissensstand - zum Beispiel war Vasters nicht erst 1853 in Aachen nachzuweisen, sondern schon 1849 als 'Goldarbeiter zu Crefeld'. Kapitel zur Ausbildung und Werkstatt ergänzen das Bild. Schließlich wird das Thema 'Vasters als Fälscher' beleuchtet und die Beziehungen zum Kunsthändler Frédéric Spitzer, dem Kanonikus Franz Bock und dem Pariser Goldschmied Alfred André.
An der Schnittstelle zwischen Recht und Sprache, zwischen der überdachenden Weingesetzgebung der Europäischen Union und dem von den Mitgliedstaaten gesetztem Recht liegt das Recht der Weinbezeichnungen. Hier wie an kaum einer anderen Stelle kommt der Verbraucher mit beiden in Berührung und verliert sich nicht selten im Dschungel der zahllos scheinenden Begriffe in unterschiedlichen Sprachen, die ihn in Gestalt des Flaschenetiketts doch über Herkunft und Qualität des Weins unterrichten und so seine Kaufentscheidung erleichtern sollen. An dieser Stelle setzt die Dissertation an, um unter vergleichender Berücksichtigung der in den Einzelsprachen verwendeten Begriffe und Bezeichnungen das komplex und kunstvoll gewobene Netz zu durchdringen. Als romanistische Arbeit von den vier großen Sprachen der Romania ausgehend, wird zunächst das Weinrecht insgesamt von Frankreich, Italien, Portugal und Spanien dar- und demjenigen Deutschlands gegenübergestellt, wobei jeweils auch der Bezug zum europäischen Weinrecht, insbesondere EG-Weinmarktordnung als Grundverordnung und EG-Weinbezeichnungsverordnung als Durchführungsverordnung, hergestellt wird. Dessen Geschichte und diejenige der nationalen Weinrechtsordnungen werden ausführlich dargestellt. In einem nächsten, den Kern der Arbeit ausmachenden Schritt verengt sich der Fokus auf das Bezeichnungsrecht der Weine als solche, um nach Gewinnung der maßgeblichen Begriffe zu überprüfen, inwieweit diese in Bezug auf ihren Bedeutungsgehalt als gleichwertig anzusehen, also semantisch äquivalent sind. Die Blickrichtung ist auch hier bidirektional und umschließt neben dem Vergleich der europäischen und der nationalen Begriffe auf horizontaler Ebene die Gegenüberstellung beider Systeme in vertikaler Sicht. Ein Blick auf sonstige, nicht obligatorische Angaben, wie etwa die wichtigsten Rebsortennamen, rundet die Untersuchung ab, wobei diese und ihre so genannten Synonyme kritisch hinterfragt werden.
Opfer von Schicksalsschlägen (wie Arbeitslosigkeit, Verkehrsunfällen, schweren Krankheiten), leiden oft zusätzlich darunter, daß sie von Mitmenschen herabgesetzt und ausgegrenzt werden, daß ihnen Vorwürfe gemacht und Selbstverschuldung unterstellt wird ("blaming the victim"-Phänomen). Was bewegt Menschen dazu, Opfer zu belasten, statt zu helfen? Zwei Motive wurden diskutiert. (1) Beobachter wollen mit ihren Vorwürfen Kontrolle und die Illusion aufrechterhalten, ihnen selbst könne ähnliches nicht passieren (Defensivattributionshypothese). (2) Beobachter wollen die Illusion einer gerechten Welt aufrechterhalten, in der jeder bekommt, was er verdient (Gerechte-Welt-Theorie). Beide Annahmen wurden bisher nie vergleichend getestet, zudem sind der Glaube an Gerechtigkeit und der Glaube an Kontrolle verwandt und die Instrumente zu ihrer Erfassung oft ähnlich. In einer Fragebogenuntersuchung über Einstellungen zu Krebskrankheiten an 326 Probanden zeigte sich, daß der Glaube an eine gerechte Welt tatsächlich mit Vorwürfen an Kranke einherging, was aber nicht zu einem Gefühl der Sicherheit führte. Der Glaube an Kontrolle ging dagegen mit Invulnerabilitätsillusionen einher, ohne den Umweg über Verantwortlichmachungen der Opfer zu nehmen. In dieser Arbeit ließ sich auch zeigen, daß der Glaube an Gerechtigkeit und an Kontrolle trotz ihrer Gemeinsamkeiten sinnvoll zu unterscheiden sind. Außerdem konnten verschiedene Spielarten des Glaubens an Gerechtigkeit und an Kontrolle mit unterschiedlichen Wirkungen demonstriert werden.
Seit Mitte der 1970er Jahre engagiert sich das Land Nordrhein-Westfalen, in Folge des sozial/ökologischen Wertewandels der 1960er und 1970er Jahre, in der Radverkehrsförderung. Damals wie heute ist die systematische Realisierung von Radverkehrsnetzen, die durchgängig mit einem Leitsystem gekennzeichnet werden, ein zentrales Landesziel. Hierzu entwickelte das Land NRW unterschiedliche Strategien: Ende der 1970er Jahre wurde landesweit ein touristisches Netz erarbeitet, das jedoch seitens der Kommunen nur wenig Akzeptanz fand. Anschließend führte das Land NRW mit zwei Modellvorhaben den Nachweis, dass zur Förderung des Radverkehrs eine systematische Zielnetzplanung verbunden mit einer Kennzeichnung des Netzes mittels Leitsystem zielführend ist. Doch auch dies fand seitens der Kommunen nur wenig Nachahmer. Daher leitete das Land NRW einen weiteren Strategiewechsel von der Bottom-up-Strategie zur Top-down-Strategie ein: 1995 wurde im Koalitionsvertrag der Landesregierung die Realsierung des Radverkehrsnetz Nordrhein-Westfalen (RVN NRW) politisch beschlossen. Landesweit sollte ein Radverkehrsnetz geplant und anschließend mit einem Leitsystem vor Ort gekennzeichnet werden. Das RVN NRW wurde zwischen 1996 und 2007 unter vollständiger Finanzierung des Landes NRW in enger Abstimmung mit den 427 Kommunen und ca. 2.000 Projektpartnern erfolgreich umgesetzt. Es hat eine Länge von 14.155 km. Heute wird das RVN NRW durch viele Kommunen weiter lokal verdichtet. Bereits im Rahmen der Projektkonzeption waren auf Grundlage des RVN NRW umfangreiche Synergien vorgesehen, indem u. a. der Radroutenplaner NRW entwickelt wurde. Dieser wird mittels Internet/Smartphone kommuniziert und enthält sowohl alle Informationen zur Planung der Strecke vor der Fahrt, als auch zur Wegefindung während der Fahrt. Mit diesem innovativen Projekt wurden zahlreiche Mehrwerte und Synergien erzielt, indem z. B. radtouristischen Netze neu geordnet, ein landeseinheitliches Qualitätsmanagement zur Pflege entwickelt, ein Repertoire zur Sicherung des Radverkehrs außerorts geschaffen und insbesondere die Verkehrsmittel des Umweltverbunds sowohl in den Netzen (Hardware) als auch in der Informationsvermittlung (Software) miteinander verknüpft wurden. Unter Berücksichtigung der ökologischen, energetischen, demographischen und volkswirtschaftlichen Anforderungen an die Mobilität der Zukunft, muss ein nachhaltiges selbsterklärendes multimodales Mobilitätssystem mit dem Rückgrat Öffentlicher Verkehr entwickelt werden. Mit der Realisierung des RVN NRW hat das Land NRW bereits eine wesentliche Komponente fertiggestellt. Um die Systemvorteile der jeweiligen Verkehrsarten optimal nutzen zu können, sind umfangreiche weitere Maßnahmen erforderlich, die wiederum einer Landesinitiative bedürfen. Das mit der Konzeption des RVN NRW erfolgreich praktizierte Umsetzungsverfahren lässt sich auf eine Vielzahl von weiteren Zukunftsaufgaben übertragen. Allgemeingültige Handlungsempfehlungen zeigen den Weg auf, wie auch diese Visionen in die Realität übergeleitet werden können.
Habitat selection of nine songbird species (Sylviidae, Prunellidae, Emberizidae, Fringillidae, Laniidae) in a semi-open transitional landscape (wood/meadow ecotone) is assessed and compared by a quantitative approach over a period of three years. The structural diversity and heterogeneity of this landscape allows a common occurrence to bird species that are spatially segregated in other habitats. On the one hand habitat selection, which in this study is defined by the choice of vegetation structures at the microhabitat level, is regarded as the confrontation of the single bird individuals with their environment and on the other hand as a common trait of subpopulations. The process of habitat selection is only real at the level of the individual. Drawing against this background, a model for the quantification of habitat selection is introduced, making possible an objective analysis of both individual and average habitat selection (not explaining the process itself, however, that leads to the observed habitat selection). The influence of several structural features, mainly regarding the shape of vegetational subunits, on the dispersion of the birds on the plots is analyzed by means of quantitative methods (factor analysis, cluster analysis, discriminant analysis). Preferences and avoidances, constancy in time and space and the degree of selectivity of the specific choice of vegetational structures are discussed in detail for each bird species. There is quantitative evidence that along with increasing abstraction from the individual in the form of spatially increasing data aggregation, the specific distinctness of habitat preferences as a common trait increases. This happens, however, at the expense of information about the variability of the individual selective behaviour. Therefore the flexibility of a bird species would be underrated cosiderably, confining habitat selection to its meaning as an integrating trait of populations. Habitat selection is a dynamic process. It is shown that the structural offer in a landscape strongly influences the result of the species" habitat selection. The availability of vegetational structures on a plot determines the quantitative structural framework, which may be more or less quantitatively modified by the single species. Nevertheless, the structural offer is reflected clearly in the selected structural portions of the bird species. Therefore opportunism and selectivity in the form of structural preferences and avoidances in habitat selection have to be interpreted against the background of the quantitative composition of the vegetational structures that a landscape offers to the birds.
Quantitative Untersuchungen im Französischen: Häufigkeitsverteilungen und funktionale Zusammenhänge
(2009)
Die Quantitative Linguistik ist eine relativ junge Disziplin, deren Hauptziel es ist, Gesetzmäßigkeiten zu erforschen, denen sprachliche Phänomene folgen, und gesetzmäßige Zusammenhänge zwischen sprachlichen Variablen zu erklären. Es hat sich inzwischen in einer ganzen Reihe von Untersuchungen immer wieder gezeigt, dass solche Gesetzmäßigkeiten aufgedeckt und erklärt werden können. Die vorliegende Untersuchung stellt einen Beitrag zu dieser Thematik dar. Sie dient der Überprüfung bestimmter lexikalischer und syntaktischer Hypothesen an französischem Sprachmaterial unter der Anwendung quantitativer Methoden. Diese Hypothesen betreffen zweidimensionale Zusammenhänge zwischen den operational definierten quantitativen Eigenschaften der Länge, Frequenz und Polylexie von sprachlichen Einheiten und die Häufigkeitsverteilungen der Einheiten hinsichtlich dieser Eigenschaften. Jede Untersuchungshypothese wird mathematisch modelliert, wobei eine direkte Anwendung der Statistik betrieben wird. D.h.: Bereits existierende theoretische Modelle, die als wahres Bild der zu überprüfenden Hypothesen angesehen werden, werden verwendet. Die Güte der Anpassung des jeweiligen Modells an die empirischen Daten wird aus den Differenzen zwischen den empirischen und den entsprechenden theoretischen Werten abgeschätzt. Bei der empirischen Überprüfung der Hypothesen werden zwei Testverfahren eingesetzt: die Berechnung des Determinationskoeffizienten für die Zusammenhänge zwischen zwei quantitativen Größen und der Chiquadrat-Test für die Verteilungshypothesen. Die durchgeführten Tests bestätigen im Großen und Ganzen die Verträglichkeit der Daten mit den aufgestellten Hypothesen.
Quantitative Studien zur Plansprache Esperanto zu ausgewählten Fragestellungen der Phonologie, Morphologie, Syntax, Lexik, Semantik, Worthäufigkeit und - als Schwerpunkt - Wortbekanntheit wurden durchgeführt. Hauptergebnisse: Die Phonem-Häufigkeitsverteilung des Esperanto kann besonders gut mit dem Yule-Modell beschrieben werden; bei biphonematischer Wertung der Affrikaten ergibt sich eine etwas schlechere Anpassung als bei monophonematischer Wertung. Die Anwendung des klassifikatorischen Schlüssels von Altmann und Lehfeldt bestätigt die Meinung der meisten Autoren, wonach Esperanto agglutinierend mit einigen Merkmalen einer isolierenden Sprache ist. Die bei anderen Sprachen gefundene Gesetzmäßigkeit zwischen Lexermlänge und Polysemie gilt auch für Esperanto. Zur Untersuchung des Zusammenhangs zwischen Wortbekanntheit und Worthäufigkeit sowie zur Untersuchung der Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher wurde das Verfahren der logistischen Regression (einschließlich statistischer Sicherheit) ausführlich dargestellt und als eine innovative Option auch zur Untersuchung analoger Fragestellungen angeboten. Zu den nachfolgend beschriebenen Haupthypothesen kann auf Grundlage der Untersuchung Folgendes ausgesagt werden (es sei angemerkt, dass die Haupthypothesen- (a) und (b) dabei ausschließlich für solche Esperanto-Sprecher gelten, die ihr Esperanto-Anwendungsvermögen als ausreichend gut einschätzen; die Haupthypothese- (c) gilt auch für solche Esperanto-Sprecher, die ihr Esperanto-Anwendungsvermögen als nicht ausreichend gut einschätzen): (a) Die Häufigkeit der zuverlässig bekannten Wörter entspricht der Häufigkeitsgruppe- 7 aus neun Häufigkeitsgruppen der von der Esperanto-Akademie entwickelten Statistik ("offizielle Basis-Wortwurzelsammlung", BRO; Häufigkeitsgruppe- 1: häufigste Wörter). (b)- Sei- A die Häufigkeit der Esperanto-Wörter, die Menschen mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig zuverlässig bekannt sind. Sei- B die Häufigkeit der Esperanto-Wörter, die Menschen mit Muttersprache Chinesisch, Japanisch oder aus der finno-ugrischen Sprachfamilie zuverlässig bekannt sind. Die Untersuchung zeigte: Zwischen A und B besteht kein signifikanter Unterschied. Das heißt: Die naheliegende Vermutung, dass Sprecher mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig (= Quelle der meisten Esperanto-Wörter) einen Vorteil haben und seltenere Esperanto-Wörter vergleichsweise besser kennen als Sprecher mit anderen Muttersprachen, wurde durch die vorliegende empirische Überprüfung nicht bestätigt. (c)- Bei einer statistischen Sicherheit von 95% ist die Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher auch nach 100- Lernjahren nur 73%. Für eine zuverlässige Anwendbarkeit (also 90% bei 95%- statistischer Sicherheit) konnte keine Lernzeit ermittelt werden.
Die Kunstgewerbeschule Pforzheim nimmt innerhalb der Bildungsanstalten, die zur künstlerischen Förderung der Gewerbe im 19. Jahrhundert gegründet worden waren, eine Sonderstellung ein. Lehrplan und Ausbildungsgang orientierten sich vorrangig an den Bedürfnissen der in Pforzheim seit 1767 ansässigen Schmuckindustrie, die maßgeblich an der Gründung und Förderung der Kunstgewerbeschule beteiligt war. In der Dissertation werden die Rahmenbedingungen, die zur Gründung der Pforzheimer Kunstgewerbeschule im Jahr 1877 führten, sowie die Qualität und die Methoden der dort angebotenen künstlerisch-technischen Ausbildung unter Berücksichtigung zeitgenössischer Bildungsideale analysiert. Im Anschluss wird das Ansehen der Kunstgewerbeschule unter Zeitgenossen beurteilt sowie die Bedeutung dieser Institution für die Pforzheimer Schmuckindustrie herausgearbeitet. Der Betrachtungszeitraum erstreckt sich von 1877, dem Gründungsjahr der Kunstgewerbeschule, bis 1911, dem Todesjahr ihres ersten Direktors, Alfred Waag. Zeitgenössische Berichte und Archivmaterialien sowie der kontinuierlich erweiterte Lehrmittelbestand der Kunstgewerbeschule bilden die Grundlage für die Untersuchungen. Ein Großteil der Musterstücke, viele Bücher und Vorlagenwerke, die zur künstlerischen Ausbildung der Schüler angeschafft wurden, sind bis heute in Archiven und Museen erhalten und zeugen von der Qualität und der Fortschrittlichkeit der Ausbildungsstätte. Vor allem in den Bereichen Entwurf und Technik setzte man an der Kunstgewerbeschule Pforzheim Maßstäbe. Unter dem Einfluss der Schule entstanden Entwürfe für die lokale Schmuckindustrie, die speziell auf die serielle Fertigung zugeschnitten waren und damit beispielhaft für eine gelungene Allianz von Kunst, Technik und Wirtschaftlichkeit stehen. Die Zusammenarbeit der lokalen Schmuckhersteller mit Lehrern oder Absolventen der Kunstgewerbeschule ließ sich ebenso belegen wie die erfolgreiche Teilnahme verschiedener Schüler an überregionalen Wettbewerben für Schmuckentwürfe. Dank der quellengestützten Recherche konnten Beziehungen zwischen den als mustergültig empfundenen Vorbildern, der Entwurfsarbeit an der Schule und dem in Pforzheim industriell hergestellten Schmuck aufgezeigt werden. Der häufig geäußerte Vorwurf, Pforzheimer Firmen hätten vor allem fremde Schmuckentwürfe kopiert und durch maschinelle Fertigungstechniken billig produziert, verkennt den eigenen künstlerischen Anspruch einer Industrie, die zur ästhetisch-technischen Ausbildung ihrer Arbeiter und Lehrlinge eine Kunstgewerbeschule ins Leben rief, die bis heute unter dem Namen Hochschule Pforzheim - Gestaltung, Technik, Wirtschaft und Recht Bestand hat.
Die Dissertation "Qualitativer Bewusstseins- und Verhaltenswandel im Kontext einer nachhaltigen Entwicklung und ökologischen Ökonomik" ist eine ungewöhnliche wirtschaftswissenschaftliche Arbeit, die mit Hilfe von inter- und transdisziplinärer Forschungsmethodik weit über das Gebiet der Ökonomik hinausgeht, um Eigenschaften und Anforderungen für einen qualitativen Bewusstseins- und Verhaltenswandel zu erforschen. Sie ist dazu in sieben Kapitel inklusive Einleitung und Schluss gegliedert. Zunächst werden im zweiten Kapitel Probleme der Operationalisierung und Umsetzung der offenen Brundtland-Definition von nachhaltiger Entwicklung thematisiert. Sowohl die Abgrenzung von Bedürfnissen als auch von ökologischer Tragfähigkeit stellen hierbei die Nachhaltigkeitsforschung vor Schwierigkeiten. Im dritten Kapitel wird die Notwendigkeit der grundlegenden Veränderung der Sicht- und Lebensweise aus dem Leitbild der nachhaltigen Entwicklung abgeleitet, für das die Wirtschaftswissenschaften zwei Ansätze bieten. Im Vergleich mit der neoklassischen Umwelt- und Ressourcenökonomik, die auf den Prämissen des mechanistisch-objektivistischen Weltbildes der klassischen Physik beruht und die Natur als substitutionalisierbar ansieht, wird der ökologischen Ökonomik der Vorzug gegeben, aus deren Sicht die Betrachtung der Ökonomie als kulturelles Ökosystem unter Irreversibilität und der Anwendung des Vorsichtsprinzips zweckdienlich ist. Mit einer dreifachen Konsistenz-, Effizienz- und Suffizienzstrategie will die ökologische Ökonomik nachhaltige Entwicklung umsetzen, verlässt dabei aber nicht eine materialistische Sichtweise, so dass das Merkmal der Suffizienz unzureichend mit Inhalten ausgefüllt wird. Dies ist der Anknüpfungspunkt für einen qualitativen Bewusstseins- und Verhaltenswandel. Beispiele für einen solchen werden im vierten Kapitel beschrieben, sowohl mit der Quantenphysik aus dem Kernbereich der Naturwissenschaften stammend, als auch aus der Bewusstseinsforschung. Kennzeichen eines neuen Bewusstseins sind die Aufhebung der Trennung von Subjekt und Objekt, Geist und Materie, Innen- und Außenwelt. Zwei Exkurse (Emoto, spirituelle Weltanschauungen) zeigen zusätzliche nicht-materialistische Wahrnehmungen von Welt und Wirklichkeit auf. Im fünften Kapitel folgt die Übertragung der gewonnenen Erkenntnisse auf eine zugleich sowohl ergänzende als auch alternative Form von Wissenschaft, der "komplementären Wissenschaft der Innen- und Außenwelt". Sie berücksichtigt nicht nur die äußere Dimension der Erfahrungswelt, sondern auch die innere, um komplexe Sachverhalte ganzheitlich in ihrem Zusammenwirken von Subjekt und Objekt, Geist und Materie, Innen- und Außenwelt betrachten und erfassen zu können. Dazu ist eine Erweiterung der Methodik um introspektive Einsichten notwendig, sowie die Erweiterung von Welt- und Menschenbild um immaterielle Aspekte, ersteres durch die Wechselwirkungen zwischen Bewusstsein, Geist, Materie und Leben, letzteres durch spirituelle, mentale, emotionale und physische Zusammenhänge des Menschseins. Das sechste Kapitel beinhaltet Anforderungen an eine komplementäre Ökonomik der Innen- und Außenwelt, die die Merkmale eines qualitativen Bewusstseins- und Verhaltenswandels aufweist. Zum einen geschieht dies durch das Modell einer "Ökonomie des Geistes", die in Anlehnung an Bateson mentale Strukturen als grundlegend für materielle ökonomische Prozesse ansieht. Zum anderen bietet eine "Quanten-Ökonomik" die Verbindung einer Außenweltperspektive mit der Innenwelt. Daraus geht auch ein neues Verständnis von Nachhaltigkeit hervor, in dem das Zusammenwirken von Innen- und Außenwelt im Mittelpunkt steht. Die Dissertation schließt mit einem Ausblick der Umsetzungschancen eines derartigen qualitativen Bewusstseins- und Verhaltenswandels in Wissenschaft, Wirtschaft und Gesellschaft.
Quadratische Optimierungsprobleme (QP) haben ein breites Anwendungsgebiet, wie beispielsweise kombinatorische Probleme einschließlich des maximalen Cliquenroblems. Motzkin und Straus [25] zeigten die Äquivalenz zwischen dem maximalen Cliquenproblem und dem standard quadratischen Problem. Auch mathematische Statistik ist ein weiteres Anwendungsgebiet von (QP), sowie eine Vielzahl von ökonomischen Modellen basieren auf (QP), z.B. das quadratische Rucksackproblem. In [5] Bomze et al. haben das standard quadratische Optimierungsproblem (StQP) in ein Copositive-Problem umformuliert. Im Folgenden wurden Algorithmen zur Lösung dieses copositiviten Problems von Bomze und de Klerk in [6] und Dür und Bundfuss in [9] entwickelt. Während die Implementierung dieser Algorithmen einige vielversprechende numerische Ergebnisse hervorbrachten, konnten die Autoren nur die copositive Neuformulierung des (StQP)s lösen. In [11] präsentierte Burer eine vollständig positive Umformulierung für allgemeine (QP)s, sogar mit binären Nebenbedingungen. Leider konnte er keine Methode zur Lösung für ein solches vollständig positives Problem präsentieren, noch wurde eine copositive Formulierung vorgeschlagen, auf die man die oben erwähnten Algorithmen modifizieren und anwenden könnte, um diese zu lösen. Diese Arbeit wird einen neuen endlichen Algorithmus zur Lösung eines standard quadratischen Optimierungsproblems aufstellen. Desweiteren werden in dieser Thesis copositve Darstellungen für ungleichungsbeschränkte sowie gleichungsbeschränkte quadratische Optimierungsprobleme vorgestellt. Für den ersten Ansatz wurde eine vollständig positive Umformulierung des (QP) entwickelt. Die copositive Umformulierung konnte durch Betrachtung des dualen Problems des vollständig positiven Problems erhalten werden. Ein direkterer Ansatz wurde gemacht, indem das Lagrange-Duale eines äquivalenten quadratischen Optimierungsproblems betrachtet wurde, das durch eine semidefinite quadratische Nebenbedingung beschränkt wurde. In diesem Zusammenhang werden Bedingungen für starke Dualität vorgeschlagen.
Das Triple-X-Syndrom ist die häufigste Chromosomenstörung im weiblichen Geschlecht und dennoch wenig bekannt und erforscht. Um die wissenschaftliche Datenlage für die Betroffenen, werdenden Eltern und genetischen Berater zu verbessern wurde die vorliegende Studie durchgeführt. Ziel der Studie war es zu untersuchen, ob bei Mädchen und Frauen mit Triple-X-Karyotyp häufiger psychische Probleme und Verhaltensauffälligkeiten auftreten als bei Mädchen und Frauen mit einem regelrechten Chromosomensatz. Insgesamt konnten 72 Mädchen und Frauen mit Triple-X und 69 mit einem regelrechten Chromosomensatz in die Studie eingeschlossen werden. Durch drei in Altersgruppen aufgeteilte Kohorten konnte verglichen werden, ob mögliche Auffälligkeiten altersabhängig auftreten, wie sich der Entwicklungsverlauf vom Kind zur erwachsenen Frau darstellt und ob dabei Zusammenhänge erkennbar sind. Bei den Mädchen im Alter von vier bis sieben Jahren zeigten sich im Vergleich zur Kontrollgruppe bereits signifikante Unterschiede in Bezug auf schulische Kompetenzen, soziale Probleme und Aufmerksamkeitsprobleme. In der Altersgruppe der Mädchen von acht bis 17 Jahren haben sich diese Auffälligkeiten noch verstärkt und die Ergebnisse aus dem Fragebogen "Child Behavior Checklist" weisen über alle Skalen hinweg einen deutlichen Unterschied zwischen der Triple-X-Gruppe und der Kontrollgruppe auf. Dies betrifft insbesondere die Bereiche "Schulische Kompetenzen", "Internalisierende Auffälligkeiten", "Sozialer Rückzug", "Soziale Probleme" und "Aufmerksamkeits-probleme". In der Gesamtintensität der Auffälligkeiten haben die Triple-X-Mädchen im Mittel signifikant schlechtere Werte als die Mädchen der Kontrollgruppe. Auch ist der Anteil der Mädchen, die in den klinisch auffälligen Bereich fallen, in der Triple-X-Gruppe signifikant erhöht. Die Untersuchungen zum Selbstwertgefühl machen deutlich, dass Mädchen mit Triple-X-Karyotyp ein vermindertes Selbstwertgefühl im Vergleich zur Kontrollgruppe aufweisen. Auch unterscheiden sich Triple-X-Mädchen in Bezug auf ihr Emotionsregulationsverhalten. Sie haben eine Tendenz zu eher maladaptiven Bewältigungsstrategien und sie zeigen insbesondere beim "Problemorientierten Handeln" und auch in Bezug auf die Emotion "Angst" signifikante Unterschiede zur Kontrollgruppe. Für die Gruppe der Erwachsenen konnte nachgewiesen werden, dass sich Triple-X-Frauen in ihren Persönlichkeitsmerkmalen von Frauen mit einem regelrechten Chromosomensatz unterscheiden. Die Ergebnisse lassen darauf schließen, dass Triple-X-Frauen häufiger emotional labil und ängstlich reagieren und auch eher zurückhaltend und introvertiert und weniger leistungsorientiert sind. Sie haben eine geringere Lebenszufriedenheit und neigen dazu weniger sozial verantwortlich zu handeln. Triple-X-Frauen sind in ihrem täglichen Leben stärker durch körperliche und psychische Symptome beeinträchtigt, wenngleich diese Beeinträchtigungen nicht so stark sind, dass sie in den klinisch auffälligen Bereich fallen.
Die Somatisierungsstörung, Zustände zahlreicher wechselnder körperlicher Beschwerden, die nicht durch medizinische Befunde erklärbar sind, stellt eine häufige und gravierende, dennoch bisher kaum untersuchte psychische Erkrankung dar. Weitgehend unbekannt sind die Ursachen und der Entstehungsprozess. Die Arbeit geht der Frage nach, welche Merkmale für Patienten mit Somatisierungsstörung charakteristisch sind und deshalb als störungsspezifische persönliche Risikofaktoren in Betracht kommen. 110 Patienten in stationärer psycho-therapeutischer Behandlung wurden untersucht. Die Resultate zeigen bei Patienten mit Somatisierungsstörung im Vergleich zu Patienten mit anderen, vorwiegend ängstlich-depressiven psychischen Störungen vermehrte Schwierigkeiten im Erkennen und Benennen von Gefühlen (Alexithymie), eine stärker ausgeprägte Überzeugung, unkalkulierbaren äußeren Einflüssen unterworfen zu sein (fatalistisch-externale Kontrollüberzeugungen) und eine Abweichung im System der hormonellen Stressregulation (Hypothalamus-Hypophysen-Nebennierenrinden-Achsen-Funktion). Weiter ergaben sich Hinweise auf eine Veränderung im Zusammenspiel der Großhirn-Hemisphären (funktionelle hemisphärische Lateralität) bei der Gesamtheit der untersuchten Patienten im Vergleich zu Gesunden. Darüber hinaus konnte eine befriedigende Zuverlässigkeit (Retest-Reliabilität) der verwendeten Methode der Cortisolbestimmung festgestellt werden.
This dissertation investigates the psychological and endocrinological make-up of patients with functional gastrointestinal disorders (FGD). Patients with irritable bowel syndrome and/or non ulcer dyspepsia were compared with healthy control subjects on several parameters: psychological disorders, bodily complaints, depressed mood, anxiety, chronic stress, personality and basal activity, reactivity (hCRH-test) as well as feedback-sensitivity(Dexamethasone-suppression-test) of the hypothalamic-pituitary-adrenocortical (HPA) system. Patients with FGD had different -mostly higher- scores in almost every psychological/psychometric measure. Furthermore, results of the endocrinological studies indicate a down-regulated HPA activity in patients with FGD.
Cortisolprofile, speziell morgentlicher Cortisolaufwachanstieg (CAR), wurden in der ersten Stunde nach dem Erwachen, waehrend Schichtarbeit und freier Tage untersucht (acht Speichelproben pro Schicht). In der Untersuchung waren 102 gesunde Dauertag- und Dauernachtschichtarbeiter (Kontrollgruppen) und fruehere Dauertag und Dauernachtschichtarbeiter die auf ein neues schnell vorwaerts rotierendes Schichtsystem umgestellt wurden, welches Morgen-, Abend- und Nachtschicht beinhaltete. Die Ergebnisse zeigen, dass der CAR sowohl bei Tag- als auch Nachtschichten klar erkennbar ist. Bei den Dauernachtschichtarbeitern scheinen die Cortisolprofile waehrend der Nachtschichten und freien Tage abgeflacht zu sein. Die Cortisolprofile ehemaliger Dauernachtschichtarbeiter die auf das neue, schnell vorwaerts rotierende System umgestellt wurden, zeigen schon nach kurzer Zeit keine Stoerungen mehr. Demgegenueber resultiert die Einfuehrung von Nachtarbeit bei ehemaligen Dauertagschichtarbeitern in einer anfaenglichen Abflachung der Cortisolprofile, die sich jedoch nach kurzer Zeit wieder normalisiert. Zusaetzliche psychologische Frageboegen zur Erschoepfung, chronischem Stress, Effort-Reward Imbalance, Schlafqualitaet und Schlaflaenge wurden begleitend eingesetzt.
Changes in the cardiovascular system are an often described state in eating disorders. Women with anorexia and bulimia nervosa and control persons were studied before and after a treatment in a psychosomatic clinic. Using different methods cardiovascular reactivity was evaluated in rest and during mental stress and exercise. Improvements after treatment were defined by weight gain, an increase of the trijodthyroninlevel and no more purging in the last three weeks. The anorectics showed higher epinephrinlevels than the other women. The cardiovascular parameters demonstrated an increase of parasympathic activity and a decrease of sympathetic activity in eating disorders. However, the reactivities on stressors showed no differences in comparison to the control group. No changes were observed during the treatment apart from the heartrate, which showed a tendency to increase in the last week of therapy. Because the improvements during the therapy were generally small, within the present study it could not be clarified wether the observed alterations are reversible. An increase of the parasympathic activity in autonome regulation of the heart in eating disorders has been demonstrated and the reactivity on stressors appears to be normal.
Die Vertrauens-Trias erlaubt salutogentische Aussagen über personale Ressourcen. Die kulturvergleichende Anwendung der Vertrauens-Trias wurde bei Jugendlichen in drei Ländern (Deutschland, Luxemburg, Spanien) überprüft. Dabei wurde die Konstruktvalidität der Vertrauens-Trias als auch Zusammenhänge zu symptomatischen Belastungen insgesamt bestätigt. Vergleiche zwischen den Kulturen zeigen keine Unterschiede zwischen deutschen und luxemburgischen Schülern, jedoch zwischen deutschen und spanischen Schülern.
Zurzeit werden gesundheitliche Auswirkungen von Mobilfunkstrahlung auf den Menschen kontroversiell diskutiert. Die vorliegende Arbeit untersuchte mögliche Auswirkungen auf Befindlichkeit und psychische Variablen in zwei Studien. Es zeigte sich ein Trend bei einer Variable, es gab jedoch keine signifikanten Effekte. Bei den nicht-experimentellen Befunden wiesen Anrainer von Mobilfunksendeanlagen (self-rater) höhere psychische Belastung auf.
Die vorliegende Arbeit teilt sich in die zwei titelgebenden Themengebiete. Inhalt des ersten Teils dieser Arbeit ist die Untersuchung der Proximität, also einer gewissen Messung der Nähe, von Binomial- und Poisson-Verteilungen. Speziell wird die uniforme Struktur des Totalvariationsabstandes auf der abgeschlossenen Menge aller Binomial- und Poisson-Verteilungen charakterisiert, und zwar mit Hilfe der die Verteilungen eindeutig bestimmenden zugehörigen Erwartungswerte und Varianzen. Insbesondere wird eine obere Abschätzung des Totalvariationsabstandes auf der Menge der Binomial- und Poisson-Verteilungen durch eine entsprechende Funktion der zugehörigen Erwartungswerte und Varianzen angegeben. Der zweite Teil der Arbeit widmet sich Konfidenzintervallen für Durchschnitte von Erfolgswahrscheinlichkeiten. Eine der ersten und bekanntesten Arbeiten zu Konfidenzintervallen von Erfolgswahrscheinlichkeiten ist die von Clopper und Pearson (1934). Im Binomialmodell werden hier bei bekanntem Stichprobenumfang und Konfidenzniveau Konfidenzintervalle für die unbekannte Erfolgswahrscheinlichkeit entwickelt. Betrachtet man bei festem Stichprobenumfang statt einer Binomialverteilung, also dem Bildmaß einer homogenen Bernoulli-Kette unter der Summationsabbildung, das entsprechende Bildmaß einer inhomogenen Bernoulli-Kette, so erhält man eine Bernoulli-Faltung mit den entsprechenden Erfolgswahrscheinlichkeiten. Für das Schätzen der durchschnittlichen Erfolgswahrscheinlichkeit im größeren Bernoulli-Faltungs-Modell sind z. B. die einseitigen Clopper-Pearson-Intervalle im Allgemeinen nicht gültig. Es werden hier optimale einseitige und gültige zweiseitige Konfidenzintervalle für die durchschnittliche Erfolgswahrscheinlichkeit im Bernoulli-Faltungs-Modell entwickelt. Die einseitigen Clopper-Pearson-Intervalle sind im Allgemeinen auch nicht gültig für das Schätzen der Erfolgswahrscheinlichkeit im hypergeometrischen Modell, das ein Teilmodell des Bernoulli-Faltungs-Modells ist. Für das hypergeometrische Modell mit festem Stichprobenumfang und bekannter Urnengröße sind die optimalen einseitigen Konfidenzintervalle bekannt. Bei festem Stichprobenumfang und unbekannter Urnengröße werden aus den im Bernoulli-Faltungs-Modell optimalen Konfidenzintervallen optimale Konfidenzintervalle für das hypergeometrische Modell entwickelt. Außerdem wird der Fall betrachtet, dass eine obere Schranke für die unbekannte Urnengröße gegeben ist.
Intensiv diskutierte Aspekte der Politikwissenschaft heben zunehmend die Bedeutung von Strategiefähigkeit zur erfolgreichen Durchführung von Wahlkämpfen für Parteien hervor. Der Widerspruch der mit den Implikationen der modernen Mediengesellschaft eingehergehenden unterstellten Akteursfähigkeit der Parteien und ihrer kollektiven heterogenen Interessens- und Organisationsvielfalt bleibt dabei bestehen. Die Fokussierung der Parteien auf das Ziel der Stimmenmaximierung bringt unter den sich wandelnden Rahmenbedingungen Veränderungen der Binnenstrukturen mit sich. So diskutieren Parteienforscher seit Längerem die Notwendigkeit eines vierten Parteitypus als Nachfolger von Kirchheimers Volkspartei (1965). Verschiedene dieser Ansätze berücksichtigen primär die Wahlkampffokussierung der Parteien, während andere vor allem auf den gesteigerten Strategiebedarf abzielen. Auch die Wechselwirkungen mit den Erfordernissen der Mediengesellschaft sowie Auswirkungen des gesellschaftlichen Wandels stehen im Vordergrund zahlreicher Untersuchungen. Die Arbeit von Uwe Jun (2004), der mit dem Modell der professionalisierten Medienkommunikationspartei auch die organisatorischen und programmatischen Transformationsaspekte des Parteiwandels beleuchtet, liefert einen bemerkenswerten Beitrag zur Party-Change-Debatte und bietet durch die angeschlossene vergleichende exemplarische Fallstudie eine praxisnahe Einordnung. Die geringe empirische Relevanz, die Jun seinem Parteityp anhand der Untersuchung von SPD und New Labor zwischen 1995 und 2005 bestätigt, soll in dieser Arbeit versucht werden zu relativieren, in dem der Parteiwandel der deutschen Großparteien seit der Wiedervereinigung durch die Untersuchung ihrer Wahlkampffähigkeit aufgezeigt wird. Anhand eines längsschnittlichen Vergleiches der Bundestagswahlkämpfe von SPD und CDU zwischen 1990 und 2013 soll die Plausibilität dieses vierten Parteitypus überprüft werden. Hierdurch soll die Entwicklung der Strategie- und Wahlkampffähigkeit beider Großparteien in den Bundestagswahlkämpfen seit 1990 untersucht und die Ergebnisse miteinander verglichen und in Bezug auf den Parteiwandel eingeordnet werden.
Dass sich Parteien genau wie ihre gesellschaftliche und politische Umwelt im Wandel befinden, ist nicht zu bestreiten und seit Langem viel diskutierter Gegenstand der Parteienforschung. „Niedergangsdiskussion“, Mitgliederschwund, Nicht- und Wechselwähler, Politik- und Parteienverdrossenheit, Kartellisierung und Institutionalisierung von Parteien sind nur einige der in diesem Kontext geläufigen Schlagwörter. Prozesse der Individualisierung, Globalisierung und Mediatisierung führen zu veränderten Rahmenbedingungen, unter denen Parteien sich behaupten müssen. Diese Veränderungen in der äußeren Umwelt wirken sich nachhaltig auf das parteipolitische Binnenleben, auf Organisationsstrukturen und Programmatik aus. Die Parteienforschung hat daher schon vor zwanzig Jahren begonnen, ein typologisches Nachfolgemodell der Volkspartei zu diskutieren, das diesen Wandel berücksichtigt. Verschiedene typologische Konstruktionen von z. B. Panebianco (1988), Katz und Mair (1995) oder von Beyme erfassen (2000) wichtige Facetten des Strukturwandels politischer Parteien und stellen mehrheitlich plausible typologische Konzepte vor, die die Parteien in ihrem Streben nach Wählerstimmen und Regierungsmacht zutreffend charakterisieren. Die Parteienforschung stimmt bezüglich des Endes der Volksparteiära mehrheitlich überein. Bezüglich der Nachfolge konnte sich unter den neueren vorgeschlagenen Typen jedoch kein vierter Typ als verbindliches Leitmodell etablieren. Bei genauerer Betrachtung weichen die in den verschiedenen Ansätzen für einen vierten Parteitypen hervorgehobenen Merkmale (namentlich Professionalisierung des Parteiapparates, die Berufspolitikerdominanz, Verstaatlichung und Kartellbildung sowie die Fixierung auf die Medien) wenig von jüngeren Modellvorschlägen ab und bedürfen daher mehr einer Ergänzung. Die in der Regel mehrdimensionalen entwicklungstypologischen Verlaufstypen setzten seit den 1980er Jahren unterschiedliche Schwerpunkte und warten mit vielen Vorschlägen der Einordnung auf. Einer der jüngsten Ansätze von Uwe Jun aus dem Jahr 2004, der das typologische Konzept der professionalisierten Medienkommunikationspartei einführt, macht deutlich, dass die Diskussion um Gestalt und Ausprägungen des vierten Parteityps noch in vollem Gang und für weitere Vorschläge offen ist – der „richtige“ Typ also noch nicht gefunden wurde. Jun bleibt in seiner Untersuchung den zentralen Transformationsleitfragen nach der Ausgestaltung der Parteiorganisation, der ideologisch-programmatischen Orientierung und der strategisch-elektoralen Wählerorientierung verhaftet und setzt diese Elemente in den Fokus sich wandelnder Kommunikationsstrategien. Die bisher in parteitypologischen Arbeiten mitunter vernachlässigte Komponente der strukturellen Strategiefähigkeit als Grundlage zur Entwicklung ebensolcher Reaktionsstrategien wird bei Jun angestoßen und soll in dieser Arbeit aufgegriffen und vertieft werden.
Der aktuellen Partychange-Diskussion zum Trotz scheint die Annahme, dass Parteien, die sich verstärkt der Handlungslogik der Massenmedien unterwerfen, deren strategischen Anforderungen durch interne Adaptionsverfahren auch dauerhaft gerecht zu werden vermögen, nicht immer zutreffend. Die Veränderungen der Kommunikationsstrategien als Reaktion auf gesamtgesellschaftliche Wandlungsprozesse stehen zwar im Zentrum der Professionalisierungsbemühungen der politischen Akteure, bleiben aber in ihrer Wirkung eingeschränkt. Wenngleich das Wissen in den Parteien um die Notwendigkeiten (medialer) Strategiefähigkeit besteht und die Parteien hierauf mit Professionalisierung, organisatorischen und programmatischen Anpassungsleistungen und der Herausbildung strategischer Zentren reagieren, so ist mediengerechtes strategisches Agieren noch lange keine natürliche Kernkompetenz der Parteien. Vor allem in Wahlkampfzeiten, die aufgrund abnehmender Parteibindungen und zunehmender Wählervolatilität für die Parteien zum eigentlich zentralen Moment der Parteiendemokratie werden, wird mediengerechtes Handeln zum wesentlichen Erfolgsfaktor. Strategiefähigkeit wird hierbei zur entscheidenden Voraussetzung und scheint zudem in diesen Phasen von den Parteien erfolgreicher umgesetzt zu werden als im normalen politischen Alltag. Die wahlstrategische Komponente findet in Juns typologischer Konstruktion wenig Beachtung und soll in dieser Arbeit daher als ergänzendes Element hinzugefügt werden. Arbeitshypothese Die beiden deutschen Großparteien berufen sich auf unterschiedliche Entstehungsgeschichten, die sich bis in die Gegenwart auf die Mitglieder-, Issue- und Organisationsstrukturen von SPD und CDU auswirken und die Parteien in ihren Anpassungsleistungen an die sich wandelnde Gesellschaft beeinflussen. Beide Parteien versuchen, auf die veränderten sozialen und politischen Rahmenbedingungen und den daraus resultierenden Bedeutungszuwachs von politischer Kommunikationsplanung mit einem erhöhten Maß an Strategiefähigkeit und kommunikativer Kompetenz zu reagieren. Diese Entwicklung tritt seit der deutschen Wiedervereinigung umso stärker in Augenschein, als dass nach 1990 die Bindekraft der Volksparteien nochmals nachließ, sodass die Parteien sich zunehmend gezwungen sehen, die „lose verkoppelten Anarchien“ in wahlstrategische Medienkommunikationsparteien zu transformieren. Diesen vierten Parteityp kennzeichnet vor allem die zunehmende Bemühung um Strategiefähigkeit, die mittels Organisationsstrukturen und programmatischer Anpassungsleistungen die Effizienz der elektoralen Ausrichtung verbessern soll. Insgesamt geht die Party-Change-Forschung davon aus, dass die Parteien sich zunehmend angleichen. Dies gilt es in dieser Studie zu überprüfen. Unter Berücksichtigung unterschiedlicher Entwicklungspfade kann vermutet werden, dass auch die Transformationsprozesse bei SPD und CDU in unterschiedlicher Weise verlaufen. Wenngleich die SPD über einen höheren Strategiebedarf und die größere Innovationsbereitschaft zu verfügen scheint, werden auf Seiten der Union potentiell strategiefähigere Strukturen vermutet, die die erfolgreiche Umsetzung von Wahlkampfstrategien erleichtern. Die historische Entwicklung und der Aspekt der Historizität spielen in diesem Kontext eine Rolle.
Zusätzlich spielen individuelle Führungspersönlichkeiten eine zentrale Rolle in innerparteilichen Transformationsprozessen, welche für die Ausprägung strategiefähiger Strukturen oftmals von größerer Bedeutung sind als institutionalisierte Strukturen. Im Vordergrund steht die Untersuchung des Parteiwandels anhand der Veränderung der Kommunikationsstrategien der Parteien im Allgemeinen sowie der Strategiefähigkeit in Wahlkämpfen im Besonderen, da diese als zentrale Merkmale für den vierten Parteityp in Anlehnung an die Professionelle Medienkommunikationspartei (Jun 2004) gewertet werden sollen. Strategiefähigkeit soll dabei anhand der Kriterien des Umgangs der Parteien mit Programmatik, Organisation und externen Einflussfaktoren in Wahlkämpfen operationalisiert werden. Die Analyse untersucht sowohl das Handeln einzelner Personen wie auch die Rolle der Partei als Gesamtorganisation. Die Arbeit besteht aus zehn Kapiteln und gliedert sich in zwei Blöcke: einen theoretisch konzeptionellen Teil, der die in der Perspektive dieser Arbeit zentralen Grundlagen und Rahmenbedingungen zusammenführt sowie die sich daran anschließende Untersuchung der Konzeption und Implementation von Kommunikationskampagnen im Wahlkampf seit 1990. Das aktuell in die politikwissenschaftliche Diskussion eingebrachte Feld der politischen Strategiefähigkeit (Raschke/Tils 2007) wird in ausführlicher theoretischer Grundlegung bisher zwar mit den Implikationen der Medienkommunikation und damit einhergehend auch den organisatorischen und programmatischen Strukturmerkmalen der Parteien verknüpft, diese erfolgte allerdings oft ohne vertiefte Berücksichtigung des Parteiwandels. Dies soll in diesem Beitrag daher versucht werden. Der Diskursanalyse des Strategiebegriffes in Wahlkampfsituationen folgt die detaillierte Darstellung der drei Operationalisierungsparameter, die in die Festlegung des Parteityps münden. Die Diskussion idealtypischer Wahlkampfmodelle als theoretischer Bezugsrahmen für die Bewertung der Wahlkampagnen ergänzt den theoretisch-konzeptionellen Bezugsrahmen. Die insgesamt in der Literatur in ihren Ausführungen oftmals normativ gestalteten Darstellungen idealtypischer politischer Strategie sollen im letzten Teil der Arbeit auf ihre Umsetzbarkeit im parteipolitischen Alltag überprüft werden und dies nicht nur anhand einzelner, mit einander nicht in Zusammenhang stehender Ereignisse, sondern anhand der sich periodisch unter vergleichbaren Bedingungen wiederholenden Wahlkämpfe. Dafür werden die jeweiligen Ausgangs- und Rahmenbedingungen der einzelnen Wahlkämpfe sowie die zuvor dargelegten Elemente professionalisierter Wahlkampagnen für die Wahlkampagnen von SPD und CDU seit 1990 dargestellt. Aus diesen Gegenüberstellungen soll im Anschluss der längsschnittliche Vergleich der Strategiefähigkeit und Kommunikationskompetenz von SPD und CDU abgeleitet werden
Das Ziel der vorliegenden Arbeit besteht in der Formulierung eines integrativen Rahmenmodells, das sowohl motivierende, als auch demotivierende Merkmale der Arbeitstätigkeit beinhaltet. Dieses Modell wird auf der Grundlage des Job Characteristics Models von Hackman und Oldham (1976, 1980) entwickelt und bei personenbezogenen Tätigkeiten angewandt. Ausgehend von handlungsregulationstheoretischen Überlegungen wird das Modell um weitere Tätigkeitsmerkmale erweitert. Dabei wird im ersten Schritt davon ausgegangen, dass neben den bereits erforschten negativen Konsequenzen auch motivierende Aspekte der Emotionsarbeit existieren und das Modell um dieses Tätigkeitsmerkmal erweitert. Im nächsten Schritt wird das Modell um demotivierende Aufgabenmerkmale erweitert, nämlich um die Stressoren Emotionale Dissonanz und Multitasking. Die dritte und letzte Erweiterung bezieht sich auf die Integration von Stressreaktionen in das Modell. Es wird davon ausgegangen, dass es sich um sogenannte Kontextvariablen handelt, die die Beziehung zwischen den Tätigkeitsmerkmalen und Ergebnisvariablen (Arbeitszufriedenheit, intrinsische Motivation und affektives Commitment) moderieren. Die Hypothesen, die sich aus dem postulierten Modell ergeben, werden in drei querschnittlichen Fragebogenstudien anhand von unterschiedlichen Stichproben aus dem Dienstleistungsbereich überprüft (Call Center-Angestellte N=114, Lehrer N=146, Verkäufer N=304). Die Annahmen des Modells lassen sich größtenteils bestätigen. Das gilt vor allem für die Erweiterungen auf der Seite der Tätigkeitsmerkmale: motivierende Aspekte der Emotionsarbeit und eine demotivierende Wirkung der Emotionalen Dissonanz konnten nachgewiesen werden. Nicht ganz so eindeutig fällt die Befundlage zu den angenommenen Moderatoreffekten aus. Zwar konnten zahlreiche Moderatoreffekte in allen Studien aufgedeckt werden, jedoch fiel die Richtung der Moderatoreffekte in der Lehrerstudie auf die Beziehung zwischen den motivierenden Tätigkeitsmerkmalen und den arbeitsbezogenen Einstellungen hypothesenkonträr aus. In der abschließenden Diskussion wird u.a. nach Begründungen für diese Befundlage gesucht. Zusätzlich werden Implikationen für die zukünftige Forschung und für den weiteren Einsatz des postulierten Rahmenmodells gegeben. Die Arbeit schließt mit Implikationen für die Praxis im Dienstleistungsbereich ab.
Improving market opportunities for local public transportation requires marketing strategies which put the customer in the centre of business considerations. The customer is the "source of wealth", for he or she provides for turnover, income and market dynamics. This context is the crucial market-strategy approach in the public transport sector. Therefore the most important element in the strategic marketing approach of customer orientation in public transportation is not only to design a self-contained system of marketing measures for convincing potential customers of the advantages of the product, but also to create "product quality" in order to gain "customer confidence". The key point of the concept of a customer-oriented "public transport/ation supply structure" is to develop a simplified method of estimating the market potential in order to confirm or verify sufficient demand effects that are predominantly based on traffic corridors burdened with heavy car traffic. Correspondingly, a public transport/ation supply structure is developed which will offer the customer extensive and therefore attractive access to public transport. Applying this attractive public transport/ation system enables the use of "economic potentials" for financing public transport outside urban agglomerations, which is only made possible by a consistent strategic marketing concept of customer orientation.
Diese im Frühjahr 2004 fertiggestellte Studie möchte das Wesen der postmodernen Kriegsführung aus einem historischen Ansatz heraus erklären. Denn um verstehen zu können, was den postmodernen Krieg charakterisiert, ist es im Rahmen einer komplexen Kriegstheorie nötig, das Phänomen Krieg und die Auswirkungen technologischer Innovationen aus einer historischen Perspektive mit einer Kombination aus Kriegs- (u.a. Toffler (Dreiwellenmodell), Sun Tzu, Clausewitz) und Medientheorien (u.a. McLuhan, Virilio, Boyd, Bucher) zu erfassen. Diese Analyse möchte darauf aufbauend folgende zentrale Fragen beantworten: Welche Potentiale bieten die Kommunikations- und Informationsverarbeitungstechnologien der postmodernen Informationsgesellschaft den Streitkräften zu Beginn des 21. Jahrhunderts? Wie verändert sich das Verständnis von Krieg unter dem Einfluss dieser Möglichkeiten? Wie verändert sich das Verhältnis von Technik und Strategie, bzw. Krieg und Politik unter dem Einfluss dieser technologischen Innovationen? Welche Rolle werden die bisher zentralen Akteure, die Nationalstaaten, unter den Vorzeichen des postmodernen Informationskrieges spielen? Und bieten diese neuen Technologien Lösungsansätze für die zu Beginn des 21. Jahrhunderts absehbaren Konflikte?
Obwohl bekannt ist, dass Fusionen alles andere als risikoarm sind, bleibt das häufig zentrale, kritische Thema "Umgang mit Widerständen bei der Integration neuer Mitarbeiter nach Fusionen" bislang in der psychologischen Forschung unbeachtet. Zudem fehlen Konzepte, die als Basis für eine erfolgreiche Interventionsplanung zur Integration neuer Mitarbeiter genutzt werden können. Ziel dieser Arbeit ist es deshalb, grundlegende Handlungsstrategien zum Umgang mit Widerständen bei der Integration neuer Mitarbeiter zu erheben, zu beschreiben und in einem letzten Schritt zusammenfassend mit den bereits vorliegenden Forschungsbefunden zu diskutieren. Hierzu wurde handlungstheoretisch fundiert ein qualitatives Struktur-Lege-Verfahren ausgewählt, mit dessen Hilfe relevantes Expertenwissen erhoben werden kann, nämlich eine für diese Untersuchung modifizierte Variante des Action Strategy Mappings (ASM) von Scheffler & Antoni (2001). So gelingt es, mentale Modelle von Handlungsstrategien unabhängig von einer konkreten Untersuchungssituation zu erheben und direkt zu visualisieren. In dieser Arbeit gelingt es, empirische Belege zu finden, dass Berater unterschiedliche Handlungsstrategien für verschiedene Phasen des Fusionsprozesses entwickeln. Dementsprechend erfolgt auch die Zusammenfassung der einzelnen Expertennetze zu Modalstrukturen jeweils getrennt für die drei vorab erarbeiteten Zeitpunkte, die allgemeinen Modellen zum Veränderungsmanagement entsprechen. Als Ergebnis dieser Analysen werden generalisierte, modale Handlungsstrukturen für den Zeitraum vor Bekannt werden des Unternehmenszusammenschlusses, für die ersten zwei Monate sowie für das erste Jahr berechnet, dargestellt und in Zusammenhang mit den bisherigen Forschungsergebnissen dieses Themengebietes diskutiert. Diese Arbeit liefert einen wichtigen Beitrag zur konzeptionellen Erhellung dieses Themengebiets "Umgang mit Widerständen bei der Integration neuer Mitarbeiter nach Unternehmenszusammenschlüssen" und zwar sowohl im Hinblick auf relevante Elemente als auch auf deren Vernetzung untereinander. Die erhobenen modalen Handlungsstrukturen können als Basis bei der Qualifizierung von Post-Deal-Managern dienen, um diesen neben konkreten Handlungsempfehlungen ein kognitives Interventionsmodell zum Umgang mit Widerständen bei der Integration neuer Mitarbeiter nach Fusionen anzubieten.
In 40 Referenzgebieten in Schleswig-Holstein sind im Zeitraum zwischen 1995 und 2002 Feldhasendichten (Lepus europaeus) mittels Scheinwerfertaxation ermittelt worden. Parallel dazu wurden in den durchschnittlich etwa 1000 ha großen Gebieten die Geheckdichten des Rotfuchses (Vulpes vulpes) sowie die Brutpaardichten des Mäuse-bussards (Buteo buteo) bestimmt. Die Feldhasendichten variierten im Frühjahr zwischen 1,2 und 85 Hasen/100 ha und im Herbst zwischen 5 und 127 Hasen/100 ha. Zur Analyse eines potentiellen Einflusses der landschaftlichen Gegebenheiten auf die Feldhasenpopulationen erfolgte eine digitale Erfassung der linearen Landschaftselemente. Außerdem wurden Flächennutzungskartierungen zur Feststellung der Ackernutzung durchgeführt. Zur Bestimmung des Klimaeinflusses wurden Temperatur- und Niederschlagswerte zu Dekadenmittelwerten zusammengefasst und mit der durchschnittlichen Höhe der Nettore-produktionsleistung und der Populationsdichte korreliert. Während die klimatischen Einflüsse nicht die Populationsdichte oder die mittlere Zuwachsleistung bestimmen, diktieren die Niederschlagssummen insbesondere der letzten beiden März- und der ersten beiden Aprildekaden die dichteunabhängige, annuelle Ausprägung des Nettozuwachses. Landschaftsparameter konnten nicht monokausal in Beziehung zur Konstitution der Hasenpopulation gesetzt werden, während sich enge Beziehungen mit negativem Vorzeichen zwischen dem Rotfuchsvorkommen und der Dichte des Feldhasen ergaben (p<0,01). In einer Multifaktorenanalyse wurde als dominierende Einflussgröße für das derzeitige Feldhasenvorkommen der Rotfuchs bestimmt. Die Anbauvielfalt in der Landwirtschaft scheint einen positiven Einfluss auf den langjährigen Reproduktionserfolg zu besitzen, wohingegen die Zahl der Mutterbaue des Rotfuchses eine höhere Reproduktionsleistung zu vereiteln scheint. Die Jagd auf den Feldhasen wurde als Form der nachhaltigen Nutzung herausgestellt. Die jaglich induzierte Sterblichkeit stellt eine teilweise kompensatorische Mortalität dar.
Die Europäische Union hat seit Ende des Ost-West-Konflikts 1989/90 einen dynamischen Ausbau ihrer vertraglichen und institutionellen Fundamente erfahren. Mit diesem Prozess ging zugleich eine enge Verflechtung von europäischen und nationalen Entscheidungsprozessen und politischen Arenen einher. So entwickelte sich ein zunehmend dynamischer werdendes Interaktionsverhältnis zwischen Europäischer Union, nationaler Europapolitik und Innenpolitik. Ausgehend von der These, dass die deutsche Europapolitik seit der Zäsur 1989/90 zunehmend pragmatischer, kontroverser und somit normaler geworden ist, untersucht die Arbeit diese Veränderung der deutschen Europapolitik am Beispiel zweier qualitativer Fallstudien: 1.Die Verhandlungen zum dritten mehrjährigen Finanzrahmen für die Jahre 2000 bis 2006, die sogenannte Agenda 2000. Für Deutschland als größtem Beitragszahler in der EU waren die Finanzverhandlungen von immenser Bedeutung. Denn mit der finanziellen Ausstattung der beiden größten Ausgabenblöcken, der europäischen Kohäsionspolitik und der Gemeinsamen Agrarpolitik, waren zentrale Grundsatzfragen der deutschen Europapolitik und der Rolle Deutschlands in der EU verbunden, wie zum Beispiel das bilaterale Verhältnis zum französischen Partner. 2.Der Prozess der Osterweiterung der Europäischen Union seit dem Ende des Ost-West-Gegensatzes 1989/90 von der Assoziierung der Reformstaaten in Mittel- und Osteuropa bis zum Beitritt der acht neuen Mitglieder am 1. Mai 2004. Die Ost-Erweiterung der EU war eine der wichtigsten Grundsatzentscheidungen der deutschen Europapolitik. Dieser fast 15 Jahre dauernde Prozess von 1989 bis 2004 wird in einer minuziösen Längsschnitt-Analyse nachgezeichnet und die spezifischen Interessen der zentralen politischen und gesellschaftlichen Akteure der deutschen Politik detailliert analysiert.Beide Entscheidungsprozesse beeinflussten nahezu alle Politikfelder und hatten weitreichende Konsequenzen für die innen-, wirtschafts- und sozialpolitischen Strukturen der Bundesrepublik. Damit erforderten sie sowohl eine grundsätzliche und strategische Positionierungen der deutschen Europapolitik als auch kurzfristige, auf rationalen Kosten-Nutzen-Abwägungen basierende Festlegungen zu konkreten Einzelfragen im Verlauf der Entscheidungsprozesse. Die beiden umfangreichen Fallstudien bestätigen, dass die wechselseitige Interaktion zwischen innenpolitischen Auseinandersetzungen und europäischen Entscheidungsprozessen sich verdichtet hat. Europäische Entscheidungsprozesse werden für innenpolitische Auseinandersetzungen und Debatten genutzt und häufig auch parteipolitisch polarisiert. Die Europapolitik wird zu einem Feld pragmatischer Kosten-Nutzen-Abwägungen aus begrenzten innenpolitischen oder gar parteitaktischen Kalkülen. Die Europapolitik wird unter innenpolitischen Vorzeichen politisiert und polarisiert.
Die Fragestellung der Dissertation lautet: Welche Rolle spielten die politische Repräsentation, ihr Wandel und die Auseinandersetzung um die Teilhabe an ihr für das Entstehen einer gemeinsamen Vorstellung der Nation? Diese Frage kombiniert ein historisches und ein politikwissenschaftliches Interesse. Auf Seiten der Geschichtswissenschaft ist die Dissertation Teil des Forschungsprojekts "Nationenbildung und Demokratie" an der Universität Luxemburg. Auf Seiten der Politikwissenschaft ist sie im Bereich der Politischen Theorie angesiedelt. Im Anschluss an das abgeschlossene Forschungsprojekt "Formen und Funktionsweisen politischer Repräsentation von Fremden und Armen" im Sonderforschungsbereich 600 an der Universität Trier sind dabei primär repräsentationstheoretische Fragen von Interesse. Das Fallbeispiel Luxemburg erlaubt in diesem Zusammenhang einen neuen Blick auf Probleme, die in der Literatur bislang eher im französischen oder angelsächsischen Kontext diskutiert werden. In Auseinandersetzung mit gängigen Theorien der Nation wird in der Arbeit zunächst argumentiert, dass die Nation weder als ethnische Identität noch als Willenseinheit angemessen verstanden werden kann. Diese Überlegungen münden in die These, dass die erfolgreiche Verhandlung von Konflikten auf einer gemeinsamen politischen Bühne die Vorstellung eines gemeinsamen Schicksals mit erzeugen kann. Diese Vermutung wird in einem zweiten Schritt demokratieheoretisch begründet. Das Volk der modernen Demokratie ist kein einheitliches Subjekt, das einfach an die Stelle des alten Souveräns treten könnte. Zum einen verunmöglicht die Tatsache, dass die Demokratie durch multiple Zeitlichkeiten konstituiert ist, ihre Reduktion auf einen ursprünglichen Moment der Präsenz. Zum anderen ist der Demos selbst von Differenzen durchzogen. Doch indem gesellschaftliche Konflikte auf der Bühne der Macht symbolisch dargestellt werden, verlagert Repräsentation den Konflikt in ein politisches Kontinuum, auf das alle Bürger in gleicher Weise bezogen sind. Die Bürger erfahren, beurteilen und unterstellen sich wechselseitig als Teilnehmer an demselben Gemeinwesen, auch wenn sie unterschiedlicher Meinung sind. Diese These wird in einem dritten Schritt anhand einer Genealogie der verschiedenen Versuche " von Hobbes und Rousseau über Sieyès, Hegel und Proudhon bis zu Carl Schmitt und Hans Kelsen ", den Demos und den korrekten Modus seiner Vergegenwärtigung zu identifizieren, historisch fundiert. Das empirische Fallbeispiel steht im Zentrum des zweiten Teils der Arbeit. Zunächst wird das Entstehen einer landesweiten politischen Öffentlichkeit herausgearbeitet. In der Folge der Protest- und Petitionsbewegung von 1848 wurde das Parlament zur politischen Bühne, auf der vor aller Augen öffentliche Angelegenheiten diskutiert wurden. Die anschließende Entwicklung hin zum allgemeinen Wahlrecht führte zu einem qualitativen Wandel des Politischen. Das Wahlrecht nahm den Charakter eines Rechts an, das jedem Staatsbürger als solchem zustand, die einzig legitime Grenze des neuen Raums der Gleichheit wurde durch die Nation gestiftet. Die vorgestellte Gemeinschaft der Staatsbürger verselbstständigte sich dabei auch gegenüber dem Fürsten und trat zuletzt an dessen Stelle. Statt als über der Gesellschaft und den Bürgern thronende Hüterin der staatlichen Einheit wurde die Monarchie seit 1918 im Namen des Volkswillens begründet. Doch in demselben Augenblick, in dem das Volk als Gemeinschaft der Gleichen zum neuen Souverän erklärt wurde, wurden auch gesellschaftliche Konfliktlinien politisiert und durch ein landesweites Parteiensystem dauerhaft abgebildet. Durch die repräsentative Politisierung des Konflikts wurde die Frage, was denn das Gemeinsame sei, das sich durch die verschiedenen Teilungen hindurch zeige, dramatisiert. Anhand von zwei Fallbeispielen wird in der Arbeit gezeigt, wie auch diejenigen, die sich als Repräsentanten der Arbeiterklasse verstanden, im Kampf um Hegemonie auf eine nationale Rhetorik zurückgriffen und ein Narrativ der Nation als Solidaritätsgemeinschaft entwarfen. Zusammenfassend kommt die Dissertation zum Ergebnis, dass die Erfahrung der Politisierung und der öffentlichen Auseinandersetzung um politische Teilhabe innerhalb bestehender, ursprünglich aber keineswegs national oder demokratisch legitimierter Institutionen maßgeblich dazu beitrug, dass ein großer Teil der Bevölkerung Luxemburgs sich nach und nach als Teil einer vorgestellten Gemeinschaft verstand.
Die Untersuchung beschäftigt sich mit den Prozessen und Mechanismen, die dem NATO-Beitritt Polens zugrunde liegen, insbesondere mit den Gründen für die Transformation der zivil-militärischen Beziehungen in Polen. Die Demokratisierung der zivil-militärischen Beziehungen war eines der Hauptkriterien für den Beitritt Polens in die NATO. rnVor diesem Hintergrund geht die Arbeit der Frage nach, ob nachzuweisen ist, dass der Einfluss der NATO primär für die Demokratisierung der zivil-militärischen Beziehungen Polens verantwortlich ist. Dabei stützt sich die Arbeit auf den aktuellen Forschungsstand der Theorien internationaler Sozialisation, deren Ziel es ist, die Prozesse und Mechanismen der Normübernahme von Staaten zu erklären. Der theoretische Rahmen wurde in ein Forschungsdesign eingebettet, das vielfältige Methoden für die detaillierte empirische Analyse einbezieht. Ergänzend wurden alternative und ergänzende Erklärungen überprüft, die nicht durch die Theorie abgedeckt werden. Entgegen der vorherrschenden Meinung in der Fachliteratur kommt die Untersuchung zu dem Ergebnis, dass die NATO nicht primär für die Sozialisation und damit Demokratisierung der zivil-militärischen Beziehungen in Polen verantwortlich ist. Polen ist erfolgreich in der Demokratisierung seiner zivil-militärischen Beziehungen, jedoch ist die NATO nicht erfolgreich in der Sozialisation Polens in diesem Bereich, sondern eher darin, den Demokratisierungsprozess in Polen mit Erfahrung und Expertise zu flankieren. Dieser Prozess wurde maßgeblich innenpolitisch und durch Akteure in Polen angestoßen, angetrieben, getragen und schlussendlich entschieden. Obgleich die NATO das Beitrittskriterium vorgab und die polnischen Akteure durchaus begleitete, kann darüber hinaus der Einfluss der NATO als nicht maßgeblich bewertet werden. Im Gegenteil, die Ergebnisse zeigen, dass es nicht das Ziel der NATO war, die Prozesse direkt zu beeinflussen oder zu steuern, sondern vielmehr, den Transformationsprozess der zivil-militärischen Beziehungen in Polen, insbesondere die praktische Umsetzung, durch Expertise und Erfahrungen zu begleiten und eigene Lernprozesse anzustoßen.
Eine Vielzahl hydrophiler Xenobiotika wird in kommunalen Kläranlagen nur unvollständig abgebaut und stellt ein potentielles Risiko für aquatische Ökosysteme dar. Die Eliminationsleistung von Kläranlagen hat sich deshalb während des letzten Jahrzehnts zu einem Schwerpunkt in der aquatischen Umweltchemie entwickelt. Die vorliegende Arbeit untersucht in diesem Zusammenhang die Variation biologischer Abbauleistungen kommunaler Kläranlagen für polare Xenobiotika. Es soll überprüft werden, ob die Abbauleistung von Xenobiotika mit derer klassischer Nährstoffe in Beziehung gesetzt werden kann. Als zusätzlicher Faktor zur Erklärung von unterschiedlichen Eliminationsleistungen wurden Probenahmestrategien hinsichtlich der Erstellung von Massenbilanzen analysiert. Fünf Pharmaka sowie drei Aminopolycarbonsäuren wurden als Testsubstanzen ausgewählt. Diese umfassen ein Spektrum an mikrobiologischer Abbaubarkeit bedingt durch die Reaktivität ihrer unterschiedlichen molekularen Strukturen. Ein kombinierter Versuchsaufbau aus Respirometrie und Abbautests ermöglichte, neben der Bestimmung von Abbaukinetiken, auch die Charakterisierung von Belebtschlamm. Der Einfluss von Mischungsprozessen auf die Abbauleistungen von Kläranlagen wurde mittels hydraulischer Aufenthaltszeitverteilungen modelliert. Darauf basierend wurde eine Methode zur Beurteilung und Erstellung von Eliminationsleistungen aus Zulauf-Ablauf Massenbilanzen entwickelt. Die Resultate zeigen deutliche Unterschiede in den Belebtschlammcharakteristika und dem Abbaupotential von Xenobiotika zwischen verschiedenen Kläranlagen. Die aktive heterotrophe Biomasse wurde als steuernder Faktor für die Biodegradation der untersuchten leicht und moderat abbaubaren Xenobiotika identifiziert. Dies kann als Hinweis auf kometabolische Abbauprozesse durch unspezifische Enzymaktivitäten gewertet werden. Die beobachtete Abnahme der Eliminationsleistung mit steigendem Schlammalter konnte anhand modifizierter Kinetiken pseudo-erster Ordnung beschrieben werden. Die Modellierung von Mischungsprozessen mittels hydraulischer Aufenthaltszeitverteilungen macht deutlich, mit welcher Unsicherheit Massenbilanzen in Kläranlagen behaftet sind. Die Ergebnisse demonstrieren, dass dies vor allem auf inadäquate Probenahmestrategien zurückzuführen ist. Insbesondere Massenbilanzen auf der Basis von kurzen Probenahmezeiträumen und 24-h Mischproben resultieren in fehlerhafte Eliminationsraten. Der vorgestellte Ansatz benutzt die Verteilungen von Aufenthaltszeiten als Leitprinzip, um Zulauf- und Ablauffrachten zueinander in Beziehung zu setzen. Die Methode kann als Grundlage zur akkuraten Schätzung von Eliminationsleistungen herangezogen werden und bietet eine Erklärung für das Vorkommen negativer Eliminationsleistungen.
Die Dissertation untersucht die Vorstellungen über „kranke Pflanzen“ in der griechisch-römischen Antike. Ziel der Arbeit ist es, diese anhand der Schriftzeugnisse von Homer bis Boethius am Anfang des 6. Jahrhunderts darzustellen. Die Darstellung der Phytomedizin der Antike erfolgt dabei in vier Themenkomplexen: in einem lexikalischen Teil werden die konkreten Schäden und der Umgang mit ihnen aufgezeigt; in der Folge werden deren Stellenwert in wissenschaftlicher, gesellschaftlicher und poetologischer Hinsicht beleuchtet. Kern der Arbeit ist die systematische Darstellung der antiken phytomedizinischen Kenntnisse zu den einzelnen Pflanzenkrankheiten und sonstigen Schadfaktoren sowie eine Darstellung der in der antiken Literatur verankerten Gegenmaßnahmen.
Die Dissertation zur "Pfälzischen Phraseologie" greift in den letzten Jahren für den deutschsprachigen Raum mehrfach thematisierte Forschungsdesiderate der (dialektalen) Phraseologie und Lexikographie auf: die genauere Analyse des phraseologischen Systems eines Dialekts sowie die Darstellung von Phraseologismen in Dialektwörterbüchern. In der vorliegenden Arbeit wird hierfür das Pfälzische ausgewählt, da es bisher in phraseologischer Hinsicht kaum untersucht wurde. Die Studie erweitert insofern die wenigen bereits vorhandenen Analysen dialektaler Phraseologie um eine zusätzliche Regionalsprache. Ziel der Arbeit ist es, die Besonderheiten der pfälzischen Phraseologie auf lexikographischer, kultureller und stilistisch-pragmatischer Ebene herauszuarbeiten. Die Phraseologie des Pfälzischen wird somit in dieser Studie unter verschiedenen Gesichtspunkten betrachtet und analysiert. In einem ersten Schritt wird das zugrunde gelegte Korpus, eines der großlandschaftlichen Dialektwörterbücher, das Pfälzische Wörterbuch, aus Sicht der enthaltenen Phraseologiekomponenten unter makro- und mikrostrukturellen Gesichtspunkten ausgewertet und beurteilt. Dadurch können detaillierte Aussagen zur Repräsentation der Phraseologie innerhalb eines Wörterbuchtypus gewonnen werden, wie sie bisher nur in Ansätzen und für andere Dialektwörterbücher vorhanden sind. Außerdem wird die Verwendbarkeit von Dialektwörterbüchern als Datengrundlage für die dialektale Phraseologie diskutiert. Die aus dem Wörterbuch erhobene Materialsammlung von Phrasemen bildet die Grundlage für den zweiten Hauptteil der Arbeit, die genauere Analyse der pfälzischen Phraseologie unter verschiedenen Aspekten (v. a. der sprachlich-kulturellen Wissensstrukturen, die die bildliche Motivation der Phraseologismen bestimmen, und die damit eng verbundenen stilistisch-pragmatischen Kennzeichen). Hierbei können innerhalb des pfälzischen phraseologischen Inventars unterschiedliche Merkmale herausgestellt werden: Unter anderem Übereinstimmungen mit der Phraseologie des Standarddeutschen und z. T. gesamteuropäische Bezüge, aber auch Eigenständiges in einzelnen Subkategorien.
Ziel der vorliegenden Forschungsarbeit war es, den Einfluss des dispositionellen Bedürfnisses nach kognitiver Geschlossenheit (NCC) auf Entscheidungen unter Unsicherheit zu untersuchen. Es wurde vorhergesagt, dass NCC Entscheidungsphänomene moderiert, die sich durch unterschiedliche Ausmaße an Unsicherheit kennzeichnen. Um diese Annahme zu testen, wurden im Rahmen dreier Studien klassische Entscheidungsprobleme vorgegeben, die eine Wahl zwischen Entscheidungsalternativen mit unterschiedlichen Ausmaßen an Unsicherheit, aber gleichem Erwartungswert erforderten. Studien 1 bis 3 untersuchten den Einfluss des NCC auf den fundamentalen Ambiguitätsaversionseffekt im Ellsberg-Paradigma (Ellsberg, 1961). Hierzu wurde eine Adaption des klassischen Zwei-Farben-Urnenproblems vorgegeben, in dem eine Wahl zwischen einer Urne mit bekanntem Risiko und einer ambiguen Urne getroffen werden musste. Hypothesenkonform erwies sich NCC als signifikanter Prädiktor der Urnenwahl. Einzelanalysen zeigten, dass der Ambiguitätsaversionseffekt, der als Präferenz der bekannten (versus der ambiguen) Urne definiert ist, nur in der Gruppe mit hohem NCC auftrat. In der Gruppe mit niedrigem NCC zeigte sich keine systematische Präferenz. Dieser Effekt konnte in allen drei Studien nachgewiesen werden und erwies sich somit als besonders robust und reliabel. Zudem wurde in der dritten Studie der Einfluss des NCC auf Risikoframingeffekte im Asian-Disease-Paradigma untersucht. Hierbei mussten sich die Teilnehmer und Teilnehmerinnen zwischen einer sicheren und einer riskanten Option entscheiden, die in zwei kontextuellen Bedingungen dargeboten wurden: einem Gewinnframe und einem Verlustframe. Die Ergebnisse dieser Studie zeigten, dass sich Individuen mit einem hohen und einem niedrigen NCC in ihren Präferenzen in Abhängigkeit vom jeweiligen Problemframe unterschieden. In der Gruppe mit einem hohen NCC zeigte sich unter Gewinnframing eine starke Präferenz der sicheren Alternative (Risikovermeidung), wohingegen unter Verlustframing keine Option bevorzugt wurde. Individuen mit einem niedrigen NCC wiesen hingegen unter Gewinnframing keine systematische Präferenz auf, wohingegen sie unter Verlustframing stark die riskante Option bevorzugten. Zudem zeigte eine Betrachtung des Verhaltens über die untersuchten Entscheidungsprobleme hinweg, dass Individuen mit einer starken Ausprägung auf dieser Variablen dazu neigten, sich über die untersuchten Entscheidungssituationen hinweg konsistent zu verhalten. Insgesamt unterstützen die Ergebnisse die Annahme, dass NCC eine Persönlichkeitsvariable darstellt, die Entscheidungsverhalten unter Unsicherheit bedeutsam beeinflusst. Implikationen und Konsequenzen dieser Ergebnisse werden diskutiert.
During the twelve years of the National Socialist regime in Germany, the relationship between the writers who left the country as emigrants and those who decided to stay was characterized by latent tensions. The former claimed that they were the only active literary opposition to stand up against Nazi Germany while the latter insisted that they impartially witnessed, in an attitude of passive hostility, what happened in the country. This tense relationship grew into an open dispute after World War II. It has been extensively outlined that this controversy has significantly influenced the development of German Literary theory in the post-war-period. Today, we should approach the writings of German exiles and "inner emigration" from a more rational perspective, ceasing to see this era only in the light of a subsequent literary controversy. The PhD thesis presented here aims at developing a set of such rational evaluation parameters which may serve to better understand selected writings of authors from exile and "inner emigration" in the historical context of National Socialism. An in-depth review of three novels (Werner Bergengruen, Der Großtyrann und das Gericht; Ernst Glaeser, der letzte Zivilist; Ernst Weiß, Der Augenzeuge) will analyze to which extend an omnipresent Nazi propaganda and a strong NS symbolism influenced the work of these three authors - regardless of where they wrote, in their mother country or from exile`s perspective.
In der Arbeit wird untersucht, wie die EU mit Diversität umgeht, wie sich entsprechende Maßnahmen in der Personalpolitik der verschiedenen europäischen Behörden niederschlägt und welche Auswirkungen dies hat. Es wird herausgearbeitet, dass die EU als Institution einige Spezifika aufweist, die diese Frage beeinflussen und die bei einer Beurteilung Berücksichtigung finden müssen. So ist die EU verpflichtet, die Vielfalt der Mitgliedstaaten in den eigenen Institutionen abzubilden. Eine Besonderheit ist auch, dass die Effizienz der Organisation " und damit auch der mögliche Wert von Diversity Management (DiM) " mangels marktinduzierter Kriterien schwer zu bestimmen ist. Die Arbeit gliedert sich in vier Teile. Nach einer überblickartigen Einführung (Teil A) werden in Teil B der Anspruch von DiM und dessen Vor- und Nachteile dargestellt. Als Bezugspunkt für erfolgreiches DiM werden einige Beispiele aus deutschen Großunternehmen angeführt, wo DiM eine relativ bedeutende Rolle spielt. Die Einschätzung, was diese Erfahrungen für die EU bedeuten könnten, schließt den Teil B ab. Dabei werden die Besonderheiten einer Behörde, die durch starke rechtliche Regelungen gebunden ist und für die es kaum eindeutige Effizienzkriterien gibt, besonders hervorgehoben. Der Teil C enthält die empirischen Recherchen, die angestellt wurden. Dazu werden zunächst das Weißbuch des Kinnock Reports und das Statut für die Beamten der Europäischen Gemeinschaften von 2004 ausführlich dargestellt und anschließend gewürdigt. Es stellt sich heraus, dass bei einzelnen Personalmaßnahmen bereits weitgehende Öffnungen und Flexibilitäten vorgesehen sind, die sich unmittelbar zur Implementierung von DiM anbieten. Im Weiteren wurde ein leitender Mitarbeiter des Europäischen Parlaments zu dem Statut ausführlich interviewt. Die Ergebnisse verleihen den vorher geschilderten Regelungen des Statuts Farbe und vermitteln dem Außenstehenden ein lebendiges Bild vom Innenleben einer solchen Behörde. Die Einschätzung der neuen Regelungen durch den Interviewten ist zwar differenziert, aber insgesamt ergibt sich doch ein positives Bild der personalpolitischen Maßnahmen im Hinblick auf die mögliche Implementierung von DiM. Die zweite wesentliche empirische Quelle der Arbeit sind Publikationen der EU selbst zu Problemen der Diversität, Diskriminierung und verwandten Themen. Die dazu erschienenen Broschüren geben Auskunft darüber, welche Ansichten die Mitarbeiter zu Bestrebungen um Diversität und Chancengleichheit äußern, welche Aktionen die EU plant und welche Erfolge man sich erhofft. Die Prüfung dieser Unterlagen ergibt, dass in einer solchen Organisation die Integration von Minderheiten weit fortgeschritten ist und Vorurteile und offene Diskriminierungen weitgehend fehlen. Jedoch werden Umsetzungsprobleme der Maßnahmen zur Chancengleichheit der Geschlechter, zur work-life balance, zur Respektierung von Behinderungen oder sexuellen Orientierungen konstatiert. Um die geschilderten Maßnahmen zu beurteilen, werden sie mit entsprechenden Entwicklungen der im zweiten Teil der Arbeit beschriebenen privatwirtschaftlichen Organisationen, die als Vorreiter des DiM in Europa angesehen werden können, verglichen. In einem weiteren Schritt sollten die Einschätzung der Mitarbeiter zu Diversität und zu den vorher beschriebenen Maßnahmen ergründet werden. Die ins Auge gefasste repräsentative Befragung konnte trotz anfänglicher Ermutigung in einer Behörde der EU, dem Europäischen Parlament (EP), nicht durchgeführt werden, da die EU-Behörden eine offizielle Unterstützung der Untersuchung und damit den Zugang zu anderen Interviewpartnern nicht zustimmten. Daher beschränkte sich die Befragung auf Mitarbeiter, die sich nach Ansprache durch einige leitende Beamte zur Beantwortung gleichsam als Privatpersonen zur Ausfüllung des Fragebogens bereit erklärten. Die Befragung hat also keinerlei repräsentativen, sondern rein explorativen Charakter. Im Teil D der Arbeit wird eine Gesamtbewertung der Recherchen abgegeben. Es wird konstatiert, dass zwar eine Menge an Einzelinitiativen und -maßnahmen in den Behörden der EU zu finden ist, dass aber mit einem übergreifenden Konzept des DiM diese Aktionen koordiniert und in ihrem Nutzen verstärkt werden könnten.
Mit der Übernahme eines Ziels oder einer Aufgabe wird die Aufmerksamkeit auf ziel- bzw. aufgabenbezogene Informationen fokussiert. Bei dieser Fokussierung können zwei Komponenten unterschieden werden: (1) eine erhöhte kognitive Resonanz für relevante Informationen und (2) eine Blockierung der Verarbeitung irrelevanter Informationen. Die zielbezogene kognitive Fokussierung wird typischerweise wieder aufgehoben, wenn das Ziel erreicht bzw. die Aufgabe erfolgreich bearbeitet ist. Aber was geschieht mit der zielbezogenen Aufmerksamkeitseinstellung nach einem definitiven Scheitern der Zielverfolgung? In einer ersten Experimentalserie wurde die kognitive Resonanz für zielbezogene Information nach induziertem Mißerfolg untersucht. In der ersten Phase der Experimente erhielten die Untersuchungsteilnehmer positive oder negative Leistungsrückmeldung bei der Bearbeitung einer komplexen Labyrinthaufgabe (Experiment 1) bzw. mehrerer Synonymaufgaben (Experiment 2). In der zweiten Phase der Experimente wurden automatische Aufmerksamkeitsbindungen für Stimuli gemessen, die einen inhaltlichen Bezug zu den vorher bearbeiteten Labyrinth- bzw. Synonymaufgaben besitzen. Hierzu wurden die Stimuli als Distraktoren in einer Wort-Lese-Aufgabe dargeboten. In beiden Experimenten waren die Interferenzeffekte für die Distraktoren in der Mißerfolgsbedingung erhöht. In einer zweiten Experimentalserie wurde die Inhibition aufgabenirrelevanter Information nach Mißerfolg analysiert. In einer ersten Studie mußten die Teilnehmer ein lösbares oder unlösbares Labyrinth bearbeiten. Währenddessen wurden akustisch Distraktorwörter dargeboten (Experiment 3). Während der Bearbeitung der Labyrinthaufgabe wurde die Inhibition der irrelevanten Stimuli kontinuierlich erfaßt, indem die Distraktorwörter als Stimuli in einer simultan zu bearbeitenden Farbbenennaufgabe präsentiert wurden. Bei der unlösbaren Labyrinthaufgabe nahmen die Interferenzeffekte der Distraktoren während der Bearbeitung zu, nicht aber bei der Bearbeitung der lösbaren Aufgabe. In zwei weiteren Experimenten wurde untersucht, ob vormals ausgeblendete irrelevante Information nach einem Scheitern der Zielverfolgung disinhibiert wird (Experimente 4 und 5). Hierbei mußten die Teilnehmer eine Reihe von Konzeptidentifikationsaufgaben bearbeiten. Während der Aufgabenbearbeitung wurde die kognitive Zugänglichkeit der verschiedenen Objektmerkmale über Interferenzeffekte in einer zusätzlich zu bearbeitenden Farbbenennaufgabe gemessen. Die Zurückweisung eines Merkmals in der Konzeptidentifikationsaufgabe führte zu einer Inhibition des korrespondierenden Merkmalsbegriffs. Durch Einstreuen invalider Rückmeldungen konnte eine Situation hergestellt werden, in der alle möglichen Merkmale der Konzeptidentifikationsaufgabe widerlegt wurden. In dieser Situation war die globale Suchstrategie als Ganze gescheitert und die vorher inhibierten Merkmale wurden wieder zugänglich. Zusammengenommen stützen die Experimente die Hypothese, daß Mechanismen einer bevorzugten Verarbeitung relevanter Information und einer Ausblendung irrelevanter Information durch Mißerfolg unterschiedlich beeinflußt werden. Eine erhöhte kognitive Resonanz für zielbezogene Information persistiert auch nach einem definitiven Scheitern der Zielverfolgung. Diese Perseveranz der Sensitivität für zielbezogene Information garantiert, daß mögliche zukünftige Gelegenheiten für eine erfolgreiche Zielverfolgung nicht übersehen werden. Eine Inhibition irrelevanter Informationen wird angesichts eines Scheiterns der Zielverfolgung allerdings nicht aufrechterhalten. Die Erfahrung wiederholter erfolgloser Bemühungen der Zielerreichung induziert einen offenen, defokalisierten Modus der Informationsverarbeitung, der für eine Neuorientierung nach Mißerfolg funktional ist.
Diese Arbeit betrachtet die formalen, semantischen und pragmatischen Eigenschaften produktiv gebildeter Partikelverben mit präpositionenähnlichen Verbzusätzen. Der empirische Teil basiert auf zahlreichen Belegen für mehr als 2500 Partikelverb-Neubildungen mit "ab-", "an-", "auf-", "aus-" und "ein-", die im Zuge einer exhaustiven Korpusstudie mitsamt ihren Kontexten in einem pressesprachlichen Korpus erhoben wurden. Im Zentrum steht die Untersuchung von mehr als 500 neologistischen Partikelverben mit "an-". Zunächst anhand von formalen Kriterien (vorrangig der Argumentstruktur) in fünf Gruppen sortiert, werden die semantischen und pragmatischen Eigenschaften dieser Gruppen mittels einer Betrachtung der einzelnen Verbvorkommen in ihren authentischen Gebrauchskontexten untersucht. Dabei wird insbesondere eine pragmatische Funktionalisierung der ursprünglichen Richtungssemantik nachvollzogen. Zwei offene Fragen der Partikelverb-Forschung werden in ergänzenden Fallstudien detailliert untersucht. Die erste widmet sich sogenannten "Kontaminationsbildungen" und zeigt, dass diese im Bereich der Partikelverben präzise angebbaren Regularitäten folgen. Die zweite beleuchtet anhand von 99 neologistischen Analogiebildungen zum lexikalisierten Verb "aufwerten" formale und semantisch-pragmatische Aspekte der Bildung von Partikelverben und revidiert damit das problematische Verhältnis von Analogie und Produktivität in der Wortbildungstheorie. Die an den Neubildungen gewonnenen Erkenntnisse werden schließlich auf den Wortschatzausschnitt der etablierten, lexikalisierten Partikelverben abgebildet. Dabei wird gezeigt, wie die Untersuchung produktiver Schemata anhand von Neubildungen zur Entwicklung von Objektivierungsheuristiken führen kann, die auch bei den lexikalisierten Formen die systematisch-regelhaften von den irregulär-idiosynkratischen zu trennen vermögen. Von unmittelbarem praktischem Nutzen ist das beispielsweise für die Sprachdidaktik, wie abschließend erläutert wird.
Der Anstieg der Weltbevölkerung, der Mobilität und des Warenhandels fördert die zunehmende Einschleppung von Biota. Ein Teil dieser gebietsfremden Arten kann sich etablieren, ausbreiten und die heimische Biodiversität gefährden ("invasive Arten"). In Mitteleuropa haben sich mehr als 150 gebietsfremde Populationen der ursprünglich submediterran verbreiteten Mauereidechse (Podarcis muralis) etabliert. Diese verkörpern ein ideales Modellsystem zur Untersuchung der Rolle des geografischen Ursprungs für den Etablierungserfolg, zur Überprüfung genetischer Konsequenzen von biologischen Invasionen sowie zur Untersuchung der Auswirkungen intraspezifischer Hybridisierung auf heimische Linien. Über eine mtDNA-Sequenzierung wurden in dieser Dissertation 77 eingeschleppte Populationen in Mitteleuropa acht geografisch abgrenzbaren evolutionären Linien zugeordnet (Kapitel I). Dieser Datensatz wurde in Kombination mit Artverbreitungsmodellen zur Überprüfung intraspezifischer Nischendivergenz genutzt. Trotz deutlicher Nischendifferenzierung zwischen den Linien, wurde nur eine schwache Korrelation zwischen geographischem Ursprung und invasivem Vorkommen gefunden. Linien mit enger realisierter Nische sind vermutlich aufgrund ihrer breiten fundamentalen Nische dennoch fähig erfolgreich Gebiete weit außerhalb ihres Areals zu kolonisieren. Für die populationsgenetischen Analysen dieser Arbeit bewährten sich, alternativ zu Gewebeproben, nicht-invasiv gewonnene Mundschleimhautproben zur DNA-Analyse (Kapitel II). Über eine DNA-Sequenzierung konnte der Ursprung (Poebene und nördliche Adriaregion) der nördlichsten eingeschleppten Ruineneidechsen-Population (Podarcis siculus) bestimmt werden (Kapitel III). Zudem wurde eine syntop in eine P. muralis Population eingeschleppte Podarcis liolepis Population erstmals in Deutschland nachgewiesen (Kapitel IV). Beide stammen vermutlich aus den Ost-Pyrenäen. Die Mikrosatelliten-Analyse zeigte keinen Genfluss zwischen beiden Arten. Verglichen mit natürlichen Populationen aus Süd-Frankreich konnten die eingeschleppten Populationen beider Arten aufgrund von hohem Aussetzungsdruck eine hohe genetische Diversität erhalten. Entlang des Oberrheingrabens treffen heimische Mauereidechsen auf eingeschleppte italienische Linien. In diesen Populationen wurde eine schnelle genetische Assimilation durch Hybridisierung mit gebietsfremden Mauereidechsen nachgewiesen (Kapitel V). Die genetische Diversität dieser Hybridpopulationen war wesentlich höher als die reiner eingeschleppter oder reiner natürlicher Populationen. Der Zusammenhang zwischen genetischer Diversität und Durchmischungsgrad war nicht-linear und erreichte frühzeitig ein Plateau hoher genetischer Diversität bei einer Vermischung von zwei Linien. Das Ausmaß an Introgression und die schnelle Bildung von Hybridschwärmen zeigt, dass Einschleppungen die genetische Integrität natürlicher Populationen stark gefährden. Die kleinräumige, genetische Analyse einer expandierenden Population in Passau (Kapitel VI) zeigt, dass eine signifikante Strukturierung schnell und kleinräumig entstehen kann. Die genetische Differenzierung wurde unter Abnahme der genetischen Diversität vom Einschleppungszentrum zum Expansionsrand stärker. Das abschließende Kapitel VII fasst die wichtigsten Resultate für die Naturschutzpraxis zusammen. Die Schwierigkeiten der phänotypischen Zuordnung von Populationen zu evolutionären Linien sowie der naturschutzrechtliche Umgangs mit Einschleppungen werden diskutiert.
Considering actual climatic and land use changes the problem of available water resources or the estimation of potential flood risks gain eco-political and economical relevance. Adequate assessments, thus, require precise process-based hydrological knowledge. Spatially distributed hydrological modelling enables a both abstractive and realistic description of hydrological processes, and therefore contributes to the understanding of the hydrological system- responses. Referring to the example of the mesoscale Ruwer basin (a tributary to the Mosel river), a modified version of the distributive modelling system PRMS/MMS (Precipitation Runoff Modeling System/Modular Modeling System) is applied to calculate spatially and temporally explicit water budgets. To achieve modelling results as precise as possible, integration of detailed land use information (spatial distribution of the existing land use classes, crop- and site-specific growth patterns) is necessary. This information is derived here by analysis of multitemporal, geometrically and radiometrically pre-processed Landsat TM-data. This enables separation of different land use classes and differentiated quantification of the leaf area index (LAI). The LAI is estimated by a spectral unmixing approach using statistically optimized endmember sets, referring to the example of winter grain and grassland plots. As a result, numerical inputs (coefficients for calculating evapotranspiration, interception storages) and extracted non-numerical (classified) information can be provided for hydrological modelling. The version of PRMS applied in this study allows important land use terms to be parameterized in high temporal resolution. Using model input derived from the available satellite data, simulation results are obtained that prove to be realistic compared to gauge data and with respect to their spatial differentiation. Results differ significantly from those obtained by using parameters from literature or by experience without distinguishing specific and site-dependent growth patterns. It can be concluded that the quality of modelling results notably improves by integration and quantitative analysis of remote sensing data; thus, these methods are a significant contribution to physically-based hydrological modelling.
In dieser Arbeit untersuchen wir das Optimierungsproblem der optimalen Materialausrichtung orthotroper Materialien in der Hülle von dreidimensionalen Schalenkonstruktionen. Ziel der Optimierung ist dabei die Minimierung der Gesamtnachgiebigkeit der Konstruktion, was der Suche nach einem möglichst steifen Design entspricht. Sowohl die mathematischen als auch die mechanischen Grundlagen werden in kompakter Form zusammengetragen und basierend darauf werden sowohl gradientenbasierte als auch auf mechanischen Prinzipien beruhende, neue Erweiterungen punktweise formulierter Optimierungsverfahren entwickelt und implementiert. Die vorgestellten Verfahren werden anhand des Beispiels des Modells einer Flugzeugtragfläche mit praxisrelevanter Problemgröße getestet und verglichen. Schließlich werden die untersuchten Methoden in ihrer Koppelung mit einem Verfahren zur Topologieoptimierung, basierend auf dem topologischen Gradienten untersucht.
Die Arbeit untersucht das Potential kleiner unbemannter Luftfahrtsysteme (UAS) in Landwirtschaft und Archäologie. Der Begriff UAS beinhaltet dabei: Fluggerät, Antriebsmechanismus, Sensorik, Bodenstation, Kommunikationsmittel zwischen Bodenstation und Fluggerät und weiteres Equipment. Aufgrund ihrer Flexibilität, fanden UAS seit der Jahrtausendwende eine blühende Entwicklung. Um die wachsende Weltbevölkerung zu ernähren, muss die landwirtschaftliche Produktion sensibel und nachhaltig intensiviert werden, um Nahrungssicherheit für alle zu gewährleisten und weitere Boden- und Landdegradation zu vermeiden. Präzisionslandwirtschaft umfasst technologische Verbesserungen hin zur effizienteren und weniger schädlichen landwirtschaftlichen Praxis. Hierbei ist die Verfügung über zeitnahe, leicht zugängliche hoch aufgelöste räumliche Daten eine Voraussetzung für die Nahrungsmittelproduktion. UAS schließen hier die Lücke zwischen Bodendaten und teuren bemannten Luftfahrtsysteme und selteneren Satellitenbildern. Die Vorteile der UAS-Daten liegen in der ad-hoc Akquisition großmaßstäbiger Fernerkundungsdaten, den geringeren Kosten gegenüber der bemannten Systeme und einer relativen Wetterunabhängigkeit, da auch unter Wolken geflogen werden kann. Den größten Anteil innerhalb der UAS stellen die Mini-UAS (Abfluggewicht von 5kg) und dabei vertikale Start- und Landesysteme. Diese können über Untersuchungsgebieten schweben, sind dadurch jedoch langsamer und eher geeignet für kleinere Flächen. Flugregularien und die Integration in den bemannten Luftraum werden derzeit europaweit harmonisiert und in den Mitgliedstaaten umgesetzt. Die Hauptziele dieser Arbeit lagen in der Evaluierung wie Schlüsselparametern landwirtschaftlicher Nutzpflanzen (Chlorophyll-, Stickstoffgehalt, Erntemenge, sonnendinduzierter Chlorophyll-Fluoreszenz) mittels UAS abgeleitet und wie UAS-Daten für archäologische Aufklärung genutzt werden können. Dazu wurde ein Quadrokopter (md4-1000, microdrones GmbH) mit einer digitalen Spiegelreflexkamera, einem Multispektralsensor (MiniMCA-6, Tetracam Inc.) und einer Thermalkamera (UCM, Zeiss) ausgestattet. Eine Sensitivitätsanalyse führte zur Ableitung geeigneter Wellenlängenbereiche und untersuchte bidirektionale und Flughöheneffekte auf das Multispektralsignal. Die Studie beschreibt außerdem die Vorgehensweise bei Bildaufnahme und Vorprozessierung mit besonderem Schwerpunkt auf die Multispektralkamera (530-900 nm). Die Vorprozessierung beinhaltet die Korrektur von Sensorfehlern (Linsenverzeichnung, Vignettierung, Kanalkalibrierung), die radiometrische Kalibrierung über eine empirische Korrektur mit Hilfe von Referenzspektren, Atmosphärenkorrektur und schließlich die geometrische Verarbeitung unter Verwendung von Structure from Motion Programme zur Generierung von Punktwolkenmodellen bis hin zum digitalen Orthophotomosaik und Höhenmodell in Zentimeterauflösung. In einer Weinbergsstudie (2011, 2012) wurden geeignete Beobachtungswinkel für die Untersuchung des Einflusses von Bodenbearbeitungsstrategien auf das Multispektralsignal evaluiert. Schrägichtaufnahmen von 45-° Beobachtungswinkel gegenüber Nadir waren am besten geeignet zur Ableitung pflanzenphysiolgischer Parameter und multispektraler Unterscheidung von Bodenbearbeitungstypen. So konnten Chlorophyll-Gehalte über Regressionsanalysen über mehrere saisonale Aufnahmen mit einem kreuzvalidierten R-² von 0.65, Stickstoffgehaltsindex von 0.76 (2012) und Ernte mit 0.84 (2011) und für verschiedene Zeitpunkte nach der Blüte (0.87) und während der Reifephase (0.73) ermittelt werden. Desweiteren wurde die (Fs) in einem Stickstoff-Düngung-Experiment bei Zuckerrüben von Multispektral-, Indizes und Thermaldaten untersucht (HyFlex-Kampagne 2012). Zuckerrübenvarietäten konnten spektral und thermal unterschieden werden, die Fluoreszenzindizes waren wetterbedingt, weniger erfolgreich. Außerdem konnte der Tagesgang der Fs trotz instabiler Einstrahlungsverhältnisse am Morgen abgeleitet werden. Die Werte waren jedoch gegenüber Bodenmessungen um ein Vielfaches erhöht. Archäologische Fernerkundung durch UAS wird bereits seit Jahren (z.B. mit Fesselballons) durchgeführt. Die Mustererkennung profitiert von der spektralen Ausdehnung vom menschlichen Auge hin zu multispektralen, neuerdings auch hyperspektralen Sensoren. Studien in Los Bañales, Spanien, zeigten die Möglichkeiten des Informationsgewinns durch Bildverarbeitung von UAS-Daten: vermutliche historische Siedlungsmuster konnten durch Landoberflächenklassifikation von Multispektraldaten mittels Support Vector Machines und Bestandsmusterdetektion beschrieben werden. Um qualitative hochwertige, hochaufgelöste UAS-Daten zu erhalten, sollten die Daten mit hoher Überlappung (80%) und auch Schrägsicht akquiriert und ggf. durch Referenzmessungen zur radiometrischen Kalibrierung und GPS-Messungen für geometrische Referenzierung ergänzt werden.
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
In der modernen Survey-Statistik treten immer häufifiger Optimierungsprobleme auf, die es zu lösen gilt. Diese sind oft von hoher Dimension und Simulationsstudien erfordern das mehrmalige Lösen dieser Optimierungsprobleme. Um dies in angemessener Zeit durchführen zu können, sind spezielle Algorithmen und Lösungsansätze erforderlich, welche in dieser Arbeit entwickelt und untersucht werden. Bei den Optimierungsproblemen handelt es sich zum einen um Allokationsprobleme zur Bestimmung optimaler Teilstichprobenumfänge. Hierbei werden neben auf einem Nullstellenproblem basierende, stetige Lösungsmethoden auch ganzzahlige, auf der Greedy-Idee basierende Lösungsmethoden untersucht und die sich ergebenden Optimallösungen miteinander verglichen.Zum anderen beschäftigt sich diese Arbeit mit verschiedenen Kalibrierungsproblemen. Hierzu wird ein alternativer Lösungsansatz zu den bisher praktizierten Methoden vorgestellt. Dieser macht das Lösen eines nichtglatten Nullstellenproblemes erforderlich, was mittels desrnnichtglatten Newton Verfahrens erfolgt. Im Zusammenhang mit nichtglatten Optimierungsalgorithmen spielt die Schrittweitensteuerung eine große Rolle. Hierzu wird ein allgemeiner Ansatz zur nichtmonotonen Schrittweitensteuerung bei Bouligand-differenzierbaren Funktionen betrachtet. Neben der klassischen Kalibrierung wird ferner ein Kalibrierungsproblem zur kohärenten Small Area Schätzung unter relaxierten Nebenbedingungen und zusätzlicher Beschränkung der Variation der Designgewichte betrachtet. Dieses Problem lässt sich in ein hochdimensionales quadratisches Optimierungsproblem umwandeln, welches die Verwendung von Lösern für dünn besetzte Optimierungsprobleme erfordert.Die in dieser Arbeit betrachteten numerischen Probleme können beispielsweise bei Zensen auftreten. In diesem Zusammenhang werden die vorgestellten Ansätze abschließend in Simulationsstudien auf eine mögliche Anwendung auf den Zensus 2011 untersucht, die im Rahmen des Zensus-Stichprobenforschungsprojektes untersucht wurden.
In der Tagespresse bestehen Berichte über Nordkorea meistens aus Schreckens-meldungen: Von Nuklearem Wahn, Menschenrechtsverletzungen oder Terror ist hier die Rede. Gleichzeitig ist die Informationspolitik dieses Landes so restriktiv, dass kaum anderweitige Informationen nach außen dringen. Dies macht es in den Augen vieler Menschen umso gefährlicher, weil es dadurch unbegreiflich und unkalkulierbar erscheint. Nach dem Zusammenbruch der DDR und der Öffnung von bislang unzugänglichen Archiven hat diese Undurchdringlichkeit Risse bekommen, und es erschlossen sich der Forschung vollkommen neue Quellen. Ziel der vorliegenden Arbeit ist es, mit Hilfe der nun zugänglichen Dokumente einen Teil der Informationslücken über Nordkorea und vor allem über seine Beziehungen zur DDR zu schließen. Neben der Entwicklung der bilateralen Beziehungen in den Bereichen Politik, Wirtschaft und Kultur wird hier auch ein besonderer Aspekt der bilateralen Beziehungen untersucht: Nordkoreas Umgang mit seiner Abhängigkeit von der DDR und dem damit verbundenen Sicherheitsrisiko. Zu diesem Zweck wird anhand konkreter Fallbeispiele die Zusammenarbeit zwischen der DDR und Nordkorea analysiert. Obwohl auch in anderen Gebieten Abhängigkeiten bestanden, ist die wirtschaftliche Abhängigkeit im Zusammenhang mit einem möglichen Sicherheitsrisiko von besonderer Relevanz. Dieses Risiko definiert sich in diesem Zusammenhang als Gefährdung der inneren Sicherheit Nordkoreas. Nordkorea ist seit seiner Gründung ein Staat, der seine Bürger aufs Äußerste überwacht, um ihre vollständige Indoktrination zu gewährleisten. Da die nord-¬koreanische Regierung eine eigene, künstliche Wirklichkeit für die Bewohner des Landes erschaffen hatte, musste alles, was diese Wirklichkeit in Frage stellte, als Sicherheitsrisiko eingeschätzt werden. Dazu gehörte z.B. das Sichtbarwerden von Abhängigkeit, weil hierdurch der selbsterhobene Anspruch der Chuch"e-Ideologie "alles aus eigener Kraft" konterkariert wurde. Gleichfalls musste der Kontakt mit einer anderen Wirklichkeit als der koreanischen ein Sicherheitsrisiko darstellen, wenn sich dadurch die Einstellung zur koreanischen Realität änderte. In diesem Zusammenhang spielen vor allem die nordkoreanischen Studenten, die in der DDR studierten, eine besondere Rolle. Die vorliegende Arbeit zeigt, dass der Umgang Nordkoreas mit seiner Abhängigkeit von der DDR durchaus einer Logik entsprach und sich daraus Handlungsmuster ergaben, die diesen Umgang prägten. Zunächst versuchte die nordkoreanische Regierung, sich immer aus bestehenden Abhängigkeiten zu befreien oder sie zum größtmöglichen eigenen Vorteil zu nutzen. Dabei schreckte sie auch nicht vor illegalen Maßnahmen wie Industriespionage zurück. Das oberste Primat der nordkoreanischen Politik lag jedoch in der Wahrung Innerer Sicherheit und damit in der Regimestabilität. Diesem Ziel wurden alle anderen Ziele wie auch Entwicklung der Wirtschaft untergeordnet. Ergaben sich für das Erreichen von Wirtschaftszielen Abhängigkeiten, dann wurden diese nur so lange in Kauf genommen, wie sie die Innere Sicherheit nicht gefährdeten. Wurde hier allerdings ein Sicherheitsrisiko wahrgenommen, dann wurden alle Mittel eingesetzt, um dieses auszuschalten oder zu minimieren. Dabei spielte es keine Rolle, wie drastisch diese Maßnahmen waren und wer von ihnen betroffen war. Vergleicht man dieses Verhalten mit der heutigen nordkoreanischen Politik, so finden sich kaum Unterschiede. Die Innere Sicherheit ist für Nordkorea das oberste Ziel geblieben. Um es durchzusetzen, werden alle als notwendig erachteten Maßnahmen ergriffen, von der Bespitzelung der eigenen Bevölkerung bis hin zu Internierung und Terror. Was für den Umgang der nordkoreanischen Regierung mit dem eigenen Volk gilt, lässt sich auch in seiner Außenpolitik nachvollziehen. Die Regimestabilität bleibt das oberste Ziel. Im Gegensatz zur weitverbreiteten Meinung, die Volksrepublik sei in ihrer Politik nicht kalkulierbar, macht das Wissen um dieses Ziel Nordkorea zu einem sehr berechenbaren Staat. In Übereinstimmung mit dem Primat der Inneren Sicherheit wird die nordkoreanische Führung alles ablehnen, was diese gefährden könnte. Konkret ergibt sich daraus z.B., dass Nordkorea sein Nuklearprogramm niemals aufgeben wird, weil das Einstellen seiner Ambitionen auf diesem Gebiet die Führung in P"yÅngyang angreifbar machen könnte.
Die patienten-fokussierte Psychotherapieforschung hat das Ziel, den Erfolg von Psychotherapie durch die kontinuierliche Messung und Rückmeldung von Prozessvariablen zu verbessern. Es konnte bereits gezeigt werden, dass nicht nur Patienten-spezifische Charakterisitika, wie die Symptomreduktion, sondern auch dyadische Merkmale, wie die therapeutische Beziehung, indikativ sind. Ein vielversprechender neuer Ansatz bzgl. der Messung dyadischer Charakteristika ist nonverbale Synchronie, die definiert ist als Bewegungskoordination zwischen Interaktionspartnern. Nonverbale Synchronie kann inzwischen objektiv und automatisch in Therapievidoes gemessen werden, was die Methodik frei von Biases wie selektiver Wahrnehmung oder sozialer Erwünschtheit macht. Frühe Studien aus der Sozial- und Entwicklungspsychologie konnten Zusammenhänge mit sozialer Bindung und Sympathie finden. Erste Studien aus der Psychotherapieforschung weisen auf Zusammenhänge zwischen nonverbaler Synchronie und der Therapiebeziehung sowie dem Therapieerfolg hin und geben erste Hinweise darauf, dass nonverbale Synchronie eine zusätzliche Informationsquelle für dyadische Aspekte sein kann, mit der man zukünftig frühzeitig Therapieerfolge vorhersagen könnte. Die vorliegende Arbeit beinhaltet drei Studien zu nonverbaler Synchronie in der ambulanten Psychotherapie und Zusammenhängen mit therapeutischen Prozessen. In Studie 1 wurde nonverbale Synchronie in einer diagnose-heterogenen Stichprobe von N=143 Patienten zu Therapiebeginn gemessen. Mittels Mehrebenenanalysen konnte die Validität der Messmethodik bestätigt werden. Des weiteren wurden Zusammenhänge mit bestimmten Artes des Therapieerfolgs gefunden: Patienten, die unverändert die Therapie abbrachen zeigten das niedrigste Level an Synchronie, während Patienten, die unverändert die Therapie zu Ende führten das höchste Level hatte und Patienten mit einer reliablen Symptomreduktion ein mittleres Level an nonverbaler Synchrony aufwiesen (auch unter Kontrolle der Therapiebeziehung). In Studie 2 wurden nonverbale Synchronie und die Bewegungsmenge zu Therapiebeginn und zum Therapieende erfasst und in zwei Stichproben von Patienten mit Depression (N=68) und Patienten mit Angststörungen (N=25) verglichen. Mehrebenenanalysen zeigten weniger Bewegungsmenge und Synchronie bei Dyaden mit depressiven Patienten, wobei sich beide Gruppen zum Therapieende nicht mehr in der nonverbalen Synchronie unterschieden. In Studie 3 wurde nonverbale Synchronie in einer Stichprobe von N=111 Patienten mit Sozialer Phobie zu vier Zeitpunkten im Therapieverlauf gemessen (N=346 Videos). Mehrebenenanalysen zeigten einen kontinuierlich sinkenden Verlauf der Synchronie und einen Moderationseffekt auf den Zusammenhang zwischen frühen Verbesserungen und dem Therapieerfolg.
The investigation concentrates on the exhibit of the known church-reformer, philosoph, cardinal and bishop of Brixen Nicolaus von Cues (1401 - 1464) concerning Jews. As origin we take the Jewish decree/ -statute wich mostly was publicated at diocesian an provicial synodes when von Cusanus was papal legate 1451 / 52 in Germany. The legate statet a ban for usury respectively restrictions of money-lending and a duty for identification. Among the decree sermons and letters from the legate-time are consulted. Appropriate parts concerning Jews an Judaism from empirical- and church-reformatoric scripts, sermons and notes from Cusanus areconsulted because the decree cannot be understood without the context of the complete works. So it is possible to disprove the thesis of a subordinated and marginal role of Jews in the cusanian work. To circumscribe the decree's consequences the constituted jewish settlements at 1451 / 55 in the german Empire are represented at cartographical base. As recessing example for the reactions to the decree the policy of Nürnberg is taken. The detailed correspondence of the council documents it's declining attitude. A finishing profile-analysis affords the possibility of a discussion on translation an reception of the Jewdecree in german countrys that's effect has to be evaluated regionally an locally sophisticated , on the base of the administratively regulated spaces by the church.
In der Forschung zur aktuellen Prozessdynamik der Bodenerosion sind Niederschlagssimulationen mit kleinen mobilen Beregnungsanlagen (KBA) ein unverzichtbarer Bestandteil. Weltweit werden sehr viele KBA unterschiedlicher Bauart, Plotgrößen, Tropfenerzeugung, Niederschlagsintensitäten, und -spektren eingesetzt. Eine Standardisierung der Anlagen ist aufgrund der Verschiedenheit der Forschungsfelder und -fragen nicht in Sicht. Darüber hinaus sind die erzeugten Niederschläge (Nd) der Anlagen unzureichend genau charakterisiert und es liegt keine einheitliche Datenbasis aller relevanten Parameter vor. Zudem werden mit KBA bisher ausschließlich Starkregen unter windstillen Bedingungen simuliert, obwohl Wind einen deutlichen Einfluss auf fallende Regentropfen ausübt. Die vorliegende Arbeit gliedert sich in drei Teile: (1) Weiterentwicklung und Anwendung von KBA: Wie lässt sich die Performance der Trierer KBA optimieren und eine einheitliche Mess- und Kalibrierungsmethode für den simulierten Niederschlag definieren? Welche Anforderungen, Möglichkeiten, Grenzen und Anwendungsbereiche gibt es? (2) Vergleich verschiedener Typen von KBA im Gelände: Inwieweit sind Nd-Charakteristika, Oberflächen-¬abflussgenerierungen und Bodenabträge europäischer KBA vergleichbar? (3) Implemen-¬tierung von windbeschleunigtem Regen in KBA mit dem neuen mobilen Trierer Windregenkanal (WiReKa): Wie kann Wind in ein KBA-Setting integriert werden? Wie sind Unterschiede von Erosionsraten mit und ohne Windeinfluss in-situ zu quantifizieren und wie hoch fallen sie aus? Im ersten Teil der Arbeit wurde zunächst die Nd-Charakteristik der langjährig von der Physischen Geographie eingesetzten KBA mit unterschiedlichen, weltweit angewandten Messmethoden untersucht. Dabei zeigten sich einige Schwächen der KBA bezüglich ihrer Funktionalität. Der Einsatz verschiedener Mess-¬methoden zur Charakterisierung des künstlich erzeugten Nd führte zu sehr unterschiedlichen Ergebnissen. Mittels Laser-Niederschlags-Monitor (LNM) und Nd-Sammlern wurde daher ein einheitliches Testverfahren entwickelt, das eine detaillierte Aufnahme, Auswertung und Darstellung der relevanten Nd-Parameter nahezu aller KBA-Designs ermöglicht. Mit Hilfe dieses Testverfahrens wurden Nd-Charakteristik, Funktionalität und Mobilität der Trierer KBA durch technische Veränderungen deutlich verbessert. Alle Parameter dieser Anlage sind nun bekannt und lassen sich zuverlässig reproduzieren. Die Anforderungen, Möglichkeiten und Grenzen des Einsatzes von KBA wurden detailliert erarbeitet und beschrieben. Auf dem "International Rainfall Simulator Workshop" in Trier konnte mit 40 Wissenschaftlern aus 11 Nationen Einigkeit über grundlegende Aspekte beim Bau und Einsatz von KBA erzielt werden. Der zweite Teil der Arbeit stellt die Arbeitsmethoden und Ergebnisse eines in internationaler Kooperation durchgeführten Projektes zu Messmethoden und Vergleichbarkeit von Simulatordesigns und Nd-Charakteristika unterschiedlicher europäischer KBA vor. An 13 Instituten in Deutschland, den Niederlanden, der Schweiz und Spanien wurde mit dem Trierer Testverfahren eine einheitliche Datenbasis aller wesentlichen Nd-Parameter erstellt. Im praktischen Teil des Rainfall Simulator Workshop in Trier wurden dann vergleichende Versuche mit sieben KBA auf einer universitätsnahen Versuchsfläche zur Oberflächenabflussgenerierung und zum Bodenabtrag durchgeführt. Vor allem die (maximale) Sedimentkonzentration einer Simulation hat sich dabei als gute Vergleichsgröße herausgestellt. Differenzen in den gemessenen Oberflachenabfluss- und Sedimentmengen sind ganz klar unterschiedlichen Nd zuzuordnen. Der zeitliche Ablauf des Oberflächenabfluss- und Erosionsverhalten differiert dagegen nur bei zunehmender Plotgröße. Im dritten Teil der Arbeit wird analysiert, wie windbeschleunigter Regen in einer KBA simuliert werden kann. Darüber hinaus wurde eine spezielle Testreihenfolge für die Erosionsmessungen entwickelt, deren Praktikabilität sich in der Anwendung bewährt hat. Es konnten stark erhöhte Abtragsraten aufgrund der Zuschaltung von Wind zu der Regensimulation auf kohäsionslosem sandigen Substrat quantifiziert werden. Das Dissertationsprojekt kann auf mehreren Ebenen als erfolgreich angesehen werden: Die Arbeit mit den Trierer KBA konnte qualitativ verbessert werden insofern, als die Anlagenparameter optimiert und die Güte der produzierten Daten gewährleistet werden konnte. Darüber hinaus konnten die gewonnenen Erkenntnisse durch eine gezielte internationale Vernetzung in Wert gesetzt und die Zusammenarbeit auf der operationalen Ebene gestärkt werden.
Nicolaus Hieronymus Gundling (1671-1729) ist eine bislang wenig beachtete Persönlichkeit der deutschen Frühaufklärung. Gleichwohl ist der Hallenser Publizist an der Entstehung eines neuen Entwurfs der Gesellschaft aktiv beteiligt: Ihm obliegt - wie vielen seiner in Vergessenheit geratenen Kollegen - die Ausbildung jener Beamter, die am Ausbau des modernen Anstaltsstaates mitwirken. Aus den akademisch geschulten Amtsträgern bildet sich eine neue soziale Schicht, die ihr Selbstverständnis an die folgenden Gelehrten- generationen weitergibt: Aus diesen rekrutiert sich im 19. Jahrhundert der Kern des "Bildungsbürgertums", dessen Verhältnis zu Staat und Obrigkeit bis heute umstritten ist. Priorität in Gundlings Lehre " der Thomasiusschüler rezipiert u. a. Hobbes, Locke und Pufendorf - hat die Erhaltung des Friedens, die auf der Trennung von Politik und Religion beruht: Mit Glaubensfragen soll sich das Individuum in seiner Privatsphäre auseinandersetzen, das öffentliche Leben soll allein durch Vernunft bestimmt sein " wobei Gundling insbesondere den juristisch und ökonomisch versierten Staatsdienern eine Schlüsselposition im politischen Geschehen einräumt, während er den Einfluß des Klerus zurückzudrängen bestrebt ist. Dieser Gedanke wird jedoch vom Autor selbst konterkariert. Gundling zweifelt grundlegend an der menschlichen Vernunftbegabung, so dass er auf den Glauben als traditionelles Disziplinierungsmittel nicht verzichten kann. Deshalb hält er " lehnt er das Gottesgnadentum auch strikt ab - an seinem Wunsch nach der väterlichen Zwangsgewalt eines allmächtigen Herrschers fest, der den Frieden bewahrt. Letzterer hängt damit eher von der undefinierten "Güte" des Monarchen als von der Vernunft der Amtsträger ab. Jedoch: Durch seine kritische Haltung nimmt Gundling selbst, im Rahmen der Möglichkeiten seines Wirkungskreises und seiner Zeit, durchaus politische Verantwortung wahr und gibt damit in der Praxis das Beispiel eines mündig werdenden Bürgers " auch wenn er sich dabei in Widersprüche verstrickt.
Nicht von einer Hand Fallbeispiele der künstlerischen Zusammenarbeit in der Gemäldeproduktion vom 17. bis 19. Jahrhundert Das Phänomen der künstlerischen Zusammenarbeit mehrerer Maler auf einem Bildträger wurde in den vergangenen zehn Jahren in der Forschung und in der praktischen Museumsarbeit mit immer größerem Interesse betrachtet. Das hängt mit dem generellen Wandel in der Wahrnehmung von historischen Sammlungen und der Hinterfragung von tradierten Wahrnehmungsmustern in der Kunstgeschichte zusammen. Diese Dissertation hat sich die Frage nach der Entstehung dieser Form der Zusammenarbeit in verschiedenen Regionen und deren Rezeption im 18. und 19. Jahrhundert gestellt. Wenngleich in der Forschung die Kooperationstätigkeiten einzelner Künstler zunehmend Beachtung finden, so war es mein Anliegen, das Phänomen der Kooperationspraxis umfassend anhand verschiedener Fallbeispiele zu beschreiben. In vielen Fällen können diese Beispiele ergänzt und erweitert werden. Im Kern aber bleibt die Feststellung, dass die Kooperationspraxis als künstlerische Produktionsweise eine Entwicklung vollzogen hat. Kooperationen im beschriebenen Umfang hat es immer gegeben. Die produktive Phase der niederländischen und flämischen Malerei wäre im 17. Jahrhundert nicht möglich gewesen, hätten sich vor allem in Antwerpen die Maler nicht zu Kooperationsgemeinschaften zusammengeschlossen. Die Entwicklung der Genres, der Transfer unterschiedlichster Bildthemen und Motive hängt im engen Maße mit der Kooperationstätigkeit zusammen. Entscheidend für die horizontale Kooperation, also die Kooperation unter (mehr oder minder) gleichgestellten autonomen Meistern, war die Entwicklung dieser verschiedenen Genres. Einige dieser Gattungen eigneten sich besonders gut für die Praxis der Künstlerkooperation. Sie wurden zum Teil überhaupt erst durch diesen intensiven Austausch unter den Malern so erfolgreich und konnten erst durch eine ökonomische Produktionsweise in großer Menge für den freien Kunstmarkt hergestellt werden. Bei der Gegenüberstellung der Kooperationsbedingungen in Deutschland und in den Niederlanden wurden signifikante Gründe für die unterschiedliche Entwicklung der künstlerischen Zusammenarbeit herausgestellt. Im Alten Reich unterschieden sich im 16. und 17. Jahrhundert die sozial-ökonomischen Verhältnisse deutlich von denen in den südlichen und nördlichen Niederlanden. Die Grenzen zwischen der werkstattinternen Arbeitsteilung und der Kooperation zwischen autonomen Meistern verliefen fließend. Die Entwicklung in der Arbeitsweise der Maler verlief über einen langen Zeitraum und kann nicht als homogener Entwicklungsstrang festgeschrieben werden. Waren es anfangs die herrschaftlich motivierten Ansprüche für die Ausstattung der Residenzen oder für exorbitante Memorialprojekte, welche die bekanntesten Maler an einem Projekt unter der Koordination eines Höflings wirken ließen, so ging mit dem Erstarken des freien Kunstmarktes die Künstlerkooperation mit dem Ziel einer effektiven und absatzstarken Gemäldeproduktion einher. Die Produktionsverfahren des 18. und 19. Jahrhunderts folgten, mehr und mehr politischen, gesellschaftlichen und ökonomischen Motiven, wobei die Künstlerkooperation als soziales Arbeitsmodell bestätigt wurde. Damit wurde gleichsam der Weg für Künstlergemeinschaften und Künstlerkolonien geebnet, die vor allem im 20. Jahrhundert ein globales Phänomen darstellten und das künstlerische Selbstverständnis bis zum heutigen Tag prägen.
Die primäre Fragestellung der Arbeit war, inwiefern durch naturnah gestaltete Feuchtgebiete die teilweise erhebliche Restbelastung biologisch gereinigter Abwässer mit Nähr- und Schadstoffen sowie Indikatorkeimen verringert werden kann. Außerdem wurden u. a. das mögliche Risikopotential und der Biotopwert der Flächen betrachtet. Untersucht wurden drei Nachbehandlungsflächen (1,1 m-²/E, 1,3 m-²/E, 5,2 m-²/E), die jeweils einer Pflanzenkläranlage nachgeschaltet sind und aus flachen, bewachsenen Mulden, Ablaufgräben sowie oberflächlich und unterirdisch durchflossenem Grünland bestehen. In den Flächen wurde eine prinzipielle Sauerstoffanreicherung und eine bedeutende Verringerung von Nährstoffen festgestellt. Im Vergleich zum Kläranlagenablauf verringerte sich die NH4-N-Konzentration des gereinigten Abwassers in den Flächen um 72-92%, Nmin um durchschnittlich 23-64% und Nges um 17-59%. Die Verringerung der PO4-P-Konzentration betrug 23-79%, die von Pges 21-85%. Durch die Nachbehandlung ergab sich z.B. für eine Kläranlage eine Steigerung der Reinigungsleistung von 49% auf 95% für NH4-N, von 38% auf 68% für Nges und von 47% auf 90% für Pges. Die Flächen waren in der Lage, Belastungsspitzen zu kappen und die ohnehin geringen Ablaufbelastungen mit Indikatorkeimen weiter zu verringern. Die Risiken einer Grundwasserverschmutzung, einer Anreicherung persistenter toxischer Stoffe im Boden und einer Verbreitung pathogener Keime waren gering. Vor allem die durch die Nachbehandlung entstandenen Kleingewässer steigerten den Biotopwert der Flächen. Naturnahe Nachbehandlungsflächen stellen einen ökologisch wie ökonomisch sinnvollen Beitrag zur Effizienzsteigerung der Abwasserbehandlung dar. Sie eignen sich auch zur Aufbereitung belasteter Wässer, die Dränagen, Entwässerungsgräben oder Regenüberläufen der Mischwasserkanalisation entstammen.
Reduktionistische Ansätze sind in der Naturforschung allgegenwärtig und die Erklärung des Verhaltens komplexer Systeme aus der naturgesetzlich determinierten Interaktion ihrer Konstituenten ist in der Regel dazu geeignet, den jeweiligen Gegenstandsbereich sowohl auf ontologischer als auch theoretisch-deskriptiver Ebene hinreichend zu vereinfachen. Diese Form der Vereinfachung ist das Grundcharakteristikum einer wissenschaftlichen Erklärung und der Schlüssel zum ungemeinen Erfolg, den die empirischen Disziplinen seit dem Beginn der Neuzeit zu verzeichnen haben. Gleichwohl ist jene Verfahrensweise ungeachtet ihrer Vorzüge auch die Quelle ernstzunehmender Probleme, die spätestens in der Anwendung des Reduktionismus auf den Wissenschaft betreibenden Menschen selbst unübersehbar werden, insofern sich z.B. die Gesamtheit seiner kognitiven Leistungen (phänomenales Bewusstsein, Wille, Intentionalität, Sinn- und Bedeutungskonstitution etc.) letztlich als nicht mehr erweist, als das physiologische Verhaltensmuster der Nervenzellen des Gehirns. Neben der Entwertung des Bewusstseins als eines wirkungs- und somit wissenschaftlich bedeutungslosen Epiphänomens neuronaler Aktivität impliziert jene Naturalisierung des Menschen ebenfalls die Verabschiedung der Idee der Freiheit, die schließlich einem naturgesetzlich determinierten System a priori nicht zukommen kann; weitere tiefgreifende Konsequenzen für die Konzepte von Zurechenbarkeit, Verantwortlichkeit und Schuld sind daraus unmittelbar zu erschließen und bedürfen kaum der gesonderten Erwähnung. Ziel der vorliegenden Dissertation ist die Bestimmung der Grenzen der reduktionistischen Methodologie in der empirischen Naturwissenschaft, und das unter Befragung des gegenwärtigen physikalischen Weltbildes. Im Zuge einer historisch-systematischen Rekonstruktion der Quantenmechanik, die seit fast einem Jahrhundert als die fundamentale theoretische Modellierung der Naturkräfte und der Materie zu gelten hat, soll gezeigt werden, inwiefern die universellen Ansprüche des Reduktionismus relativert werden müssen und inwieweit die gegenwärtige Physik sowohl eine ernstzunehmende Neubewertung der Rolle des Bewusstseins in der Welt, als auch eine Rehabilitierung der Konzepte von Freiheit und Verantwortlichkeit ermöglichen kann.
Die vorliegende Arbeit widmet sich der Beantwortung der Fragestellung, inwieweit die NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen erfolgreich war, und aufgrund welcher Akteure, Praktiken und Bedingungen die Normübernahme (nicht) erfolgte. NATOisierung wird hierbei als Sozialisationsprozess im Politikfeld Sicherheit begriffen. Konzeptioneller Ausgangspunkt für die theoriegeleiteten Fallstudien bildet die Entwicklung eines Forschungsdesigns, mittels dessen der rational-institutionalistische und der konstruktivistisch-institutionalistische Strang der internationalen Sozialisations-forschung für die Analyse der NATOisierung postkommunistischer Sicherheitspolitik nutzbar gemacht werden kann. In Kritik an der Mehrheit der Sozialisationsstudien, die die Übernahme von Normen internationaler Institutionen seitens der postkommunistischen Staaten entweder als Verhandlungs- und Anpassungsprozess strategisch handelnder Akteure oder als sozialen Lern- und normativen Überzeugungsprozess intrinsisch motivierter Akteure betrachten, argumentiert diese Studie, dass die Wahl eines komplementären Zugangs sowohl aus theoretisch-konzeptionellen als auch empirisch-phänomenologischen Erwägungen unabdingbar ist. Die hierbei zu Grunde liegende Methode der doppelten Interpretation, mittels derer der Verlauf und das Ergebnis der NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen sowohl aus Sicht des rationalen als auch des konstruktivistischen Institutionalismus beleuchtet worden sind, hat sich als tragfähig erwiesen. In der Tat variiert die Erklärungskraft beider theoretischer Ansätze im Hinblick auf die unterschiedlichen Akteure, Phasen und/oder Kontexte des sicherheitspolitischen Sozialisationsprozesses. Wenngleich die NATO durch ihre Sozialisationspolitik den Demokratisierungsprozess Polens und Tschechiens im Politikfeld Sicherheit begünstigte, bestätigt die empirische Analyse die weit verbreitete Betrachtungsweise der 'Partnerschaft für den Frieden' als ausschließliche Erfolgsgeschichte nicht. Vielmehr war die Erweiterungs- und Sozialisationspolitik der NATO mit gravierenden (nichtintendierenden) Konsequenzen verbunden, die sich hinderlich auf die Transformation der zivil-militärischen Beziehungen postkommunistischer Staaten auswirkten.
Gegenstand der Dissertation ist die Geschichte und Manifestation des Nationaltheaters in Japan, der Transfer einer europäischen Kulturinstitution nach und deren Umsetzungsprozess in Japan, welcher mit der Modernisierung Japans ab Mitte des 19. Jahrhunderts begann und erst hundert Jahre später mit der Eröffnung des ersten Nationaltheaters 1966 endete. Dazu werden theaterhistorische Entwicklungen, Veränderungen in der Theaterproduktion und -architektur in Bezug auf die Genese eines japanischen Nationaltheaters beleuchtet. Das Ergebnis zeigt, dass sich die Institution Nationaltheater in seiner japanischen kulturellen Translation bzw. Manifestation wesentlich von den vom Land selbst als Model anvisierten Pendants in Europa in Inhalt, Organisations- und Produktionsstruktur unterscheidet. Kulturell übersetzt wurde allein die Hülle der europäischen Institution. Das erste Nationaltheater in Japan manifestiert sich als eine von der Regierung im Rahmen des Denkmalschutzgesetztes initiierte und bestimmte, spezifisch japanische Variante eines Nationaltheaters, die unter dem Management von staatlichen Angestellten und Beamten den Erhalt traditioneller Künste in dafür ausgerichteten Bühnen zur Aufgabe hat. Nationaltheaterensemble gibt es nicht, die Produktionen werden mit Schauspielern kommerzieller Theaterunternehmen realisiert. Der lange Prozess dieser Genese liegt in der nicht vorhandenen Theaterförderung seitens der Regierung und der eher zurückhaltenden Haltung der Theaterwelt gegenüber einem staatlich betriebenen Theater begründet. Das Hüllen-Konzept des ersten Nationaltheaters diente, genau wie dessen Management durch Beamte, als Prototyp für die fünf weiteren bis 2004 eröffneten Nationaltheater in Japan, welche als Spartentheater der spezifisch japanischen Vielfalt an Theaterformen, auch in ihrer Bühnenarchitektur Rechnung tragen.
Es werden die mathematischen Methoden und algorithmischen Verfahren der Clusteranalyse im Hinblick auf Bedeutungsrepräsentationen untersucht. Im Rahmen der deskriptiven und explorativen Datenanalyse werden die Voraussetzungen und Bedingungen des clusteranalytischen Ansatzes und die Möglichkeiten seiner Anwendung diskutiert, die zur adäquaten Ermittlung und Beschreibung von Gruppierungen von Bedeutungspunkten im semantischen Raum verwendet werden, welche nach räumlicher Lage und topologischen Nachbarschaften den Ähnlichkeiten von Bedeutungen sprachlicher Zeichen in Texten entsprechen. Dabei ist die große Anzahl frei wählbarer Parameter und der Einfluß, den jede Wahl eines der bekannten clusteranalytischen Verfahren in Bezug auf die vorauszusetzenden Vorkenntnisse von der Struktur der zu untersuchenden Daten auf die Güte der erwartbaren Ergebnisse hat, eine bekannte Schwäche der Clusteranalyse. Diese generelle Problematik belastet die Abschätzbarkeit von Erfolg und Adäquatheit unüberwachter Klassifikationsverfahren weit über die quantitativ-linguistischen Untersuchungen in der Gebrauchssemantik hinaus. Deshalb wird ein neues Verfahren entwickelt, welches den analysierten Daten in geringerem Maße als bisher Strukturen aufprägt und in höherem Maße als bisher von den analysierten Daten und ihren Strukturen gesteuert wird.
Nach innen gerichtetes Marketing kann im Rahmen des Destinationsmanagements einen hohen Stellenwert einnehmen, der in der Tourismusliteratur jedoch noch nicht explizit ausgewiesen ist. Mit den beiden Komponenten "internes Marketing" und "Binnenmarketing" bestehen zwei Managementbereiche, die einen großen Einfluss auf die Leistungsfähigkeit einer öffentlichen Tourismusorganisation und einer Destination als strategische Geschäftseinheit besitzen können. Dies bedingt, dass die Modelle begriffen, dann verinnerlicht, mitgetragen und gelebt werden. Doch dazu bedarf es auch bestimmter organisatorischer Voraussetzungen, um die Leistungsfähigkeit im nach innen gerichteten Marketing in einem guten Verhältnis und nach einem stringenten Muster umzusetzen. Damit wird die organisatorische Struktur einer Destination zum entscheidenden Indikator für ihre Wirkung nach innen und außen. Ein durch politische Vorgaben eingeengtes Destinationsmanagement, das sich vorwiegend an politischen Paradigmen orientiert, hat aus marktwirtschaftlichen Gesichtspunkten keine Möglichkeit sich am Markt durchzusetzen. Es wird immer unter seinen Möglichkeiten arbeiten (müssen). Die mittels des nach innen gerichteten Marketings angesetzte Kommunikation und Kooperation mit allen relevanten Anspruchsgruppen ist einer der wichtigsten Schlüssel, um eine destinationsweite Leistungsverbesserung umzusetzen. Fehlen jedoch die Instrumente, die Zeit, die Arbeitskräfte und das Know-how seitens der touristischen Organisationen, wird sich langfristig keine Verbesserung der Leistungsfähigkeit der Destination erreichen lassen. Da die Politik in den Gebietskörperschaften maßgeblichen Einfluss auf die Arbeit der Tourismusorganisationen ausübt und teilweise auch ihre eigenen Organisationen trotz offensichtlich ineffizienter Arbeitsweise protegiert, liegt im Umsetzen eines Strukturwandels ein maßgebliches Problem. Der Wille zur Reform der touristischen Struktur in Deutschland allgemein und in Rheinland- Pfalz speziell ist nur schwach ausgeprägt, weil durch eine Reform des vorhandenen Systems politische Macht auf allen Ebenen verloren gehen würde. Hierbei sind vor allem die zahlenmäßig am stärksten vertretenen Gebietskörperschaften, die Kommunen, angesprochen. Das Beharrungsvermögen wird durch viele kommunale Touristiker sogar noch verstärkt, da jede grundlegende Änderung auch eine - meist nicht gewünschte - Veränderung des Arbeitsplatzes und auch der Arbeitsplatzsicherheit mit sich bringt. Anhand der vorliegenden empirischen Untersuchung zeigen sich viele Schwachstellen im System. Eine Umstrukturierung ist die notwendige Voraussetzung einer grundlegenden Leistungsverbesserung. Hier ist es deshalb die Aufgabe der übergeordneten Organisationen (z.B. DTV, Landesverbände, Regionalagenturen) den Umstrukturierungsprozess voranzutreiben. Dabei muss vor allem auf höchster administrativer Ebene in den Ländern für einen Wandel geworben werden. Ein zielgerichtetes nach innen gerichtetes Marketing, das mittels strategischer Einheiten über ein einheitliches landesweites System implementiert wird, kann wichtige Grundlagen für eine geordnete Umstrukturierung geben. Veränderungen kommen nicht von selbst. Mit Hilfe der Tourismusorganisationen des Untersuchungsgebietes Rheinland-Pfalz lassen sich sukzessive solche Möglichkeiten herbeiführen, die erste Schritte einleiten können. Um relativ schnell einen Wandel einleiten zu können, sollte ein Modellprojekt für ein touristisches interkommunales Verbundsystem in einer rheinland-pfälzischen Region vom Wirtschaftsministerium unterstützt werden. Im Rahmen dieses Modellprojektes können wichtige Informationen gewonnen werden, die sukzessive auch auf andere Regionen übertragen werden können. Die Arbeitsphasenmodelle des internen Marketings und Binnenmarketings können für einen Strukturwandel entscheidende Hilfestellungen geben. Mit dem strikten Anwenden der Modelle werden Schwachstellen in Organisation und Destination aufgedeckt. Damit können effektive Instrumente für ein Change-Management gefunden und bei objektiver Betrachtung der Sachlage zielgerichtet für eine Verbesserung der jeweiligen Situation eingesetzt werden. Das Bilden "Strategischer Einheiten" bietet hierfür eine geeignete Basis. Ohne dass ein genereller Wandel im Denken herbeigeführt wird, werden die meisten öffentlichen Tourismusorganisationen immer unter ihren Möglichkeiten bleiben. Destinationsmanagement muss deshalb als Bewusstseinsmanagement begriffen werden. Der finanzielle Mitteleinsatz und die daraus induzierten Leistungen lassen sich bei genauer Betrachtung nicht mehr rechtfertigen, vor allem mit Hinblick auf die immer schlechter werdende Kassenlage der Gebietskörperschaften. Eine Professionalisierung im öffentlich geförderten Tourismus impliziert auch die Notwendigkeit des Umdenkens bei der Personalstruktur in den touristischen Organisationen. Gefragt sind Persönlichkeiten, die ausgestattet sind mit explizitem Fachwissen, hoher sozialer Kompetenz und ausgeprägter Management- und Entscheidungskompetenz. Für die zukünftige Arbeitsmarktsituation bedeutet dies die Notwendigkeit der Ausbildung von Destinationsmanagern an Universitäten, Fachhochschulen und Berufsfachschulen mit touristischer Ausrichtung, die sich sehr nah an der Praxis orientieren. Hier wäre die Gründung eines touristischen Kompetenz-Zentrums mit Schwerpunkt Destinationsmanagement ein Schritt in die richtige Richtung. Die Zukunftsfähigkeit der öffentlich geförderten Tourismusorganisationen wird entscheidend von eigenen Kompetenzen, ihrer Effizienz und den künftigen Rahmenbedingungen abhängen. Gewinner werden diejenigen Destinationen und deren Organisationen sein, die ihre Struktur durch Reformen so optimieren, dass sie durch ihre Arbeit nach innen und außen ein Höchstmaß an Effizienz und damit an Beachtung und Akzeptanz erreichen. Ein in den Tourismusorganisationen konsequent angewendetes, gezieltes und effizient eingesetztes nach innen gerichtetes Marketing wird hierfür einen entscheidenden Beitrag leisten können.
Ziel der Dissertation ist es, den Hochwasserschutz und das Management extremer Hoch-wasser für das Einzugsgebiet der Isar zu verbessern mit Hinblick darauf, wie sich vorhandene und neu zu schaffende Retentionsräume mit optimaler Wirkung für das gesamte Flusssystem einsetzen lassen. Dafür sind Kenntnisse über extreme Ereignisse und deren Auswirkung auf die betrachteten Einzugsgebiete notwendig. Großskalige Niederschläge in Mitteleuropa werden überwiegend durch Vb-artige Zugbahnen ausgelöst. Die Relevanz für Bayern zeigt die Auswertung des neuesten Kataloges der Vb-Zugbahnen für den Zeitraum 1959 bis 2015. In den Monaten April bis Oktober haben Vb-Zugbahnen zu ca. 30 % der beobachten Hochwasser beigetragen. Im Sommer führt sogar jedes zweite Vb-Tief zu Hochwasser. Im Donaueinzugsgebiet können 50 % der 20 größten Hochwasser direkt auf Vb-Zugbahnen zurückgeführt werden, weitere 25 % durch ähnliche Zugbahnen oder auf eine Vb aktiven Phase. Über die Hälfe der größten Hochwasser traten dabei in Bezug zu einer Serie von Vb-Tiefs auf. 60 % der Vb-Zugbahnen sind Teil einer Serie von Vb-Tiefs. Aus wiederkehrenden Niederschlägen persistenter Zugbahnen resultieren mehrgipflige Hochwasserwellen, die insbesondere für Rückhalteräume betrachtet werden müssen (DIN 19700). Die Detailuntersuchung erfolgt unter besonderer Beachtung der Untersuchungen zu den Vb-Zugbahnen. Das Isareinzugsgebiet mit 8900 km-² besitzt mit den Seen im Voralpenland große natürliche Retentionsräume und mit dem Sylvensteinspeicher im alpinen Einzugsgebiet den größten staatlichen Speicher Bayerns. Für die Wirkungsanalyse von gekoppelten Hoch-wasserrückhalteräumen in komplexen Einzugsgebieten müssen Ganglinien mit einem Nie-derschlag-Abfluss-Modell generiert werden, die den Wellenablauf des Hochwassers im ge-samten Einzugsgebiet repräsentieren. Die Dissertation analysiert, wie sich der Einsatz ver-schiedener Verfahren zur Vorgabe der Eingangsniederschläge auswirkt. Dabei liegt der Schwerpunkt der Untersuchung auf dem Niederschlagsverlauf. Es wird ein Verfahren zur Ableitung von Ganglinien aus standardisierten beobachteten Niederschlagsverläufen entwi-ckelt. Die Hochwasserganglinien, generiert aus synthetischen Niederschlagsverläufen der Bemessung, werden am Beispiel des Sylvensteinspeichers mit den drei größten abgelaufe-nen Hochwasserereignissen verglichen und diskutiert, ob mit dem neuen Verfahren die Cha-rakteristik der beobachten Hochwasser besser wiedergeben wird. Der Fokus liegt dabei auf der Wellenüberlagerung. Es kann für das ganze Gebiet gezeigt werden, dass die mit der neuen Methode standardisierten beobachteten Niederschlagsverläufe besser geeignet sind, die Wellenüberlagerung wiederzugeben, da zeitliche Unterschiede durch die Staueffekte an den Alpen berücksichtigt werden, wie sie bei Vb-Zugbahn geprägten Niederschlägen entste-hen. Es kann daher bei ähnlichen Fragestellungen empfohlen werden, diese Methode in der Praxis als Variante hinzuzuziehen, um die natürlichen Prozesse repräsentativer zu beschrei-ben. Für die Simulation mit dem N-A-Modell LARSIM werden die Unsicherheiten durch Varianten-rechnungen gezeigt. Es hat sich herausgestellt, dass nicht nur der Niederschlagsverlauf und die Vorbedingungen des Ereignisses eine große Auswirkung auf die Kalibrierung der Ab-flussbeiwerte im N-A-Modell haben, sondern auch das gewählte Flood-Routing-Verfahren und die Gerinnerauheit. Schließlich wird die Bewertung der potenziellen Standorte durchgeführt. Es wird berechnet, wo das Hochwasser zurückgehalten werden muss, um sowohl eine lokale Reduktion des Hochwasserscheitels, als auch gleichzeitig eine möglichst große Schutzwirkung für das Ge-samtsystem zu ermöglichen. Priorisiert werden Rückhaltestandorte, die praktisch umsetzbar sind und den größten Nutzen haben. Die Untersuchung einer Doppelwelle, die durch eine Serie von Vb-Zugbahnen entstehen kann, zeigt, wie die Einschätzung potenzieller Standorte verändern kann. Der alpine und zum Teil der voralpine Raum reagieren mit kurzen steilen Ganglinien und sind gegenüber Doppelwellen weniger sensitiv, weil kaum Wellenüberlagerung entsteht. Für den Sylvensteinspeicher, der im alpinen Raum liegt, können daher kurze Niederschlagspausen für eine schnelle Entlastung des Speicherraumes genutzt werden. Un-terhalb von Seen mit einem großen Retentionsvermögen erzeugen Doppelwellen aufgrund der langen Retentionsäste durch die Wellenüberlagerung deutlich höhere Abflüsse als Ein-zelwellen. Rückhalt an der oberen Isar ist unter diesen Kriterien am optimalsten. Empfohlene Maßnahmen - ohne Bauaufwand - konnten bereits umgesetzt werden und verbessern den Hochwasserschutz und das Hochwassermanagement an der Isar. Die Auswertungen zeigen, dass in den Monaten April, Mai, September und Oktober die Hochwasserereignisse in Folge von Vb-Zugbahnen im Zuge der Klimaveränderung häufiger und in den Sommermonaten extremer werden könnten.
Mothers and Daughters: The Female English Bildungsroman, 1811-1915 This dissertation analyses the mother-daughter-relationship of five female apprenticeship novels. In the course of the study of Jane Austen's Sense and Sensibility (1811), Charlotte Brontë's Jane Eyre (1847), Elizabeth Gaskell's Wives and Daughters (1865), George Eliot's The Mill on the Floss (1860) and Virginia Woolf's The Voyage Out (1915) modern feminist, psychological, and psychoanalytical theories concerning the mother-daughter-conflict and female development are considered as well as autobio-graphic material and the authoresses' Œuvres. The historical context, the social and psychohistoric con-ditions, and changes in England during the 19th and beginning 20th century (especially concerning family, female socialisation and role training, motherhood, children's education) are studied and the features and achievements of the female Bildungsroman, that experiences an upswing during this time, emphasized. The dissertation shows the development of the female apprenticeship novel concerning its presentation of mother, daughter, and mother-daughter-relationship and also the enormous progressive-ness of this genre concerning the description of details of this relationship. The analysis demonstrates that all novels show complex and problematic mother-daughter-relationships, that for the daughters are on the one hand traumatic, but on the other hand lead to self-discovery and autonomy. The texts present the mother-daughter-relationship as highly ambivalent, oscillating between love, identification, aggression, rejection, rivalry, and rebellion. In this way they serve to correct the female doctrine and the ideological mother image of the Victorian period as much as the cliché of childhood as an idyllic condition without conflicts, and thus anticipate psychological discoveries and efforts of later periods. Furthermore, it becomes obvious that the authoresses put their own problematic mother-daughter-relationship into literary form and thus try to overcome it; that the fictitious mother-daughter-relation-ships often have a compensatory function. The fact that the analysed novels admit to the mother-daughter-relationship so early such an importance, constitutes their rank and justifies their place in the English literature and culture.
Ausgangspunkt ist der demographische Wandel und die damit einhergehende älter werdende Erwerbsbevölkerung. Es wird davon ausgegangen, dass aufgrund dieser Entwicklung einige Unternehmen senioritätsorientierte Entgeltstrukturen grundlegend verändern bzw. abschaffen müssen. Es gibt bisher einige wenige theoretische Überlegungen, wie diese veränderten Entgeltstrukturen aussehen könnten. Jedoch wird hierbei nicht berücksichtigt, wie ältere Beschäftigte auf eine derartige Veränderung reagieren könnten. Dieser Frage wird im Rahmen der Dissertation nachgegangen. Ein gesondertes Augenmerk, wird zudem auf die möglichen Reaktionen älterer Arbeitnehmer auf eine Anhebung des Renteneintrittsalters auf 67 Jahre gelegt. Zu diesem Zweck werden aus verschiedenen theoretischen Perspektiven mögliche Verhaltensreaktionen älterer Arbeitnehmer abgeleitet. Grund für die breitangelegte Betrachtung des Sachverhaltes ist die mehrdeutige Bedeutung von Einkommen. Die Höhe der Entlohnung ist nicht nur als Gegenleistung der erbrachten Arbeitsleistung zu sehen, sondern immer auch als Ausdruck von Macht, Prestige, sozialen Status etc. Berücksichtigung finden klassische ökonomische Theorien, Motivationstheorien, Wertwandeltheorien, Theorien zur Arbeitszufriedenheit und Machttheorien. Bei der Behandlung der verschiedenen Theorien wurde des Weiteren der Frage nach alternativen Anreizen zu monetären Anreizen nachgegangen, welche eine spezifische Wirkung auf ältere Arbeitnehmer entwickeln können. Durch eine weiterentwickelte Typologie drei verschiedener Typen der Arbeitsorientierung werden als Ergebnis mögliche Verhaltensreaktionen näher erläutert und auf mögliche alternative Anreize eingegangen.
In dieser Abhandlung wird die Stellung der Mädchenbildung in der staatlichen Bildungspolitik in der Phase verdichteter staatlicher Reformbestrebungen an der Wende vom 18. zum 19. Jahrhundert untersucht. Dazu wird ein Vergleich zwischen der preußischen Kurmark und dem Land Österreich unter der Enns in Österreich durchgeführt.
In dieser Arbeit präsentieren wir einen systematischen Ansatz zur Multithread Implementierung von Divide und Conquer sowie inkrementellen Algorithmen. Wir stellen für beide Kategorien von Algorithmen ein Framework vor. Beide Frameworks sollen die Behandlung von Threads erleichtern, die Implementierung von parallelen Algorithmen beschleunigen und die Rechenzeit verringern. Mit Hilfe der Frameworks parallelisieren wir beispielhaft zahlreiche Algorithmen insbesondere aus dem Bereich Computational Geometry, unter anderem: Sortieralgorithmen, konvexe Hülle Algorithmen und Triangulierungen. Der Programmcode zu diese Arbeit ist in C++ unter Verwendung templatisierter Klassen implementiert und basiert auf der LEDA Bibliothek.
Mit der Globalisierung der Märkte und dem weitverbreiteten Einsatz von Kommunikations- und Informationstechnologien in Unternehmen sind in vielen Organisationen geographisch verteilt arbeitende Teams zum Standard geworden. Gleichzeitig gehören multiple Teammitgliedschaften (MTM), d.h. die simultane Zugehörigkeit zu mehreren Teams, für viele Mitarbeitende bereits zum Arbeitsalltag. Mit der Zuordnung von Personen zu multiplen Teams wollen Organisationen einen effektiven Einsatz ihrer personellen Ressourcen ermöglichen. Ob dies tatsächlich gelingt, ist bislang noch ungeklärt. Eine bedeutende Folge dieser Arbeitsstrukturen ist zudem die zunehmende Durchlässigkeit der Grenzen von Teams. Klare Teamgrenzen bleiben aber auch weiterhin ein wichtiger Faktor, um den Zusammenhalt eines Teams und eine effektive Zusammenarbeit der Teammitglieder sicherzustellen. Bislang gibt es keine empirischen Studien zum Zusammenhang von MTM und Teamgrenzen und nur wenige zu den Auswirkungen von MTM auf virtuelle Teamarbeit. Diese Arbeit ging in zwei Studien der Frage nach, in welchem Zusammenhang MTM mit Teamgrenzen und mit emotionalen und kognitiven Zuständen in virtuellen Teams steht und welche Effekte MTM und Teamgrenzen auf verhaltensbezogene Ergebnisse von Teamarbeit haben. Feldstudie: In einer querschnittlichen Online-Fragebogenstudie mit 105 Mitarbeitenden zweier globaler Unternehmen wurde der Zusammenhang von MTM mit Teamgrenzen sowie mit Commitment (emotionaler Zustand) und Team Mentalen Modellen (kognitiver Zustand) untersucht. Neben der Anzahl an Teammitgliedschaften wurden der prozentuale Arbeitszeitanteil im Team und der Virtualitätsgrad in der Zusammenarbeit als Indikatoren von MTM erfasst. Die Prüfung der Zusammenhänge über den Partial-Least-Square Ansatz ergab positive Zusammenhänge von MTM sowie Prozentanteil Arbeitszeit mit Commitment und Team Mentalen Modellen. Ein Zusammenhang von MTM und Teamgrenzen blieb überraschenderweise aus. Ein höherer Virtualitätsgrad ging mit einem geringeren Commitment zum Team und mit als schwächer wahrgenommenen Teamgrenzen einher. Laborstudie: In einer laborexperimentellen Studie mit 178 Studierenden wurden die Effekte von MTM (vier vs. eine Teammitgliedschaft) und Teamgrenzen (gestärkt vs. nicht gestärkt) auf Informationsflut, Koordinationserfolg und Leistung als verhaltensbezogene Ergebnisse virtueller Teamarbeit getestet. MTM zeigte in den Regressionsanalysen weder einen Effekt auf Informationsflut noch auf Koordinationserfolg. Die objektive Leistung viel jedoch bei Versuchspersonen mit vier Teammitgliedschaften signifikant schlechter aus als bei Versuchspersonen mit einer Teammitgliedschaft. Für subjektive Leistungsmaße blieb ein entsprechender negativer Effekt aus. Die Stärkung der Teamgrenzen führte zu einer positiveren Einschätzung des Koordinationserfolgs und der Leistung und reduzierte die Wahrnehmung von Informationsflut. Die Ergebnisse der beiden Studien deuten darauf hin, dass MTM in Abhängigkeit von den betrachteten Indikatoren sowohl positive als auch negative Zusammenhänge mit Prozessen und Ergebnissen in Teams hat. Für MTM haben sich unter den kontrollierten Bedingungen des Experimentes kaum direkte Effekte eingestellt, während in der Feldstudie positive Zusammenhänge mit emotionalen und kognitiven Zuständen eine (mittelfristig) positive Wirkung von MTM andeuten. Dies kann als Hinweis interpretiert werden, dass MTM eher zeitlich versetzte oder über indirekte Mechanismen vermittelte Effekte auf virtuelle Teamarbeit hat. Die im Experiment durch MTM reduzierte objektive Leistung bei gleichbleibender subjektiver Leistungsbewertung deutet darauf hin, dass ein Leistungsabfall durch MTM von den betroffenen Personen möglicherweise nicht bewusst wahrgenommen wird. Teamgrenzen scheint hingegen einen insgesamt förderlichen Faktor für die Zusammenarbeit in virtuellen Teams darzustellen.
Mit fachlicher Informationskompetenz werden die Fähigkeiten bezeichnet, die notwendig sind, um effektiv Fachinformationen (z.B. Zeitschriftenartikel) finden und bewerten zu können. Informationskompetenz gilt als wichtige Voraussetzung für ein erfolgreiches Studium und Erfolg auf dem Arbeitsmarkt. Ziel dieser Arbeit ist es, Messinstrumente für fachliche Informationskompetenz bei Psychologiestudierenden zu entwickeln. Dabei wird davon ausgegangen, dass Informationskompetenz sowohl deklarative, als auch prozedurale Wissenskomponenten (Hintergrundwissen über Konzepte und die Beherrschung von Strategien und Vorgehensweisen) enthält. Um diese erfassen zu können, wurde ein Multiple-Choice-Test und Rechercheaufgaben entwickelt; beide Instrumente wurden zur Evaluation eines Trainings für Informationskompetenz eingesetzt. Mittlere Korrelationen zwischen den Instrumenten und die Ergebnisse einer Clusteranalyse zeigen, dass mit beiden Instrumenten unterschiedliche Wissenskomponenten erfasst werden.
Wahrnehmungsprozesse werden durch Wünsche, Hoffnungen und Befürchtungen beeinflusst. Dieser Sachverhalt wird mit dem Begriff der motivierten Wahrnehmung bezeichnet. Motivierte Wahrnehmung zeigt sich im Einfluss der Stimulusvalenz auf die Sensitivität bzw. die Wahrnehmungsschwelle. Umstritten ist in diesem Zusammenhang besonders die Wahrnehmung von Stimuli mit negativer Valenz: Frühere Arbeiten gingen von einer "Wahrnehmungsabwehr" gegenüber bedrohlichen Signalen aus, während neuere Ansätze Vigilanzeffekte für negativ-valente Stimuli vorhersagen. Eine theoretische Einbettung der Phänomene der motivierten Wahrnehmung in ein Modell der Handlungsregulation erlaubt es, konkrete Hypothesen abzuleiten, wann es zu einer Sensitivierung für negative Signale und wann es zu einer Ausblendung entsprechender Stimuli kommt: Es wird vorhergesagt, dass Hinweise auf kontrollierbare Gefahren Aufmerksamkeit binden und Hinweise auf unkontrollierbare Bedrohungen dagegen im Wahrnehmungsprozess inhibiert werden. Diese Hypothese wurde in einer Reihe von sechs Computerexperimenten mit unterschiedlichen Anordnungen empirisch überprüft. Es wurde besonderer Wert darauf gelegt, methodische Probleme, die mit vielen früheren Forschungsarbeiten in diesem Bereich verbunden waren, zu vermeiden. Die zentrale Herausforderung besteht dabei darin, Wahrnehmungsprozesse von strategischen Effekten auf der Ebene der Entscheidungsfindung und von Reaktionstendenzen zu trennen. Zu diesem Zweck wurden einerseits spezielle statistische Auswertungsformate (stochastische Diffusionsmodelle; Signaldetektionstheorie) herangezogen, die es erlauben, Wahrnehmungseffekte von Reaktionstendenzen zu trennen. Andererseits wurden Paradigmen gewählt, die Antworttendenzen a priori minimierten bzw. ausschlossen. Die Ergebnisse aller sechs Experimente bestätigen die zentrale Hypothese. Wenn eine Bedrohung kontrolliert werden kann, werden negative Stimulusanteile bevorzugt wahrgenommen und die Wahrnehmungsschwelle für entsprechende Hinweise ist verringert. Umgekehrt zeigt sich eine Inhibition negativer Inhalte im Wahrnehmungsprozess und eine erhöhte Wahrnehmungsschwelle für negative Signale, die unkontrollierbare Gefahren ankündigen.
The spatio-temporal changes of rangelands in the European Mediterranean are analysed with remote sensing and GIS-based methods, referring to an example of two mountain ranges in central Crete, Greece. The focus is to monitor and assess land degradation and its potential correlation with ecological and socio-economic boundary conditions. Particular attention is paid to the unique European Mediterranean setting and the Greek integration within the European Union. After a geometric correction of the satellite data, a radiometric pre-processing chain is employed to calculate reflectance values via a DEM-based atmospheric correction. The computation of pixel-wise soil and vegetation fractions is based on a spectral unmixing approach. A subsequent time-series analysis reveals spatially explicit trends, mean vegetation cover and phenological variability. Results do not only exhibit significant differences between the two test sites, but also within the respective regions. In both mountain ranges there extended areas with degrading vegetation patterns are revealed. However, along the Southern Cretan coast those processes are bound to a much lower base level of vegetation cover. Beyond trends and mean vegetation abundance, the phenological variability is another important figure which is employed to characterise plant communities from space. Moreover, a satellite-based map of soil development proves the correspondence between soil and vegetation degradation processes. Vegetation cover and change are then analysed with regard to aspect, slope, elevation and geological substrate to allow for a comparison of degradation processes and natural boundary conditions. In a second step, the analyses are extended to find interrelationships with socio-economic determinants. Based on these results the degradation risk for the grazing habitats of central Crete is assessed in differentiated ways. We neither encounter the scenario of irreversible degraded rangelands, nor a cultural landscape in an equilibrium under intense human influence.
Die Gemeine Fichte (Picea abies (L.) Karst.) zählt in Mitteleuropa zu den häufigsten und wirtschaftlich bedeutsamsten Baumarten. Aufgrund ihrer forstwirtschaftlichen Nutzbarkeit wird sie " insbesondere in Deutschland " weit über ihr natürliches Verbreitungsgebiet hinaus angebaut. Die Entwicklungsgeschichte der jeweiligen Populationen und die auf sie einwirkenden Standortfaktoren haben in Bezug auf ihre genetische Konstitution unterschiedlichen Einfluss ausgeübt. Wenn auch anhand morphologischer und isoenzymatischer Studien erste Kenntnisse zur Differenzierung der Fichte in ihrem europäischen Verbreitungsgebiet vorliegen, so muss vermutet werden, dass die bisher verwendeten Methoden nicht ausreichend in der Lage sind die genetische Variabilität der Fichte und die Differenzierung ihrer Populationen in ihrem deutschen Verbreitungsgebiet zu beschreiben. Ziel dieser Untersuchung war deshalb die Durchführung einer umfassenden populationsgenetischen Charakterisierung der Fichte in Deutschland auf Basis geeigneter molekulargenetischer Verfahren. Der Schwerpunkt lag insbesondere auf der Überprüfung möglicher genetischer Differenzierungen von Populationen und in der Darstellung ihrer genetischen Variabilität. Dazu wurden insgesamt vier PCR-gestützte Techniken eingesetzt: RAPD (random amplified polymorphic DNA), ISSR (inter simple sequence repeats), SSR (simple sequence repeats) und EST (expressed sequence tags). Die populationsgenetischen Analysen erfolgten an sieben Fichtenbeständen, deren Auswahl sowohl die gesamte Nord-Süd-Ausdehnung Deutschlands als auch die wesentlichen Höhenstufen berücksichtigte. Von jeder Fläche wurden 30 Individuen beprobt, morphologisch-biometrisch charakterisiert und populationsgenetisch analysiert. Als Probenmaterial für die genetische Analyse wurden Nadeln einjähriger Triebe verwendet. Die morphologisch-biometrische Analyse ergab bezüglich der Parameter Stammumfang, Baumhöhe, Trieblänge und -gewicht einjähriger Triebe sowie einiger daraus errechneter Relationen große Differenzierungen zwischen den untersuchten Populationen. Während sich die Bestände in den Höhenlagen durch niedrigen aber kräftigen Wuchs sowie vergleichsweise kurze und kompakt erscheinende Triebe auszeichneten, zeigten die Bäume der Niederungen eher ein verhältnismäßig schlankes Erscheinungsbild und lange Triebe bei niedrigen Triebgewichten. Die übrigen Bestände waren einem intermediären Typ zuzuordnen. Im Rahmen der populationsgenetischen Analyse wurden zahlreiche deskriptive und populationsgenetische Parameter zur Charakterisierung der Populationen verwendet. Während mit den dominanten Verfahren mit 14 (RAPD) bzw. 4 (ISSR) Primern 234 bzw. 36 Marker amplifiziert wurden, konnten mit Hilfe der jeweils 3 verwendeten SSR- bzw. EST-Primer 34 bzw. 9 Produkte nachgewiesen werden. Es konnte deutlich gemacht werden, dass die Detailbetrachtung der je nach Markersystem ermittelten populationsgenetischen Parameter zum Teil gegensätzliche Ergebnisse erbrachte. Während im Rahmen der ISSR-Analyse eine deutliche Differenzierung der Populationen innerhalb des natürlichen Verbreitungsgebietes gegenüber der Gruppe der künstlichen Bestände erbracht werden konnte, war dies mit den übrigen Markersystemen nicht nachvollziehbar. In der Gesamtbetrachtung aller Ergebnisse sind jedoch drei Schwerpunkte über alle verwendeten Methoden herauszuarbeiten: (1) zwischen den untersuchten Populationen bestehen lediglich geringe Differenzierungen, (2) die untersuchten Populationen zeichnen sich durch eine hohe bis sehr hohe genetische Variabilität aus, (3) die Variation der Grundgesamtheit ist durch die Variation innerhalb der Populationen begründet. Mit diesen Ergebnissen konnte auf Basis von DNA-Analysen die aus theoretischen Überlegungen sowie aus isoenzymatischen Untersuchungen stammenden Vermutungen hoher genetischer Variabilität von Fichtenpopulationen belegt werden. Darüber hinaus konnte deutlich gemacht werden, dass mit den verwendeten Markersystemen trotz großer morphologisch-biometrischer Differenzierung der untersuchten Bestände kein Zusammenhang zwischen Morphologie und Genetik nachweisbar ist. Erst die Entwicklung spezifischer EST-Marker wird die zur Zeit noch bestehende Lücke des funktionalen Zusammenhangs schließen können.