Filtern
Erscheinungsjahr
- 2024 (25)
- 2023 (20)
- 2022 (21)
- 2021 (22)
- 2020 (36)
- 2019 (33)
- 2018 (29)
- 2017 (17)
- 2016 (17)
- 2015 (18)
- 2014 (23)
- 2013 (27)
- 2012 (36)
- 2011 (24)
- 2010 (35)
- 2009 (37)
- 2008 (30)
- 2007 (50)
- 2006 (35)
- 2005 (44)
- 2004 (57)
- 2003 (46)
- 2002 (33)
- 2001 (23)
- 2000 (21)
- 1999 (9)
- 1998 (6)
- 1997 (4)
- 1996 (6)
- 1995 (7)
- 1994 (3)
- 1993 (2)
- 1992 (3)
- 1991 (1)
- 1990 (2)
- 1989 (2)
- 1988 (2)
- 1987 (2)
- 1986 (3)
- 1985 (1)
- 1984 (4)
- 1983 (2)
- 1980 (3)
- 1979 (1)
- 1978 (1)
- 1976 (1)
- 1973 (1)
- 1972 (3)
- 1970 (4)
- 1969 (1)
- (15)
Dokumenttyp
- Dissertation (493)
- Wissenschaftlicher Artikel (94)
- Buch (Monographie) (92)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (55)
- Arbeitspapier (37)
- Teil eines Buches (Kapitel) (21)
- Ausgabe (Heft) zu einer Zeitschrift (11)
- Rezension (10)
- Sonstiges (9)
- Masterarbeit (7)
Sprache
- Deutsch (848) (entfernen)
Schlagworte
- Deutschland (55)
- Luxemburg (29)
- Geschichte (23)
- Demokratie (19)
- Film (19)
- Schule (18)
- Juden (15)
- Politischer Unterricht (15)
- Schüler (14)
- Tourismus (14)
Institut
- Psychologie (118)
- Raum- und Umweltwissenschaften (108)
- Politikwissenschaft (76)
- Universitätsbibliothek (75)
- Rechtswissenschaft (55)
- Medienwissenschaft (53)
- Geschichte, mittlere und neuere (44)
- Wirtschaftswissenschaften (36)
- Fachbereich 3 (32)
- Germanistik (27)
- Kunstgeschichte (22)
- Mathematik (18)
- Soziologie (17)
- Fachbereich 2 (14)
- Fachbereich 1 (13)
- Fachbereich 6 (12)
- Informatik (12)
- Philosophie (10)
- Computerlinguistik und Digital Humanities (8)
- Romanistik (8)
- Anglistik (6)
- Fachbereich 4 (6)
- Fachbereich 5 (5)
- Geschichte, alte (5)
- Allgemeine Sprach- und Literaturwissenschaft (4)
- Ethnologie (4)
- Klassische Philologie (4)
- Pädagogik (4)
- Sinologie (3)
- Archäologie (2)
- Japanologie (2)
- Servicezentrum eSciences (2)
- Forschungszentrum Europa (1)
- Institut für Rechtspolitik (1)
- Phonetik (1)
- Slavistik (1)
- Theologische Fakultät (1)
Die erst vor einigen Jahren als System zur Qualitätssicherung eingeführte Akkreditierung von Studiengängen steht aktuell auf dem Prüfstand des Bundesverfassungsgerichts. Wegen Zweifeln an der Verfassungsmäßigkeit derrnAkkreditierungspflicht in Nordrhein-Westfalen hat das Verwaltungsgericht Arnsberg ein Klageverfahren ausgesetzt und den Fall dem Bundesverfassungsgericht vorgelegt, das nun über die Vereinbarkeit der Vorschriften mit dem Grundgesetz zu entscheiden hat. Welchen verfassungsrechtlichen Bedenken begegnet das deutsche Akkreditierungssystem im Einzelnen? Welche Erfolgsaussichten hat die Vorlage an das Bundesverfassungsgericht? Welche Konsequenzen hätte es für das gesamtdeutschernAkkreditierungswesen, wenn das Bundesverfassungsgericht die Akkreditierungspflicht für verfassungswidrig erklärt? Diesen und anderen Fragen widmet sich der vorliegende Beitrag.
Primo ist ein Softwareprodukt der Firma Ex Libris und ermöglicht eine einheitliche Einschlitz-Suche im Bibliothekskatalog, Artikeldatenbanken und anderen Datenquellen wie etwa digitalen Repositorien. An der Universitätsbibliothek Trier wird Primo eingeführt und die Artikeldatenbank Primo Central lizenziert mit dem primären Ziel, Zeitschriftenartikel und Bibliotheksbestand über eine Suchoberfläche zu erschließen. Im Folgenden wird insbesondere auf diese Implementierung eingegangen und einige Beobachtungen aus der Projektphase wiedergegeben. Die Arbeiten an Primo laufen bei uns momentan noch und eine öffentlichernVersion zur Ablösung des Online-Katalogs ist für 2012 geplant. Nach einer kurzen Einführung und Beschreibung der Funktionsweise von Primo werde ich folgende Thesen weiter ausführen: (1) Eine einheitliche Einschlitz-Suche wird aufgrund der Heterogenität derrnMetadatenqualität nur bedingt erreicht. (2) Die Auswertung großer Treffermengen wird mit Primo insbesondere durch diernFacettierungen in einem großen Masse unterstützt. Allerdings suggerieren diernFacettenwerte eine Vollständigkeit, die in dieser Weise nicht gewährleistet wird. Ebenfalls können Facettenwerte abhängig von der Sortierreihenfolge verloren gehen. (3) Die Darstellung der Daten kann man auf vielseitige Weise anpassen, so dass auch lokale Besonderheiten abgebildet werden können. Es wird als Beispiel gezeigt, wie wir die lokalen Signaturen in Primo zur Anzeige gebracht haben.
Der Aufsatz umreißt die Konkurrenz auf kulturpolitischem Gebiet zwischen den beiden deutschen Staaten. Im Zentrum steht das neu erfundene Genre des Indianerfilms, das sich aus DDR-Sicht deutlich von den populären Karl-May-Filmen des Westens absetzen wollte. Leider mußte aus Kostengründen weitgehend auf Abbildungen verzichtet werden.
Die folgende Arbeit thematisiert die Konzeptualisierung des psychischen Phänomens der Internalisierten Homonegativität (IH; Shidlo, 1994). Dieses bezeichnet die Verinnerlichung negativer Einstellungen und Verhaltensweisen gegenüber Homosexualität seitens einer gleichgeschlechtlich orientierten Person, wobei die Konstrukte von Heteronormativität und Homonegativität als Grundlage der Introjektion anzusehen sind. Bereits bestehende, in Art und Anzahl ihrer Dimensionen divergierende Begriffsbestimmungen werden zu einer neuen Arbeitsdefinition integriert. In diesem Sinne wird das Konstrukt der IH durch die Faktoren Internalisierter Homonegativität und Internalisierter Homopositivität mit je einer selbstbezogenen und globalen Subkomponente definiert. Ihre Antezedenzien und Konsequenzen, im Sinne psychischen Leidens oder stressbezogenen Selbstwachstums werden unter Einbezug ihrer Korrelate im Rahmen des Minoritätenstress-Modells (Meyer, 1995) reflektiert. Auch werden bereits existierende explizite und implizite diagnostische Messinstrumente zur Erfassung von IH bezüglich ihrer psychometrischen Qualität analysiert sowie konzeptuelle Ideen eines solchen für den deutschsprachigen Raum aufgezeigt.
WICHTIGER HINWEIS: Aufgrund eines Computerfehlers bei der Rohdatenaufbereitung, müssen die 5.2.3. Ergebnisse (S. 43 ff.) wie folgt korrigiert werden: Explizite Einstellungsmessung Die Ergebnisse ändern sich inhaltlich: Haupteffekt Wortvalenz F(1, 94) = 51.10, p < .001, η2 = .35, (Mpos= 5.06; Mneg= -28.51); Interaktionseffekt Wortvalenz und kognitive Belastung F(1, 94) = 7.90, p < .01, η2 = .08, (Mpos/load= -5.01; Mpos/kein load= 15.13; Mneg/load= -25.43; Mneg/kein load= -31.75); Haupteffekt Wortnegation F(1, 94) = 8.58, p < .01, η2 = .08, (Mkeine = -7.95; Mnegation= -15.58). Implizite Einstellungsmessung Die Ergebnisse bleiben inhaltlich gleich: Zweifach-Interaktion von Wortvalenz und Prime, F(1, 80) = 4.61, p < .05, η2 = .06, (Mpos/wahr= 20.33; Mpos/falsch= 3.85; Mneg/wahr= 4.44; Mneg/falsch = 14.14). ABSTRACT: Ziel der vorliegenden Arbeit war es Evidenz für die Existenz einer Antonymie-Heuristik bei der Falsifikation valenter Information zu finden. Es wird angenommen, dass die vorherige Ankündigung, dass eine nachfolgende valenzhafte Information falsch ist, zu einer Änderung der Enkodierungsstrategie der valenzhaften Information führt. Dies bedeutet, dass zu der Valenz der gegebenen Information automatisch eine Gegenvalenz oder antonyme Valenz aktiviert werden sollte. Dementsprechend sollten falsche positive Informationen negativer und falsche negative Informationen positiver beurteilt werden als ihre wahren Entsprechungen. In vier Studien konnte dieser Effekt nachgewiesen werden. Die Ankündigung, dass eine valenzhafte Information falsch ist, beeinflusst, unabhängig von kognitiver Belastung, die Valenzübertragung in einem evaluativen Konditionierungsparadigma in vorhergesagter Weise (Experiment1). Ebenso führen generierte Gegenvalenzen, wenn eine Information als falsch angekündigt wurde, zu einem Verarbeitungsvorteil in einer Valenzkategorisierungs-Aufgabe, bei welcher positive Informationen als negativ und negative Informationen als positiv eingeschätzt werden sollten (Experiment 2). Die Ankündigung, dass eine nachfolgende Information falsch ist, führt außerdem dazu, dass positive (negative) Eigenschaften schnell und effizient negativer (positiver) eingeschätzt werden als bei einer Ankündigung der Informationen als wahr (Experiment 3 und 4). Zusammenfassend werden diese Befunde als Evidenz für die Existenz einer Antonymie-Heuristik im Zuge der Falsifikation valenter Information interpretiert.
Monatelange Wartezeiten auf einen ambulanten Psychotherapieplatz sind der Regelfall im deutschen Gesundheitssystem. Die Veränderung der Symptombelastung der Patienten in der Wartezeit ist bislang allerdings kaum empirisch untersucht worden. In der vorliegenden Arbeit wurden an einer Stichprobe ambulanter Psychotherapiepatienten die Ausprägungen und Veränderungen der allgemeinen psychischen Symptombelastung während der durchschnittlich sechsmonatigen Wartezeit auf den Psychotherapieplatz untersucht. Zudem wurde überprüft, mit welchen Merkmalen die Symptombelastungen zum Zeitpunkt der Anmeldung zur Therapie und zum Zeitpunkt des Erstgesprächs sowie ihre Veränderungen in der Wartezeit zusammenhängen. Die dabei untersuchten Persönlichkeitsmerkmale wurden aus theoretischen Rahmenmodellen abgeleitet. Hierzu gehören die aktionale Entwicklungspsychologie, das handlungstheoretische Partialmodell der Persönlichkeit mit der darin eingeordneten Vertrauens-Trias und das Androgynie-Modell der psychischen Gesundheit. Nach einem direkten Veränderungskriterium zeigten 48 % der Patienten in der Wartezeit keine bedeutsame Veränderung, 29 % eine Verbesserung und 23 % eine Verschlechterung. Durch die bei der Anmeldung erfassten Persönlichkeitsmerkmale konnten Verbesserungen, Verschlechterungen und gleichbleibende Symptombelastungen in der Wartezeit anhand einer multinomialen logistischen Regressionsanalyse für 60 % der Patienten korrekt vorausgesagt werden. Eine traditionelle normative Geschlechtsrollen-Orientierung stellt einen negativen Prädiktor für eine Verbesserung dar. Soziales Vertrauen konnte Verschlechterungen negativ vorhersagen. Bei Hoffnungslosigkeit handelt es sich um einen marginal negativen Prädiktor für eine Verbesserung. Ein hoch ausgeprägtes Selbstkonzept eigener Fähigkeiten ist ein positiver Prädiktor für eine Verschlechterung. Hinsichtlich der soziodemografischen und störungsbezogenen Merkmale konnten das Alter, das Geschlecht und die Anzahl der Diagnosen die Veränderungen der Symptombelastung in der Wartezeit zu 54 % korrekt vorhersagen. Das Alter ist ein positiver Prädiktor für eine Verschlechterung. Weibliches Geschlecht und die Anzahl an Diagnosen sind negative Prädiktoren für eine Verbesserung. Darüber hinaus wurden differenzierte Zusammenhänge zwischen den Persönlichkeitsmerkmalen und der Symptombelastung exploratorisch untersucht.
Wilhelm Windelband (1848-1915) gilt als ein wegbereitender Denker, der die wertphilosophische Ausrichtung der sogenannten Südwestdeutschen Schule vorzeichnet. Aufgrund dieser Vorreiterrolle sowie seiner fragmentarischen Denkweise gerät die Eigenständigkeit seines Philosophierens oft in Vergessenheit oder wird meistens im Schatten der Rezeptionsgeschichte gesehen. Die vorliegende Arbeit macht sich zur Aufgabe, Windelbands Philosophie zunächst in ihrer Eigentümlichkeit wiederherzustellen, um anschließend nach ihrer systematischen Bedeutung fragen zu können. Neben den entwicklungsgeschichtlichen Aspekten, anhand derer Windelbands gedanklicher Werdegang in drei Phasen (Psychologismus, Wertphilosophie und Kulturphilosophie) eingeteilt wird, geht die vorliegende Arbeit vor allem der Frage nach, in wie fern die von ihm konzipierte Wertphilosophie als Kulturphilosophie zu verstehen ist. Die Forderung des späten Windelbands, den Kantischen Kritizismus zu einer umfassenden Kulturphilosophie zu erweitern, dient dabei als roter Faden dieses Interpretationsversuchs. Die Herausarbeitung möglicher systematischer Ansatzpunkte innerhalb seiner Werttheorie, die dieser Forderung genügen, soll Windelbands Status als Kulturphilosoph untermauern.
Die vorliegende Arbeit untersucht das Bild der "Kernfamilie", das hier definitorisch wie folgt umrissen wurde: Auf einem geschlossenen Bildträger müssen beide Elternteile mit mindestens einem Nachkommen dargestellt sein, in einem reduzierten, nicht-narrativen Kontext. Als Hypothese wurde als Bezeichnung für dieses Bild der Begriff des "dynastischen Familienbildes" gewählt. Der Schwerpunkt lag auf kleinformatigen, nicht-sepulkralen Denkmälern, da gerade bei Grabdenkmälern sowohl regionale Traditionen sowie eine völlig andere Bedeutungsebene zu untersuchen wären. Die Untersuchung der römischen Familie und ihre Beurteilung in literarischen, epigraphischen, juristischen, numismatischen und archäologischen Quellen von der Republik bis in die Spätantike hat ergeben, dass sich einige Entwicklungslinien vom weit gefassten Familienverband der gens hin zur Kernfamilie" fassen lassen. Anders als in der Sepulkralkunst, wo eine ununterbrochene Tradition der Bilder der 'Kernfamilie' von den spätrepublikanischen Freigelassenenreliefs bis zu den Grabmedaillons vor allem in Dakien und Pannonien bis ins 4. Jahrhundert n. Chr. hinein besteht, setzt in der Kleinkunst eine dichte Überlieferung für diese Bilder erst in severischer Zeit ein. Seit dem 3. Jahrhundert wurden nun aber neben den Goldgläsern vor allem Gemmen, Ringe und Kameen mit Bildern der "Kernfamilie" geschaffen. In der Kleinkunst sind Aussagen zur Identifizierung der meist nicht benannten Familien schwierig; trotzdem ist es in den meisten Fällen möglich, die Personen in den Verwandtschaftsverhältnissen zueinander sicher zu bestimmen. Die Bilder folgen klaren Regeln, die in vier Deutungsebenen herausgestellt wurden: Das Deutungsmuster des "formalisierten Familienbildes" verweist auf die Regelhaftigkeit der Bildtypen. Die Anordnung der Personen erfolgte nicht willkürlich, jedem wird der ihm gebührende Platz zugewiesen. Damit ist das Bild auf den ersten Blick erfassbar. Nutzbar gemacht hat man sich bei der Schaffung dieser Bilder bereits bestehende Bildtypen; sie zeigten nämlich Ehepaare, Väter mit Nachkommen, Mütter mit Nachkommen oder nur die Kinder. Die Kleinkunst und die Münzen zeigen die Personen sowohl en face als auch im Profil. Allen gemeinsam ist jedoch die Tatsache, dass die Personen weder mit dem Betrachter, noch untereinander Blickkontakt aufnehmen wollen. Es geht also nicht um die Darstellung einer liebevollen Familie, die sich dem Betrachter präsentieren will und die in irgend einer Form interagiert. Das Bild ist stark repräsentativ und nicht-narrativ; es sollen Werte und Tugenden dargestellt werden. Daher kann von einem "hieratischen Familienbild" gesprochen werden. Der "hierarchische" Charakter zeigt sich, wenn die Rangfolge innerhalb der Familie gezeigt werden sollte. Hierzu dienten nicht nur die Position im Bild, die Anordnung im Verhältnis zu den anderen Familienmitgliedern, sondern auch Tracht und Insignien. Insgesamt kulminieren die Deutungsansätze im "programmatischen Familienbild". Das Bild der "Kernfamilie" ist trotz der sehr reduzierten Form in der Lage, eine Vielzahl an Werten und allgemeingültigen Tugenden zu verdeutlichen; Concordia, aeternitas, fecunditas und pietas sind nur die wichtigsten. Der bedeutsamste hinter den Bildern stehende Gedanke ist der der "Dynastie". Diese Absicht bzw. diese Hoffnung auf Fortdauer der Familie konnte durch das Bild der "Kernfamilie" einfach und wirkungsvoll transportiert werden. Aus diesem Grunde kann von einem "dynastischen Familienbild" gesprochen werden. Es wurde die Hypothese aufgestellt, dass die Bilder der "Kernfamilie" nicht nur als Bilder realer Familien zu deuten sind, sondern auch topischen Charakter haben konnten. Es wird häufig nur ein Familienmitglied benannt, andere Personen werden unter Begriffen wie "cum parentibus" subsummiert. In diesen Fällen ist eine Entscheidung, ob die konkrete Familie gezeigt wird oder ob nur der Wert der Familie allgemein angezeigt werden soll, quasi unmöglich. Nur selten zeigen die dargestellten Personen wirklich individuelle Züge. Es handelt sich dabei aber wohl eher nicht um Porträts, sondern vielmehr um Bilder der "Rolle", welche die jeweilige Person in der Familie inne hatte. Es war also wichtiger, die Eltern von den Kindern unterscheiden zu können, als exakte Gesichtszüge wiederzugeben. Daher scheint es mir legitim zu sein, von einem "Kernfamilientopos" zu sprechen, der aber sehr wohl auch eine reale Familie zeigen kann. Zusammenfassend bleibt festzuhalten, dass es zwar keinen Begriff für die "Kernfamilie" gab, dass man aber nach Auswertung aller Quellen und des "Kernfamilientopos" davon ausgehen kann, dass diese Familieneinheit nicht nur die Lebenswirklichkeit der meisten Menschen darstellte, sondern auch als Symbol für eine ganze Anzahl von Kerntugenden dienen konnte, die für den Fortbestand der Dynastie, nicht nur im kaiserlichen, sondern auch im privaten Bereich, sowie für die Stabilität des Reiches von elementarer Bedeutung waren.
Der Schwarzmeerraum stellte am Ende des Mittelalters einen Schnittpunkt unterschiedlichster Kulturbereiche dar. Hier trafen das zerfallende Byzantinische Reich, die Reste der Kreuzfahrerstaaten, verschiedene mongolische Reiche und das aufsteigende Osmanische Reich aufeinander. Wie sich aus diesem Aufeinandertreffen ein über Jahrzehnte trotz immer wieder entstehender Konflikte fruchtbares und bei aller Dynamik relativ stabiles Miteinander entwickelte, wird anhand der aufschlussreichen Register der genuesischen Massaria von Caffa untersucht. Dabei liegt der Fokus sowohl auf der Organisation des italienischen Netzwerks in der Region als auch auf dem Umgang mit den tatarischen und türkischen Nachbarn, auf deren Gebiet die Genuesen operierten, insbesondere auf den diplomatischen Aktivitäten. Wie sich unter diesen Umständen der Handel als Hauptaktivität entfaltete, wird am Beispiel des Sklavenhandels verdeutlicht.
Die Einführung leistungsorientierter Entgeltsysteme stellt Mitarbeiter und Unternehmen vor besondere Herausforderungen. Dabei verändert sich vor allem die Rolle des Mitarbeiters. War er vormals Ausführender der ihm übertragenen Arbeitsaufgaben, wird er zunehmend zum eigenverantwortlichen Gestalter und Mitunternehmer. Im Rahmen einer multiplen Fallstudie wird zunächst der Frage nachgegangen, wie die Mitarbeiter in drei karitativen Einrichtungen die Einführung einer leistungsorientierten Vergütungskomponente erleben. Dazu werden inhaltliche Gestaltungsmerkmale der Entgeltsysteme, Merkmale des Einführungsprozesses und ihre Auswirkungen untersucht. Die Ergebnisse zeigen, dass die Mitarbeiter in allen Einrichtungen dem Aspekt der Finanzierung des variablen Vergütungsanteils eine wesentliche Bedeutung beimessen. Wird dieser Anteil durch die Variabilisierung bisher garantierter, fixer Vergütungsanteile finanziert, entstehen unsichere Gehalts-anteile und es erhöht sich das Risiko von möglichen Gehaltsverlusten. In der Einrichtung mit dem höchsten Entgeltrisiko führte dieser Umstand dazu, dass Mitarbeiter und Vorgesetzte durch informelle Absprachen versucht haben, mögliche Verluste zu vermeiden. Wird der variable Entgeltanteil durch die Einrichtungen mitfinanziert, erhöhen sich hingegen die Chancen auf Einkommensgewinne, was auch zu einer höheren Akzeptanz der neuen Entgeltsysteme beiträgt. Aufbauend auf den Ergebnissen der Fallstudie werden in einer quantitativen Analyse die Auswirkungen eines erhöhten Entgeltrisikos auf die Zufriedenheit der Mitarbeiter mit ihrem variablen Vergütungsanteil (Bonuszufriedenheit) untersucht. Dabei wird das Entgeltrisiko durch drei konzeptuelle Facetten operationalisiert: die Variabilität der Entlohnung, das Ausmaß möglicher Verluste und das Verhältnis von Risiko und Chance (RCV). Entgegen der bisherigen Annahme in der Forschungsliteratur, dass vor allem die Variabilität der Entlohnung ausschlaggebend für die Auswirkungen von Entgeltrisiko ist, zeigen regressionsanalytische Ergebnisse, dass in der Einführungsphase neuer Entgeltsysteme vor allem das RCV einen signifikanten Effekt auf die Bonuszufriedenheit der Mitarbeiter hat. Die Ergebnisse einer multiplen Mediationsanalyse legen nahe, dass der Effekt von RCV auf die Bonuszufriedenheit zum Teil von Einstellungen der distributiven und prozeduralen Gerechtigkeit vermittelt wird. Wei-terführende Analysen ergeben, dass der Zusammenhang zwischen dem RCV und der Bonuszufriedenheit durch zwei moderierende Variablen beeinflusst wird: zum einen durch die partizipative Beteiligung der Mitarbeiter am Einführungsprozess und zum anderen durch die individuelle Präferenz für leistungsorientierte Entlohnung. Vor allem bei hoher partizipativer Beteiligung wirkt sich ein günstiges RCV positiv auf die Bonuszufriedenheit der Mitarbeiter aus. Außerdem sind jene Mitarbeiter unzufriedener mit einem risiko-reichen Entgeltsystem, die eine stark ausgeprägte Präferenz für leistungsorientierte Entlohnung besitzen.
Die Dissertation ist der Kuünstlerpersönlichkeit und dem Werk des Kubaners Wifredo Lam gewidmet. Lam wurde 1902 auf Kuba als Sohn eines Chinesen und einer Kubanerin geboren und starb 1982 in Paris. Die vielen unterschiedlichen Lebensstationen des Künstlers bezeugen seine Mobilität und Reiselust, zeichnen aber auch gleichzeitig die historischen Turbulenzen und Umbrüche des 20. Jahrhunderts nach. Lam gilt heute als einer der Hauptvertreter der lateinamerikanischen Kunst des 20. Jahrhunderts und als Künstlerikone Kubas. Zu Lams Freunden und Bekannten gehörten unter anderem Pablo Picasso, André Breton, Michel Leiris, Pierre Mabille, Alejo Carpentier, Lydia Cabrera, Aimé Césaire, Benjamin Perét und Asger Jorn. Sein Werk ist durch den Kubismus und den Surrealismus beeinflusst. Auch interessierte er sich für die lokalen Gegebenheiten, Kulturen und Traditionen seiner jeweiligen Aufenthaltsorte. Er setzte sich unter anderem mit der Rezeption des "Primitiven" der europäischen Avantgarde vor dem Zweiten Weltkrieg, wie auch - zurück in der Heimat Kuba - mit der afrokubanischen Mischreligion Santeria auseinander und fühlte sich politisch wie intellektuell mit der karibischen Négritude verbunden. Diese und andere Eindrücke und Einflüsse hinterließen Spuren in Lams Werk, die er in eine Formensprache umsetzte, die seinem Œuvre einen unverwechselbaren Ausdruck verleiht. Dem poliperspektivistischen und semantisch mehrfach aufgeladenen Werk jedoch stehen eine erstaunlich einseitige und nicht selten stereotype internationale Repräsentation und Rezeption gegenüber. Die Dissertation jedoch stellt eine andere, eine neue Positionierung des Künstlers und seines Werkes vor, die ohne primitivistische Zuschreibungen und biografische Bezeugungen auskommt. Dies gelingt zum einen durch die Auseinandersetzung mit den Rezeptions- und Repräsentationsmechanismen, die den Künstlermythos Lam ausgebildet haben. Daran schließt sich eine detaillierte Analyse repräsentativ ausgewählter Einzelbildbeispiele an. Aber auch die Auseinandersetzung mit dem Gesamtwerk des Künstlers ist relevant. Denn es zeigt sich, dass die über Jahrzehnte hin praktizierte Wiederholung von Bildformeln und die Homogenität in der Darstellungsweise Teil des künstlerischen Programms von Wifredo Lam sind. Diese stilistische Formalität wurde von den Kritikern des Lamschen Werkes bisher nicht beachtet. Auf der Basis dieser neu erarbeiteten Erkenntnisse kann Wifredo Lam als Fallbeispiel für übergeordnete Fragestellungen dienen und zentrale Aspekte der cultural studies illustrieren. Denn Lams künstlerische Formgestaltung verweist auf ein alternatives ästhetisches Identitätsmodell, das Synkretismus und Hybridität nicht als Verlust von Identität, sondern als eine Praxis von Differenz versteht. Diese Ausrichtung der Lesart ermöglicht es, das Gesamtwerk als eine künstlerische Antwort auf Fragen kultureller Identität und Multikulturalität zu deuten.
Das erste Beispiel einer so genannten universellen holomorphen Funktion stammt von Birkhoff, welcher im Jahre 1929 die Existenz einer ganzen Funktion beweisen konnte, die gewissermaßen jede ganze Funktion durch geeignete Translationen approximieren kann. In der Folgezeit hat sich der Bereich der "universellen Approximation" zu einem eigenständigen Gebiet innerhalb der komplexen Approximationstheorie entwickelt, und es gibt eine Vielzahl an Ergebnissen über universelle Funktionen. Hierbei wurde sich allerdings fast ausschließlich auf das Studium holomorpher und ganzer Funktionen beschränkt, insbesondere die Klasse der meromorphen Funktionen wurde bisher kaum auf das Phänomen der Universalität hin untersucht. Die vorliegende Arbeit beschäftigt sich mit universeller meromorpher Approximation, und geht der Fragestellung nach, ob meromorphe Funktionen mit gewissen Universalitätseigenschaften existieren, und ob die klassischen Ergebnisse aus der universellen holomorphen Approximation auf den meromorphen Fall erweiterbar sind. Hierbei wird zunächst zwischen Translations- und Streckungsuniversalität unterschieden und bewiesen, dass in beiden Fällen jeweils eine im Raum der meromorphen Funktionen residuale Menge an universellen Funktionen existiert. Weiterhin werden die Eigenschaften dieser Funktionen ausführlich studiert. Anschließend werden meromorphe Funktionen auf Ableitungsuniversalität hin untersucht. Hierbei wird einerseits gezeigt, dass im Allgemeinen keine positiven Ergebnisse möglich sind, während andererseits eine spezielle Klasse meromorpher Funktionen betrachtet wird, für welche universelles Verhalten der sukzessiven Ableitungen nachgewiesen werden kann.
Der Titel der Dissertation enthält bereits die inhaltlichen Vorgaben, die zu Grund gelegt werden. Wie nämlich gelingt es Eckhart insbesondere in seinen deutschen Predigten, den Erfahrungsbereich Gott zu verbalisieren? Bei der Untersuchung der Frage, wie Gott - dem eine eigene, den Menschen nur bedingt erfahrbare Wirklichkeit zugrunde liegt - wie er also zur Sprache gebracht werden kann, ist es erforderlich, sich über die Wirklichkeit und ihre Beziehungen zu Gott und den Menschen klar zu werden. Mir geht es darum, die Problematik des Verhältnisses von Mensch und Gott in Beziehung zum Glaubensleben in einer tiefen geistig-geistlichen Durchdringung transparent zu machen. Konkreter: Bei der Textuntersuchung geht es um die Interpretation sprachlicher Äußerungen im Hinblick auf die darin zur Sprache gebrachte Erfahrung der Wirklichkeit Gottes. Bereits in dieser groben Skizzierung wird deutlich, dass sich die Untersuchung nicht alleine auf eine wissenschaftliche Disziplin beschränkt, sondern in ihrem interdisziplinären Charakter Fragen der Germanistik, der Philosophie und Theologie gleichermaßen berührt. Die Aufgabenstellung der Dissertation an sich und der Versuch, sich Meister Eckhart und seiner Gedankenwelt in seinen deutschen Predigten zu nähern, implizierte bereits die dann zugrunde gelegte methodische Vorgehensweise. Im Mittelpunkt der Untersuchung stand zwangsläufig Eckharts deutsches Predigtkorpus. Als textliche Grundlage habe ich mich für die Largier-Ausgabe entschieden, weil sie m. E. die am besten handhabbare Ausgabe war. Wichtig war für mich, Eckhart so oft als möglich selbst zu Wort kommen zu lassen. Das bedeutete eine dezidiert intensive Auseinandersetzung mit seinen Predigten einerseits und andererseits einer kritischen Würdigung der Sekundärliteratur. Den Gedankengang dieser weiter zu verfolgen und neue Deutungsebenen zu erschließen, gehörten ebenso zum methodischen Procedere. Zuerst war aber das geistig-geistliche Umfeld ME-´s in den Blick zu nehmen. Grundsätzlich ist zum Gesamtverständnis seines Werkes wichtig, ihn als Dominikaner zu begreifen. Zum Selbstverständnis dieses Bettelordens gehört seine intellektuelle Ausrichtung, die für Eckharts Erkenntnislehre fundamental ist: Demnach ist das Erkennen die Grundlage von Gottes Sein und steht sogar höher als das Sein. Wort und Intellekt haben Vorrang vor dem Sein. Gott ist das Sein dadurch, weil er denkt. Alles Sein ist abgeleitet vom Intellekt. Die Auseinandersetzung mit den theologisch-philosophischen Strömungen seiner Zeit war maßgebend für das weitere Verständnis von Eckharts Gedankenwelt. So wurden zunächst Fragen geklärt, wie Eckhart in seiner Zeit, nämlich der Schwelle zum 14. Jahrhundert, zu verorten ist. Ebenso wurden die Denker in ihrer Beziehung und Rezeption Eckharts vorgestellt: Plotin, Dionysius Areopagita, auf theologischer Seite insbesondere Augustinus und Albertus Magnus. Gleiches gilt für die weiblichen Vordenkerinnen Margarete Porete, Mechthild von Magdeburg und Schwester Hadewijch von Antwerpen. Wie sich Eckharts Christologie und theologische Anthropologie in seinen Predigten niederschlägt, welche Bedeutung er des Menschen Durchbruch und Sprung in Gottes Sphäre zubilligt, wie sich Gottesgeburt im Menschen ereignet und damit neue Wirklichkeiten konstituiert, wurden weiterhin dargelegt. ME ist nicht leicht zu fassen und festzulegen. Er, der selbst kein eigenes Lehrsystem und keine Dogmen entwickelt hat, lässt sich in keine Schablone pressen. Am ehesten greifbar ist Eckhart, wenn man erkennt, dass für ihn Sprache mehr ist als ein Vehikel, um göttliche Botschaften in Alltägliche zu transformieren. Bei Eckhart transzendiert Sprache selbst: Sprache beschreibt eine Wirklichkeit, die selbst wiederum Teil der Wirklichkeit ist. Gott kommuniziert nicht nur informierend, sondern sich selbst, Kommunikation ist Beziehungstheologie im trinitarischen Sinne, die gleichzeitig neue Wirklichkeiten schafft.
Die Ménage-Polynome (engl.: ménage hit polynomials) ergeben sich in natürlicher Weise aus den in der Kombinatorik auftretenden Ménage-Zahlen. Eine Verbindung zu einer gewissen Klasse hypergeometrischer Polynome führt auf die Untersuchung spezieller Folgen von Polynomen vom Typ 3-F-1. Unter Verwendung einer Modifikation der komplexen Laplace-Methode zur gleichmäßigen asymptotischen Auswertung von Parameterintegralen sowie einiger Hilfsmittel aus der Potentialtheorie der komplexen Ebene werden starke und schwache Asymptotiken für die in Rede stehenden Polynomfolgen hergeleitet.
Die Auswirkungen von Rahmenfehlern in Zensen werden bereits seit vielen Jahren untersucht. Eine Methode, um aktuelle Bevölkerungszahlen zu gewinnen, basiert auf Fortschreibung. Wegen Ungenauigkeiten in der Fortschreibung wurden aber auch andere Modelle entwickelt - die capture-recapture-Modelle. Am 29. August 2006 hat die Bundesregierung beschlossen, dass in Deutschland 2011 ein registergestützter Zensus durchgeführt wird. Der Schwerpunkt dieser Dissertation liegt in der Anwendung des capture-recapture-Modelles im deutschen Zensus 2011. Die Dissertation vergleicht den dual system estimator (DSE) und alternative Schätzer (Verallgemeinerter-Regressionsschätzer, Verhältnis-synthetischer Schätzer, Schätzer basierend auf dem Unit-level Modell) für die Schätzung der Anzahl der tatsächlich vorhandenen Personen. Die empirische Untersuchung der Güte der Schätzer basiert auf Monte Carlo Simulationen synthetischer Populationen des Bundeslandes Saarland.
Die Vertrauens-Trias erlaubt salutogentische Aussagen über personale Ressourcen. Die kulturvergleichende Anwendung der Vertrauens-Trias wurde bei Jugendlichen in drei Ländern (Deutschland, Luxemburg, Spanien) überprüft. Dabei wurde die Konstruktvalidität der Vertrauens-Trias als auch Zusammenhänge zu symptomatischen Belastungen insgesamt bestätigt. Vergleiche zwischen den Kulturen zeigen keine Unterschiede zwischen deutschen und luxemburgischen Schülern, jedoch zwischen deutschen und spanischen Schülern.
Virtuelle Umgebungen erfreuen sich in den letzten Jahren einer großen Beliebtheit und können kontinuierlich wachsende Nutzerzahlen vorweisen. Deshalb wird erwartet, dass die ohnehin große Nutzergemeinde weiterhin wächst. Dieses Wachstum stellt jedoch die Entwickler und die Betreiber von virtuellen Umgebungen vor eine Herausforderung. Die meisten heutzutage erfolgreichen virtuellen Umgebungen basieren auf einer Client-Server-Infrastruktur, in der der Server für die Verwaltung der gesamten Umgebung zuständig ist. Bei einer gleichzeitigen Inanspruchnahme durch viele Nutzer werden die serverbasierten Umgebungen jedoch massiven Skalierbarkeits- und Lastverteilungsproblemen ausgesetzt. Diese Probleme führen beispielsweise dazu, dass Nutzer Wartezeiten beim Einloggen in Kauf nehmen müssen bzw. selbst im Falle eines erfolgreichen Logins die "überfüllten" virtuellen Regionen nicht betreten dürfen. Deshalb wird in dieser Arbeit untersucht, ob eine Verbesserung der Skalierbarkeit und der Lastverteilung in virtuellen Umgebungen durch die Verwendung alternativer Infrastrukturansätze erreicht werden kann. Außerdem werden Maßnahmen zur weiteren Entlastung der Basis-Infrastruktur entwickelt. Diese Verbesserung soll zum einen dadurch erzielt werden, dass anstelle eines Servers ein Server-Verbund (Peer-to-Peer-System) als eine Art Management-Schicht agieren soll, in der jeder Knoten nur einen bestimmten Teil der virtuellen Umgebung verwaltet. Dabei wird die gewünschte Lastverteilung durch die Aufteilung der Verantwortungsbereiche auf die Knoten der Management-Schicht erreicht. Gleichzeitig entsteht aber ein Mehraufwand für die Konstruktion bzw. Erhaltung einer solchen Management-Schicht. Deshalb werden in dieser Arbeit die Vor- und Nachteile eines Infrastrukturwechsels hin zu dezentralisierten Infrastruktur-Ansätzen untersucht. Zum anderen wird eine spürbare Entlastung der Management-Schicht und somit eine Verbesserung der Skalierbarkeit und der Lastverteilung durch die Übertragung einiger Verwaltungsaufgaben an die Clients angestrebt. Zu diesen Verwaltungsaufgaben zählen die Gruppenkommunikation und das Konsistenz-Handling. Dazu wird in dieser Arbeit erforscht, inwiefern die Clients, die sich innerhalb derselben virtuellen Region befinden, selbst die Gruppenkommunikation über eine Multicast-Infrastruktur regeln können bzw. in die Wahrung der Konsistenz eines gemeinsamen Zustandes und der gemeinsam genutzten Objekte involviert werden können. Bei dem clientbasierten Konsistenz-Handling sollte vor allem auf die besonderen Interaktivitäts- und Konsistenzanforderungen, die Nutzer an die virtuellen Umgebungen stellen, geachtet werden. Dazu wird ein neues Konsistenzmodell definiert, welches die Einhaltung der strengen Interaktivitätsanforderungen erzwingt und die Konsistenz mit einer bestimmten Wahrscheinlichkeit garantieren kann.
Aus dem Wunsch, die zentralen Prozesse im System Boden"Pflanze"Atmosphäre einschließlich der Auswirkungen verschiedener Bewirtschaftungspraktiken zu verstehen und nachzubilden, resultiert die Entwicklung verschiedener Pflanzenwachstumsmodelle. Ziel der vorliegenden Untersuchung ist zum einen, die im Realsystem auftretenden räumlichen Ertragsmuster zu identifizieren und zu charakterisieren. Mithilfe der Semivariogramm-Analyse ist eine räumliche Autokorrelation der Ertragsdaten von maximal 48 Meter abzuleiten. Die räumliche Analyse (GIS) zeigt, dass die Sommergerste ein leicht abweichendes Verhalten im Vergleich zu den Winterkulturen (Winterweizen, Winterraps) aufweist. Schließlich werden mithilfe der selbstorganisierenden Merkmalskarten die primär und sekundär für das Ertragsverhalten verantwortlichen Ursachen identifiziert. Eine abschließende hierarchische Clusteranalyse gliedert die in die Untersuchung eingehenden Standorte in vier spezifische Cluster mit charakteristischen Eigenschaften. Ein zweites Ziel ist die Klärung der Frage, ob die Pflanzenwachstumsmodelle STICS und DAISY bei entsprechender Parametrisierung in der Lage sind, das für ein detektiertes Muster charakteristische Verhalten von Pflanzenwachstum und Ertrag realitätsnah abzubilden. Den Modellanwendungen gehen eine Sensitivitätsanalyse und verschiedene Parametrisierungsansätze zur Erfassung des jeweiligen Modellverhaltens voraus. In beiden Modellen übt der Bodenwasserhaushalt einen starken Einfluss auf die Ertragsbildung aus. Des weiteren kommt in beiden Modellen den Stressfaktoren eine zentrale Bedeutung zu. Die Parametrisierung der Modelle auf der Grundlage der im Feld erhobenen Daten führt bei beiden Modellen nicht zu einem dem Realsystem entsprechenden Bild. Eine über die Sensitivitätsanalyse hinausreichende, vertiefte Modellkenntnis ist erforderlich, um die in die Modelle eingehenden Parameter bzw. deren spezifischen Einfluss auf das Modellverhalten beurteilen und interpretieren zu können. Dies betrifft insbesondere die Modellgrößen der Bodenmodule. Dieser Aspekt erschwert eine einfache räumliche Übertragung der Modelle STICS und DAISY.
Japanische Touristen in Deutschland : Analyse der Wahrnehmung der Destination Deutschland und der Kundenansprüche im interkulturellen Kontext. Auf der Angebotsseite steht die noch mittelständisch geprägte deutsche Hotellerie, mit der Tendenz einer zunehmenden Konzentration zur Groß- und Kettenhotellerie. Der japanische Kunde auf der Nachfragerseite wird aufgrund seiner kulturellen, sozialen, politischen und geschichtlichen Umgebung analysiert. Er bewegt sich in einer vorwiegend kollektivistisch und stark kontextorientierten, durch dichte Informationsnetze geprägten, maskulinen Gesellschaft. Beeinflusst durch die Lehre von Konfuzius bilden heute noch mora-lisches Handeln, Rechtschaffenheit, Höflichkeit, die Beachtung hierarchischer Beziehungen und Harmonie Handlungsgrundlage des gesellschaftlichen Lebens. Daneben hat Japan, als entwickeltes Industrieland, mit denselben Problemen wie westliche Industrienationen zu kämpfen, wie Überalterung, Wertewandel und konjunkturelle Auf- und Abschwünge. Der japanische Kunde stellt hohe Ansprüche an die Qualität des angebotenen Produktes und an den Service. Während die Hardware, z.B. die Qualität der Hotelzimmer in Deutschland positiv beurteilt wird, wird die Servicequalität hier oft als unzureichend empfunden. Dabei setzt der japanische Kunde, der an dichte Informationsnetze gewöhnt ist, viele Dinge als selbstverständlich voraus. Der Deutsche, der über diese Informationen nicht verfügt und sich stur an das Vereinbarte hält, wird als unhöflich empfunden. Als Einkaufsdestination hat Deutschland aufgrund fehlender Marken kaum Bedeutung. Japaner sind leidenschaftliche und experimentierfreudige Esser, die oft in Deutschland aufgrund der mangelnden Beachtung und Vermarktung lokaler Spezialitäten zu kurz kommen. Mittels der Methode Importance Grid konnten abgefragte Attribute in Basis-, Leistungs- und Begeisterungsfaktoren eingeteilt werden. Grundlegend und Ausschlusskriterium für einen Reiseantritt sind die öffentliche Sicherheit, die der Japaner nicht nur auf die Kriminalität sondern auch auf Lebensmittelsicherheit und Gesundheitswesen bezieht. Sehenswürdigkeiten sind wichtige Leistungsfaktoren. Das Hotelangebot, als Begeisterungsfaktor hat einen enormen Einfluss und damit großes Entwicklungspotential auf die Reisezufriedenheit. Begeisterung lösen weiterhin individuelle Begegnungen, eine originale und stimmige Atmo-sphäre und lokale Besonderheiten, aus. Der hoch kontextorientierte Japaner nimmt die Reise als Gesamterlebnis wahr und gibt seine Erinnerungen gern über Mund zu Mund Propaganda weiter. Folgereisen können sich wie ein Schneeballsystem entwickeln. Als Trends sind die zunehmende Bedeutung von Seniorenreisen, Hube-and-Spoke Reisen, Skeleton-Touren, der Furosato Trend und Honeymoonreisen zu nennen.
Die Zielsetzung der vorliegenden Arbeit war die raumdifferenzierte und skalenübergreifende Untersuchung der Hochwasserentstehungsprozesse im Frankelbach-Einzugsgebiet, das ein Beispiel eines land- und forstwirtschaftlich genutzten Kleineinzugsgebiets in Mittelgebirgen der gemäßigten Breiten ist. Eine Kernaufgabe war die Quantifizierung der Beiträge einzelner Abflusskomponenten während des Scheiteldurchflusses eines Hochwassers. Zudem sollten Zusammenhänge zwischen der Bodenfeuchtedynamik und der Abflussreaktion herausgearbeitet werden. Zur Bodenfeuchtemessung wurde ein neu entwickeltes Spatial-TDR-Messsystem eingesetzt. Im Rahmen dieses pilothaften Einsatzes war zudem die Tauglichkeit des Messsystems zu überprüfen und zu bewerten. Das im Rotliegenden gelegene 5 km2 große Frankelbachgebiet mit Jahresniederschlägen von 750 mm a-1, steil eingeschnittenen, bewaldeten Kerbtälern und ackerwirtschaftlich genutzten Hochflächen liegt zwischen 200 und 450 m ü. NN. Auf schuttführenden Sand- und Schlufflehmen, deren Genese auf periglaziale Solifluktionsprozesse zurückgeht, sind hangabwärts mächtiger werdende Braunerden zu finden. Bemerkenswert sind die zahlreichen Quellen auf gleicher Höhenlage, die teilweise als Pipequellen ausgebildet sind. Beregnungs- und Infiltrationsversuche dienten der Beurteilung der Oberflächenabflussreaktion unterschiedlich bewirtschafteter Flächen. Durch stündliche Spatial-TDR-Messungen an 13 Standorten (60 cm lange vertikal installierte Dreistabsonden) konnten Hangwasserflüsse identifiziert werden. Zwischen 2005 und 2009 wurden die Abflüsse vier geschachtelter Einzugsgebiete sowie einer Quelle in 10min-Intervallen erfasst und 87 Hochwasserereignisse analysiert. Mittels Messungen der elektrischen Leitfähigkeit und eines Zweikomponenten-Mischungsmodells wurde der Ereigniswasseranteil für die höchsten Hochwasser abgeschätzt. Ergänzend zu den Geländeexperimenten wurde ein einfaches Modell konzipiert, das eine quantitative Abschätzung der ober- und unterirdischen Wasserflüsse in einen Gewässereinschnitt erlaubt. Zum Vergleich mit 31 anderen Untersuchungsgebieten wurde eine Codierung entwickelt, die eine Einordnung sowohl hinsichtlich der Geofaktoren der Gebiete als auch bezüglich der untersuchten Hochwasserereignisse ermöglicht. Das im hanghydrologischen Forschungsbereich als eher trocken einzuordnende Frankelbachgebiet, zeigte ein jahreszeitlich sehr unterschiedliches Abflussverhalten. Während in trockenen Sommern hohe Niederschläge im Gebiet gespeichert werden, liegen die Abflusskoeffizienten für einige schneeschmelzfreie Frühjahrsereignisse über 50 %. Das höchste beobachtete Hochwasser weist einen Abflusskoeffizient von 55 % bei einer relativ niedrigen Abflussspende von 140 l s-1 km-2 auf. Die Großberegnungsversuche, die Quellabflussmessungen, die Ereignisanalysen und die Modellierungsergebnisse weisen darauf hin, dass Dauerregen- und Schneeschmelz-Hochwasser zum Großteil aus Zwischenabfluss bestehen. Hier konnten zwei Abflusskomponenten differenziert werden: (i) eine oberflächen- und gerinnenahe Komponenten, die aufgrund des hohen Ereigniswasseranteils von etwa 60 % durch präferentielles Fließen erklärt werden kann, und (ii) eine ein bis zwei Tage verzögerte tiefere Komponente, die durch unterirdische Abflusskonzentration auf stauenden Schichten generiert wird. Letztere war in den Quellabfluss- und Spatial-TDR-Messungen erkennbar, hatte jedoch an den am Pegel beobachteten Scheiteldurchflüssen nur einen sehr kleinen Anteil. Während sehr intensiver Niederschläge könnte zusätzlich der Horton'sche Oberflächenabfluss von offen liegenden, hydraulisch angeschlossenen Äckern zum Scheiteldurchfluss beitragen. Für sämtliche Spatial-TDR-Messstandorte ist von hohen Infiltrations- und Sickerraten auszugehen. Eine Aufsättigung der Standorte war nicht erkennbar, für die nassen Wintermonate liegen jedoch nur sehr wenige Spatial-TDR-Messwerte vor. Eine in einer Tiefenlinie installierte Sonde (A08) zeigte das Umschalten des Gesamtgebiets in relativ nasse Zustände an. Hier nahm die Bodenfeuchte während zwei größerer Dauerregenereignisse infolge der unterirdischen Abflusskonzentration stark zu. In der vorliegenden Arbeit wurden die einbau- und substratbedingten Unsicherheiten sowie die Schwächen des Algorithmus zur Rekonstruktion der absoluten Bodenfeuchtewerte konkretisiert. Demzufolge wurde lediglich das Spatial-TDR-Rohsignal als Indikator für die aktuelle Bodenfeuchte verwendet. Durch eine Transformation des Spatial-TDR-Signals von der Zeit auf den Sondenort können dennoch Aussagen zur relativen Änderung der Bodenfeuchte in einer bestimmten Tiefe gemacht werden können. Diese Informationen sind hinreichend genau für die Untersuchung hanghydrologischer Prozesse und für die Ableitung von Gebietsfeuchtezuständen.
Durch Bodendegradation werden jedes Jahr weltweit große Schäden verursacht. Die beiden Hauptverursacher für die globale Bodendegradation sind die Wind- und die Wassererosion. Für die Planung von effizienten Schutzmaßnahmen oder regionalen Managementplänen ist es deshalb wichtig zu verstehen, dass die beiden Prozesse nicht nur als abgekoppelte Phänomene auftreten. Auch wenn seit einiger Zeit das Bewusstsein hierfür zugenommen hat und eine steigende Anzahl von Bodenerosionsstudien auf diesen Sachverhalt eingehen, so bestehen vor allem bei der Abschätzung der relativen Bedeutung und dem Verständnis der vorhandenen Interaktionen zwischen der Wind- und Wassererosion noch substantielle Wissenslücken. Da indirekte Messverfahren, wie beispielsweise die Luftbildauswertung oder die Fernerkundung, für mikro-skalige Prozessstudien ungeeignet sind, beschränken sich die Studien zur Erfassung der Interaktion beider Prozesse zumeist auf die direkten und/oder experimentellen Messungen. Ein Vergleich der Abtragsraten und eine Untersuchung der Interaktionen zwischen der Wind- und der Wassererosion ist jedoch sehr schwierig, da es bislang kein Messinstrument gibt, dass einfach und schnell, die durch Wind, Wasser oder deren Zusammenwirken verursachten Erosionsraten auf natürlichen Oberflächen bestimmen kann. Aus diesem Grund wurde im Rahmen dieses Dissertationsprojekts erstmals, ein mobiler Windkanal mit integrierter Beregnungsanlage konzipiert und umgesetzt. Seine simulierten Wind- und Niederschlagseigenschaften wurden in Labormessungen mit einem Laserdistrometer, Niederschlagssammlern, Anemometern und Nebelversuchen bestimmt. Die beim Einsatz der Anlage in unterschiedlichen Messkampagnen gewonnenen Erkenntnisse zu seinem Aufbau flossen stetig in die Weiterentwicklung des Kanals ein. Die Qualität der simulierten Bedingungen im Kanal können nach den Modifikationen und unter Einbeziehung der Anforderungen an einen geländefähigen Kanal mit guter Mobilität, als sehr gut bezeichnet werden. Insbesondere die Reproduzierbarkeit der simulierten Bedingungen treten hier positiv hervor. Die angestrebten Ziele dieser Arbeit konnten weitestgehend erfüllt werden. Mit dem mobilen Windkanal mit integrierter Beregnungsanlage steht in Zukunft eine Anlage zur Verfügung, mit der die Abtragsraten der Wind- und Wassererosion im Gelände, getrennt und in ihrer gemeinsamen Wirkung, gemessen werden können. Durch den Einsatz der Anlage ist es möglich, einige der noch offenen wissenschaftlichen Fragen zur relativen Bedeutung und Interaktion der beiden Prozesse zukünftig zu untersuchen, um weitere Erkenntnisse über Ihren Einfluss auf die Bodendegradation, in Abhängigkeit von Landnutzungsänderungen und dem Klimawandel, zu erhalten.
Im Fokus der Dissertation steht das Spannungsfeld zwischen betriebswirtschaftlichen Zielen und unternehmerischer Sozialverantwortung. Dieses wird im Hinblick auf die Ebene des Arbeitsmarktes und die Beschäftigung von Menschen mit Behinderung im Tourismus untersucht. Das Ziel der Untersuchung ist die Identifikation des durch die sozialwirtschaftlichen Intentionen integrativer Hotels entstehenden gesamtgesellschaftlichen Nutzens. Ob integrativen Hotels der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt, wird hierbei ermittelt. Bei dem herangezogenen Untersuchungsobjekt integrativer Hotelbetrieb handelt es sich um Hotels, die Menschen mit und ohne Behinderung beschäftigen, als Integrationsprojekte anerkannt sind und vom Gesetzgeber als Unternehmen des allgemeinen Arbeitsmarktes definiert werden. Da es sich um ein in der Tourismuswissenschaft weitgehend unbekanntes Untersuchungsobjekt handelt, wird dieses grundlegend erläutert, sodass neben dem Konzept, den rechtlichen Rahmenbedingungen und den Fördermöglichkeiten auch eine situative Beschreibung integrativer Hotels in Deutschland Bestandteil der Arbeit ist. Da es sich um Betriebe handelt, die im Rahmen der Beschäftigung von Menschen mit Behinderung staatlich gefördert werden, ist darüber hinaus die fiskalische Bilanz der Beschäftigungssituation Integrationshotel Gegenstand der Untersuchung. Des Weiteren stehen die Werte, die integrative Hotels über monetär messbare Werte hinaus schaffen, im Mittelpunkt. Neben der sozial- und volkswirtschaftlichen Ebene findet auch die betriebswirtschaftliche Ebene Berücksichtigung. Sowohl Merkmale und interne Strukturen integrativer Hotelbetriebe als auch deren betriebswirtschaftliche Situation und deren Gäste werden in diesem Zusammenhang behandelt. Das Methodenspektrum der Untersuchung ist entsprechend des erläuterten Inhaltes der Arbeit vielschichtig. Neben der Analyse relevanter Literatur liefern Experteninterviews wesentliche Ergebnisse. Die Analyse der sozial- und volkswirtschaftlichen Ebene basiert zunächst auf der Sekundäranalyse vorhandener Daten und darüber hinaus auf der Analyse und Weiterentwicklung eines Bewertungsmodells. Im Rahmen der betriebswirtschaftlichen Analyse werden betriebliche/betriebsinterne Daten analysiert und die Methode der standardisierten Gästebefragung angewendet. Als Abschluss der Arbeit werden die Untersuchungsergebnisse zusammengefasst und die Übertragbarkeit sowie die gesellschaftliche Relevanz des Themas diskutiert. Durch die Zusammenfassung der zentralen Befunde wird der Nutzen, der durch das Wirken integrativer Hotels auf verschiedenen Ebenen entsteht, benannt. Mit der Identifikation des durch integrative Hotels entstehenden gesamtgesellschaftlichen Nutzens liefert die Arbeit einen erweiterten theoretischen Ansatz der Argumentationslinie für Integrationsprojekte in der Hotellerie und weist nach, dass diesen ein Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt. Die Balance zwischen den parallelen Motiven Wirtschaftlichkeit und Gemeinnützigkeit bzw. der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen ist zugleich der kritischste als auch der für den Erfolg integrativer Hotels entscheidendste Punkt. Die Herstellung eines Ausgleiches zwischen konträren Zielen ist dementsprechend die Voraussetzung für den maximal erreichbaren Zusatznutzen. Die Schlussfolgerung der Arbeit zielt jedoch nicht auf die ausnahmslos überall umzusetzende Integration von Menschen mit Behinderung im Teilarbeitsmarkt Tourismus ab, sondern weist auf das Potential eines erfolgreichen Ansatzes hin, der für die Entstehung eines eigenständigen Hoteltyps geeignet ist. Die Wahrnehmung der sozialen Verantwortung sollte hierbei jedoch nicht in den Vordergrund rücken, denn auch unter Einsatz des Alleinstellungsmerkmals Beschäftigung von Menschen mit Behinderung muss die vom Gast gebuchte touristische Dienstleistung vordergründig sein.
Caenorhabditis elegans Modelsysteme für Freiland und Labor Caenorhabditis elegans ist eines der am intensivsten untersuchten Tiermodelle, dabei weisen die nur unzureichenden Informationen über sein ursprüngliches Habitat eine Vielzahl offener Fragen auf. Deshalb beschäftigt sich der erste Teil vorliegender Arbeit mit einer Überprüfung der Freilandökologie und Biogeographie des Taxons. Nach den Untersuchungen spricht vieles dafür, dass die Ursprungsart der C. elegans Gruppe ein Begleiter von Gastropoden war, welche auch für ihre Ausbreitung häufig verantwortlich sind. Als Folge der Verschleppung durch Wirtstiere (u.a. die Weinbergschnecke Helix aspersa) erreichte sie ihr heutiges Areal, in allen Kontinenten. Ein nicht weniger wichtiges Ziel der vorliegenden Arbeit war die Etablierung von C. elegans als Biotest-System für die Indikation von Chemikalien-Wirkungen. In dieser Arbeit wurden ein ökotoxikologisches Testsystem entwickelt mit den C. elegans als Modellorganismus, das durch Messung von umweltbedingten intrazellulär gebildeten ROS im Gesamtorganismus eine Einschätzung der biologischen Aktivität von Chemikalien und Umweltmedien ermöglichen sollte. Als grundlegender biochemischer Parameter ist eine, die Kapazität der antioxidativen Schutzmechanismen übersteigende, ROS-Bildung ursächlich für oxidative Schädigungen der Zelle verantwortlich und damit Basis für zahlreiche pathologische Effekte. Aus den Resultaten als Bewertungsgrundlage lässt sich folgern, dass sich das erarbeitete Biotestsystem als adäquates Verfahren zur Messung von oxidativem Stress, als Folge exogener Belastung, einsetzen lässt. Damit leistet es einen Beitrag zur Beurteilung des Toxizitätspotentials von Chemikalien und Umweltproben. Zur Eignung des Einsatzes von C. elegans für Toxizitätstest wurden weitere Untersuchungen mit verschiedenen Chemikalien durchgeführt. Dabei ergibt sich bezogen auf molare Einheiten eine immer gleich bleibende Reihenfolge der Sensitivitäten gegenüber BaP > Cu2+ > AcL, ein Ergebnis welches mit Testergebnissen von anderen Versuchsorganismen zu vergleichen war. Die Wirkung von Atrazin auf die Entwicklung von C. elegans wurde auch untersucht. Es wurde festgestellt, dass Atrazin auf Wachstum und Reproduktion von C. elegans konzentrationsabhängig toxisch wirkt. Die bisherigen Ergebnisse zeigen jedoch, dass das Testsystem C. elegans hervorragend geeignet ist, um Chemikalienwirkungen frühzeitig sichtbar zu machen.
Eine Vielzahl hydrophiler Xenobiotika wird in kommunalen Kläranlagen nur unvollständig abgebaut und stellt ein potentielles Risiko für aquatische Ökosysteme dar. Die Eliminationsleistung von Kläranlagen hat sich deshalb während des letzten Jahrzehnts zu einem Schwerpunkt in der aquatischen Umweltchemie entwickelt. Die vorliegende Arbeit untersucht in diesem Zusammenhang die Variation biologischer Abbauleistungen kommunaler Kläranlagen für polare Xenobiotika. Es soll überprüft werden, ob die Abbauleistung von Xenobiotika mit derer klassischer Nährstoffe in Beziehung gesetzt werden kann. Als zusätzlicher Faktor zur Erklärung von unterschiedlichen Eliminationsleistungen wurden Probenahmestrategien hinsichtlich der Erstellung von Massenbilanzen analysiert. Fünf Pharmaka sowie drei Aminopolycarbonsäuren wurden als Testsubstanzen ausgewählt. Diese umfassen ein Spektrum an mikrobiologischer Abbaubarkeit bedingt durch die Reaktivität ihrer unterschiedlichen molekularen Strukturen. Ein kombinierter Versuchsaufbau aus Respirometrie und Abbautests ermöglichte, neben der Bestimmung von Abbaukinetiken, auch die Charakterisierung von Belebtschlamm. Der Einfluss von Mischungsprozessen auf die Abbauleistungen von Kläranlagen wurde mittels hydraulischer Aufenthaltszeitverteilungen modelliert. Darauf basierend wurde eine Methode zur Beurteilung und Erstellung von Eliminationsleistungen aus Zulauf-Ablauf Massenbilanzen entwickelt. Die Resultate zeigen deutliche Unterschiede in den Belebtschlammcharakteristika und dem Abbaupotential von Xenobiotika zwischen verschiedenen Kläranlagen. Die aktive heterotrophe Biomasse wurde als steuernder Faktor für die Biodegradation der untersuchten leicht und moderat abbaubaren Xenobiotika identifiziert. Dies kann als Hinweis auf kometabolische Abbauprozesse durch unspezifische Enzymaktivitäten gewertet werden. Die beobachtete Abnahme der Eliminationsleistung mit steigendem Schlammalter konnte anhand modifizierter Kinetiken pseudo-erster Ordnung beschrieben werden. Die Modellierung von Mischungsprozessen mittels hydraulischer Aufenthaltszeitverteilungen macht deutlich, mit welcher Unsicherheit Massenbilanzen in Kläranlagen behaftet sind. Die Ergebnisse demonstrieren, dass dies vor allem auf inadäquate Probenahmestrategien zurückzuführen ist. Insbesondere Massenbilanzen auf der Basis von kurzen Probenahmezeiträumen und 24-h Mischproben resultieren in fehlerhafte Eliminationsraten. Der vorgestellte Ansatz benutzt die Verteilungen von Aufenthaltszeiten als Leitprinzip, um Zulauf- und Ablauffrachten zueinander in Beziehung zu setzen. Die Methode kann als Grundlage zur akkuraten Schätzung von Eliminationsleistungen herangezogen werden und bietet eine Erklärung für das Vorkommen negativer Eliminationsleistungen.
Das Recht der Europäischen Union erfasst Religion, Kirchen und Religionsgemeinschaften in zunehmendem Maße. Längst hat sich ein eigenes und eigenständiges Religionsrecht der Europäischen Union entwickelt, ein europäisches Religionsrecht im Werden.rnDie Sammlung der unmittelbar einschlägigen Normen dieses europäischen Religionsrecht spiegelt den gegenwärtigen Stand eines dynamischen Prozesses.
Der Beitrag zeichnet die jüngere öffentliche Debatte über die Spannungen in der Europäischen Union und insbesondere innerhalb der Europäischen Währungsunion nach, die durch die Folgen der Finanzkrise und der Staatsverschuldung in mehreren Mitgliedsländern der Europäischen Union entstanden sind. Es wird deutlich, dass die Grundsätze der Solidarität und der Solidität etwa im Hinblick auf die äußerst schwierige Lage in Griechenland mit einer enormen Beanspruchung des gemeinschaftlichen Zusammenhalts verbunden sind. Der Unterstützungsbedarf mehrerer Mitgliedsländer der Euro-Zone hat auf fast schmerzhafte Weise Grundsatzfragen demokratischer Legitimität aufgeworfen. Europa steht möglicherweise an einem Schweideweg.
Mit der Einführung der Schuldenbremse ist eine wesentliche Entscheidung zur Begrenzung der Staatsschulden getroffen worden. Das wirft die Frage auf, ob und inwieweit auch Art und Umfang sozialstaatlicher Aufgaben verändert werden müssen. Sozialpolitische und finanzpolitische Handlungsmöglichkeiten sind vor dem Hintergrund einer Sozialordnung abzuwägen, die auf soziale Sicherheit, die Herstellung menschenwürdiger Lebensbedingungen und den Ausgleich sozialer Gegensätze ausgerichtet ist.
Dürfen Frauen aus islamischen Kulturkreisen aus freien Stücken heiraten? Ist die "Zwangsehe definitiv unislamisch"? Warum verabschiedete jedoch die "Deutsche Islamkonferenz" im April 2012 eine "Erklärung gegen häusliche Gewalt und Zwangsheirat"? Warum nehmen Frauenrechtlerinnen wie Serap Çileli, Necla Kelek oder Seyran Ate so engagiert Stellung gegen das Phänomen Zwangsheirat im islamischen Kulturkreis? Liegt die Problematik vor allem in Traditionen, unzureichender Bildung, mangelnden materiellen Resourcen, in Machtmissbrauch oder doch in der Religion begründet? Auf der UNO-Welt-Konferenz des Jahres 2000 in Peking wurden Zwangsehen erstmalig als Verletzung der Menschenrechte anerkannt. In Deutschland wurden sie mit dem 01.07.2011 unter -§ 237 StGB ins Strafrecht aufgenommen; sie können nun in Deutschland mit 6 Monaten bis 5 Jahren Gefängnis bestraft werden. Verlässliche Statistiken zur Zahl der Zwangsehen in westlichen Ländern existieren zwar nicht; in einzelnen Städten wie Berlin oder Hamburg werden allerdings mehrere Hundert Fälle pro Jahr dokumentiert. Ihren Opfern gebührt unsere volle Unterstützung, und auch innerhalb der islamischen Gemeinschaften sollte die Problematik der Zwangsehe beständig thematisiert werden.
Die Dissertation untersucht die Vorstellungen über „kranke Pflanzen“ in der griechisch-römischen Antike. Ziel der Arbeit ist es, diese anhand der Schriftzeugnisse von Homer bis Boethius am Anfang des 6. Jahrhunderts darzustellen. Die Darstellung der Phytomedizin der Antike erfolgt dabei in vier Themenkomplexen: in einem lexikalischen Teil werden die konkreten Schäden und der Umgang mit ihnen aufgezeigt; in der Folge werden deren Stellenwert in wissenschaftlicher, gesellschaftlicher und poetologischer Hinsicht beleuchtet. Kern der Arbeit ist die systematische Darstellung der antiken phytomedizinischen Kenntnisse zu den einzelnen Pflanzenkrankheiten und sonstigen Schadfaktoren sowie eine Darstellung der in der antiken Literatur verankerten Gegenmaßnahmen.
Auf Grundlage der Erschließung und Analyse des reichhaltigen Konvoluts an Kinoanzeigen in der Freiburger Zeitung beschreibt die Arbeit die Etablierung des Starsystems im Kinogewerbe vor dem Ersten Weltkrieg (1911-1914) am lokalen Beispiel der Stadt Freiburg im Breisgau. Im Zentrum stehen die Werbestrategien der Kinobetreiber, die dem Zeitung lesenden Publikum in ihren Inseraten den Besuch von langen Spielfilmen mit der dänischen Schauspielerin Asta Nielsen nahelegen. rnDie Kinoanzeigen in der Lokalpresse überliefern eine wichtige zeitgenössische Schnittstelle zwischen Filmindustrie und Kinopublikum. Sie enthalten die maßgebliche Information und Werbung zu einzelnen Filmprogrammen für potentielle Kinobesucher aus den "besseren" Kreisen. Chronologisch an den Freiburger Kinoanzeigen voranschreitend zeigt die Arbeit zunächst die innovativen Merkmale des Verleihs einzeln angebotener Filme mit Asta Nielsen bis hin zu Asta-Nielsen-Serien: Exklusiver Monopolfilmverleih, Blockbuchen von ganzen Filmserien im Voraus und die zunehmende Fokussierung der inhaltlichen und formalen Gestaltung der Kinoanzeigen auf die Hauptdarstellerin als ausschlaggebenden Werbeträger werden ausführlich dargestellt. Asta Nielsen wird als Marke beworben " gegenüber der Hauptdarstellerin treten die wechselnden Titel ihrer Filme in den Hintergrund.rnDie konkurrierenden Kinounternehmen antworten mit der Aufbietung der Namen von Autoren (wie Leo Tolstoi oder Charles Decroix), von fiktionalen Figuren wie dem Detektiv Nick Winter oder Komikern wie "Max" (Max Linder) oder "Moritz" (Charles Prince) und von DarstellerInnen wie Henny Porten, Wanda Treumann, Suzanne Grandais oder Waldemar Psilander. Diese Gegenstrategien sind selbst Indizien für den Erfolg der auf den Star zentrierten Werbung für Asta-Nielsen-Filme. Die Ankündigung von Filmen mit der schwedischen Schauspielerin Ida Nielsen profitiert sogar direkt vom gelungenen Aufbau der Marke Asta Nielsen. Vergleichende Datenerhebungen zur Nennung von DarstellerInnen in den Kinoanzeigen der Freiburger Zeitung ergeben, dass Asta Nielsen mit weitem Abstand den Spitzenplatz einnimmt. Auf diese Weise demonstriert die Arbeit einmal mehr, dass der Medienumbruch vom Nummernprogramm zum langen Spielfilm in Freiburg an den Kinoanzeigen für Asta-Nielsen-Filme signifikant abzulesen ist.
Volition als psychische Funktion, Schwierigkeiten in der Handlungsausführung zu überwinden, spielt eine bedeutende Rolle in der psychosomatischen Rehabilitation. In einer Gruppentherapie über maximal 4 Sitzungen zeigte sich, dass sich volitionale Kompetenzen signifikant verbesserten. Zusätzlich ergaben sich Verbesserungen in anderen Therapie-Outcome-Maßen.
Die Arbeit verteidigt zwei Thesen: 1. Der Realismus ist eine semantische These; 2. Religiöse Sprache muß realistisch interpretiert werden. Der erste Teil von Kapitel 1 bis 4 widmet sich der ersten These, der zweite Teil in Kapitel 5 und 6 der zweiten. Zuerst wird ein Überblick über die Problematik von Realismus und Antirealismus in der Philosophie überhaupt geben und erläutert, was das Kernproblem dieser Debatten ist, das eine adäquate Interpretation der realistischen These lösen muß. Dann wird eine Lösung mit Michael Dummetts Theorie des semantischen Realismus entwickelt, so daß sich die metaphysischen Probleme in sprachphilosophische übersetzen lassen und eine semantische Formulierung des Realismus möglich wird. Danach werden verschiedene Einwände gegen diese Theorie diskutiert, um in der Folge eine eigene, verbesserte Formulierung des semantischen Realismus zu entwickeln, die fähig ist, der Kritik standzuhalten. Schließlich werden zwei von Dummett selbst vorgebrachte Argumente gegen den Realismus behandelt und widerlegt. Mit diesen sprachphilosophischen Werkzeugen wird dann gezeigt, wie sich die religionsphilosophischen Debatten mit den Mitteln des semantischen Realismus beschreiben und klassifizieren lassen und wie sich anhand semantischer Kriterien Klarheit schaffen läßt, was genau einen religiösen Antirealismus charakterisiert und was nicht. Abschließend werden die bisher in der Debatte für und wider den religiösen Antirealismus vorgebrachten Argumente analysiert und dann auf der Basis der semantischen Interpretation des Realismus einige eigene Argumente entwickelt, um die Unmöglichkeit eines religiösen Antirealismus nachzuweisen.
Die Evangelische Kirche in Deutschland (EKD) ist eine der größten Nonprofit-Organisationen in Deutschland. Sie ist ein sehr heterogenes Gebilde aus (zum Zeitpunkt der Untersuchung) 22 Landeskirchen unterschiedlichen Bekenntnisses mit jeweils eigenen Organisationsstatuten und rechtlichen Regelungen. Lokale Anlaufpunkte für ihre 23,9 Millionen Mitglieder (Stand Ende 2010) sind die Gemeinden. Sie verwalten sich weitgehend selbständig und werden von gewählten und berufenen Ehrenamtlichen sowie dem oder den Geistlichen der Gemeinde geleitet. Ein Mitglieder- und Einnahmerückgang bewirkt steigende Anforderungen an die Gemeindeleitung und die Notwendigkeit umfassender organisatorischer Veränderungen, die einen groß angelegten Reformprozess in der EKD angestoßen hat. Dies führt u.a. zu Zusammenlegungen von Landeskirchen und Kirchengemeinden, Pfarrstellenkürzungen und einer Reduzierung kirchlicher Gebäude. Auch hiervon sind die Gemeinden und ihre Leitungsgremien betroffen. Ziel der Arbeit ist, vor diesem Hintergrund die Gemeindeleitung (mit Fokus auf den ehrenamtlichen Gemeindeleitern) und die Entscheidungsprozesse in den Leitungsgremien explorativ zu beleuchten. Die Betrachtung erfolgt aus einer verfügungsrechtlichen Perspektive und rückt damit die Handlungsspielräume, die Einstellungen und das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter in den Fokus. Zunächst werden die aktuellen Herausforderungen für die Gemeinden sowie die Themen und unterschiedlichen Ansätze in der Reformdebatte betrachtet. Es folgt eine Darlegung der Einflussmöglichkeiten der Gemeindeleiter auf die Situation ihrer Gemeinde. Hierzu werden die für die Dienstleistungsproduktion von Gemeinden relevanten Entscheidungsfelder, wichtige Kenngrößen für die Gemeindearbeit und die von den Gemeindeleitern beeinflussbaren Entscheidungsvariablen ermittelt. Es folgt eine Analyse der verfügungsrechtlichen Arrangements der 22 Landeskirchen der EKD für die Gemeindeleitung. Für den angestrebten Organisationsvergleich sind Regelungsaspekte von Interesse, deren Ausgestaltung in einzelnen Landeskirchen stark voneinander abweicht. Für die empirische Untersuchung werden konkret die drei Aspekte 'Grad der Selbständigkeit des Gemeindeleitungsgremiums', 'Einflussverteilung zwischen Pfarrern und Ehrenamtlichen im Gremium' sowie 'Haftungsregelungen für die ehrenamtlichen Gemeindeleiter' ausgewählt. Zu den Auswirkungen der unterschiedlichen Ausgestaltung dieser drei Regelungsaspekte werden Hypothesen aufgestellt, die anhand von Fallstudien überprüft werden sollen. Hierfür wurden mit der Evangelischen Kirche in Hessen und Nassau, der Evangelischen Kirche von Kurhessen-Waldeck und der Evangelisch-reformierten Kirche drei Landeskirchen selektiert, die in den genannten Bereichen sehr unterschiedliche Regelungen aufweisen. Den Kern der Arbeit bildet eine explorative vergleichende Untersuchung der unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den ausgewählten Landeskirchen und ihrer Auswirkung auf das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter. Auf der Basis von Interviews mit rechtlich versierten Vertretern der drei Landeskirchen werden die historischen Hintergründe für die unterschiedliche rechtliche Ausgestaltung sowie die praktische Relevanz und Anwendbarkeit der einzelnen Regelungen analysiert. Zusätzlich werden für die gemeindlichen Fallstudien wichtige Veränderungs- / Entscheidungsprozesse mit aktuell großer Bedeutung für die Gemeinden ermittelt. Dies sind konkret der Gemeindezusammenschluss, die Pfarrstellenbesetzung und die Durchführung einer großen Baumaßnahme. Für die gemeindliche Untersuchung wurden für jede der drei Landeskirchen drei bis vier Gemeinden (insgesamt 11) ausgewählt, die mindestens einen der drei genannten Prozesse gerade durchliefen oder abgeschlossen hatten. Für jeden ausgewählten Prozess wird damit in jeder Landeskirche mindestens ein Fall betrachtet. An die ehrenamtlichen Gemeindeleiter der selektierten Gemeinden adressierte Fragebögen geben Aufschluss zu ihren Motivstrukturen. Mittels eine Clusteranalyse werden dabei sechs unterschiedliche Gemeindeleitertypen mit verschiedenen Motiven und Schwerpunkten ermittelt und vorgestellt. Anhand von mit den ehrenamtlichen Vorsitzenden der Gemeinden geführten Interviews werden schließlich die durchlaufenen Entscheidungsprozesse beleuchtet. Auf Basis der Erkenntnisse aus den Interviews und den Fragebögen wird analysiert, wie sich die unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den drei Landeskirchen auf das Entscheidungsverhalten verschiedener Gemeindeleitertypen und damit auf die Entscheidungsprozesse und -ergebnisse in den Gemeinden auswirken. Dabei werden die zuvor aufgestellten Hypothesen anhand der vornehmlich qualitativen Auswertungen überprüft. Abschließend werden die gewonnenen Erkenntnisse in die Reformdebatte eingeordnet und konkrete organisatorische Gestaltungsvorschläge abgeleitet.
Dieser Fragebogenstudie im Längsschnittdesign liegen die Antworten von initial 169 stationären Patienten mit chronischen Schmerzen aus der orthopädischen Rehabilitation zugrunde. Anhand dessen wurden Aspekte religiöser Krankheitsverarbeitung bei der psychischen Anpassung an chronische Schmerzen untersucht. An der Verbesserung des körperlichen Befindens über die Zeit zeigte "negatives religiöses Coping" einen inversen Beitrag, der durch die Mediatorvariable "Hilflosigkeit" vermittelt wird. Für "positives religiöses Coping" war kein Beitrag zur Anpassung nachzuweisen. In der Behandlung von Schmerzpatienten gilt es von daher, religiöses Hadern sowie dahinterliegende psychologischen Mechanismen zu berücksichtigen.
Die Kritische Theorie entstand in den 1930er Jahren und wurde seit den fünfziger Jahren mit der "Frankfurter Schule" identifiziert. In der Dissertation wird dieser Schulzusammenhang durch Porträts der dreizehn Angehörigen der zweiten Generation kritischer Theoretiker(innen) dargestellt. Auf diese Weise wird demonstriert, dass sich die Weiterentwicklung der Kritischen Theorie seit den sechziger Jahren nicht nur auf Jürgen Habermas beschränkt. Die zweite Generation stellt sich als eine zerstrittene Interpretationsgemeinschaft dar, deren unterschiedliche Vertreter verschiedenartige aktuelle Versionen von "Kritischer Theorie" entwickelt haben.
Psychotherapeutische Maßnahmen wirken im Mittel, doch ist unklar, ob eine Therapie bei einem konkreten Patienten auch ihre (maximale) Wirkung zeigt. Befunde der Patientenorientierten Versorgungsforschung zur Wirksamkeit von Feedback zeigen, dass eine Verbesserung des Therapieergebnisses durch Qualitätssicherungsmaßnahmen wie z.B. kontinuierliches Monitoring möglich ist. Diese Forschung und ihre praktische Anwendung machen es nötig, Daten am Einzelfall wiederholt zu erheben. Damit wird es unumgänglich, die Messungen effizienter zu gestalten. Diese Arbeit widmet sich der Frage, wie Mischverteilungsmodelle (Item Response/ Rasch-Modell sowie Latent Profile Analysis) dazu genutzt werden können, Fragebögen (weiter-) zu entwickeln, die mit kürzerem Umfang für diese Zwecke besser eingesetzt werden können. Gegen die Verwendung von Mischverteilungsmodellen sprach lange, dass spezielle Software und Training erforderlich waren und dies im Praxiskontext nicht machbar war. Mit R steht eine freie Softwareumgebung zur Verfügung, die die Schätzung einer ganzen Fülle von Modellen möglich macht, auch von Mischverteilungsmodellen. Da Qualitätssicherung bei frei verfügbarer Software nötig ist, widmet sich Studie I der Frage, ob drei zentrale Pakete zur Schätzung von Rasch-Modellen in der R-Umgebung (eRm, ltm, mixRasch; Details siehe unten) zu akzeptablen Schätzergebnissen führen, d.h. zur Nutzung empfohlen werden können. Hierzu wurden in einer Simulationsstudie die Itemzahl, Stichprobengröße und Verteilung der Stichprobe systematisch variiert und der Effekt auf die Schätzgenauigkeit geprüft. Es zeigte sich, dass alle drei Schätzalgorithmen unter den realisierten Bedingungen zu zufriedenstellenden Genauigkeiten kommen und die Verteilungsform unter den gewählten Bedingungen keinen Einfluss auf die Genauigkeit hatte. Studie II nutzte das Rasch-Modell um für ein Maß psychischer Belastung Kurzformen für spezifische Erhebungszwecke zu entwickeln: (1) verkürzte Erhebung beim Screening und (2) verkürzte Erfassung im hohen Belastungsbereich. Die Kurzformen wurden mittels Bootstrap und Kreuzvalidierung dahingehend geprüft, ob sie replizierbar eine bessere Messqualität erbrachten als andere Itemauswahlen aus dem Fragebogen, was sich bestätigte. Durch die Verwendung des Rasch-Modells sind die so erstellten Kurzformen miteinander und auch mit der Vollversion vergleichbar. Dies macht auch ohne die Verwendung spezieller Software (teil-)adaptives Testen möglich. Studie III untersuchte wie drei Methoden genutzt werden können um festzustellen, welche Items eines Tests sich über den Verlauf einer Therapie als veränderungssensitiv erweisen. Hierzu wurden mittels einer Bevölkerungsstichprobe und den Prä- und Post-Erhebungen einer ambulanten Behandlungsstichprobe Items aus einer Beschwerden-Skala verwendet. Die drei Methoden waren (1) herkömmliche Mittelwertsvergleiche, (2) Auswahl über Bootstrap-Konfidenzintervalle und (3) Auswahl mittels einer Latent Profile Analysis, die latente Klassen von Varianzmustern um die Itemmittelwerte schätzte. Das Bootstrap-Verfahren erwies sich am Konservativsten (4 Items) während die Auswahl mittels herkömmlicher Mittelwertsvergleiche am liberalsten war (9 Items). Die Effektstärken und Reliabilitäten der Kurzfassungen waren alle im akzeptablen Bereich. Die Diskussion beginnt mit einer knappen Zusammenfassung der Ergebnisse der drei Studien. Im Anschluss werden die Ergebnisse der Studien auf übergreifende Aspekte bezogen. Dies sind faktorielle Validität, die Angemessenheit von Item Response Modellen zur Repräsentation psychische Belastung und die Anforderungen, die Kurzversionen letztlich erfüllen können. Insgesamt lässt sich festhalten, dass die Methoden nützliche Werkzeuge zur spezifischen Untersuchung von Skalen und zur Erstellung von Kurzformen darstellen. Besonders der in Studie II vorgestellte Bootstrap-Test der Itemauswahl stellt eine relevante Ergänzung der etablierten Vorgehensweise dar, da er empirisch belegt, dass die Auswahl für den jeweiligen Zweck einer Kurzform besser geeignet ist, als andere Items. Klinisch lässt sich festhalten, dass mit statischen Kurzversionen etablierter Messinstrumente auch in Erhebungskontexten ohne computerisierte Erhebungsmethoden hochqualitative Erhebungen durchgeführt werden können.
Untersucht wurde der Zusammenhang zwischen körperlichen sowie psychischen Beschwerden und kulturellen Wertvorstellungen, Akkulturationsorientierungen, Kompetenz- und Kontrollüberzeugungen, Vertrauen in direkte Bezugspersonen und Hoffnungslosigkeit bei 172 türkischstämmigen Menschen in Deutschland im Alter von 16 bis 73 Jahren. Die deutschen Erhebungsinstrumente wurden mit Ausnahme eines Fragebogens, der bereits in türkischer Sprache vorlag, von der Autorin und einer staatlich anerkannten Dolmetscherin in die türkische Sprache übersetzt. Für die deutschen und türkischen Messinstrumente wurden anschließend Item- und Skalenanalysen durchgeführt, um sie hinsichtlich ihrer psychometrischen Tauglichkeit zu überprüfen. Weiterhin wurde die türkischstämmige Gesamtstichprobe in eine türkisch orientierte und eine deutsch orientierte Subgruppe unterteilt, zwischen denen einige Mittelwertsvergleiche berechnet wurden, um einerseits inhaltlich relevante Unterschiede explorativ zu erforschen und um andererseits zu überprüfen, ob die Variablen Nationalität, Sprache oder Geburtsort für die stärkere Symptomausprägung bei in Deutschland lebenden Türken entscheidend sind.
Gegenstand der Dissertation ist die Rolle ideologischer Deutungsmuster in der politischen Auseinandersetzung um Arbeitsbeziehungen in Deutschland. Zunächst wird untersucht, inwiefern tendenziöses Entscheidungsverhalten von Richtern an deutschen Landesarbeitsgerichten und politische Einflussnahme auf die Rechtsprechung empirisch zu belegen sind. Mittels rechtsempirischer Analyse kann gezeigt werden, dass systematische Zusammenhänge zwischen persönlichen Merkmalen von LAG-Richtern und ihrem Entscheidungsverhalten bestehen. Während Einflussnahme von Seiten der Politik im Rahmen der verfügbaren Daten nicht nachweisbar ist, spricht die empirische Evidenz mithin dafür, dass neben rechtsimmanenten Kriterien auch individuelle Überzeugungen die Arbeitsrechtsprechung beeinflussen. Der zweite Teil der Dissertation befasst sich mit der Arena der Massenmedien. Anhand einer Inhaltsanalyse, die den Diskurs über Mitbestimmung in drei überregionalen deutschen Tageszeitungen für den Zeitraum von 1998 bis 2007 rekonstruiert, soll die Frage beantwortet werden, inwieweit die deutschen Massenmedien selbst als autonome politische Akteure in der Auseinandersetzung um Mitbestimmung zu betrachten sind. Die Ergebnisse deuten darauf hin, dass für das Agenda-Setting im Untersuchungszeitraum zwar eher generelle Nachrichtenfaktoren maßgeblich waren. Doch sowohl das Standing der verschiedenen Akteursgruppen als auch die Deutungsrahmen und Handlungsempfehlungen weisen zum Teil Differenzen zwischen den untersuchten Zeitungen auf, die nur als Ausdruck unterschiedlicher ideologischer Positionen erklärbar sind. Ob die Betriebswirtschaftslehre ihren eigenen wissenschaftstheoretischen Ansprüchen gerecht wird, ist Gegenstand des dritten Papiers. Mittels multivariater Analyse wird untersucht, inwieweit die Inhalte der marktführenden betriebswirtschaftlichen Zeitschriften in Deutschland von außerwissenschaftlichen Faktoren beeinflusst werden. Wie die Analyse ihrer Auseinandersetzung mit dem Shareholder-Value-Prinzip zeigt, ist die Betriebswirtschaftslehre offenbar nur bedingt in der Lage, dem Wertfreiheitspostulat zu genügen. Wirtschaftswissenschaftliches Denken muss zumindest in Teilen als Ausdruck subjektiver Maßstäbe und soziokultureller Rahmenbedingungen betrachtet werden, wird also von außerwissenschaftlichen Wertungen beeinflusst, die auch durch innerwissenschaftliche Diskussionsprozesse nicht eliminierbar sind.
Sklaverei und Demokratie? Für viele Plantagenbesitzer auf Kuba wurden die Vereinigten Staaten vor dem amerikanischen Bürgerkrieg zu einer attraktiven Alternative zur despotischen Kolonialmacht Spanien. Kubanische Emigranten in den USA versuchten um 1850 mit Hilfe von amerikanischen Expansionisten und Sklavereibefürwortern Kuba durch Militärexpeditionen Spanien zu entreißen und die Insel an seinen großen Nachbarn im Norden zu annektieren. Um für ihr Unternehmen zu werben, brachten Exilkubaner zahlreiche Zeitungen in US-Metropolen wie New York oder New Orleans heraus, in welchen sie ihren Lesern die Vorteile einer Annexion erläuterten. Im Fokus der Dissertation stehen die Argumente der kubanischen Exilpresse und ihrer Gegner.
Diese Arbeit stellt die Ergebnisse eines abgeschlossenen Dissertationsprojektes zur sozialen Einbettung eines ländlichen Kreditmarktes im 19. Jahrhundert dar. Das Hauptziel der Untersuchung war es, herauszufinden, ob die soziale Einbettung von Akteuren einen messbaren positiven oder negativen Effekt auf ihren ökonomischen Erfolg im Rahmen eines historischen Kreditmarktes hatte. Das Fallbeispiel der Untersuchung ist der ländliche Kreditmarkt des in der Nähe von Reutlingen im Königreich von Württemberg im Südwesten Deutschlands gelegenen Dorfes Ohmenhausen. Die Datengrundlage der Untersuchung sind die Hypothekenbücher, Vermögensinventare, Steuerlisten und Kirchenbücher des Dorfes. In Übereinstimmung mit der Neuen Institutionenökonomik werden Kreditmärkte als soziale Netzwerke von Schuldnern und Gläubigern betrachtet. Die soziale Einbettung der Dorfbewohner ist über die (Re-)Konstruktion ihrer dorfinternen Verwandtschaftsnetzwerke operationalisiert worden. Die Akteure in diesen Verwandtschaftsnetzwerken sind alle Haushalte, die Grundsteuern bezahlt haben. Diese Haushalte besaßen Land und waren deshalb in der Lage Hypotheken aufzunehmen. Die Untersuchung wird durch den Vergleich der Verteilung der Kredite innerhalb der Verwandtschaftsnetzwerke der Stichjahre von 1825 und 1850 durchgeführt. Im Jahr 1830 trat eine signifikante Reform der Pfandgesetzgebung in Kraft. Deshalb wurde jeweils ein Stichjahr vor dem Inkrafttreten der Reform mit einem Stichjahr nach Inkrafttreten der Reform verglichen. Dies geschah um zu untersuchen, ob die Reform einen Einfluss auf die Marktstruktur hatte und ob sich im Rahmen der Reform auch die Verteilung der Kredite innerhalb der Verwandtschaftsnetzwerke änderte.
Diese Arbeit betrachtet die formalen, semantischen und pragmatischen Eigenschaften produktiv gebildeter Partikelverben mit präpositionenähnlichen Verbzusätzen. Der empirische Teil basiert auf zahlreichen Belegen für mehr als 2500 Partikelverb-Neubildungen mit "ab-", "an-", "auf-", "aus-" und "ein-", die im Zuge einer exhaustiven Korpusstudie mitsamt ihren Kontexten in einem pressesprachlichen Korpus erhoben wurden. Im Zentrum steht die Untersuchung von mehr als 500 neologistischen Partikelverben mit "an-". Zunächst anhand von formalen Kriterien (vorrangig der Argumentstruktur) in fünf Gruppen sortiert, werden die semantischen und pragmatischen Eigenschaften dieser Gruppen mittels einer Betrachtung der einzelnen Verbvorkommen in ihren authentischen Gebrauchskontexten untersucht. Dabei wird insbesondere eine pragmatische Funktionalisierung der ursprünglichen Richtungssemantik nachvollzogen. Zwei offene Fragen der Partikelverb-Forschung werden in ergänzenden Fallstudien detailliert untersucht. Die erste widmet sich sogenannten "Kontaminationsbildungen" und zeigt, dass diese im Bereich der Partikelverben präzise angebbaren Regularitäten folgen. Die zweite beleuchtet anhand von 99 neologistischen Analogiebildungen zum lexikalisierten Verb "aufwerten" formale und semantisch-pragmatische Aspekte der Bildung von Partikelverben und revidiert damit das problematische Verhältnis von Analogie und Produktivität in der Wortbildungstheorie. Die an den Neubildungen gewonnenen Erkenntnisse werden schließlich auf den Wortschatzausschnitt der etablierten, lexikalisierten Partikelverben abgebildet. Dabei wird gezeigt, wie die Untersuchung produktiver Schemata anhand von Neubildungen zur Entwicklung von Objektivierungsheuristiken führen kann, die auch bei den lexikalisierten Formen die systematisch-regelhaften von den irregulär-idiosynkratischen zu trennen vermögen. Von unmittelbarem praktischem Nutzen ist das beispielsweise für die Sprachdidaktik, wie abschließend erläutert wird.
Im Mittelpunkt der Arbeit steht der spätgotische Kirchenbau der 2. Hälfte des 15. Jahrhunderts im alten Erzbistum Trier. Dabei soll besonderes Augenmerk auf die unter Erzbischof und Kurfürst Johann II. von Baden (1456-1503) neu entstandenen und/oder umgebauten bzw. "modernisierten" Kirchen gelegt werden. Diese wurden in der bisherigen Forschung, bis auf Einzelmonographien, nicht in einer Zusammenschau betrachtet. Auch auf die Bau- und Stiftungspolitik Johanns II. von Baden, der scheinbar sämtliche in seiner Regierungszeit entstandenen Baumaßnahmen durch sein Wappen kennzeichnete, und deren Hintergründe, soll näher eingegangen werden. Neben den bekannteren Bauten in den Zentren des Erzstiftes Trier " Trier und Koblenz - entstanden in der 2. Hälfte des 15. Jahrhunderts im gesamten Erzbistum bedeutende spätgotische Bauten, so etwa in St. Wendel, in Klausen oder die Kirche des ehem. Kreuzherrenklosters Helenenberg. Neben den allgemein bekannteren Bauten sollen in der geplanten Dissertation aber vor allem auch die zahlreichen ländlichen Pfarrkirchen in Eifel, Hunsrück, Westerwald und Rhein-Lahn-Kreis gewürdigt werden. Diese blieben in der bisherigen kunsthistorischen Forschung außen vor, obwohl sie zum Teil von großer künstlerischer Qualität zeugen und einen wesentlichen Beitrag der Kunst- und Kulturgeschichte des Trierer Raumes leisten. Mit einer solchen Arbeit könnte eine Lücke der bisherigen Forschung zum spätmittelalterlichen Kirchenbau in Westdeutschland geschlossen werden, was nicht nur aus kunsthistorischer Sicht, sondern auch aus lokal-historischer, sozial- und kirchengeschichtlicher Sicht dringend erforderlich wäre.
Die vorliegende Arbeit verbindet die Konzepte Komorbidität und naturalistische Forschung, indem hier Mehrfachdiagnosen in einer großen längsschnittlich angelegten Studie zur Qualitätssicherung in der ambulanten Psychotherapie betrachtet wurden. Untersucht wurde die Frage, ob und inwieweit Mehrfachdiagnosen im Vergleich zu einfachen Diagnosen Einfluss auf den Status zu Beginn einer Therapie, den Therapieverlauf, ihre Dauer und das Ergebnis ausüben und ob daraus Ableitungen für eine differenzielle Anpassung therapeutischer Interventionen getroffen werden können. Die in dieser Arbeit analysierten Daten stammen aus dem Modellprojekt "Qualitätsmonitoring in der ambulanten Psychotherapie" der Techniker Krankenkasse und umfassen Eingangsinformationen von N=1154 verhaltenstherapeutisch behandelten ambulanten Psychotherapiepatienten. Zur Überprüfung der Fragestellungen kamen regressions- und korrelationsanalytische Verfahren, Latente Wachstumsmodelle sowie Verfahren zur Klassifikation von Personen in latente Subgruppen zur Anwendung. Es resultierten höhere Komorbiditätsraten unter strukturierter Diagnostik. Bei komorbider Persönlichkeitsstörung oder einer Kombination aus Angst- und Affektiven Störungen wurde in vergleichbarem Ausmaß wie bei Vorliegen nur einer Diagnose profitiert, allerdings wiesen diese Patienten aufgrund einer höheren Ausgangsbelastung ein schlechteres absolutes Therapieergebnis auf. Die Variable Komorbidität erwies sich als bedeutsam für die Prädiktion der Sitzungsanzahl, indem komorbide Patienten und insbesondere solche mit Persönlichkeitsstörungen längere Therapiedauern aufwiesen. Die sich auf mehreren Ebenen manifestierenden Besonderheiten komorbider im Vergleich zu monomorbiden Patienten weisen darauf hin, dass das Konzept Komorbidität nicht ausschließlich als Artefakt bestehender Diagnosesysteme gesehen werden kann. Der längere Verbleib komorbider Patienten in der Psychotherapie lässt auf ein differenzielles Vorgehen der Therapeuten schließen. Dieses könnte durch individualisierte Rückmeldungen noch unterstützt werden, im Rahmen derer von vornherein Abschätzungen für spezifische Subgruppen von Patienten vorgenommen werden und in welchen Komorbidität als ein Indikator zu besseren Ressourcensteuerung in der Psychotherapie genutzt werden könnte.
In dieser Dissertation wird das bürgerliche Trauerspiel von Lessing bis Hebbel aus Sicht der Gender Studies und der Kulturwissenschaft untersucht. Zuerst lässt sich das Folgende über den Zusammenhang von Geschlechterdifferenz und bürgerlichem Trauerspiel erschließen: Die dramatis personae in den bürgerlichen Dramen inkarnieren in extremer Weise die männlich-orientierte Geschlechterdifferenz der bürgerlichen Zeit und demonstrieren deutlich die allumfassende Bedeutung von Vaterschaft und Männlichkeit. Trotzdem ist es von Nöten, die Tochterfiguren, die in Konflikt mit diesen Vaterfiguren geraten, hinsichtlich ihrer Bestrebung die männlich-dominierte Geschlechterdifferenz zu überwinden und ihrer aufklärerischen Ideale wie Selbstständigkeit und Selbstbewusstsein zu betrachten. Die abwesenden, unmündigen und gesellschaftsorientierten Mütter (mater societastis) sowie die grausamen Mütter bzw. bösen Frauen (mater et mulier male) werden in extremer Weise durch die männlich-orientierte Tradition und Kultur dargestellt. Deshalb gilt es bei allem emanzipatorischem Potenzial, das durch die Darstellungen der guten Mutterschaft (mater domestica) durch die Ersatzmutterfiguren und die Adoptionsidee verwirklicht wird, zu betonen, dass diese neuen Verwandtschaftsformen nicht aus neutraler Sicht bzw. nicht aus dem Interesse des Weiblichen, sondern aus männlicher Sicht dargestellt und vorgestellt werden.
In dieser Arbeit präsentieren wir einen systematischen Ansatz zur Multithread Implementierung von Divide und Conquer sowie inkrementellen Algorithmen. Wir stellen für beide Kategorien von Algorithmen ein Framework vor. Beide Frameworks sollen die Behandlung von Threads erleichtern, die Implementierung von parallelen Algorithmen beschleunigen und die Rechenzeit verringern. Mit Hilfe der Frameworks parallelisieren wir beispielhaft zahlreiche Algorithmen insbesondere aus dem Bereich Computational Geometry, unter anderem: Sortieralgorithmen, konvexe Hülle Algorithmen und Triangulierungen. Der Programmcode zu diese Arbeit ist in C++ unter Verwendung templatisierter Klassen implementiert und basiert auf der LEDA Bibliothek.
Bei der Preisberechnung von Finanzderivaten bieten sogenannte Jump-diffusion-Modelle mit lokaler Volatilität viele Vorteile. Aus mathematischer Sicht jedoch sind sie sehr aufwendig, da die zugehörigen Modellpreise mittels einer partiellen Integro-Differentialgleichung (PIDG) berechnet werden. Wir beschäftigen uns mit der Kalibrierung der Parameter eines solchen Modells. In einem kleinste-Quadrate-Ansatz werden hierzu Marktpreise von europäischen Standardoptionen mit den Modellpreisen verglichen, was zu einem Problem optimaler Steuerung führt. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit der Lösung der PIDG aus theoretischer und vor allem aus numerischer Sicht. Die durch ein implizites Zeitdiskretisierungsverfahren entstandenen, dicht besetzten Gleichungssysteme werden mit einem präkonditionierten GMRES-Verfahren gelöst, was zu beinahe linearem Aufwand bezüglich Orts- und Zeitdiskretisierung führt. Trotz dieser effizienten Lösungsmethode sind Funktionsauswertungen der kleinste-Quadrate-Zielfunktion immer noch teuer, so dass im Hauptteil der Arbeit Modelle reduzierter Ordnung basierend auf Proper Orthogonal Decomposition Anwendung finden. Lokale a priori Fehlerabschätzungen für die reduzierte Differentialgleichung sowie für die reduzierte Zielfunktion, kombiniert mit einem Trust-Region-Ansatz zur Globalisierung liefern einen effizienten Algorithmus, der die Rechenzeit deutlich verkürzt. Das Hauptresultat der Arbeit ist ein Konvergenzbeweis für diesen Algorithmus für eine weite Klasse von Optimierungsproblemen, in die auch das betrachtete Kalibrierungsproblem fällt.
Seit dem Godesberger Programm 1959 entwickelte sich aus dem Umgang der SPD mit Geschichte und Geschichtswissenschaft eine sozialdemokratische Geschichtskultur. Sie manifestierte sich in zweierlei Hinsicht. Zum einen wurde auf geschichtspolitischer Ebene das national-konservative Geschichtsbild und insbesondere die staats- und kontinuitätszentrierten Vorstellungen von Nation und Nationalstaat kritisiert und die Stellung des Nationalsozialismus in der deutschen Geschichte neu bewertet. Zum anderen wurde auf geschichtswissenschaftlicher Ebene das Forschungsfeld der Geschichte der Arbeiterbewegung und der Sozialdemokratie erfolgreich etabliert. Parallel dazu entstand eine große Gruppe akademischer Historiker, die der SPD angehörten oder ihr nahestanden. Sie beschäftigten sich mit Themen der Partei-, der Arbeiter- und der Sozialgeschichte, unterstützten die Geschichtspolitik der SPD, kümmerten sich um Geschichtsbewusstsein dieser Partei und nahmen - zuweilen auch kritisch - an den Diskussionen ihrer Tagespolitik teil. Aus diesen beiderseitigen Aktivitäten bildeten sich vielfältige Kommunikationswege und personelle Netzwerke zwischen SPD und Historikern. Von 1959 bis 1969 vermied die SPD im Zuge ihrer Strategie der Regierungsbeteiligung eine deutliche Profilierung ihrer eigenen Geschichtspolitik, gleichzeitig lenkte nur eine kleine und fachlich eher marginale Gruppe von Historikern die Aufmerksamkeit auf die sozialdemokratische Geschichtsschreibung und ihre Themen. Aber inzwischen wurden seitens der SPD die organisatorischen Rahmenbedingungen für die Intensivierung der Kommunikation gelegt und wurden Kontakte zu einer wachsenden Zahl jüngerer Historiker geknüpft. Trotzdem waren die damaligen Kommunikationsnetzwerke räumlich und personell beschränkt. Seit 1969 erweiterten sich die Verbindungen zwischen beiden Seiten dank des politischen Aufschwungs der Sozialdemokratie und des Generationswechsels der Historikerschaft. Bis 1982 kommunizierten SPD und Historiker miteinander über viele aktuelle Themen: das Spektrum reichte von den historischen Gedenktagen über den Geschichtsunterricht in den Schulen bis hin zur Neuen Ostpolitik der sozialliberalen Koalition. Parallel dazu erlebte die sozialdemokratische Historiographie eine Konjunktur der Arbeiterbewegungsgeschichte, eine sozialgeschichtliche Neuorientierung und einen Erfolg der Sonderwegsthese. Die Kommunikationsnetzwerke umfassten immer mehr jüngere Fachhistoriker. In den Jahren 1983 bis 1989 wurden die Verbindungen der Sozialdemokratie mit den ihr nahestehenden Historikern auf politischer Ebene wegen ihrer geschichtspolitischen Auseinandersetzung mit der Christdemokratie immer enger, während die sozialdemokratische Geschichtsschreibung vor allem von der Strömung der Alltagsgeschichte und -»Geschichte von unten-« gefördert wurde. Haupttendenzen der dreißigjährigen Entwicklung der Kommunikation zwischen SPD und Geschichtswissenschaft waren wechselseitiger Austausch und Zusammenarbeit. Dabei darf jedoch nicht vernachlässigt werden, dass nicht nur die Historiker, die der Sozialdemokratie nahestanden, sondern auch die, die sich von ihr entfremdeten bzw. kritisch gegenüberstanden, Einfluss auf die Kommunikationslandschaft ausübten.
Die Studie untersucht, wie in Deutschland und Frankreich die beiden Politikbereiche Entwicklungszusammenarbeit und Migrationspolitik miteinander verbunden werden. Hintergrund ist eine seit etwa fünfzehn Jahren laufende intensive internationale Debatte über Möglichkeiten einer kohärenten Verknüpfung der beiden Politikfelder. Dabei wurden Vorschläge gemacht, wie Migration so gestaltet werden kann, dass allen Beteiligten, d.h. Herkunftsländern, Aufnahmeländern und den Migranten selbst, möglichst große Vorteile daraus erwachsen (Schlagwort Triple-Win). Positive Effekte der Migration auf die Entwicklung der Herkunftsländer sollen verstärkt und negative minimiert werden. Bisher stand staatliches Handeln in diesem Zusammenhang selten im Fokus der Forschung. Dieser Mangel ist umso eklatanter, als die an der Debatte beteiligten Internationalen Organisation vielfach staatliches Handeln zu beeinflussen suchen. Musekamps Studie stellt daher die politische Verknüpfung von Migration und Entwicklung in den Mittelpunkt und zeigt anhand der zwei Länderfallstudien Deutschland und Frankreich, warum bestimmte Vorschläge zur politischen Verknüpfung von Migration und Entwicklung in staatliches Handeln umgesetzt worden sind, andere hingegen nicht. Zur Erklärung dient der politikwissenschaftliche Ansatz des Policy Transfer. Musekamp kommt in seiner Studie zu dem Ergebnis, dass es insbesondere politische Gründe sind, die eine Aufnahme von Vorschlägen in politisches Handeln bedingen. Diese sind etwa das Konfliktpotenzial der Vorschläge und ihre Kompatibilität mit dem Status quo. Sachlich-inhaltliche Gründe, auf die sich die bisherige Debatte und Forschung konzentrieren, sind weniger ausschlaggebend. Die Arbeit zeigt eindrücklich, dass ein Erreichen der erwarteten "Triple-Win-Situationen" wesentlich voraussetzungsreicher ist, als dies manche Beiträge der internationalen Debatte suggerieren. So stehen viele Vorhaben zur Zeit auf sehr niedrigem Umsetzungsniveau. Deutlich wird dies am deutschen Fall, bei dem bislang vor allem Pilotprojekte umgesetzt wurden, die sich weitgehend auf jene Bereiche beschränken, die die Entwicklungszusammenarbeit allein umsetzen kann. Auch in der französischen Fallstudie zeigt sich dies etwa daran, dass die Zahl staatlich unterstützter Kleinprojekte von Migrantenorganisationen stagniert. Zudem ist der dreiseitige Vorteil selbst dort, wo Migration und Entwicklung in politischem Handeln verknüpft werden, keineswegs sicher. So wurde in Frankreich Migrationspolitik zwar verstärkt in Kooperation mit den Herkunftsländern auf Basis umfassender Partnerschaftsverträge geregelt. Gerade hier zeigt sich aber weniger ein ausgewogener partnerschaftlicher Ansatz als vielmehr eine Instrumentalisierung der EZ und des Engagements von Migrantengruppen für Zwecke der Migrationssteuerung. Die Einzelergebnisse der Länderanalyse und deren systematischer Vergleich setzen neue Impulse für eine praktische Umsetzung von Politik im Schnittfeld von Migration und Entwicklung, die der Komplexität des Feldes angemessen ist.
Zum Problem eines Bewusstseins bei Tieren am Paradigma der kantischen Theorie des Bewusstseins
(2012)
In einem ersten längeren Teil wird die These begründet und verteidigt, dass vor dem Hintergrund der Bewusstseins- bzw. Erkenntnislehre Kants, die vornehmlich den Menschen in den Blick nimmt, auch die Tiere als Züge transzendentaler Subjektivität aufweisend verstanden werden müssen. Im Anschluss daran wird diese Einsicht kritisch auf Kants Theorie menschlichen Bewusstseins und Erkennens bezogen. Es sind vornehmlich zwei Gesichtspunkte der Bewusstseins- bzw. Erkenntnistheorie Kants, die zur Begründung genannter These herangezogen werden: Zum einen die Lehre Kants von der Apriorität von Zeit und Raum als Formen der Anschauung eines transzendentalen Subjekts - insofern Tiere in Zeit und Raum anschauen, müssen auch sie über die apriorischen Anschauungsformen der Zeit und des Raumes verfügen; zum anderen die mit Kant aufzuweisende Abhängigkeit des Wahrnehmungsbewusstseins von nicht dem Vermögen der Sinnlichkeit zuzurechnenden Synthesisleistungen. Letztere sind vielmehr als von der Einheit eines transzendentalen Subjekts abhängig anzusehen, welche bzw. welches mithin auch bei Tieren zu veranschlagen ist. Vor dem skizzierten Hintergrund - und nachdem noch Kants Begriff des Organismus, des Lebens und seine Position zum Vorstellungsleben von Tieren nähere Betrachtung gefunden haben - werden in einem abschließenden Teil der Arbeit zwei Gesichtspunkte der kantischen Theorie menschlichen Bewusstseins kritisch diskutiert. Zunächst wird problematisiert, inwiefern Kants mindestens implizite These zu verteidigen ist, Vernunft weise gleichsam eine organologische Einheit auf, in der die einzelnen "Glieder" wechselseitig aufeinander bezogen sind und somit eine unauflösbare Einheit bilden. Die Notwendigkeit, auch Tieren transzendentale Subjektivität in bestimmtem Ausmaß zuzusprechen, scheint eine Aufspaltung besagter organologischer Einheit zur Folge zu haben. Des Weiteren wird erwogen, ob bei Tieren " nämlich insofern bei ihnen offenbar die Bewusstseinsebene vorliegt, die Kant beim Menschen die empirische Apperzeption oder den inneren Sinn nennt - nicht auch schon von Selbstbewusstsein zu sprechen ist. Es ist doch in ihrem wie in unserem Fall ein transzendentales Subjekt, das, insofern Zeit und Raum lediglich apriorische Anschauungsformen sind, sich selbst anschaut bzw. sich auch seiner selbst insofern bewusst ist. Es ist, so wird argumentiert, allererst Selbsterkenntnis, die den Menschen wesentlich vom Tier unterscheidet, nicht aber schon Selbstbewusstsein.
Die Judengemeinde der Reichsstadt Ulm gehörte zu den bedeutendsten jüdischen Gemeinden des spätmittelalterlichen Reiches. Dies kommt darin zum Ausdruck, dass Ulmer Juden in ausgedehnte Geschäfts- und Familienbeziehungen involviert waren, die sich weit über die Stadtmauern Ulms hinaus über den gesamten süddeutschen Raum und im 15. Jahrhundert sogar bis nach Oberitalien erstreckten. Ferner fungierte die Ulmer Judengemeinde als regionales Zentrum für eine Reihe von jüdischen Niederlassungen im städtischen Umfeld. Gestützt auf eine breite Basis meist unedierter Quellen, befasst sich der Autor in seiner Studie sowohl mit den internen Belangen der Ulmer Judengemeinde als auch mit den vielseitigen Kontakten, die Ulmer Juden mit Christen der näheren und weiteren Umgebung unterhielten. Dabei zeigt sich, dass die Berührungspunkte zwischen Juden und Christen im Mittelalter keineswegs auf die Bereiche Ausgrenzung, Verfolgung und Vertreibung zu reduzieren sind, sondern dass Angehörige der beiden Religionsgemeinschaften oftmals über Jahrzehnte hinweg friedlich nebeneinander lebten und zum gegenseitigen Vorteil miteinander kooperierten.
Als Möglichkeiten zur Steigerung der Nachhaltigkeit einer stationären Rehabilitation stehen aktuell vor allem zwei Varianten der Nachbehandlung im Mittelpunkt des wissenschaftlichen Interesses - einerseits wird eine solche Nachsorge häufig über persönliche (Telefon)Kontakte realisiert, andererseits werden auch immer öfter die Möglichkeiten des Einsatzes neuer Medien untersucht. Um eine vergleichende Betrachtung dieser beiden Nachsorgevarianten zu ermöglichen, wurde im Rahmen der vorliegenden Arbeit ein individuelles, indikationsübergreifendes und ortsunabhängiges Nachsorgeangebot entwickelt und parallel auf eben diese beiden Arten realisiert (persönlich-telefonisch vs. web-basiert), die Untersuchung der Effektivität erfolgte mittels einer randomisierten kontrollierten Mehrzeitpunktbefragung. Alle teilnehmenden Patientinnen und Patienten wurden noch während ihres Rehabilitationsaufenthalts zu einer von drei Gruppen randomisiert: eine Gruppe wurde persönlich-telefonisch nachbetreut, eine Gruppe erhielt Zugang zu einer für diesen Zweck erstellten Internet-Plattform, die dritte Gruppe erhielt keinerlei Nachsorge und diente als Kontrollgruppe. Zu insgesamt vier Messzeitpunkten (Aufnahme, Entlassung, 3-monats- und 12-monats Katamnese) wurde die berichtete Symptombelastung hinsichtlich Depressivität, psychosomatischer Beschwerden und gesundheitsbezogener Lebensqualität erfasst. Aufgrund der vorliegenden Ergebnisse scheint vornehmlich die minimale Intervention der automatisierten web-basierten Nachsorge einen statistisch abgesicherten positiven Effekt auf die Nachhaltigkeit der betrachteten Ergebnismaße nach einer stationären psychosomatischen Rehabilitation zu haben und kann folglich als der vielversprechendere Ansatz zur Verbesserung der Nachhaltigkeit von erzielten Rehabilitationseffekten gesehen werden.
Seit Mitte der 1970er Jahre engagiert sich das Land Nordrhein-Westfalen, in Folge des sozial/ökologischen Wertewandels der 1960er und 1970er Jahre, in der Radverkehrsförderung. Damals wie heute ist die systematische Realisierung von Radverkehrsnetzen, die durchgängig mit einem Leitsystem gekennzeichnet werden, ein zentrales Landesziel. Hierzu entwickelte das Land NRW unterschiedliche Strategien: Ende der 1970er Jahre wurde landesweit ein touristisches Netz erarbeitet, das jedoch seitens der Kommunen nur wenig Akzeptanz fand. Anschließend führte das Land NRW mit zwei Modellvorhaben den Nachweis, dass zur Förderung des Radverkehrs eine systematische Zielnetzplanung verbunden mit einer Kennzeichnung des Netzes mittels Leitsystem zielführend ist. Doch auch dies fand seitens der Kommunen nur wenig Nachahmer. Daher leitete das Land NRW einen weiteren Strategiewechsel von der Bottom-up-Strategie zur Top-down-Strategie ein: 1995 wurde im Koalitionsvertrag der Landesregierung die Realsierung des Radverkehrsnetz Nordrhein-Westfalen (RVN NRW) politisch beschlossen. Landesweit sollte ein Radverkehrsnetz geplant und anschließend mit einem Leitsystem vor Ort gekennzeichnet werden. Das RVN NRW wurde zwischen 1996 und 2007 unter vollständiger Finanzierung des Landes NRW in enger Abstimmung mit den 427 Kommunen und ca. 2.000 Projektpartnern erfolgreich umgesetzt. Es hat eine Länge von 14.155 km. Heute wird das RVN NRW durch viele Kommunen weiter lokal verdichtet. Bereits im Rahmen der Projektkonzeption waren auf Grundlage des RVN NRW umfangreiche Synergien vorgesehen, indem u. a. der Radroutenplaner NRW entwickelt wurde. Dieser wird mittels Internet/Smartphone kommuniziert und enthält sowohl alle Informationen zur Planung der Strecke vor der Fahrt, als auch zur Wegefindung während der Fahrt. Mit diesem innovativen Projekt wurden zahlreiche Mehrwerte und Synergien erzielt, indem z. B. radtouristischen Netze neu geordnet, ein landeseinheitliches Qualitätsmanagement zur Pflege entwickelt, ein Repertoire zur Sicherung des Radverkehrs außerorts geschaffen und insbesondere die Verkehrsmittel des Umweltverbunds sowohl in den Netzen (Hardware) als auch in der Informationsvermittlung (Software) miteinander verknüpft wurden. Unter Berücksichtigung der ökologischen, energetischen, demographischen und volkswirtschaftlichen Anforderungen an die Mobilität der Zukunft, muss ein nachhaltiges selbsterklärendes multimodales Mobilitätssystem mit dem Rückgrat Öffentlicher Verkehr entwickelt werden. Mit der Realisierung des RVN NRW hat das Land NRW bereits eine wesentliche Komponente fertiggestellt. Um die Systemvorteile der jeweiligen Verkehrsarten optimal nutzen zu können, sind umfangreiche weitere Maßnahmen erforderlich, die wiederum einer Landesinitiative bedürfen. Das mit der Konzeption des RVN NRW erfolgreich praktizierte Umsetzungsverfahren lässt sich auf eine Vielzahl von weiteren Zukunftsaufgaben übertragen. Allgemeingültige Handlungsempfehlungen zeigen den Weg auf, wie auch diese Visionen in die Realität übergeleitet werden können.
Die vorliegende Arbeit entstand im Rahmen des EU INTERREG NWE IVB Projektes "ForeStClim - Transnational Forestry Management Strategies in Response to Regional Climate Change Impacts". Zum Zweck der Verbesserung des Prozessverständnisses von Abflussprozessen in Wäldern sowie zur Validierung und Weiterentwicklung eines GIS-basierten Tools (GIS-DRP) zur Erstellung von Abflussprozesskarten wurden auf 25 Test-Plots in vier Einzugsgebieten in Rheinland-Pfalz und dem Großherzogtum Luxemburg boden-hydrologische Untersuchungen durchgeführt. Auf Grundlage dieser Untersuchungen konnten große intraspezifische Unterschiede im Abflussverhalten von Waldstandorten erhoben werden. Die Differenzen werden dabei hauptsächlich durch das Substrat, die bodenphysikalischen Eigenschaften, die Nutzung bzw. deren Intensität und die Vorfeuchte bedingt. Es wurde nachgewiesen, dass Wälder generell hohe Infiltrationsraten aufweisen und verzögerte Zwischenabflussprozesse begünstigen. Durch einen prinzipiell naturnahen Waldbau und etwaige Meliorationsmaßnahmen auf Niederertragsstandorten bestehen zudem Möglichkeiten positiv auf die Wasserretention und das Wasserspeichervermögen eines Forstbestandes einzuwirken. Die mittels GIS-DRP erstellten Abflussprozesskarten der vier Testgebiete wurden durch die Ergebnisse der Geländeuntersuchungen sowie der Abflussprozesskartierung nach SCHERRER (2006) validiert. Hierdurch wurden für die Abflussgenerierung wichtige Parameter ermittelt und Optimierungsansätze erarbeitet, welche anschließend in GIS-DRP implementiert werden konnten. Verschlämmungsprozesse auf Ackerflächen können nun durch das modifizierte GIS-DRP-Werkzeug identifiziert werden. Zudem war es möglich, Extrem-Ereignis basierte Abflussprozesskarten zu etablieren, die Hot Spots der Abflussgenerierung identifizieren können. Die Einführung des Abflussprozesses "dSSF" (tiefer Zwischenabfluss) wurde durch eine neue Klassifizierung des geologischen Ausgangssubstrates erreicht. Forstwirten und Entscheidungsträgern im Waldmanagement wird somit die Möglichkeit geboten, Expertenwissen in ihre Planungen einfließen zu lassen. Hierdurch kann zum einen positiv auf den Landschaftswasserhaushalt eingewirkt werden, da gezielt auf Flächen nachteiliger Abflussbildung geeignete Maßnahmen des dezentralen Hochwasserschutzes angewandt werden können. Zum anderen werden Potentiale für bestmögliche Waldwachstumsvoraussetzungen in einem Landschaftsraum aufgezeigt. Der nachhaltigen Nutzung von Wäldern wird somit auch im Kontext des Klimawandels Rechnung getragen.
Öffentlichkeitsarbeit ist in der politischen Arbeit unabdingbar geworden, die Wirkungen von Kommunikationsmaßnahmen in die Bevölkerung sind Gegenstand zahlreicher Untersuchungen. Die Wirkungen auf die Durchführenden selber, also auf die Politik und die Verwaltung, sind hingegen noch nicht untersucht worden. Hier setzt diese Arbeit an. Im Zentrum der Untersuchung steht dementsprechend die "interne" Wirkung (auf Verwaltung, Politik) einer Kommunikationsmaßnahme, weniger die "externe" (in die Bevölkerung). Zentrale These ist, dass eine an die Öffentlichkeit gerichtete Maßnahme eine interne Wirkung entfaltet, die die politischen, gesellschaftlichen und verwaltungstechnischen Rahmenbedingungen wesentlich zugunsten des beworbenen Themas verändert. Am Beispiel des Radverkehrs wird diese These überprüft. Als Untersuchungsrahmen dient die "Kopf-an" Kampagne des Bundesumweltministeriums, welche, durchgeführt in neun Kommunen Deutschlands, die Förderung des Alltagsradverkehrs zum Ziel hatte. Mittels einer vergleichenden Untersuchung von Hemmnissen und Erfolgsfaktoren kommunaler Radverkehrspolitik werden Erfolgsfaktoren für den kommunalen Radverkehr extrahiert, die die Kernthesen der Untersuchung bilden. Inwieweit diese Erfolgsfaktoren durch die "Kopf an" Kampagne positiv beeinflusst werden konnten, wird mittels Experteninterviews untersucht. Es wird gezeigt, dass eine Reihe von Faktoren positiv beeinflusst wurde und sich so aufgrund der Kampagne ein positiveres Klima für den Radverkehr in Politik und Verwaltung entwickelt hat.
Die vorliegende Arbeit hat die zunehmende Bedeutung des Social Web und die daraus resultierenden Auswirkungen auf das Informations- und Reiseverhalten von Städtetouristen zum Thema. Hauptfragestellung ist, inwiefern sich die gestiegene Bedeutung des Social Web auf das Informationsverhalten von Reisenden und ihr Verhalten vor Ort, insbesondere hinsichtlich des Interesses an Nischenattraktionen, auswirkt. Große Städte, vor allem Metropolen, verfügen über eine fast unüberschaubare Zahl von touristischen Attraktionen und Angeboten. Dazu zählen auch jene, die abseits der Haupttouristenrouten in weniger touristisch geprägten Stadtteilen liegen. Trotz dieser Angebotsvielfalt ist die Mehrzahl der Städtetouristen meist auf der sogenannten "Straße der Ameisen" anzutreffen. Eine Ausnahme stellen jedoch die sogenannten neuen Städtetouristen dar, die weniger an klassischen Mainstream-Sehenswürdigkeiten, sondern mehr am Entdecken authentischer und einzigartiger Plätze abseits der Touristenpfade und am Erleben des Alltags der Einheimischen interessiert sind. Für die vorliegende Untersuchung der Fragestellung wurden insgesamt drei methodische Bausteine herangezogen: 1) Eine Inhaltsanalyse für den Vergleich von Social-Web-Anwendungen und klassischen Reisemedien hinsichtlich ihrer thematischen Schwerpunktsetzung; 2) eine Touristenbefragung mit dem Ziel, mehr über die Nutzung des Social Web als Reiseinformationsquelle und über das Verhalten der Social-Web-Nutzer im Allgemeinen, und ihr Interesse an Nischen und Orten abseits der Touristenpfade im Besonderen, zu erfahren. Schließlich sollten 3) Interviews mit städtetouristischen Nischenunternehmen weitere Erkenntnisse über die Nutzung sozialer Medien durch Anbieter im Städtetourismus liefern. Die Ergebnisse machen deutlich, dass die Auswirkungen des Social Web " sowohl durch die Nutzung als Reiseinformationsquelle durch die Nachfrager, als auch durch die Verwendung als Marketing- und Vertriebskanal von Seiten der Anbieter " bislang geringer sind als zunächst angenommen. Auch wenn Nischenangebote und Alltagskultur zum Teil in sozialen Medien stärker präsent sind als z. B. in Reiseführern, und einige kleine Nischenanbieter die Möglichkeiten, die ihnen das Social Web bietet, schon optimal nutzen, so hat eine verstärkte Social-Web-Nutzung bislang doch keine grundlegenden Verhaltensänderungen auf Seiten der Reisenden bewirkt. Die Straße der Ameisen ist trotz der gestiegenen Social-Web-Nutzung nach wie vor existent. Dass das Social Web als ein Filter fungiert, der Interessierte in Richtung der Long-Tail-Angebote "schickt", konnte im Rahmen der vorliegenden Dissertation nur zum Teil bestätigt werden. Neben der Informationsquelle Social Web üben doch auch viele andere Faktoren einen Einfluss auf das Interesse von Reisenden an Lokalkolorit, authentischen Erlebnissen und besonderen Nischenangeboten aus. Trotzdem dürfte gerade für den sogenannten neuen Touristen das Social Web neue Möglichkeiten der Informationsgewinnung über einzigartige Örtlichkeiten an den Reisezielen bereitstellen. So ist es heutzutage einfacher als je zuvor, an Hinweise und Tipps zu ganz spezifischen Reisezielen und -aktivitäten zu kommen, die zudem meist noch sehr persönlich und authentisch wirken, da sie größtenteils von anderen Nutzern stammen.
Während die ersten Naturwissenschaftler, wie Humboldt und Darwin, auf dem Feld der klassischen Biogeographie noch vor allem die Aufschlüsselung der Verbreitung von Arten untersuchten, entwickelte sich mit Wallace die Erkenntnis, dass es kausale Gründe für die Verbreitung von Arten gibt. Ihre Erkenntnisse erlangten Wallace oder auch de Lattin noch dadurch, dass Sie Verbreitungsmuster von Arten übereinander projizierten und Ausbreitungszentren ableiteten. In den letzten Jahrzehnten bieten die mannigfaltigen Möglichkeiten computerbasierter Analysen besondere Vorteile bei der Analyse von Verbreitungsmustern, welche in der vorliegenden Dissertation genutzt werden, um eine interdisziplinäre Arbeit im Schnittpunkt von Natur- und Rechtswissenschaften zu schreiben. In fünf Kapiteln werden verschiedene Aspekte aus dem Bereich der klassischen Biogeographie analysiert und diskutiert. Im ersten Beitrag dieser Arbeit wird die biogeographische Struktur der Libellen in der westlichen Paläarktis mittels Verbreitungsanalysen untersucht. Der zweite Beitrag vertieft die Betrachtung mit einer regionalen Analyse der Biogeographie der Odonaten und Tagfalter in Rumänien. Ein dritter Beitrag schließt diesen westpaläarktischen Block mit einer Analyse der Inselbiogeographie des westlichen Mittelmeergebietes ab. In einem zweiten eurasischen Block werden in der vierten Arbeit die biogeographischen Muster Eurasiens herausgearbeitet. Abschließend wird im fünften Beitrag die Phylogeographie der Zwerglibelle (Nehalennia speciosa) als ein Beispiel für trans-paläarktisch verbreitete Arten untersucht. Neben ihrer Bedeutung in der Grundlagenforschung stellen diese fünf Arbeiten eine wesentliche Grundlage für die Ausarbeitung der juristischen Abhandlung dar. In der juristischen Abhandlung werden verschiedene Aspekte unter zu Hilfenahme, der zuvor erarbeiteten Erkenntnisse erläutert, die dazu geführt haben dürften, dass Libellen in der FFH-Gesetzgebung eher unterrepräsentiert sind. Es sind dies eine fehlende europaeinheitliche Gefährdungsbewertung, das Fehlen eines Schutzkriteriums Ausbreitungsfähigkeit und eine fragwürdige Herangehensweise bei den Überlegungen, welche Arten überhaupt auf ihre Schutzwürdigkeit hin untersucht werden sollen.
Der Anstieg der Weltbevölkerung, der Mobilität und des Warenhandels fördert die zunehmende Einschleppung von Biota. Ein Teil dieser gebietsfremden Arten kann sich etablieren, ausbreiten und die heimische Biodiversität gefährden ("invasive Arten"). In Mitteleuropa haben sich mehr als 150 gebietsfremde Populationen der ursprünglich submediterran verbreiteten Mauereidechse (Podarcis muralis) etabliert. Diese verkörpern ein ideales Modellsystem zur Untersuchung der Rolle des geografischen Ursprungs für den Etablierungserfolg, zur Überprüfung genetischer Konsequenzen von biologischen Invasionen sowie zur Untersuchung der Auswirkungen intraspezifischer Hybridisierung auf heimische Linien. Über eine mtDNA-Sequenzierung wurden in dieser Dissertation 77 eingeschleppte Populationen in Mitteleuropa acht geografisch abgrenzbaren evolutionären Linien zugeordnet (Kapitel I). Dieser Datensatz wurde in Kombination mit Artverbreitungsmodellen zur Überprüfung intraspezifischer Nischendivergenz genutzt. Trotz deutlicher Nischendifferenzierung zwischen den Linien, wurde nur eine schwache Korrelation zwischen geographischem Ursprung und invasivem Vorkommen gefunden. Linien mit enger realisierter Nische sind vermutlich aufgrund ihrer breiten fundamentalen Nische dennoch fähig erfolgreich Gebiete weit außerhalb ihres Areals zu kolonisieren. Für die populationsgenetischen Analysen dieser Arbeit bewährten sich, alternativ zu Gewebeproben, nicht-invasiv gewonnene Mundschleimhautproben zur DNA-Analyse (Kapitel II). Über eine DNA-Sequenzierung konnte der Ursprung (Poebene und nördliche Adriaregion) der nördlichsten eingeschleppten Ruineneidechsen-Population (Podarcis siculus) bestimmt werden (Kapitel III). Zudem wurde eine syntop in eine P. muralis Population eingeschleppte Podarcis liolepis Population erstmals in Deutschland nachgewiesen (Kapitel IV). Beide stammen vermutlich aus den Ost-Pyrenäen. Die Mikrosatelliten-Analyse zeigte keinen Genfluss zwischen beiden Arten. Verglichen mit natürlichen Populationen aus Süd-Frankreich konnten die eingeschleppten Populationen beider Arten aufgrund von hohem Aussetzungsdruck eine hohe genetische Diversität erhalten. Entlang des Oberrheingrabens treffen heimische Mauereidechsen auf eingeschleppte italienische Linien. In diesen Populationen wurde eine schnelle genetische Assimilation durch Hybridisierung mit gebietsfremden Mauereidechsen nachgewiesen (Kapitel V). Die genetische Diversität dieser Hybridpopulationen war wesentlich höher als die reiner eingeschleppter oder reiner natürlicher Populationen. Der Zusammenhang zwischen genetischer Diversität und Durchmischungsgrad war nicht-linear und erreichte frühzeitig ein Plateau hoher genetischer Diversität bei einer Vermischung von zwei Linien. Das Ausmaß an Introgression und die schnelle Bildung von Hybridschwärmen zeigt, dass Einschleppungen die genetische Integrität natürlicher Populationen stark gefährden. Die kleinräumige, genetische Analyse einer expandierenden Population in Passau (Kapitel VI) zeigt, dass eine signifikante Strukturierung schnell und kleinräumig entstehen kann. Die genetische Differenzierung wurde unter Abnahme der genetischen Diversität vom Einschleppungszentrum zum Expansionsrand stärker. Das abschließende Kapitel VII fasst die wichtigsten Resultate für die Naturschutzpraxis zusammen. Die Schwierigkeiten der phänotypischen Zuordnung von Populationen zu evolutionären Linien sowie der naturschutzrechtliche Umgangs mit Einschleppungen werden diskutiert.
Das Recht der Europäischen Union erfasst Religion, Kirchen und Religionsgemeinschaften in zunehmendem Maße. Längst hat sich ein eigenes und eigenständiges Religionsrecht der Europäischen Union entwickelt, ein europäisches Religionsrecht im Werden. Die Sammlung der unmittelbar einschlägigen Normen dieses europäischen Religionsrecht spiegelt den gegenwärtigen Stand eines dynamischen Prozesses.
Politische Leitlinien Graf Heinrichs (1288-1304) 1.Phase: 1288-1297 Während der Konsolidierungsphase nach der desaströsen Niederlage zu Worringen (1288-1297) galt es, die bestehenden Herrschaftsrechte der Grafschaft zu sichern, zumal der junge Graf noch minderjährig war. Als politische Maßnahmen und Verhaltungsmaximen während dieser Phase sind hervorzuheben: 1) die Hochzeit des jungen Grafen mit einer Tochter des Siegers von Worringen, des Herzogs von Brabant, 2) Doppelvasallität zum deutschen und französischen König infolge eines Fidelitätsvertrages mit König Philipp von Frankreich. Diese Doppelvasallität ermöglichte politischen Attentismus, Neutralität im englisch/deutsch - französischen Krieg. Die Verpflichtung zur Verteidigung des französischen Königreiches fiel wegen der expansiven Politik König Philipps nicht ins Gewicht. Doppelvasallität verschafft außerdem Rückendeckung bei künftigen regionalen Konflikten, begünstigt politisches Lavieren zwischen den Königsherrschaften ohne sich deren Gegnerschaft einzuhandeln. 3) eine konservative zur Rechtsbewahrung und mit Rechtsansprüchen untermauerte Grundhaltung. Sie sichert zunächst nicht nur die bestehenden Herrschaftsrechte ab sondern schafft zugleich die Grundlage expansiver Politikmöglichkeiten hinsichtlich historischer Rechte mit einer Alternativen im Gefolge: a) die diplomatische Konfliktlösung, b) die kriegerische, gewaltsame Entscheidung. 2.Phase: 1298 - 1304 X 10 Reichspolitische Vorgänge aktivieren Phase 1.3), eine expansive politische Zielsetzung und deren Beendigungsprozeß. Doppelvasallität schließt Krieg oder auch Parteinahme gegen einen der Könige oder für den einen gegen den anderen König in der Regel aus, aber der deutsche Thronstreit zwischen Adolf von Nassau und Albrecht von Habsburg schuf eine besondere Ausgangslage mit Möglichkeiten und Risiken, die es gegenseitig abzuwägen galt. Graf Heinrichs Parteinahme für den gewählten Gegenkönig Albrecht von Habsburg würde ihm, bei einem Sieg Albrechts, eine neue politische Perspektive im Rahmen seiner Doppelvasallität eröffnen, die ihm wegen des politischen Gegensatzes beider Könige bisher zur Neutralität, zum Attentismus zwang. Jetzt würde ihm bei beiderseitigem königlichem Einvernehmen ein politischer Handlungsspielraum möglich sein mit gestärktem Rückhalt bei den Königen. Das Risiko einer Niederlage des Gegenkönigs konnte er eingehen, denn dann bliebe ihm immer noch der Rückhalt im französischen Königtum. Die auf der Seite König Adolfs stehenden Trierer nutzten die Abwesenheit des zur Entscheidungsschlacht bei Göllheim abgerückten Grafen, um in dessen Grafschaft einzufallen und dabei einen Zollturm auf einer Moselinsel unterhalb Grevenmachers zu zerstören, da sie die Rechtmäßigkeit der dortigen Geleitzollerhebung bestritten. Diese Provokation entschied darüber, wo Graf Heinrichs "neue Politik" nach dem Sieg Albrechts von Habsburg ansetzen, gegen wen sie sich richten würde - gegen Trier. Aber der Graf geht diplomatisch geschickt vor, reagiert nach seiner Rückkehr erstaunlich konziliant, befreit die Bürger durch Vermittlung des Grafen von Looz von der Geleitzollerhebung bei Grevenmacher, akzeptiert folglich deren Behauptung, die Zollerhebung sei unrechtmäßig erfolgt, jedoch mit einem Hintergedanken: Im Gegenzug erwartet er von den Bürgern ebenfalls Entgegenkommen, die Anerkennung einer jährlichen vogteilichen Abgeltungssteuer, was die Trierer, die ja mit dem Recht argumentierten, wohl schlecht verweigern könnten. Jedoch gingen die Bürger hierauf nicht ein. Ein weit hergeholter, aus dem Archiv des Grafen hervorgekramter verstaubter "alter Vertrag", bereits 1140/47 nicht mehr aktuell, hätte jetzt keine Gültigkeit mehr, werde daher nicht anerkannt! - Waren zuvor die Zöllner Graf Heinrichs auf der Moselinsel die "Wegelagerer", wie die "Gesta Trevirorum" formulieren, so waren jetzt die Trierer die "Bösewichte"! Mit einer ablehnenden Antwort dürfte Graf Heinrich freilich gerechnet haben, denn der Hintergedanke ließ sich weiter spinnen: Der Graf beschied sich nicht mit der negativen Antwort und begann einen Krieg mit den Trierern, vordergründig um sie zur Vertragstreue, Zahlung der 300 lb. jährlich zu zwingen, tatsächlich jedoch um die vor dem Abschluß des "alten Vertrages" bestandene vogteiliche Suprematie zurückzugewinnen! - Nichtentrichtung der 300 lb. jährlich bedeutet Rückfall in den vorvertraglichen Zustand! - Damit vollzog Graf Heinrich den Übergang von der Konsolidierungs- zur Expansionsphase, sich mit der Stadt und zugleich deren Erzbischof anlegend, mit dem Argument eines weit hergeholten Rechtsanspruchs aber mit politischem Rückhalt bei den Königen. Diese 2.Phase sollte allerdings nur von kurzer Dauer sein. Der Feldzug des Jahres 1300 gegen Trier scheiterte als die zur Verstärkung entsandten Truppen König Albrechts unter dem Kommando des märkischen Grafensohnes nach Weisung des Königs die Belagerung der Stadt abbrachen und nach Köln abzogen, mit folgenreichen politischen Konsequenzen für Graf Heinrich: Ab diesem Moment galt das Bündnis mit König Albrecht als beendet und somit auch die vorgezeichnete politische Linie des gemeinsamen Vorgehens gegen den Grafen von Hennegau, als erstes dem unmittelbar bevorstehenden Zug nach Nimwegen, wohl in Konsequenz auf Kosten einer Entfremdung mit König Philipp, dem politischen Rückhalt des Grafen von Hennegau. Noch gab Graf Heinrich seine Expansionsabsichten gegen Trier nicht auf, ein Umsturzversuch dem Luxemburger Grafenhaus nahestehender Kreise der Bürgerschaft scheiterte hauptsächlich am Widerstand der Handwerkerzünfte, denen der Erzbischof die Einberufung eines Rates der "consules" zugestand. Jetzt erst resignierte der Graf und ging zu einer Verständigungspolitik über. Bemerkenswert, wie er sich nach den Mißerfolgen, salopp formuliert, "aus der Affaire zog". Zunächst signalisierte er die Absicht, auf seine vogteilichen Ambitionen zu verzichten, begrüßt von Erzbischof und Stadt, und bot stattdessen eine Einungspolitik an, auf die Erzbischof und Stadt bereitwillig eingingen. Die Putschisten wurden rehabilitiert, der vorherige Einfluß des Grafen in der Stadt wiederhergestellt unter der Bedingung, daß die neue Ratsverfassung anerkannt wird. Er akzeptiert den von Erzbischof Dieter gegen ihn einberufenen, zumindest von diesem zugelassenen neuen Stadtrat, der seine Ambitionen letztlich zunichte gemacht hatte, revanchiert sich jedoch gegenüber Dieter, indem er im Anschluß an den Einungspakt mit den Bürgern einen Sondervertrag abschließt, die Bürger davon überzeugt, daß die vogteiliche Abgeltungssteuer der 300 lb. jährlich auch für sie vorteihaft sein werde. Er erinnert die Bürger an deren Bedeutung, daß derjenige, der sie entrichtet, sich im Besitz vogteilicher, letztendlich im Königtum verankerter Herrschaftsrechte befindet, er dabei ihre Bedenken zerstreut, indem er Bürger der Stadt zu werden verspricht und so eine Erneuerung vogteilicher Ansprüche ausschließt, und daß er in seiner Eigenschaft als Mitbürger sie und ihre Rechte gegen Anfechtungen erzbischöflicherseits zu verteidigen gedenkt. Die Stadt akzeptiert sein Angebot mit dem Vertrag vom 2.4.1302 und präsentiert sich im Vertrag vom 2.9.1304 mit Erzbischof Dieter als Inhaber der Vogtei, indem sie Dieter 300 Bewaffnete bedingt zur Verfügung stellt. Seiner Einungslinie und Bündnispolitik bleibt Graf Heinrich auch bei neuerlichen "hausgemachten" Bürgerunruhen treu, und er wirkt bei der Vollendung der Einung mit, indem die Fehde zwischen der Stadt und Daun/Praudom mit seiner Hilfe beendet wird. 3.Phase: 1301 II 9 - 1304 kurz nach VIII 21/(1305 VII) Der Entschluß, am Abwehrkampf der Flamen gegen die französische Invasion aktiv teilzunehmen fiel Graf Heinrich trotz seiner Bündnisse mit dem flämischen Grafenhaus nicht leicht. Er hielt sich im Jahre 1302 noch im Hintergrund, nahm nicht an der Schlacht bei Courtrai ("Güldensporenschlacht") teil. Könige sollten nicht bekämpft werden sondern vielmehr politischen Rückhalt in territorialpolitischen Auseinandersetzungen gewähren. Das Territorium des französischen Königreiches sollte vertragsgemäß gegen Angreifer verteidigt werden aber auch Flandern und das ihm persönlich nahestehende flämische Grafenhaus, mit dem er am 9.Februar 1301 ein erstes Bündnis abschloß. Die Kriegsziele gaben den Ausschlag, sodaß er sich für die Verteidigung Flanderns und des flämischen Grafenhauses entschied, ohne damit gegen die mit König Philipp abgeschlossenen Verträge zu verstoßen, selbst als er mit den Flamen im August/September 1303 bei der Abwehr einer bereitstehenden französischen Invasionsarmee unter König Philipp diesem bis vor die Tore von Paris folgte. Hierfür entschuldigte er sich gewissermaßen anschließend bei dem König, indem er seine Parteinahme mit seiner Feindschaft gegen den mit dem König verbündeten Grafen von Hennegau zu begründen sucht und bittet hier um eine Vermittlung Philipps, um sich in Zukunft zumindest neutral verhalten zu können. Dem Kriegszug folgt eine Phase des Attentismus, des Abwartens bis zu einem Verhandlungsergebnis (1.10.1303-15.3.1304), danach die Waffenstillstandsphase zwischen ihm und dem Grafen von Hennegau (15.3.1304-18.8.1304),während der er seine flämischen Allianzver- pflichtungen ruhen läßt. Ein zweifellos mit Erleichterung angenommener Auftrag König Philipps nach der Schlacht bei Mons-en-Pévèle, Friedensverhandlungen in die Wege zu leiten, entbindet den Grafen von der erneut eingeforderten flämischen Bündnisverpflichtung. Wie der chronologische Ablauf ausweist, haben zwischen den Phasen des "Schauplatz Trier" und des "Schauplatz Flandern" Interferenzbeziehungen bestanden. Das Bündnis Graf Heinrichs mit der flämischen Grafenfamilie von jenem 9.Februar 1301 und die Vorkommnisse in und um Flandern haben neben dem Mißerfolg bei der Belagerung Triers und dem gescheiterten Putsch sicherlich zum Politikwechsel Graf Heinrichs gegenüber Trier ihren Teil beigetragen. Gleichzeitig an zwei politischen Brennpunkten wollte und konnte er nicht mit gleichem Nachdruck präsent sein.
Recht als begründete Ableitung aus politisch Vorentschiedenem und Politik als autokratischer Erstentscheid blicken als zwei Welten aufeinander, mit verschiedenen Augen und auf jeweils für sie verschiedene Gegenstände. Strukturelle Unterschiede, aber auch die gegenseitige Durchdringung von Recht und Politik hebt der Verfasser hervor und versteht Rechtspolitik auch als Kampf für die Belange eines konsistenten Rechtssystems. Politik erscheine heute nicht mehr als der große Integrationsentwurf, sondern als Lavieren zwischen den Zwängen aller anderen Funktionssysteme der Gesellschaft. Grundlegend den Zustand unserer Demokratie hinterfragend mahnt der Verfasser, das Recht und die Juristen dürften nicht uneingeschränkt auf eingefahrene Kontrollmechanismen vertrauen, wenn der verfassungsrechtliche Sozialstaatsauftrag unter dem Standortwettbewerb und der wirtschaftlichen Funktionslogik ins Wanken gerate und Verantwortung zunehmend an Private delegiert werde.
Kommt die Scharia auch in Deutschland zur Anwendung oder wäre die Inkorporation bestimmter Teile der Scharia in deutsches Recht zumindest wünschenswert? Könnte Großbritannien hier Vorbild sein, wo Schlichtungsgerichte für muslimische Streitparteien ebenso wie die staatlicherseits anerkannten Schariagerichtshöfe fest etabliert sind? Und wie sind islamische Friedensrichter in Deutschland zu bewerten, die vielerorts eine vermittelnde Rolle zwischen muslimischen Tätern und deutschen Strafverfolgungsbehörden übernehmen? Schiedssprüche zwischen Konfliktparteien gleich welcher Religionszugehörigkeit können nur dann als vorteilhaft beurteilt werden, wenn sie geeignete, rechtstreue, ausgebildete Personen durchführen, die nach rechtsstaatlichen Prinzipien urteilen und der gerichtlichen Kontrolle unterliegen. Schiedsverfahren dürften traditionellem Schariarecht nicht folgen, da es in seiner klassischen Auslegung staatlichem Recht widerspricht und ebenso wie das Operieren von "Friedensrichtern" integrationshemmend wirkt.
Spätestens seit dem Start ihrer zweiten Filmserie im Spätsommer 1912 war die dänische Schauspielerin Asta Nielsen ein gefeierter Filmstar. Auch in Prag hatte sich Asta Nielsen zu dieser Zeit mit ihren Langspielfilmen bereits ein beträchtliches Maß an Bekannt- und Beliebtheit "erspielt", welches die örtlichen Kinobetreiber werbestrategisch nutzten. Anhand der Werbeannoncen für die Asta-Nielsen-Filme, welche die Prager Kinobetreiber während der Kinosaisons 1910/1911 und 1911/1912 im Prager Tagblatt schalteten, zeichnet diese Arbeit nach, wie die anfangs unbekannte Schauspielerin Asta Nielsen in Prag allmählich zum Filmstar aufgebaut und etabliert wurde.rnAls Werbeträger rückt der Name der Hauptdarstellerin zunehmend in den Fokus dieser lokalen Kinoannoncen. In den ersten Werbeanzeigen für Filme mit Asta Nielsen in der Hauptrolle wird er nicht oder nur im Kleingedruckten erwähnt. Spätestens seit dem Start ihrer ersten Filmserie in Prag zur Saison 1911/1912 fungiert "Asta Nielsen" durchgehend als fettgedruckter Blickfänger. Ihr Name verdrängt und ersetzt andere, anfangs noch als Sensationen beworbene Attribute der Asta-Nielsen-Filme wie die lange Vorführungsdauer, das alleinige Aufführungsrecht oder den Autor und Regisseur Urban Gad. Die auf den Star zentrierte Werbestrategie gipfelt darin, dass einzelne Voranzeigen gänzlich auf den Filmtitel verzichten. Sie werben nicht mehr in erster Linie für den Film, sondern für den Auftritt des Filmstars. Sie werben für eine Erfolg versprechende Marke - Asta Nielsen.rn
In der Welt existieren zahlreiche Institutionen zur Verteidigung der Menschenrechte. Besonderes Interesse verdient dabei eine relativ neue Möglichkeit zur Wahrung dieser Rechte " das Amt des Bürgerbeauftragten. In Bulgarien sind die ersten derartigen Institutionen 1998 als Projekt auf Gemeindeebene ins Leben gerufen worden. Seit 2003 sind die Institutionen eines Ombudsmanns auf nationaler Ebene sowie eines gesellschaftlichen Vermittlers auf Gemeindeebene gesetzlich geregelt. Die wesentliche Aufgabe der Bürgerbeauftragten ist die Annahme von Bürgerbeschwerden über Verletzungen ihrer Rechte durch die Staats- oder Gemeindeverwaltung. Der Bürgerbeauftragte in Bulgarien stellt eine demokratische Garantie zur Wahrung der Menschenrechte sowie zur weiteren Entwicklung des Rechtsstaates dar.
Ziel der Studie war es, die Wirksamkeit zweier psychotherapeutischer Mikrointerventionen zur Emotionsregulation und zur progressiven Relaxation und die damit einhergehenden Veränderungen auf psychometrischer und elektrokortikaler Ebene zu untersuchen. Die Stichprobe bestand aus 65 klinischen Versuchspersonen der Warteliste der Poliklinischen Psychotherapieambulanz der Universität Trier. In einer EEG-Erhebung vor und nach den Mikrointerventionen wurden neben dem Ruhe-EEG ereigniskorrelierte Potentiale (EKPs) aufgezeichnet. Im EKP-Paradigma wurden die Probanden instruiert negativ-valente Bilder aus dem IAPS-System entweder anzuschauen oder die gezeigte Situation kognitiv zu einer weniger negativen Interpretation der Bilder umzudeuten. Nach der EEG-Aufzeichnung wurden die Probanden randomisiert einer standardisierten 90-minütigen psychotherapeutischen Intervention zum kognitiven Reframing bzw. zur progressiven Relaxation zugewiesen. Im Anschluss wurde die EEG-Erhebung mit dem Ruhe-EEG und dem EKP mit einem parallelisierten Pool negativ valenter Bilder erneut durchgeführt. Auf psychometrischer Ebene wurde u.a. der positive und negative Affekt mit dem PANAS im Verlauf der Untersuchung zu insgesamt vier Messzeitpunkten erfasst. Neben dem Alpha-Frequenzband des Ruhe-EEGs wurde bei den EKPs die P3 und das Späte Positive Potential (LPP) untersucht. Die Ergebnisse geben Hinweise darauf, dass die psychotherapeutischen Mikrointerventionen zu differentiellen Effekten auf psychometrischer und elektrokortikaler Ebene führten. Auf der psychometrischen Ebene zeigte sich bei den Teilnehmern der Entspannungsintervention direkt nach der Intervention eine Abnahme des negativen Affekts, während sich dies bei den Teilnehmern der Reframing-Intervention erst im Verlauf der zweiten EEG-Messung mit dem Umdeuten der negativ valenten Bilder zeigte. Auf der elektrokortikalen Ebene waren die Ergebnisse weniger einheitlich. Durch die Entspannungs-Intervention konnte im Verlauf der Untersuchung eine Zunahme der P3-Amplituden festgestellt werden, während die Reframing-Teilnehmer über die Messzeitpunkte eine Abnahme der P3-Amplituden aufwiesen. Dies könnte so interpretiert werden, dass durch das Erlernen des Reframings das emotionale Arousal reduziert werden konnte. Bei dem LPP waren hingegen keine differentiellen Effekte der Mikrointerventionen nachweisbar. Bei beiden Interventionen kam es zu einer Zunahme der LPP-Amplituden. Bei der Analyse der Alpha-Aktivität des Ruhe-EEGs wurde bei den Entspannungs-Teilnehmern im Vergleich zu den Reframing-Teilnehmern nach der Mikrointervention eine größere Alpha-Aktivität gefunden. Diese Unterschiede wurden am deutlichsten in der linken Hemisphäre sowie in den zentralen und parietalen Hirnregionen. Eine höhere Alpha-Aktivität geht mit einer niedrigeren kortikalen Aktivität einher, so dass man davon ausgehen kann, dass die Entspannungs-Teilnehmer diese Hirnregionen während der Intervention weniger ausgeprägt nutzten. Zusammenfassend geben die Befunde erste Hinweise auf eine differentielle Wirkung der beiden Mikrointerventionen.
Ausgangspunkt der vorliegenden Untersuchung sind die deutlichen Unterschiede in den Ukrainepolitiken Polens und Tschechiens. Das Erkenntnisinteresse ist, worauf diese Unterschiede im außenpolitischen Verhalten zweier Staaten, die in der Außenpolitikforschung meistens als Vertreter einer relativ homogenen Gruppe betrachtet werden, zurückzuführen sind. Die Studie geht auf Basis bisheriger konstruktivistischer Forschung zur polnischen Sicherheitspolitik von der Hypothese aus, dass dies mit kulturellen Faktoren zu tun hat, speziell der unterschiedlichen sicherheitspolitischen Bewertung der Ukraine und Osteuropas im Allgemeinen sowie unterschiedlichen ukrainepolitischen Rollenkonzeptionen, die sich hieraus ergeben. Die Fragestellung lautet daher, welche ukrainebezogenen, sicherheitspolitisch motivierten Rollenkonzeptionen sich in Polen und Tschechien nach 1989 herausgebildet haben.Zur Beantwortung dieser Fragestellung wird zunächst auf Grundlage der Forschung zur politischen und zur strategischen Kultur das Konzept der sicherheitspolitischen Kultur entwickelt und die Rollentheorie als bislang in der diesbezüglichen Forschung kaum rezipiertes Analyseinstrument vorgestellt, das aus mehreren Gründen Vorteile gegenüber anderen Ansätzen hat. Methodisch wird eine wissenssoziologische Diskursanalyse durchgeführt, die als Instrument zur Erfassung von sozial konstruierter Wirklichkeit dient, sich aufgrund derselben metatheoretischen Grundlagen hervorragend in das Modell sicherheitspolitischer Kultur einfügt und daher für eine Analyse der Entstehung von Rollenkonzeptionen geeignet ist. Die Untersuchung ergibt, dass in Polen die Bedrohungskonstruktion einer möglichen Wiederkehr des russischen Imperiums zentral ist und eine unabhängige, stabilisierte Ukraine als Schutz hiergegen aufgefasst wird. Die sich ergebenden ukrainepolitischen Rollenkonzeptionen sind Teil eines weitgehend konsensuellen Komplexes sicherheitspolitischer Rollenkonzeptionen, die abgesehen von rollenspezifischen sicherheitspolitischen Zielen auch zentral durch die Bedrohungskonstruktion der politischen Marginalisierung motiviert und daher häufig als Führungsrollen charakterisierbar sind. Tschechien zeichnet sich hingegen durch das weitgehende Fehlen einer Bedrohungskonstruktion des russischen Imperialismus aus, stattdessen wird die Ukraine stärker als Quelle von Gefahren konstruiert. Zudem ist die sicherheitspolitische Kultur Tschechiens von einer konzeptionellen Unterkomplexität, einem Mangel an Konsens, einer Konstruktion Tschechiens als machtloser Akteur sowie einer Unterordnung der Außenpolitik unter innenpolitische Fragen gekennzeichnet. Daher fehlen im tschechischen Falle nicht nur jegliche ukrainepolitische Rollenkonzeptionen, es ist grundsätzlich ein Mangel an klaren Vorstellungen darüber festzustellen, welche Rollen Tschechien in der internationalen Politik spielen soll.
Die Frage, wie und in welche Richtung sich Wohlfahrtsstaaten entwickeln ist seit gut zwei Jahrzehnten zentraler Gegenstand der wissenschaftlichen Auseinandersetzung. Insbesondere dem konservativen Wohlfahrtsstaat, zu dem u.a. Österreich und Deutschland gezählt werden, wird dabei eine gewisse Reformresistenz nachgesagt. Besonders bei der Bewältigung neuer sozialer Risiken, wie Pflegebedürftigkeit, zeigt sich, dass der Wohlfahrtsstaat an tradierten sozialstaatlichen Leitprinzipien und kulturellen Leitbildern festhält und damit die tatsächlichen Anforderungen und Bedürfnisse sich wandelnder gesellschaftlicher Verhältnisse vernachlässigt. Auf dieses institutionelle Setting ist auch die Entstehung sogenannter Grauer Pflegemärkte in konservativen Wohlfahrtsstaaten zurückzuführen. Auf diesen Grauen Pflegemärkten bieten Migrantinnen Betreuungs- und Pflegedienstleistungen an, die überwiegend unter Umgehung nationaler arbeits- und sozialrechtlicher Standards erbracht und deshalb als irregulär eingestuft werden. Versuche der Regulierung Grauer Pflegemärkte müssen deshalb beim bisherigen sozialstaatlichen institutionellen Setting der Bereitstellung formeller/informeller Betreuungsdienstleistungen in Frage gestellt werden " aus diesem Grund können sie auch Hinweise auf die Entwicklung von Wohlfahrtsstaaten geben. Gerade hier mangelt es den zahlreichen Analysen zu den Ursachen und Folgen der Entstehung Grauer Pflegemärkte die Regulierungsversuche und -diskurse in einen größeren politikübergreifenden Forschungskontext zu setzen und zu analysieren. Dieses Dissertationsprojekt setzt an dieser Forschungslücke an und geht der Frage nach, was der parlamentarische Diskurs um die Legalisierung der 24-Stunden-Betreuung über die Richtung des wohlfahrtsstaatlichen Wandels konservativer Wohlfahrtsstaaten aussagt. Hierbei werden die wohlfahrtsstaatlichen Entwicklungen der vergangenen zwei Jahrzehnte sowie die sozialpolitischen Leitprinzipien des konservativen Wohlfahrtsstaates in die Untersuchung mit einbezogen. In theoretischer Hinsicht knüpft das Vorhaben an Theorieansätze der Wissenspolitologie und Wissenssoziologie an und verbindet sie mit dem Ansatz der Theorie der sozialen Probleme. Wissenspolitologie erlaubt es wohlfahrtsstaatliche Veränderungsprozesse vor dem Hintergrund von Deutungen, Ideen oder Argumenten, also dem, was politische Akteure sagen, zu analysieren und sehen gleichzeitig hierin den Ausgangspunkt eben jener wohlfahrtsstaatlichen Veränderungsprozesse und Entwicklungen. Der wissenssoziologische Zugang in dieser Arbeit begründet sich über die Beobachtung, dass Graue Pflegemärkte rund zwanzig Jahre unbeachtet von Politik und Gesellschaft existieren konnten. Erst die Problematisierung der Grauen Pflegemärkte bzw. der auf ihnen irregulär erbrachten Betreuungsdienstleistungen ermöglichte einen Diskurs um die Frage, wie und in welchem Rahmen Betreuungsdienstleistungen zukünftig erbracht werden sollen. Insofern kann die Problematisierung als Ausgangspunkt für einen sozialpolitischen Veränderungsprozess gesehen werden. Die Analyse stützt sich dabei auf qualitative Methoden und wertet hierzu wichtige Parlamentsdebatten, Gesetzesentwürfe, Parteiendokumente sowie Zeitungsartikel die im Rahmen der Problematisierung und öffentlichen Diskussion zur Legalisierung der 24-Stunden-Betreuung geführt wurden aus. Ziel dieser Arbeit ist es, den Wandel des konservativen Wohlfahrtsstaates (1) durch das bislang wenig beachtete Politikfeld Betreuungsarbeit und Pflege zu ergänzen und (2) die Analyse um die Bedeutung von Deutungen und sozialpolitischen Leitprinzipien für sozialpolitische Reformprozesse zu erweitern.
Nicht von einer Hand Fallbeispiele der künstlerischen Zusammenarbeit in der Gemäldeproduktion vom 17. bis 19. Jahrhundert Das Phänomen der künstlerischen Zusammenarbeit mehrerer Maler auf einem Bildträger wurde in den vergangenen zehn Jahren in der Forschung und in der praktischen Museumsarbeit mit immer größerem Interesse betrachtet. Das hängt mit dem generellen Wandel in der Wahrnehmung von historischen Sammlungen und der Hinterfragung von tradierten Wahrnehmungsmustern in der Kunstgeschichte zusammen. Diese Dissertation hat sich die Frage nach der Entstehung dieser Form der Zusammenarbeit in verschiedenen Regionen und deren Rezeption im 18. und 19. Jahrhundert gestellt. Wenngleich in der Forschung die Kooperationstätigkeiten einzelner Künstler zunehmend Beachtung finden, so war es mein Anliegen, das Phänomen der Kooperationspraxis umfassend anhand verschiedener Fallbeispiele zu beschreiben. In vielen Fällen können diese Beispiele ergänzt und erweitert werden. Im Kern aber bleibt die Feststellung, dass die Kooperationspraxis als künstlerische Produktionsweise eine Entwicklung vollzogen hat. Kooperationen im beschriebenen Umfang hat es immer gegeben. Die produktive Phase der niederländischen und flämischen Malerei wäre im 17. Jahrhundert nicht möglich gewesen, hätten sich vor allem in Antwerpen die Maler nicht zu Kooperationsgemeinschaften zusammengeschlossen. Die Entwicklung der Genres, der Transfer unterschiedlichster Bildthemen und Motive hängt im engen Maße mit der Kooperationstätigkeit zusammen. Entscheidend für die horizontale Kooperation, also die Kooperation unter (mehr oder minder) gleichgestellten autonomen Meistern, war die Entwicklung dieser verschiedenen Genres. Einige dieser Gattungen eigneten sich besonders gut für die Praxis der Künstlerkooperation. Sie wurden zum Teil überhaupt erst durch diesen intensiven Austausch unter den Malern so erfolgreich und konnten erst durch eine ökonomische Produktionsweise in großer Menge für den freien Kunstmarkt hergestellt werden. Bei der Gegenüberstellung der Kooperationsbedingungen in Deutschland und in den Niederlanden wurden signifikante Gründe für die unterschiedliche Entwicklung der künstlerischen Zusammenarbeit herausgestellt. Im Alten Reich unterschieden sich im 16. und 17. Jahrhundert die sozial-ökonomischen Verhältnisse deutlich von denen in den südlichen und nördlichen Niederlanden. Die Grenzen zwischen der werkstattinternen Arbeitsteilung und der Kooperation zwischen autonomen Meistern verliefen fließend. Die Entwicklung in der Arbeitsweise der Maler verlief über einen langen Zeitraum und kann nicht als homogener Entwicklungsstrang festgeschrieben werden. Waren es anfangs die herrschaftlich motivierten Ansprüche für die Ausstattung der Residenzen oder für exorbitante Memorialprojekte, welche die bekanntesten Maler an einem Projekt unter der Koordination eines Höflings wirken ließen, so ging mit dem Erstarken des freien Kunstmarktes die Künstlerkooperation mit dem Ziel einer effektiven und absatzstarken Gemäldeproduktion einher. Die Produktionsverfahren des 18. und 19. Jahrhunderts folgten, mehr und mehr politischen, gesellschaftlichen und ökonomischen Motiven, wobei die Künstlerkooperation als soziales Arbeitsmodell bestätigt wurde. Damit wurde gleichsam der Weg für Künstlergemeinschaften und Künstlerkolonien geebnet, die vor allem im 20. Jahrhundert ein globales Phänomen darstellten und das künstlerische Selbstverständnis bis zum heutigen Tag prägen.
In der modernen Survey-Statistik treten immer häufifiger Optimierungsprobleme auf, die es zu lösen gilt. Diese sind oft von hoher Dimension und Simulationsstudien erfordern das mehrmalige Lösen dieser Optimierungsprobleme. Um dies in angemessener Zeit durchführen zu können, sind spezielle Algorithmen und Lösungsansätze erforderlich, welche in dieser Arbeit entwickelt und untersucht werden. Bei den Optimierungsproblemen handelt es sich zum einen um Allokationsprobleme zur Bestimmung optimaler Teilstichprobenumfänge. Hierbei werden neben auf einem Nullstellenproblem basierende, stetige Lösungsmethoden auch ganzzahlige, auf der Greedy-Idee basierende Lösungsmethoden untersucht und die sich ergebenden Optimallösungen miteinander verglichen.Zum anderen beschäftigt sich diese Arbeit mit verschiedenen Kalibrierungsproblemen. Hierzu wird ein alternativer Lösungsansatz zu den bisher praktizierten Methoden vorgestellt. Dieser macht das Lösen eines nichtglatten Nullstellenproblemes erforderlich, was mittels desrnnichtglatten Newton Verfahrens erfolgt. Im Zusammenhang mit nichtglatten Optimierungsalgorithmen spielt die Schrittweitensteuerung eine große Rolle. Hierzu wird ein allgemeiner Ansatz zur nichtmonotonen Schrittweitensteuerung bei Bouligand-differenzierbaren Funktionen betrachtet. Neben der klassischen Kalibrierung wird ferner ein Kalibrierungsproblem zur kohärenten Small Area Schätzung unter relaxierten Nebenbedingungen und zusätzlicher Beschränkung der Variation der Designgewichte betrachtet. Dieses Problem lässt sich in ein hochdimensionales quadratisches Optimierungsproblem umwandeln, welches die Verwendung von Lösern für dünn besetzte Optimierungsprobleme erfordert.Die in dieser Arbeit betrachteten numerischen Probleme können beispielsweise bei Zensen auftreten. In diesem Zusammenhang werden die vorgestellten Ansätze abschließend in Simulationsstudien auf eine mögliche Anwendung auf den Zensus 2011 untersucht, die im Rahmen des Zensus-Stichprobenforschungsprojektes untersucht wurden.
Preisvergleiche zwischen verschiedenen Regionen spielen in zahlreichen wirtschaftlichen und politischen Zusammenhängen eine wichtige Rolle. Unabhängig davon, ob es darum geht, die Wirtschaftskraft von Regionen oder Ländern gegenüber zu stellen, die Lebensverhältnisse innerhalb eines Landes zu vergleichen, oder aber die Wirkungsweise sozial- und lohnpolitischer Entscheidungen einzuschätzen: Interregionale Preisvergleiche dienen in erster Linie als Instrument, um gesamtwirtschaftliche und ökonomische Größen zwischen verschiedenen Regionen oder Ländern real vergleichbar zu machen. Interregionale Preisvergleiche sind allgemeinhin besser bekannt als sogenannte Kaufkraftparitäten. Die enorme Bedeutung von Kaufkraftparitäten wurde in der Vergangenheit lange unterschätzt. Insbesondere bei Preisvergleichen innerhalb eines Landes mangelt es oftmals an einer soliden Datenbasis, sodass verlässliche Schätzungen regionaler Preisniveauunterschiede häufig nicht möglich sind. Die vorliegende Arbeit zeigt allerdings, dass ein breites Angebot verschiedener multilateraler Aggregationsmethoden bereit. Im Mittelpunkt des ersten Teils Arbeit steht die methodische Ausarbeitung verschiedener Aggregationsverfahren, mit deren Hilfe sich erhobene Daten zu verlässlichen und aussagekräftigen Preisvergleichskennzahlen aggregieren lassen. Im Unterschied zu intertemporalen Vergleichen sind gewöhnliche bilaterale Preisindizes für diesen Zweck nur begrenzt einsetzbar. Vielmehr sind spezielle multilaterale methodische Instrumente nötig, die den speziellen Anforderungen regionaler Preisvergleiche gerecht zu werden. Im Rahmen der Arbeit werden die verschiedenen multilateralen Aggregationsverfahren unterschiedlichen Berechnungsansätzen zugeordnet, wobei jeder dieser Ansätze durch bestimmte Eigenschaften charakterisiert ist. Neben den Mitgliedern der Klasse des Gini-Eltetö-Köves-Szulc (GEKS) und Minimum Spannning Tree (MST) Ansatzes sowie des Regressionsansatzes, widmet sich diese Arbeit schwerpunktmäßig den unterschiedlichen Verfahren des sogenannten Standardisierungsansatzes. Es stellt sich heraus, dass der Standardisierungsansatz grundsätzlich sehr dem Konstruktionsprinzip bilateraler Durchschnittswertindizes (GUV-Indizes) ähnelt, weshalb sich die Mitglieder dieser Klasse auch als multilaterale GUV-Indizes auffassen lassen. Darüber hinaus wird eine neue Unterklasse des Standardisierungsansatzes definiert, deren Mitglieder die breite Palette bereits existierender Verfahren ergänzen. Allerdings wird den Aggregationsverfahren des Standardisierungsansatzes nachgesagt, unter den Auswirkungen des sogenannten Gerschenkron-Effekts zu leiden und im Gegensatz zu anderen Aggregationsverfahren häufig verzerrte Preisvergleiche hervorzubringen. Der zweite Teil der Arbeit ist einem empirischen Vergleich der zuvor erörterten Aggregationsverfahren vorbehalten. Grundlage für die Berechnungen (auf und unterhalb der elementaren Güterebene) sind Daten des Europäischen Vergleichsprogramms (EVP). Eine wichtige Erkenntnis des empirischen Teils der Arbeit ist, dass viele der unterschiedlichen Aggregationsmethoden für die Berechnungen auf der Elementarebene sehr ähnliche Ergebnisse für die Preisvergleiche zwischen den Ländern im EVP generieren. Die Sorge verzerrter Preisvergleiche infolge der Auswirkungen des Gerschenkron-Effektes lässt sich auf Grundlage der empirischen Untersuchungen nicht (zweifelsfrei) bestätigen. Ferner zeigen die empirischen Untersuchungen, dass weitaus größere Schwierigkeiten bei der Berechnung von Preisvergleichen unterhalb der Elementarebene bestehen. Die Berechnungen offenbaren, dass die häufig in der Praxis eingesetzten Verfahren der GEKS-Methode in Situationen, in denen nur wenige Daten vorhanden sind, keine plausiblen Ergebnisse liefern. Es stellt sich heraus, dass in diesen Fällen die Verfahren des Regressionsansatzes eine unkompliziertere und verlässlichere Berechnung von Preisvergleichen erlauben. Nichtsdestotrotz decken die Ergebnisse schonungslos die Probleme und Schwächen interregionaler Preisvergleiche auf. Trotz intensiver Anstrengungen der internationalen statistischen Organisationen, eine vergleichbare und fundierte Datenbasis zu schaffen, sind die Dateninformationen einiger Regionen bzw. Länder nach wie vor sehr lückenhaft. Da verlässliche und aussagekräftige Preisvergleiche im Wesentlichen von der Verfügbarkeit und der Qualität der Daten abhängig sind, sollte der Forschungsschwerpunkt zukünftig daher mehr an der Bereitstellung eines soliden Datenfundaments ausgerichtet werden.
Das Judenschutzprivileg Karls d. Gr. setzte voraus, daß den Juden eine die Königsherrschaft bzw. den Staat stützende Funktion zugedacht war. Damit vollzog der Kaiser eine Wende um 1800 gegenüber den antiken Herrschern, die in den Juden eine Gefahr für ihren zentralisierten Einheitsstaat erblickt hatten. Unter dem Dach des von Kaiser Karl begründeten Judenschutzes lebte das traditionelle politische Motiv einer sich in zahlreichen Repressionen bis hin zu Verfolgungen und Vertreibungen äußernden Judenfeindschaft im nordalpinen Raum weiter, modifiziert infolge geänderter Voraussetzungen. Die Juden fanden sich hinfort in einem politischen Spannungsfeld zwischen Judenschutz und Anfeindung eingebunden und zwar innerhalb eines sich horizontal zunächst bipolar (Rivalität Kaiser/König - Papst), dann auch multipolar ausweitenden Herrschaftsbereiches mit zum Teil rivalitätsbedingten Übergriffen bis hin zu Verfolgungen.- Wegen der Beteiligung anderer Gewalten neben dem König an der Herrschaft über die Juden und damit an der Ausübung des Judenschutzes wurden die Juden oftmals Leidtragende separater materieller und politischer Konflikte, weil sie politisch als Stütze konkurrierender bzw. einander verfeindeter Herrschaftsträger wahrgenommen wurden, womit eine der Modifikationen des traditionellen Motivs faßbar wird - die Gefährdung eigener Herrschaftspositionen durch den politischen Widersacher. Folgt man dem Ritter und Ministerialen Johann von Rinberg als Leitfigur - 1298 wird er dann definitiv zur Hauptfigur -, erschließt sich ein neuer bisher in der Forschung vernachlässigter Täterkreis - die Rolle der Ministerialen bei Judenverfolgungen gerät in den Focus der Aufmerksamkeit und nicht der Mob, die blind wütende, die Juden mit oder ohne pseudoreligiösem Bezug kriminalisierende und lynchende Masse, sondern vielmehr die Frage nach den Drahtziehern bzw. Strippenziehern im Hintergrund, den Hintermännern der stereotyp wiederkehrenden Standardbeschuldigungen (Brunnen- vergiftung, Hostienfrevel, Ritualmord,...). Der im Rheingau gelegene Salhof Lorch entpuppte sich als das Zentrum ministerialischer Opposition unter Führung des Rheingrafen gegen den Ausbau der Landesherrschaft des Mainzer Erzbischofs. Hier in Lorch selbst veranlaßten die Ministerialen während eines "Krieges" gegen den Erzbischof Werner von Mainz ihre erste Judenverfolgung im Jahre 1274/5, worin auch die Familie der Rinbergs involviert war. In den Verhandlungen eines Schiedsgerichts wird die von den Ministerialen eingeschlagene Taktik erkennbar, ihre Verantwortung und Mitschuld zu verschleiern und die Schuld ausschließlich den eigentlichen Judenschlägern anzulasten, was freilich nicht ganz gelingt, da der Erzbischof auf vollem Schadenersatz bestand, den die ärmeren Judenschläger selbst nicht zu leisten vermochten. Mit dem Sieg des Erzbischofs 1279 in der Schlacht bei Gensingen gegen die Ministerialität unter Führung des Rheingrafen und seinem Sieg auch in der sich anschließenden "Sponheimer Fehde" des Jahres 1281 kam die Wende auch für die Truchsessenfamilie von Rinberg. Ihre und des Rheingrafen Burg Rheinberg im Wispertal wurde 1281 erobert und zerstört und das Truchsessenamt ihnen entzogen. Sigfrid von Rinberg und sein Sohn Johann gerieten nicht wie der Rheingraf und dessen Sohn in Gefangenschaft, sie konnten sich ihr durch die Flucht entziehen, unterwarfen sich nicht und wurden von nun an ausdrücklich als "Feinde" des Erzbischofs und der Mainzer Kirche bezeichnet. Der Rheingraf wurde aus dem Rheingau verdrängt und mußte sich verpflichten, keine konspirativen Kontakte zu diesen Feinden aufzunehmen bzw. zu pflegen, sie nicht zu beherbergen. Gleiches galt natürlich auch für die unterworfene Ministerialität. Indizien legen den Schluß nahe, daß sich Johann von Rinberg zwischen 1281 und 1292 in Reichweite des Salhofes Lorch aber dennoch an einem sicheren Ort aufhielt, in der Reichsstadt Oberwesel. Von hier aus ließen sich durch ihn als erklärtem Feind des Erzbischofs hervorragend konspirativ Verbindungen knüpfen und koordinieren. Die Ministerialenopposition lebte im Verborgenen wieder auf. Gesucht wurde nach Wegen, scheinlegal im Zusammenspiel mit dem verbündeten Mainzer Stadtrat gegen Positionen des Erzbischofs - hier gegen dessen Juden - vorzugehen. So kann es nicht verwundern, daß diesesmal der nächste Vorstoß gegen die Juden 1282/3 nicht von Lorch her sondern von Olm aus erfolgte durch den Ritter und Ministerialen Herbord Ring von Olm, der bezeichnenderweise enge Verbindungen zum Salhof Lorch unterhielt, der jetzt in Begleitung weiterer Ministerialen vor der Stadt Mainz erschien, um wegen der Ermordung angeblich seines Neffen und angeblich durch Juden der Stadt Mainz Einlaß zu begehren und eine ordentliche Gerichtsverhandlung zu verlangen. Das Komplott des Herbord im Zusammenspiel mit dem Mainzer Stadtrat, der danach trachtete, den Judenschutz und die Gerichtsbarkeit über die Juden zu gewinnen, wurde von Erzbischof Werner von Anfang an durchschaut. Eine "kleine", vom Stadtrat kontrollierte und beendete Judenverfolgung wurde wie schon 1281 zugelassen, um so das Unvermögen des Judenschutzes durch den Erzbischof offenkundig zu machen. 1287 transportierten Ministerialen den zu Oberwesel angeblich von dortigen Juden ermordeten "Guten Werner" per Schiff gen Mainz, um so das Schauspiel des Herbord von Olm aus dem Jahre 1282/3 zu wiederholen. Eine Koordination muß der Übernahme vorausgegangen sein, eingefädelt wurde der Fall sehr wahrscheinlich durch ihren externen Komplizen Johann von Rinberg, der sich hier in Oberwesel aufgehalten haben dürfte. Etwas Unvorhergesehenes durchkreuzte den Plan der Ministerialen und zwang sie zur vorzeitigen Anlandung in Bacharach. Von Standesgenossen des Salhofes Lorch gewarnt und an Land gewunken erfuhren sie, daß König Rudolf soeben in Mainz eingetroffen war, der hier die Mainzer Bürgerschaft wegen der vorausgegangenen Judenverfolgung des Jahres 1286 zu einer Geldstrafe verurteilte. Die inszenierte Verfolgungswelle des "Guten Werner" ließ sich indes hierdurch nicht aufhalten,die von den Ministerialen und speziell von Johann von Rinberg auf die Weinbau betreibende Bevölkerung der Rheingegend zugeschnittene Märtyrergeschichte des "Guten Werner" fand ihren Zuspruch. König Adolf nahm Johann von Rinberg als bewährten Feind des Mainzer Erzbischofs 1294 in seinen Dienst als Folge des Zerwürfnisses mit Erzbischof Gerhard. Johann wurde zum königlichen Vogt des Speyergaues ernannt. Zu Beginn des Thronstreites zwischen König Adolf von Nassau und Herzog Albrecht von Österreich und noch vor dem ersten Auftritt Johanns von Rinberg zu Röttingen als Judenverfolger namens Rindfleisch (20.04.) setzte in den Kreisen des königstreuen Adels Schwabens und auch Frankens eine gegen die Juden gerichtete Bewegung ein - von einem "heftigen Geschrei" gegen die dem Erzbischof von Mainz und damit einem der Hauptgegner König Adolfs unterstehenden Juden der Region ist die Rede. Konkretisiert wird das "Geschrei" in einem Fall,einer Standardbeschuldigung: Die Juden hätten den Sohn eines mächtigen Adligen erdrosselt. Die wahren Hintergründe erhellen sich am Verhalten eines dieser Adligen, des Kraft von Hohenlohe, Herrn von Weikersheim und auch Röttingens. Wegen des reichspolitischen Konflikts und der Gegnerschaft des Mainzer Erzbischofs als dem Herrn der Juden wittern sie die Möglichkeit, sich ihrer Schulden bei den Juden durch deren Vernichtung zu entledigen. Aber man ist sich des Risikos politischer Wechselfälle bewußt. - So erlangt der Erzbischof von Mainz nach dem Sieg über König Adolf vom neuen König Albrecht von Habsburg das Privileg, daß ihm die Schuldforderungen der getöteten Juden, welche keine Erben haben, zufallen sollen.- Risikobewußt und zögerlich verhält sich Kraft von Hohenlohe, der zunächst Rücksprache mit dem Bischof von Würzburg hält, um danach gegen die Juden seiner Herrschaft vorgehen zu können und sich so seiner Schulden zu entledigen, was in Weikersheim auch geschah, wohingegen er die Verfolgung in Röttingen Rindfleisch überließ. Der Adel hielt Ausschau nach einem erfolgversprechenden Exekutor, hinter dem man sich verstecken konnte. Man fand ihn in der Person des Speyerer Landvogtes Johann von Rinberg, eines allseits bekannten Feindes des Mainzer Erzbischofs und zugleich eines Judenfeindes, der mit Conrad Rindfleisch einen namentlich ausgewiesenen Judenverfolger zu seinem Stellvertreter ernannt hatte. "Iussu et consensu superiorum" verfolgte Johann von Rinberg die Juden, wie die "Historiae memorabiles" bezeugen, und zwar unter einer jetzt auch beim einfachen Volk, den "arme(n) lude(n)", zugkräftigen Parole: Die Juden hätten dem Heer König Adolfs vergiftetes Rindfleisch geliefert und seien die Verursacher der sich auf Landgebiete ausbreitenden Seuche.- Während der mit dem Schlachtentod König Adolfs in Göllheim endenden Kämpfe um die Krone brach im Heer des Königs eine Seuche aus, die sich auch auf Breisach und weitere Landgebiete ausweitete. Man schrieb dies dem Genuß verdorbenen Rindfleisches zu.Johann von Rinberg machte sich dies zunutze, setzte über den Rhein , begab sich in die königsnahe Landschaft Schwabens und Frankens, um hier gegen die Juden als angeblichen Verursachern der Seuche zu hetzen. Wegen seiner Parole gab man ihm den Namen "Rindfleisch". Begrüßt vom Adel der königsnahen Landschaften und mit Zulauf aus den ärmeren Bevölkerungskreisen zogen seine Scharen die Juden mordend über das Land. Vor Würzburg scheiterte er zunächst allerdings am Widerstand des dortigen Stadtrates. In den Speyergau zurückgekehrt, schloß er sich dem jetzt linksrheinisch operierenden Heer König Adolfs an, kämpfte in der Schlacht bei Göllheim, wurde gefangengenommen, dann aber von dem neuen König Albrecht I. von Habsburg vorzeitig unter Bedingungen entlassen, mit einer Sondermission betraut, die sich inzwischen verselbständigten Judenverfolgungen in Franken kraft seines Einflusses als "capitaneus" und "rex Rintfleisch" auf diese Scharen der Judenverfolger zu beenden. In Würzburg mit seiner Mannschaft angekommen, brach Johann von Rinberg seinen dem König geleisteten Eid, wurde rückfällig, ließ die Juden der Stadt unter Beihilfe einer Bürgeropposition ermorden und startete von hier aus eine neue Verfolgungswelle. Anschließend befreite er mit einem tollkühnen Handstreich den Sohn des getöteten Königs Adolf von Nassau aus der Gefangenschaft Erzbischof Gerhards von Mainz und begab sich daraufhin in Dienst und Schutz des Nassauer Grafenhauses und Erzbischof Dieters von Trier, der ihn zu seinen "Freunden" zählte. Die Identifizierung des berüchtigten Judenverfolgers Rindfleisch des Jahres 1298 setzte bei den Quellen an, die ihn als Edelmann mit Namen de Rinberch nennen. Es konnte geklärt werden, wieso man den Edelmann de Rinberch/Rinberg auch "Rindfleisch" nannte und zwar über Ermittlungen zum Reichslandvogt im Speyergau, Johann von Rinberg und dessen Stellvertreter mit Namen Conrad Rindfleisch angesichts einer sich in der Nachbarschaft und im Operationsgebiet des königlichen Heeres ausbreitenden Seuche, die man auf den Genuß des Rindfleisches zurückführte. Die im Quellenhorizont der Wende des 13. zum 14. Jahrhundert ermittelten Träger dieses Namens wurden überprüft mit dem Ergebnis, daß nur Johann von Rinberg dieser Judenverfolger gewesen sein konnte. Die Hypothese, es könne schließlich noch weitere Rinbergs gegeben haben, die als Täter in Frage kämen, disqualifiziert sich vor diesem Hintergrund als "argumentum ex silentio"! Zu seinem "Täterprofil" paßt sein Motivationshintergrund, sein engeres familiäres und weiteres soziales und politisches Umfeld mit der Anbindung von Judenverfolgungen an die Kämpfe der Ministerialen mit ihrem Landesherrn sowie weitere Ermittlungen - keine Hypothesen sondern Indizien: Vereinbarkeit der Itinerarien Rindfleischs und Johanns von Rinberg / der Name des Stellvertreters Johanns von Rinberg im Speyergau, Conrad Rindfleisch : keine Zufälligkeit sondern Vorbildfunktion / der Vorname des nach Koblenz verzogenen Rindfleisch : Johannes / Rinbergs Mission im Auftrag König Albrechts von Habsburg gegen die Scharen der Judenverfolger und sein Rückfall, seine Konversion : nur Johann von Rinberg kam in Königsnähe hierfür in Frage, zumal sein Name in der Kombination Rint-berg Zeugnis ablegt von der Kenntnis seiner Identität als Rintfleisch (Rintfleisch / Rinberg).
Die Frage, wie die Lesekompetenz der Lernenden effizienter entwickelt werden kann, beschäftigt die Leseforschung im Bereich Chinesisch als Fremdsprache (ChaF) seit vielen Jahren. Bis heute werden dabei schriftstrukturelle Aspekte in den Vordergrund gestellt, so z. B. die Frage, wie den Lernenden der Aufbau der Schriftzeichen systematisch näher gebracht werden kann oder auch korpusrelevante Ansätze, die in Sammlungen hochfrequenter Schriftzeichen und Wörter ihren Niederschlag finden. So sinnvoll diese Herangehensweisen beispielsweise für die Entwicklung von Lehrwerken sind, so bleibt doch festzuhalten, dass die Wortebene (Wortschatzkenntnis und Worterkennung), die den Befunden der L1- und L2-Leseforschung zufolge der Schlüssel für das Verstehen von Texten ist, bis heute sowohl in der lesedidaktischen Diskussion als auch in den Lehrwerken stark vernachlässigt wird. In den letzten zwanzig Jahren ist von Seiten der ChaF-Leseforschung, insbesondere in den USA und in China, eine Reihe von psycholinguistischen Studien zur Entwicklung der Lesekompetenz, der Worterkennung und von Wortschatzkenntnissen sowie zur Beziehung dieser Kompetenz- und Wissensbereiche publiziert worden. Auch der Leseprozess geübter L1-Leser ist inzwischen gut erforscht. Allerdings lassen sich aus den Ergebnissen einzelner psycholinguistischer Studien, in denen unter Anwendung unterschiedlicher Forschungsparadigmen bestimmte Subprozesse des Lesens untersucht werden, nicht direkt Schlussfolgerungen für die nach kohärenten Erklärungen des Leseprozesses verlangende Lesedidaktik ziehen. Für die Entwicklung eines evidenzbasierten Ansatzes zur wortschatzzentrierten Lesevermittlung in ChaF wurde daher in der vorliegenden interdisziplinären Studie die gesamte relevante empirische Evidenz zum Lesen und zur Wortverarbeitung in ChaF kritisch im Rahmen konsensfähiger Theorien zur Sprachverarbeitung analysiert. Ergebnis dieser Analyse war, dass " ebenso wie in anderen Fremdsprachen auch " umfassende und gut vernetzte Wortschatzkenntnisse sowie eine automatisierte Worterkennung, die den zuverlässigen Abruf phonologischer Informationen mit einschließt, Grundvoraussetzungen für das fließende Lesen chinesischer Texte sind. Gleichzeitig verdeutlichen die empirischen Befunde auch, dass der Erwerb vertiefter Wortschatzkenntnisse aufgrund der sprachlichen Distanz des Chinesischen für westliche ChaF-Lernende eine große Herausforderung darstellt. Auch die Entwicklung der Worterkennung ist aufgrund der phonologischen Intransparenz der chinesischen Schrift und auch weil beim Lesen eine zusätzliche Wortsegmentierung vorgenommen werden muss, mit großen Schwierigkeiten verbunden. Im letzten Kapitel der Dissertation werden Empfehlungen für eine wortschatzzentrierte Lesedidaktik formuliert, die Ansätze aus der evidenzbasierten westlichen L2-Lesedidaktik mit der traditionellen Methode des lauten Lesens verbindet und die den Lernenden gleichzeitig die Möglichkeit bietet, im Rahmen inhaltsbezogener rezeptiver, reflexiver und produktiver Übungen aktiv mit chinesischen Wörtern umzugehen und deren Verwendung wiederholt einzuüben.
Im querschnittlichen Vergleich zwischen 10- bis 18-jährigen Mädchen mit Major Depression und gleichaltrigen gesunden Probandinnen wiesen die depressiven Mädchen mehr Probleme, mehr körperliche und psychische Stresssymptome, erhöhte Cortisolsekretion sowie eine ungünstigere Stressverarbeitung auf. Im Längsschnitt zeigte sich die Bedeutsamkeit von psychischer Stressbelastung und der Einfluss von Bewältigungsstrategien auf den Verlauf der Depression.
Im Leistungssport ist ein gesunder Körper die Hauptvoraussetzung für das Erbringen sportlicher Höchstleistungen. Allerdings müssen Leistungssportler tagtäglich in Training und Wettkampf gesundheitliche Risiken eingehen. Aus diesem Dilemma wird ein Trilemma, sobald es sich um jugendliche Leistungssportler handelt, da das Jugendalter mit all den Veränderungen auf psychischer, physischer und sozialer Ebene, die es mit sich bringt, häufig das Einstiegsalter für gesundheitsrelevante Risikoverhaltensweisen wie den Konsum von Alkohol, Tabak und Marihuana bildet. Diese können zusätzlich Auswirkungen auf die Gesundheit und damit das Erbringen sportlicher Leistung haben. Aus diesem Grund war es das Ziel dieser Dissertation, das gesundheitsrelevante Risikoverhalten und die subjektive Gesundheit in der speziellen Gruppe jugendlicher Leistungssportler zu untersuchen, mit einer jugendlicher Referenzstichprobe bestehend aus Nicht-Leistungssportlern zu vergleichen und assoziierte Determinanten - sowohl individueller als auch kontextueller Natur - zu identifizieren. Dazu wurden im Rahmen der GOAL Study (German Young Olympic Athletes" Lifestyle and Health Management Study) 1.138 jugendliche Leistungssportler aller olympischer Disziplinen schriftlich befragt. Ausgewertet wurden neben der subjektiven Gesundheit der Konsum von Alkohol, Tabak und Marihuana, das Ernährungsverhalten und die Nutzung von Nahrungsergänzungsmitteln. Als Vergleichspopulation wurde der KiGGS (Kinder- und Jugendgesundheitssurvey) des Robert Koch-Instituts herangezogen. Es zeigte sich, dass jugendliche Leistungssportler zwar selten rauchten (3%) oder Marihuana konsumierten (3%), aber dass sie durchaus Alkohol zu sich nahmen (86%) und insbesondere Binge Drinking betrieben (24%). Bezüglich des Rauchverhaltens, des Konsums von Marihuana und des Jemalskonsums von Alkohol zeigten sie jedoch niedrigere Prävalenzen als jugendliche Nicht-Leistungssportler. Bei der Ernährung der Athleten ergaben sich teilweise Defizite. Lediglich 52% der Athleten nahmen täglich eine Auswahl an vitamin- und ballaststoffreichen Nahrungsmitteln zu sich, jedoch waren dies mehr als in der Referenzpopulation. Neun von zehn Athleten nutzten Nahrungsergänzungsmittel, davon konsumierten rund 30% täglich Supplemente. Die Mehrheit der Athleten bezeichnete ihre Gesundheit als gut oder sehr gut (89%), was einem größeren Anteil entspricht als in der Referenzgruppe (86%). Es fanden sich eine Vielzahl an individuellen und kontextuellen Determinanten mit den einzelnen Risikoverhaltensweisen und der subjektiven Gesundheit verknüpft. Insgesamt lässt sich festhalten, dass Beratung und Aufklärung bezüglich der einzelnen Risikoverhaltensweisen immens wichtig erscheinen. Beispiele für bestehenden Aufklärungsbedarf sind der übermäßige Alkoholkonsum, welcher Auswirkungen auf die Leistungsfähigkeit haben kann, die Einnahme von Nahrungsergänzungsmitteln wie Kreatin, welche für Jugendliche nicht unbedenklich ist, und der häufig vorliegende nicht-tägliche Konsum von vitamin- und ballaststoffreichen Lebensmitteln, welcher wichtig für eine adäquate Ernährung ist. Daher sollten bereits Athleten in niedrigeren Kaderstufen Experten (z. B. Ernährungsberater) zur Seite gestellt werden. Aber nicht nur die Athleten sollten besser geschult werden sondern auch deren Trainer, Betreuer und Eltern, die allesamt wichtige Bezugspersonen darstellen.
Die Arbeit setzt sich mit den theoretischen und praktischen Aspekten der Analyse und Edition eines literarisch wichtigen Textes mit Methoden der Digital Humanities sowie der Korpus- und Computerlinguistik auseinander. Als Materialgrundlage dient das luxemburgischsprachige Werk des Michel Rodange. Hierzu gehören die Werke "Renert oder de Fuuss am Frack an a Maansgréisst" - ca. 35.000 Tokens, "Dem Léiweckerche säi Lidd" - ca. 5.000 Tokens, "Dem Grof Sigfrid seng Goldkuemer" - ca. 10.000 Tokens und zwei Gedichte - ca. 500 Tokens. Auf der empirischen Seite handelt es sich um die Erstellung eines elektronischen Korpus mit historisch-kritischen und linguistischen Annotationen und dessen Darstellung im Internet als Webportal. Dabei entsteht eine Wechselwirkung zwischen Theorie und Praxis, so werden die erstellten Annotationen verwendet, um das Werk aus sprach- und literaturwissenschaftlicher Perspektive zu untersuchen; diese Erkenntnisse können dann wiederum bei der Implementierung der Tools eingesetzt werden, um den Korrektheitsgrad der automatischen Annotation zu erhöhen. Die historisch-kritischen Annotationen beinhalten beispielsweise Lesarten, Korrekturen sowie Worterklärungen, wohingegen die linguistischen Annotationen die Orthographie, Morphologie (Wortklassen und Lemmata) und Phraseologie betreffen. Die Annotationen werden in der Markup-Sprache XML kodiert. Der erste Schritt der Erstellung eines elektronischen Korpus ist die Digitalisierung der Texte. Bei den Handschriften geschah dies mithilfe einer manuellen Transkription, bei den Drucken wurde auf eine OCR-Software zurückgegriffen. Es empfiehlt sich, bereits in dieser Phase den Text gut zu strukturieren und mit Annotationen zu versehen. Dabei wurden zunächst Metadaten festgehalten. Anschließend wurden Informationen wie Seitenzahl, Zeilenumbrüche etc. als Annotationen hinzugefügt. Von besonderer Bedeutung für die Erstellung eines Korpus aus einem historisch und literarisch wichtigen Text ist jedoch seine Anreicherung mit historisch-kritischen Kommentaren. Die Untersuchung und Berücksichtigung der literarischen bzw. wissenschaftlichen Gattung historisch-kritische Edition stellt die theoretische Grundlage für solche Annotationen dar. Alle für die Editionswissenschaft relevanten Texthinweise, -bruchstücke und vom Autor durchgestrichene und gelöschte Stellen wurden dokumentiert. Bei schlecht lesbaren Stellen wurden Lesemöglichkeiten vorgeschlagen und die anderer Editionen diskutiert. Die Text Incoding Initiative (TEI) bietet eine Fülle von XML-Elementen, um solche Annotationen zu speichern. Um diese Arbeit nicht manuell ausführen zu müssen, wurde auf Tools wie TUSTEP, oXygen oder Skriptsprachen wie beispielsweise Perl zurückgegriffen. Diese können u. a. die Such- und Ersetzen-Arbeiten mithilfe der Regulären Ausdrücke bedeutend erleichtern. Den nächsten Schritt der Korpus-Erstellung stellt die Tokenisierung dar. Hierbei gehen die historisch-kritischen Annotationen in linguistische Annotationen über. Die Grenzen eines Wortes werden festgelegt und jedes Wort mit seinem eigenen Element versehen. Aus der digitalen Verarbeitung nicht wegzudenken ist dabei die Berücksichtigung und Untersuchung der Sprache des Autors. In diesem Fall wurde auf Aspekte wie die Dichtungsstile des Luxemburgischen im 19. Jahrhundert, die literarischen Gattungen der Texte sowie die Schreibung des Autors geachtet. Der empirische Anteil der Analyse mit EDV-technischen Methoden und die Speicherung der Ergebnisse als Annotationen stellt die wissenschaftliche Basis für die spätere digitale Präsentation dar. In der Arbeit werden die Ergebnisse der quantitativen und qualitativen Analyse der Sprache des Werks mithilfe von selbstimplementierten Programmen diskutiert. Dabei werden die vorhandenen Theorien sowohl der klassischen Linguistik z. B. aus der Morphologie oder der Phraseologieforschung, als auch der Korpuslinguistik besprochen und evaluiert. Die Implementierung und Ergebnisse folgender Programme für das Michel Rodange Korpus werden thematisiert: Tokeniser, FreqList, POS-Trainer, POS-Tagger, Lemmatisierer und Programme zur morphologischen und phraseologischen Analyse des Korpus. Der POS-Tagger kann die Wortarten im Korpus bestimmen. Grundlage dafür sind die sogenannten Hidden Markov Modelle, die auf der Wahrscheinlichkeitstheorie basieren. Der Lemmatisierer und das Programm zur morphologischen Analyse arbeiten hauptsächlich regelbasiert, wohingegen das Programm für die phraseologische Analyse anhand statistischer Verfahren wie dem Z-Test, dem Chi-Quadrat-Test und dem Exakten Test von Fisher implementiert wurde. So widmet sich beispielsweise Kapitel 3.4 dem Output der morphologischen Analyse und diskutiert die Wortbildung. Kapitel 3.6 beschäftigt sich mit der Interpretation der Phraseologismen. Hierbei zeigte sich, dass viele der automatisch identifizierten Phraseologismen aus Michel Rodanges Werken in der Tat ein fester Bestandteil nicht nur der luxemburgischen Sprache und Kultur sind, sondern sich auch in der gesamten westlichen Kultur wiederfinden.
Handeln in der Organisation Schule - Eine Fallstudie zur Selbstgestaltung der Realschule plus unter Einbezug politischer Rahmenbedingungen. Die in der rheinland-pfälzischen Schulstrukturreform von 2008 festgelegte Einführung der Realschule plus und damit verbundene schulische Fusionierungsprozesse wurden in der vorliegenden Dissertation mittels eines qualitativen Methodenmixes fallanalytisch untersucht. Im Zentrum stand dabei zum einen die Beleuchtung der schulischen Binnenstruktur, zum anderen wurde der Frage nachgegangen, welche Handlungsspielräume bzw. Entwicklungsstrategien zur individuellen Selbstgestaltung die einzelne Schule für sich erarbeiten kann. Forschungsleitend ist dabei der Befund aus schulübergreifenden Untersuchungen der "Agentur für Qualitätssicherung, Evaluation und Selbstständigkeit von Schulen" (AQS) gewesen, der besagt, dass sich unterschiedliche Schularten insgesamt nur wenig voneinander unterscheiden, jedoch die Differenzen zwischen einzelnen Schulen eine ausgedehnte Vielfalt aufweisen und im Kontext einzelschulischer Qualitätsentwicklung eine Fülle unterschiedlicher Merkmale und Handlungsstrategien offenbaren. Zur Operationalisierung sind dementsprechend folgende Forschungsfragen formuliert worden: Inwieweit gelingt es politische Rahmenbedingungen zum Schultyp der Realschule plus umzusetzen? Wie wird schulische Selbstverwaltung als Programmatik von Schulentwicklung verstanden? Welche Handlungsmuster und -strategien der Beteiligten können in diesem Zusammenhang herausgearbeitet werden? Abschließend wurde der Versuch unternommen, Handlungsempfehlungen aus den wichtigsten Ergebnissen der Arbeit abzuleiten, die aus Sicht der Verfasserin eine Relevanz für einen möglichst positiven Vollzug der gegenwärtigen Reformbemühungen besitzen.
Bei synthetischen Simulationsgesamtheiten handelt es sich um künstlichernDaten, die zur Nachbildung von realen Phänomenen in Simulationen verwendetrnwerden. In der vorliegenden Arbeit werden Anforderungen und Methoden zur Erzeugung dieser Daten vorgestellt. Anhand von drei Beispielen wird gezeigt, wie erzeugte synthetische Daten in einer Simulation zur Anwendung kommen.
Im Zentrum der Dissertation steht der in Augsburg geborene Maler Joseph Heintz d.J. (1600-1678), der Anfang der 1620er Jahre nach Venedig auswanderte, wo er über fünfzig Jahre bis zu seinem Tod lebte und arbeitete, und zum Hauptvertreter der venezianischen Festmalerei des 17. Jahrhunderts avancierte. Der erste Teil widmet sich der Rekonstruktion der bisher nahezu unbekannten Biographie Joseph Heintz' d.J., sowie seines Kunden- und Auftraggeberkreises, und somit der sozialen Verortung des Künstlers in Venedig. Im zweiten Teil erfolgt die Analyse der Festmalerei Joseph Heintz' d.J. unter besonderer Berücksichtigung der venezianischen Festkultur als Manifestation der Staatsidentität. Heintz d.J. stellte in seinen Gemälden festliche Prozessionen und die Investiturzeremonien des Dogen ebenso dar wie weltliche Spektakel und volkstümliche Wettkämpfe. Durch die quellenbasierte Recherche, sowie die Kontextualisierung der Festgemälde, konnte eine Neubewertung Joseph Heintz" d.J. als bedeutender, gut vernetzter Künstler erfolgen, dessen Werke einen nicht zu unterschätzenden Einfluss auf die venezianischen Vedutisten des 18. Jahrhunderts hatten.
Die Arbeit thematisiert die Weiterentwicklung des touristischen Angebots der Deutschen Bahn, das derzeit über den Reiseveranstaltervertrieb am Markt platziert wird. Kunden, die im Reisebüro oder Internet eine Städtereise über ihren Veranstalter buchen, erhalten mit dem RIT (Rail Inclusive Tours)-Angebot ein spezielles Kooperationsticket für ihre Zugfahrt. Im ersten Abschnitt der Arbeit wird zunächst auf die Besonderheiten des Dienstleistungsbereichs inklusive Auswirkungen auf die Angebotsgestaltung von Unternehmen eingegangen. In diesem Zusammenhang werden Hintergründe von Kundenzufriedenheit und Kundenbindung skizziert sowie deren Wechselwirkungen dargestellt. Über die Einordnung der Deutschen Bahn als Dienstleistungsunternehmen im Schienenpersonenfernverkehr wird deren Positionierung im zunehmenden Wettbewerbsmarkt in einer Umfeldanalyse erarbeitet und die Bedeutsamkeit für den Unternehmenserfolg aufgezeigt. Der praktische Teil der Arbeit befasst sich mit den Befragungsergebnissen von Bestandskunden in der fokussierten Zielgruppe der Städtereisenden. Neben der Analyse von Nutzerstruktur, Reisegewohnheiten und alternativer Verkehrsmittelwahl, werden Kundenzufriedenheiten und Wichtigkeiten einzelner Leistungsbestandteile der Bahnreise näher betrachtet. Durch die Identifizierung von Kundensegmenten lassen sich Ansatzpunkte für die Weiterentwicklung des Angebots ableiten, die eine Attraktivitätssteigerung der Bahnfahrt herbeiführen und die Kundenzufriedenheit nachhaltig erhöhen können. Einbindung von Essensgutscheinen, das Angebot von Kuriergepäck oder die Integration des City-Tickets sind denkbare, nutzensteigernde Maßnahmen für die Anreisealternative Bahnfahrt. Weiterer Forschungsbedarf für die betrachtete Zielgruppe besteht in der Erfassung von Hinderungsgründen für eine bevorzugte Bahnwahl in der Verkehrsmittelentscheidung. Darüber hinaus ist das Potenzial für eine Einbindung solcher Services zu erfassen, die sich auf Seiten der Reiseveranstalter in ein Leistungspaket integrieren lassen, um weitere Indikatoren zur Attraktivitätssteigerung der Bahnfahrt ableiten zu können. Zusammenfassend stellt die Arbeit eine Analyse der skizzierten Zielgruppe der Städtereisenden der Deutschen Bahn über den Veranstaltervertrieb dar und liefert einen Beitrag, der die Ableitung einiger relevanter Handlungsempfehlungen erlaubt. Denn nur durch attraktive Angebote und die Erzielung einer hohen Kundenzufriedenheit kann sich die Bahn als bevorzugtes Transportmittel behaupten und neue Kunden für die Zugfahrt begeistern.
Rinnen werden als effektive Sedimentquellen und als Transportwege für große Sedimentmengen angesehen, zusätzlich agieren sie als bevorzugte Fließwege für den Oberflächenabfluss. Sie können sich zu irreversiblen Formen (Gullys) weiterentwickeln. Trotz Fortschritten in der Modellierung bleibt insbesondere die Modellierung von Rinnenerosion schwierig. Daher ist es wichtig, experimentelle Daten aus Geländeversuchen zu erheben, um das Prozesswissen zu verbessern und bessere Modelle zu entwickeln. In den Experimenten sollte eine standardisierte Methode verwendet werden, um eine gewisse Vergleichbarkeit der Ergebnisse zwischen unterschiedlichen Testgebieten zu gewährleisten. Die meisten Experimente zur Rinnenerosion, die unter Labor- oder Geländebedingungen durchgeführt wurden, verwendeten Substrate mit unterschiedlichen Korngrößen und natürlichen oder simulierten Niederschlag. Ziel war meist die Entstehung von Rinnennetzwerken zu beobachten, Startbedingungen für Rinnenbildung zu definieren, die Entwicklung der Rinnenmorphologie zu untersuchen, die wichtigsten hydraulischen Parameter wie Fließquerschnitt, benetzten Umfang, hydraulischen Radius, mittlere Fließgeschwindigkeit und shear stress abzuschätzen oder mathematische Modelle zu kreieren, um den Bodenabtrag durch Rinnenerosion abschätzen zu können. Aber es fehlen Untersuchungen zum Verhalten von existierenden Rinnen, natürlichen oder anthropogen entwickelten, unter Geländebedingungen. Um diese Lücke zu schließen wurde eine reproduzierbare Versuchsanordnung entworfen und in verschiedenen Rinnen angewendet um folgende Fragen zu beantworten: Wie hoch ist der Anteil der Rinnenerosion am Bodenabtrag? 2) Wie effektiv sind Rinnen beim Transport von Wasser und Sediment durch ihr Einzugsgebiet? In prozess-basierten Modellen werden verschiedene Prozesse durch mathematische Gleichungen beschrieben. Die Grundlage dieser Formeln ist meist ein hydraulischer Parameter, der in Verbindung zum Abtrag gebracht wird. Der am häufigsten verwendete Parameter ist der shear stress, von dem angenommen wird, dass er ein lineares Verhältnis zu Erosionsparametern wie detachment rate, detachment capacity oder Sedimentkonzentration aufweist. Aus dem shear stress lassen sich weitere Parameter wie unit length shear force oder verschiedene Varianten der stream power berechnen. Die verwendeten Erosions- und hydraulischen Parameter ändern sich je nach Forschergruppe. Eine weitere Modellannahme ist, dass die transport rate die trasnport capacity nicht übersteigen kann. Wenn das transport rate vs. transport capacity - Verhältnis 1 übersteigt, verringern Sedimentationsprozesse die Rate bis die transport capacity wieder erreicht ist. Wir untersuchten in Geländeversuchen die folgenden Annahmen: 1) Ist das Verhältnis zwischen transport rate und transport capacity immer kleiner 1? 2) Besteht die lineare Beziehung zwischen verschiedenen hydraulischen Parametern und Bodenabrtagsparametern? 3)Verursachen die selben hydraulischen Parameter, die in verschiedenen Versuchen aufgenommen wurden, auch immer die selben Erosionsparameter?
In der Forschung zur aktuellen Prozessdynamik der Bodenerosion sind Niederschlagssimulationen mit kleinen mobilen Beregnungsanlagen (KBA) ein unverzichtbarer Bestandteil. Weltweit werden sehr viele KBA unterschiedlicher Bauart, Plotgrößen, Tropfenerzeugung, Niederschlagsintensitäten, und -spektren eingesetzt. Eine Standardisierung der Anlagen ist aufgrund der Verschiedenheit der Forschungsfelder und -fragen nicht in Sicht. Darüber hinaus sind die erzeugten Niederschläge (Nd) der Anlagen unzureichend genau charakterisiert und es liegt keine einheitliche Datenbasis aller relevanten Parameter vor. Zudem werden mit KBA bisher ausschließlich Starkregen unter windstillen Bedingungen simuliert, obwohl Wind einen deutlichen Einfluss auf fallende Regentropfen ausübt. Die vorliegende Arbeit gliedert sich in drei Teile: (1) Weiterentwicklung und Anwendung von KBA: Wie lässt sich die Performance der Trierer KBA optimieren und eine einheitliche Mess- und Kalibrierungsmethode für den simulierten Niederschlag definieren? Welche Anforderungen, Möglichkeiten, Grenzen und Anwendungsbereiche gibt es? (2) Vergleich verschiedener Typen von KBA im Gelände: Inwieweit sind Nd-Charakteristika, Oberflächen-¬abflussgenerierungen und Bodenabträge europäischer KBA vergleichbar? (3) Implemen-¬tierung von windbeschleunigtem Regen in KBA mit dem neuen mobilen Trierer Windregenkanal (WiReKa): Wie kann Wind in ein KBA-Setting integriert werden? Wie sind Unterschiede von Erosionsraten mit und ohne Windeinfluss in-situ zu quantifizieren und wie hoch fallen sie aus? Im ersten Teil der Arbeit wurde zunächst die Nd-Charakteristik der langjährig von der Physischen Geographie eingesetzten KBA mit unterschiedlichen, weltweit angewandten Messmethoden untersucht. Dabei zeigten sich einige Schwächen der KBA bezüglich ihrer Funktionalität. Der Einsatz verschiedener Mess-¬methoden zur Charakterisierung des künstlich erzeugten Nd führte zu sehr unterschiedlichen Ergebnissen. Mittels Laser-Niederschlags-Monitor (LNM) und Nd-Sammlern wurde daher ein einheitliches Testverfahren entwickelt, das eine detaillierte Aufnahme, Auswertung und Darstellung der relevanten Nd-Parameter nahezu aller KBA-Designs ermöglicht. Mit Hilfe dieses Testverfahrens wurden Nd-Charakteristik, Funktionalität und Mobilität der Trierer KBA durch technische Veränderungen deutlich verbessert. Alle Parameter dieser Anlage sind nun bekannt und lassen sich zuverlässig reproduzieren. Die Anforderungen, Möglichkeiten und Grenzen des Einsatzes von KBA wurden detailliert erarbeitet und beschrieben. Auf dem "International Rainfall Simulator Workshop" in Trier konnte mit 40 Wissenschaftlern aus 11 Nationen Einigkeit über grundlegende Aspekte beim Bau und Einsatz von KBA erzielt werden. Der zweite Teil der Arbeit stellt die Arbeitsmethoden und Ergebnisse eines in internationaler Kooperation durchgeführten Projektes zu Messmethoden und Vergleichbarkeit von Simulatordesigns und Nd-Charakteristika unterschiedlicher europäischer KBA vor. An 13 Instituten in Deutschland, den Niederlanden, der Schweiz und Spanien wurde mit dem Trierer Testverfahren eine einheitliche Datenbasis aller wesentlichen Nd-Parameter erstellt. Im praktischen Teil des Rainfall Simulator Workshop in Trier wurden dann vergleichende Versuche mit sieben KBA auf einer universitätsnahen Versuchsfläche zur Oberflächenabflussgenerierung und zum Bodenabtrag durchgeführt. Vor allem die (maximale) Sedimentkonzentration einer Simulation hat sich dabei als gute Vergleichsgröße herausgestellt. Differenzen in den gemessenen Oberflachenabfluss- und Sedimentmengen sind ganz klar unterschiedlichen Nd zuzuordnen. Der zeitliche Ablauf des Oberflächenabfluss- und Erosionsverhalten differiert dagegen nur bei zunehmender Plotgröße. Im dritten Teil der Arbeit wird analysiert, wie windbeschleunigter Regen in einer KBA simuliert werden kann. Darüber hinaus wurde eine spezielle Testreihenfolge für die Erosionsmessungen entwickelt, deren Praktikabilität sich in der Anwendung bewährt hat. Es konnten stark erhöhte Abtragsraten aufgrund der Zuschaltung von Wind zu der Regensimulation auf kohäsionslosem sandigen Substrat quantifiziert werden. Das Dissertationsprojekt kann auf mehreren Ebenen als erfolgreich angesehen werden: Die Arbeit mit den Trierer KBA konnte qualitativ verbessert werden insofern, als die Anlagenparameter optimiert und die Güte der produzierten Daten gewährleistet werden konnte. Darüber hinaus konnten die gewonnenen Erkenntnisse durch eine gezielte internationale Vernetzung in Wert gesetzt und die Zusammenarbeit auf der operationalen Ebene gestärkt werden.
Die Zweckbestimmung der modernen Clustertheorie liegt in der Analyse regional-sektoraler Verbundsysteme von ökonomischen Aktivitäten. Erst seit kurzem wird der Versuch einer Übertragung auf touristische Destinationen in Entwicklungsländern unternommen. Die vorliegende Dissertation untersucht theoretische, methodische und praktische Implikationen dieser Übertragung anhand des Fallbeispiels der touristischen Clusterentwicklung in der Napo-Provinz Ecuadors. Hierbei stehen insbesondere die Rahmenbedingungen für die Genese wissensbasierter (kompetitiver) Wettbewerbsvorteile als Quelle der Clusterdynamik im Zentrum. Anhand einer quantitativen Methodik wird in diesem Rahmen sowohl ein Nachweis zur Gültigkeit eines vorab abgeleiteten Clusterentwicklungsmodells geführt, als auch auf dieser Grundlage ein Beitrag zur Verbesserung bestehender Diagnosesysteme geleistet.
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
Der Aufbau einer Klassifikation von Einzugsgebieten (EZG) auf Basis des Abflussverhaltens und der Gebietseigenschaften sowie die Regionalisierung von Abflussparametern sind Kernthemen der Hydrologie. Die Ziele dieser Arbeit sind der Aufbau einer Klassifikation für EZGs mit hoher räumlicher Auflösung nach dem Abflussverhalten und der Gebietseigenschaften, die Identifikation abflussrelevanter, physiogeografischer und klimatischer Gebietseigenschaften und die Regionalisierung von Abflussverhalten und Modellparametern auf Basis von Klassifikationen. Dabei wird untersucht, ob sich 53 häufig benachbarte und z.T. ineinander geschachtelte Einzugsgebiete in Rheinland-Pfalz für eine Klassifikation eignen und wie das Abflussverhalten für die Beurteilung von Ähnlichkeiten beschrieben werden kann. Das Abflussverhalten der EZGs wird mit einer großen Anzahl von Ereignis-Abflussbeiwerten je EZG und Abflussdauerlinien (Flow-Duration Curves) der EZGs beschrieben, die das Abflussverhalten umfassend und mit einer ausreichenden Trennschärfe abbilden. Gebietseigenschaften, die das Abflussgeschehen dieser EZG dominieren, sind langjährige, mittlere Niederschlagssummen, die mittlere potentielle Verdunstung, die Topografie und die Speichermöglichkeiten im EZG. Für den Aufbau und die Anwendung der EZG-Klassifikationen wird ein hierfür entwickeltes Verfahren eingesetzt, dass auf Selbstorganisierenden Merkmalskarten (Self-Organizing Maps, SOM) basiert. Vorteile dieses Verfahrens gegenüber vielen konventionellen Verfahren sind Qualitätsmaße, die datenbasierte Bestimmung wichtiger Parameter, aussagestarke Visualisierungen der Ergebnisse und die Klassifikation und Regionalisierung mit einer Methode. Die Auswertung von zwei separaten Klassifikationen, nach dem Abflussverhalten und nach den physiogeografischen und klimatischen Gebietseigenschaften, stellen einen direkten Zusammenhang zwischen Abfluss- und Gebietseigenschaften her. Der Überschneidungsbereich der beiden Klassifikationen ist die Grundlage für die Übertragung von Abflussinformationen auf unbeobachtete Gebiete (Regionalisierung). Die Ergebnisse zeigen, dass die Methode der Clusteranalyse, Klassifikation und Regionalisierung mit SOM und den genannten Abfluss- und Gebietskennwerten geeignet ist, EZGs mit einer hohen räumlichen Auflösung treffend und detailliert zu klassifizieren sowie Abflussparameter zu regionalisieren.
Die Notwendigkeit einer ökologischen Aufwertung kleiner urbaner Gewässer und damit einer effektiven Siedlungswasserwirtschaft ist in den Fokus gerückt und wurde zum Bestandteil der Wasserrahmenrichtlinie ( 2000/60/EG). Die Zunahme von Regenwassermanagementsystemen und die Renaturierung kanalisierter Gewässerabschnitte führt zu einer Integration von Flüssen und Bächen in das städtische Umfeld. Diese Arbeit fokussiert die zeitlich hochaufgelöste Analyse des Stofftransports während Abflussereignissen in mesoskaligen Einzugsgebieten. Es wird untersucht, ob die Landnutzung und die Entwässerungssysteme von Siedlungsflächen, die Abflusssdynamik und die Stoffkonzentrationen beeinflussen. Beleuchtet wird, inwieweit naturnahe Regenwassermanagementsysteme in Siedlungsgebieten den natürlichen Wasserhaushalt erhalten und eine Gewässerbelastung reduzieren. Untersucht werden die Schadstoffdynamiken und -frachten dreier verschiedener Einzugsgebiete, ähnlich hinsichtlich Einzugsgebietsgröße, Topographie und klimatischen Bedingungen, aber unterschiedlich in Landnutzung und Entwässerungssystemen. Darüber hinaus wird der Einfluss der Ableitungsart des Regenwassers aus den Siedlungsgebieten auf die Abflussdynamik und die Schadstoffverlagerung auf unterschiedlichen Skalen untersucht. Abflussganglinien und Chemographen aller Gewässer zeigen große Schwankungen während und zwischen Hochwasserereignissen. Kurzfristige Konzentrationen sind sehr hoch und können nur mittels zeitlich hochaufgelöster Beprobung bestimmt werden. Frachten und mittlere Ereigniskonzentrationen weisen eine hohe Variabilität in Abhängigkeit von vorangehenden hydro-klimatischen Bedingungen auf. Erhöhte Schadstoffkonzentrationen treten in einem ländlich geprägten Einzugsgebiet in Verbindung mit Regenfällen durch Remobilisierung von Schadstoffen aus der Kanalisation auf. In einem städtisch geprägten Vorfluter sind Schadstoffbelastungen mit dem Basisabfluss aufgrund sanitärer Fehlanschlüsse und Kläranlageneinleitungen das ganze Jahr über bedeutsam. Ein biologischer Test zur Bestimmung östrogener Aktivität zeigt, dass die Toxizität von der Kläranlagentechnologie und deren Elimination östrogener Wirkstoffe abhängt. Saisonale Effekte, durch steigende östrogene Aktivität im Sommer und abnehmende Aktivität im Winter aufgrund der Verdünnung durch Boden- und Grundwasser, konnten beobachtet werden. Dezentrale Regenrückhalte führen zum Erhalt des quasi-natürlichen Wasserhaushaltes und zur Dämpfung von Abflussspitzen im Vorfluter. Die Beprobung der Zuläufe und des Ablaufes einer Retentionsfläche zeigt die Reduktion der Maximalkonzentrationen sowie der jährlichen Frachten von Xenobiotika. Mit zunehmender Einzugsgebietsgröße nimmt die Anzahl und Diversität der Entwässerungssysteme zu. Die Skalenabhängigkeit der Gewässerbelastung ergibt sich aus dem Vorhandensein und Zusammenwirken von Misch- und Trennkanalisationen, sowie Regenwassermanagementsysteme, und Kläranlageneinläufen. Vor allem Mischwasserkanalüberläufe führen zu einer hydraulischen Belastung sowie zu hohen Momentankonzentrationen der Xenobiotika. Regenwassermanagementsysteme tragen zu einer deutlichen Reduktion der chemischen und hydraulischen Belastung des Gewässers bei. Dies führt zu einer Entlastung der Vorfluter und zu einem besseren ökologischen Zustand, wie durch die Wasserrahmenrichtlinie gefordert.
In der Folge der großen Datenschutzskandale seit dem Jahre 2006, darunter die illegalen Daten-Screenings bei der Bahn AG, oder auch der "Lidl-Skandal", bei dem Arbeitnehmer und Arbeitnehmerinnen bis in die Intimsphäre heimlich überwacht worden sind, ist das Thema Datenschutz stark in den Fokus der Öffentlichkeit gerückt. Schon seit den 80er Jahren liegt ein Gesetzentwurf zum Datenschutz für Arbeitnehmer in den ministerialen Schubladen, aber auch der letzte Anlauf zur gesetzlichen Sicherung der informationellen Selbstbestimmung der Beschäftigten scheiterte im Frühjahr des Jahres 2013. Das große Bedürfnis einer gesetzlichen Ausgestaltung dieser Materie besteht nach wie vor. Dies kann jedoch nur gelingen, wenn es endlich zu einem gesellschaftlichen Konsens, vor allem auch international, über das Gewicht gegenläufiger Werte wie wirtschaftlicher Effizienz, dem Schutz des Arbeitgebers vor Schädigung durch den Arbeitnehmer, sowie dem staatlichen Verfolgungsinteresse kommt. Vor allem aber bedarf es auch einer erhöhten Sensibilität für datenschutzrechtliche Probleme, sowohl in der Bevölkerung, als auch bei Verwaltung und Justiz.
Nach der Premiere ihres Debütfilms ABGRÜNDE wurde die dänische Schauspielerin Asta Nielsen innerhalb nur eines Jahres zu einem internationalen Star. Ihre Karriere wurde von Filmindustriellen befördert. Der Kölner Filmkaufmann und Kinobesitzer Christoph Mülleneisen sen. hatte die innovative Idee, gefragte Schauspielerinnen und Filmkünstler exklusiv auf mehrere Jahre zu verpflichten. Er engagierte Asta Nielsen und Urban Gad für drei Jahre. Ihre Spielfilme wurden als Serien unter dem Markennamen "Asta Nielsen" angeboten. Neue Werbestrategien fokussierten auf den Filmstar: Dies zeigen die 43 Anzeigen für die zweite Asta-Nielsen-Serie, die in der Kinosaison 1912/13 im Prager Tagblatt geschaltet wurden. Die Recherche erfolgte über das Portal AustriaN Newspapers Online (ANNO), dem digitalen Zeitungs- und Zeitschriftenarchiv der Österreichischen Nationalbibliothek. In Prag konkurrierten fünf Kinos um das deutschsprachige Publikum der Stadt. Das Kino Elite hatte sich das Aufführungsmonopol für die zweite Asta Nielsen-Monopolfilm-Serie gesichert. Asta Nielsen ist ein Präzedenzfall für die Etablierung des Starsystems im internationalen Filmvertrieb: .In den genannten 43 Kinoanzeigen dominiert die Marke ASTA NIELSEN andere Werbeelemente wie Filmtitel oder Filmdauer. Die Exklusivität von Verleih und Aufführung ermöglichte eine ertragreiche Symbiose zwischen der Schauspielerin Asta Nielsen, dem Monopolfilmverleiher und den Kinobetreibern.
Die Arbeit befasst sich mit der Frage, ob Asta Nielsen auch im ungarischen Pest zum Star avancierte. Um diese Frage zu beantworten, habe ich 34 einschlägige Kinoannoncen in der deutschsprachigen Zeitung Pester Lloyd im Zeitraum September 1913 bis August 1914 recherchiert. Diese Annoncen sind online zugänglich in der Datenbank Importing Asta Nielsen. Die ermittelten Informationen zu Asta Nielsen-Filmen wurden tabellarisch erschlossen. Dieses Material wird unter verschiedenen Fragestellungen untersucht: Welche Filme wurden in diesem Zeitraum gezeigt? Waren diese Teil einer Serie? Wie lange wurden die Filme gespielt? Wie viele Kinos haben Asta Nielsen-Filme gezeigt? Gab es ein Aufführungsmonopol? Wie viel Zeit verging zwischen der Premiere in Berlin und der Erstaufführung in Pest?rnWie wurden die Filme beworben? Außerdem wird auf eine Theatertournee Asta Nielsens eingegangen, welche die Schauspielerin auch nach Pest führte, wo sie im April 1913 jeden Tag live auf der Bühne auftrat.rnrnAus den täglichen Anzeigen im April 1913, die das Live-Gastspiel von Asta Nielsen auf der Bühne eines Varieté-Theaters bewerben, ist zu schließen, dass die Schauspielerin beim Publikum in Pest bereits gut bekannt war. Die Frage, ob Asta Nielsen ein Star in Pest war, lässt sich eindeutig mit ja beantworten. Ihr Name war auch in Pest Programm, auch wenn die Kinoannoncen für die sieben Filme der Asta-Nielsen-Serie 1913/14 im Pester Lloyd den Filmtitel jeweils größer setzen als die Marke Asta Nielsen. Während die Asta-Nielsen-Filme wochenweise verliehen wurden, wechselten die Kinos in Pest zweimal wöchentlich das Programm. An den Kinoannoncen im Pester Lloyd lässt sich ablesen, wie die Kinobetreiber dieses Problem behandelt haben.rnrn
Die Dissertation beschäftigt sich mit der Wahrnehmung ländlicher Armut als räumlichem Phänomen und untersucht die Maßnahmen der Agrar-, Sozial- und Raumordnungspolitik, die als strukturpolitisch wirksam zur Bekämpfung sowie Vermeidung ländlicher Armut in den zeitgenössischen Diskursen angenommen wurden. Im Mittelpunkt der Analyse stehen dabei die traditionell landwirtschaftlich geprägten Bundesländer Rheinland-Pfalz und Baden-Württemberg. Untersucht wird, wie das ländliche Armutsproblem in Aussagen von Agrar- und Sozialpolitikern sowie Experten definiert und beschrieben wurde und welche Maßnahmen aufgrund dieser Annahmen als geeignet erschienen, Armut in den agrarwirtschaftlich geprägten Regionen zu bekämpfen. Die Forschungsarbeit basiert auf der Analyse und Bewertung von Förderprogrammen und Förderungshilfen von Bund, Ländern und Kommunen und untersucht diese auf ihre Wirksamkeit hinsichtlich der Existenzsicherung landwirtschaftlicher Betriebe im südwestdeutschen Raum zwischen 1949 und 1974. Ländliche Armut wird so als vor allem bäuerliche Armut beschrieben, die in den zeitgenössischen Diskursen als räumlich abgrenzbare Existenzgefährdung in sogenannten "strukturschwachen" Räumen konstruiert wurde. Im Zusammenhang mit der Untersuchung wirtschaftspolitischer Debatten werden die sozialpolitischen Probleme diskutiert, gesetzliche Durchführungsbestimmungen der Sozialpolitik auf ihre konkreten Ziele hinsichtlich Armutsbekämpfung auf dem Land untersucht sowie die Verflechtungen von Wirtschafts- und Sozialpolitik analysiert.
Selbstregulation beschreibt die Fähigkeit, eigene Bedürfnisse, Werte und Interessen in die willentliche Handlungssteuerung einzubeziehen und so das eigene Handeln auf die Verwirklichung selbstkongruenter Ziele auszurichten. Die Arbeit beleuchtet die Bedeutung der Selbstregulation im Bildungskontext und überprüft die Wirksamkeit von Fördermaßnahmen, z.B. die eines selbstkonzipierten Schülertrainings für Schülerinnen und Schüler der Orientierungsstufe. Die Ergebnisse der empirischen Untersuchungen zeigen, dass selbstregulatorische Kompetenzen durch gezielte Maßnahmen gefördert werden können.
Mit der Globalisierung der Märkte und dem weitverbreiteten Einsatz von Kommunikations- und Informationstechnologien in Unternehmen sind in vielen Organisationen geographisch verteilt arbeitende Teams zum Standard geworden. Gleichzeitig gehören multiple Teammitgliedschaften (MTM), d.h. die simultane Zugehörigkeit zu mehreren Teams, für viele Mitarbeitende bereits zum Arbeitsalltag. Mit der Zuordnung von Personen zu multiplen Teams wollen Organisationen einen effektiven Einsatz ihrer personellen Ressourcen ermöglichen. Ob dies tatsächlich gelingt, ist bislang noch ungeklärt. Eine bedeutende Folge dieser Arbeitsstrukturen ist zudem die zunehmende Durchlässigkeit der Grenzen von Teams. Klare Teamgrenzen bleiben aber auch weiterhin ein wichtiger Faktor, um den Zusammenhalt eines Teams und eine effektive Zusammenarbeit der Teammitglieder sicherzustellen. Bislang gibt es keine empirischen Studien zum Zusammenhang von MTM und Teamgrenzen und nur wenige zu den Auswirkungen von MTM auf virtuelle Teamarbeit. Diese Arbeit ging in zwei Studien der Frage nach, in welchem Zusammenhang MTM mit Teamgrenzen und mit emotionalen und kognitiven Zuständen in virtuellen Teams steht und welche Effekte MTM und Teamgrenzen auf verhaltensbezogene Ergebnisse von Teamarbeit haben. Feldstudie: In einer querschnittlichen Online-Fragebogenstudie mit 105 Mitarbeitenden zweier globaler Unternehmen wurde der Zusammenhang von MTM mit Teamgrenzen sowie mit Commitment (emotionaler Zustand) und Team Mentalen Modellen (kognitiver Zustand) untersucht. Neben der Anzahl an Teammitgliedschaften wurden der prozentuale Arbeitszeitanteil im Team und der Virtualitätsgrad in der Zusammenarbeit als Indikatoren von MTM erfasst. Die Prüfung der Zusammenhänge über den Partial-Least-Square Ansatz ergab positive Zusammenhänge von MTM sowie Prozentanteil Arbeitszeit mit Commitment und Team Mentalen Modellen. Ein Zusammenhang von MTM und Teamgrenzen blieb überraschenderweise aus. Ein höherer Virtualitätsgrad ging mit einem geringeren Commitment zum Team und mit als schwächer wahrgenommenen Teamgrenzen einher. Laborstudie: In einer laborexperimentellen Studie mit 178 Studierenden wurden die Effekte von MTM (vier vs. eine Teammitgliedschaft) und Teamgrenzen (gestärkt vs. nicht gestärkt) auf Informationsflut, Koordinationserfolg und Leistung als verhaltensbezogene Ergebnisse virtueller Teamarbeit getestet. MTM zeigte in den Regressionsanalysen weder einen Effekt auf Informationsflut noch auf Koordinationserfolg. Die objektive Leistung viel jedoch bei Versuchspersonen mit vier Teammitgliedschaften signifikant schlechter aus als bei Versuchspersonen mit einer Teammitgliedschaft. Für subjektive Leistungsmaße blieb ein entsprechender negativer Effekt aus. Die Stärkung der Teamgrenzen führte zu einer positiveren Einschätzung des Koordinationserfolgs und der Leistung und reduzierte die Wahrnehmung von Informationsflut. Die Ergebnisse der beiden Studien deuten darauf hin, dass MTM in Abhängigkeit von den betrachteten Indikatoren sowohl positive als auch negative Zusammenhänge mit Prozessen und Ergebnissen in Teams hat. Für MTM haben sich unter den kontrollierten Bedingungen des Experimentes kaum direkte Effekte eingestellt, während in der Feldstudie positive Zusammenhänge mit emotionalen und kognitiven Zuständen eine (mittelfristig) positive Wirkung von MTM andeuten. Dies kann als Hinweis interpretiert werden, dass MTM eher zeitlich versetzte oder über indirekte Mechanismen vermittelte Effekte auf virtuelle Teamarbeit hat. Die im Experiment durch MTM reduzierte objektive Leistung bei gleichbleibender subjektiver Leistungsbewertung deutet darauf hin, dass ein Leistungsabfall durch MTM von den betroffenen Personen möglicherweise nicht bewusst wahrgenommen wird. Teamgrenzen scheint hingegen einen insgesamt förderlichen Faktor für die Zusammenarbeit in virtuellen Teams darzustellen.
Psychotherapien verlaufen selten linear. Ein Ansatz zur Beschreibung plötzlicher Veränderungen sind Sudden Gains und Losses. Dabei handelt es sich um reliable, bedeutsame und relativ stabile Veränderungen in Therapieverlauf, die mithilfe kontinuierlicher Verlaufsmessung zwischen zwei Sitzungen feststellbar sind.rnBislang liegen nur wenige naturalistisch angelegte Studien vor, die das Auftreten von Sudden Gains und Losses an störungsheterogenen Patientengruppen unter praxisnahen Bedingungen untersuchen. Zudem sind bisherige Forschungsbefunde wenig aussagekräftig bezüglich möglicher Ursachen und Moderatoren von Sudden Gains und Losses.rnZwar sprechen bisherige Forschungsbefunde dafür, dass Sudden Gains im Therapieverlauf ein wünschenswertes Behandlungsergebnis begünstigen. Allerdings gibt es nur wenige Hinweise darauf, ob und wie sich diskontinuierliche Therapieverläufe vorhersagen, fördern oder abmildern lassen. Zudem ist wenig über das konkrete psychotherapeutische Geschehen, das den Sudden Gains und Losses vorausgeht, bekannt. Dies aber könnte einen wichtigen Beitrag zum Verständnis psychotherapeutischer Veränderungsprozesse liefern. Auch eröffnen sich dadurch Perspektiven der Optimierung von Therapeuten-Feedback und der Erstellung von Entscheidungsregeln und klinischen Handlungsempfehlungen.rnDie vorliegende Arbeit verbindet Outcome- und Prozessforschung in ambulanten psychotherapeutischen Versorgung, indem zunächst auf Grundlage von Fragebogen-Daten Sudden Gains und Losses in der Symptombelastung und im Therapiefortschritt identifiziert werden. Die so gewonnen Klassifikationen werden verglichen hinsichtlich psychometrischer Erhebungen zu Behandlungsbeginn, zu Behandlungsdauer und Therapierfolg. Die Verteilung diskontinuierlicher Therapieverläufe über verschiedene Diagnosen wird untersucht. Mithilfe von Fragebogen-Daten und Videoanalysen werden Aspekte der therapeutischen Beziehungsgestaltung und das Vorliegen außertherapeutischer Ereignisse in ihrem Zusammenhang mit Diskontinuitäten im Therapieverlauf verglichen.rnDie in dieser Arbeit analysierten Status- und Verlaufsdaten stammen aus der Poliklinischen Psychotherapieambulanz der Universität Trier, wo neben umfangreichen Statuserhebungen auch eine intensive kontinuierliche Verlaufsmessung die Therapien begleitet und standardmäßig alle Therapien audiovisuell aufgezeichnet werden. Die Stichprobe umfasste damit 314 Patienten, die mit bewältigungsorientierter Verhaltenstherapie unter Betonung einer ergänzenden motivationalen, interpersonalen und Ressourcen-Perspektive behandelt wurden. Therapievideos zweier Teilstichproben (ausgewählt anhand von Symptom- bzw. Fortschrittsmaß) wurden mithilfe eines bestehenden Manuals zur Erkennung von Brüchen in der therapeutischen Allianz und deren Reparatur genutzt. Eine weitere Videostichprobe aus einem vorangegangen Forschungsprojekt wurde mit einem selbst zusammengestellten Ratinginventar untersucht.rnEs zeigt sich, dass rund ein Drittel aller Patienten einen diskontinuierlichen Behandlungsverlauf zeigen. Im Fortschrittsmaß lassen sich an der Poliklinischen Psychotherapieambulanz deutlich weniger Sudden Losses feststellen als in einer Vorgängerstudie, in der vor allem Daten aus anderen Ambulanzen genutzt wurden. Es treten keine überzufälligen Häufungen von diskontinuierlichen Therapieverläufen in verschiedenen Störungsgruppen, auch nicht in Hinblick auf Persönlichkeitsakzentuierungen, auf. Insgesamt zeigen Patienten, die Sudden Gains erleben, höhere Belastung und geringeres Wohlbefinden bei Behandlungsbeginn, wobei sich nur Patienten mit Sudden Gains im Symptommaß auch hinsichtlich ihres initialen Symptomstatus als schwerer belastet erweisen. Das Auftreten von Sudden Gains im Fortschrittsmaß und im Symptommaß hängt überzufällig miteinander zusammen, wobei Sudden Gains im Therapiefortschritt plötzlichen Symptomlinderungen häufiger vorausgehen. Sudden Gains hängen ungeachtet des Messinstruments mit größerem Behandlungserfolg zusammen. Mit einem geringeren Behandlungserfolg assoziiert sind Verläufe, die durch plötzliche Symptom-verschärfungen oder ein Auf und Ab im wahrgenommenen Therapiefortschritt assoziiert sind, wobei letzteres lediglich eine nicht signifikante Tendenz beschreibt, die sich jedoch weitgehend mit bisherigen Forschungsbefunden deckt. Dabei nehmen Patienten mit diskontinuierlichen Verläufen gleich welcher Art mehr Therapie in Anspruch als Patienten mit kontinuierlichem Verlauf. rnZudem zeigt sich um Sudden Gains im Therapiefortschritt ein deutlicher Anstieg der therapeutischen Allianz, während diese um Sudden Losses abnimmt. Hingegen sinkt um Sudden Gains in der Symptombelastung die Belastung durch außertherapeutische Ereignisse, während sie um Sudden Losses zunimmt. In den Videoanalysen zeigen sich teils signifikante Unterschiede im Umgang der Therapeuten mit auftretenden Beziehungsbrüchen.rn
An einer Stichprobe mit insgesamt N = 204 Psychotherapiepatienten einer stationären Rehabilitationseinrichtung wurden die Auswirkungen der Posttraumatischen Verbitterungsstörung (Posttraumatic Embitterment Disorder; PTED) auf die berufliche Vertrauens-Trias untersucht und eine Emotionsanalyse zur Verbitterung durchgeführt. Als weitere Persönlichkeitsmerkmale wurden Ärgerneigung, Ärgerbewältigung, Zielanpassung und das arbeitsbezogene Verhaltens- und Erlebensmuster erfasst. Ein Vergleich der Patientengruppen "mit Verbitterungsaffekt" und "ohne Verbitterungsaffekt" belegt die ätiologische Relevanz der Faktoren Zielblockierung, Attribution der Verantwortung, anhaltender Ärger und misslungene Situationsbewältigung bei der Entstehung der Emotion Verbitterung. Nach den Ergebnissen einer durchgeführten MANOVA mit den drei Gruppen (PTED aufgrund eines Arbeitsplatzereignisses vorhanden; PTED aufgrund eines Arbeitsplatzereignisses nicht vorhanden; kein Arbeitsplatzereignis) unterscheiden sich die beiden Patientengruppen mit einem Arbeitsplatzereignis nicht signifikant voneinander in Bezug auf ihre berufliche Vertrauens-Trias, ihre Ärgerneigung und -bewältigung sowie ihre Zielanpassung. Allerdings haben Patienten mit Arbeitsplatzereignis eine geringere berufliche internale Kontrollüberzeugung, besitzen weniger interpersonales Vertrauen am Arbeitsplatz und ihr Vertrauen in die eigene berufliche Zukunft ist niedriger als bei Patienten ohne Arbeitsplatzereignis. Ein weiterer Unterschied sind die höheren Arbeitsunfähigkeitszahlen bei Patienten mit Arbeitsplatzereignis " mit den meisten Krankschreibungen in der Gruppe der PTED-Patienten. Im arbeitsbezogenen Verhaltens- und Erlebensmuster unterscheiden sich die drei Patientengruppen in den Skalen Ehrgeiz, Verausgabungsbereitschaft, Distanzierungsfähigkeit, Offensive Problembewältigung und Soziale Unterstützung. Auch hier unterscheiden sich hauptsächlich die beiden Gruppen mit Arbeitsplatzereignis von der Gruppe ohne Arbeitsplatzereignis, einzige Ausnahme ist das Erleben sozialer Unterstützung.
Wegen der vielfältigen Kenntnisse und Perspektiven, die die Mitglieder von Gruppen besitzen, werden anstelle von Individuen oft Gruppen an Verhandlungen beteiligt. Allerdings konzentrierte sich die bisherige Forschung auf den Austausch und die Integration von Informationen zwischen Verhandlungsgruppen. Informationen innerhalb von Verhandlungsgruppen wurden dagegen als von den Gruppenmitgliedern geteilt angesehen. Daher wurde Informationsverarbeitung innerhalb von Verhandlungruppen und ihre Folgen für die gemeinsamen Ergebnisse der Parteien in integrativen Win-Win-Verhandlungen vernachlässigt. Im Rahmen dieser Dissertation wird angenommen, dass ein Unterschieds-Mindset (d.h. eine besondere Sensibilität für Unterschiede) (1) durch eine hohe Diversität in Gruppen aktiviert wird, (2) die Projektion von Gruppenmitgliedern auf andere Gruppenmitglieder reduziert, (3) die Qualität der ersten Forderung durch eine verbesserte Informationsverarbeitung innerhalb der Gruppen erhöht und (4) die gemeinsamen Verhandlungsergebnisse durch eine verbesserte Informationsverarbeitung innerhalb der Gruppen (5a) vor und während Zwischen-Gruppen-Verhandlungen und (5b) vor Repräsentantenverhandlungen steigert. These 1 wurde durch eine experimentelle Onlinestudie mit manipulierter Rückmeldung über hohe (vs. niedrige) Gruppendiversität (Studie 1) bestätigt. These 2 wurde durch eine experimentelle Studie mit manipulierten Online-Gruppen und komparativen Mindsets (Ähnlichkeiten vs. Unterschiede) als unabhängige Variablen (Studie 2) bestätigt. These 3 konnte von einer experimentellen Laborstudie mit Zwischen-Gruppen-Verhandlungen (Studie 3) nicht gestützt werden, wohl aber durch eine experimentelle Laborstudie mit Repräsentantenverhandlungen (Studie 4). Beide Studien unterstützen ebenfalls These 4 und 5, mit der Einschränkung, dass ein Unterschieds-Mindset die gemeinsamen Ergebnisse in einer Zwischen-Gruppen-Verhandlung nur durch die Informationsverarbeitung während der Verhandlung beeinflusst, nicht durch die Verarbeitung zuvor. Beiträge, Grenzen und Implikationen für die zukünftige Forschung werden diskutiert.
Nicht erst seit Einleitung der "Energiewende" im Jahr 2011 gehören Fragen der Energie- und Klimapolitik zu den politisch kontrovers diskutierten Themen in Deutschland. In Folge des europäischen Integrationsprozesses gewinnt dabei zunehmend auch die Europäische Union als Handlungsebene an Bedeutung. In dieser Arbeit wird der Frage nachgegangen, wie deutsche Akteure die Energie- und Klimapolitik der EU seit dem Gipfel des Europäischen Rates 2007 beeinflusst haben und welche Auswirkungen die Entscheidungen auf EU-Ebene für die Politikgestaltung im nationalen Kontext hatten. Anhand von drei Fallstudien wird eine Prozessanalyse in den Bereichen Strombinnenmarkt, Erneuerbare-Energien-Politik und Klimaschutz im Zeitraum der Jahre 2007 bis 2013 vorgenommen.
Zu den klassischen Verteilungen der mathematischen Statistik zählen die zentralen F- und t-Verteilungen. Die vorliegende Arbeit untersucht Verallgemeinerungen dieser Verteilungen, die sogenannten doppelt nichtzentralen F- und t-Verteilungen, welche in der statistischen Testtheorie von Bedeutung sind. Die Tatsache, dass die zugehörigen Wahrscheinlichkeitsdichten nur in Form von Parameterintegral- bzw. Doppelreihendarstellungen gegeben sind, stellt eine große Herausforderung bei der Untersuchung analytischer Eigenschaften dar. Unter Verwendung von Techniken aus der Theorie der vorzeichenregulären Funktionen gelingt es, die bisher vermutete, jedoch lediglich aus Approximationen abgeleitete, strikt unimodale Gestalt der Dichtefunktion für eine große Klasse doppelt nichtzentraler Verteilungen zu zeigen. Dieses Resultat gestattet die Untersuchung des eindeutig bestimmten Modus als Funktion gewisser Nichtzentralitätsparameter. Hier erweist sich die Theorie der vorzeichenregulären Funktionen als wichtiges Hilfsmittel, um monotone Abhängigkeiten nachzuweisen.
Die Fragestellung der Dissertation lautet: Welche Rolle spielten die politische Repräsentation, ihr Wandel und die Auseinandersetzung um die Teilhabe an ihr für das Entstehen einer gemeinsamen Vorstellung der Nation? Diese Frage kombiniert ein historisches und ein politikwissenschaftliches Interesse. Auf Seiten der Geschichtswissenschaft ist die Dissertation Teil des Forschungsprojekts "Nationenbildung und Demokratie" an der Universität Luxemburg. Auf Seiten der Politikwissenschaft ist sie im Bereich der Politischen Theorie angesiedelt. Im Anschluss an das abgeschlossene Forschungsprojekt "Formen und Funktionsweisen politischer Repräsentation von Fremden und Armen" im Sonderforschungsbereich 600 an der Universität Trier sind dabei primär repräsentationstheoretische Fragen von Interesse. Das Fallbeispiel Luxemburg erlaubt in diesem Zusammenhang einen neuen Blick auf Probleme, die in der Literatur bislang eher im französischen oder angelsächsischen Kontext diskutiert werden. In Auseinandersetzung mit gängigen Theorien der Nation wird in der Arbeit zunächst argumentiert, dass die Nation weder als ethnische Identität noch als Willenseinheit angemessen verstanden werden kann. Diese Überlegungen münden in die These, dass die erfolgreiche Verhandlung von Konflikten auf einer gemeinsamen politischen Bühne die Vorstellung eines gemeinsamen Schicksals mit erzeugen kann. Diese Vermutung wird in einem zweiten Schritt demokratieheoretisch begründet. Das Volk der modernen Demokratie ist kein einheitliches Subjekt, das einfach an die Stelle des alten Souveräns treten könnte. Zum einen verunmöglicht die Tatsache, dass die Demokratie durch multiple Zeitlichkeiten konstituiert ist, ihre Reduktion auf einen ursprünglichen Moment der Präsenz. Zum anderen ist der Demos selbst von Differenzen durchzogen. Doch indem gesellschaftliche Konflikte auf der Bühne der Macht symbolisch dargestellt werden, verlagert Repräsentation den Konflikt in ein politisches Kontinuum, auf das alle Bürger in gleicher Weise bezogen sind. Die Bürger erfahren, beurteilen und unterstellen sich wechselseitig als Teilnehmer an demselben Gemeinwesen, auch wenn sie unterschiedlicher Meinung sind. Diese These wird in einem dritten Schritt anhand einer Genealogie der verschiedenen Versuche " von Hobbes und Rousseau über Sieyès, Hegel und Proudhon bis zu Carl Schmitt und Hans Kelsen ", den Demos und den korrekten Modus seiner Vergegenwärtigung zu identifizieren, historisch fundiert. Das empirische Fallbeispiel steht im Zentrum des zweiten Teils der Arbeit. Zunächst wird das Entstehen einer landesweiten politischen Öffentlichkeit herausgearbeitet. In der Folge der Protest- und Petitionsbewegung von 1848 wurde das Parlament zur politischen Bühne, auf der vor aller Augen öffentliche Angelegenheiten diskutiert wurden. Die anschließende Entwicklung hin zum allgemeinen Wahlrecht führte zu einem qualitativen Wandel des Politischen. Das Wahlrecht nahm den Charakter eines Rechts an, das jedem Staatsbürger als solchem zustand, die einzig legitime Grenze des neuen Raums der Gleichheit wurde durch die Nation gestiftet. Die vorgestellte Gemeinschaft der Staatsbürger verselbstständigte sich dabei auch gegenüber dem Fürsten und trat zuletzt an dessen Stelle. Statt als über der Gesellschaft und den Bürgern thronende Hüterin der staatlichen Einheit wurde die Monarchie seit 1918 im Namen des Volkswillens begründet. Doch in demselben Augenblick, in dem das Volk als Gemeinschaft der Gleichen zum neuen Souverän erklärt wurde, wurden auch gesellschaftliche Konfliktlinien politisiert und durch ein landesweites Parteiensystem dauerhaft abgebildet. Durch die repräsentative Politisierung des Konflikts wurde die Frage, was denn das Gemeinsame sei, das sich durch die verschiedenen Teilungen hindurch zeige, dramatisiert. Anhand von zwei Fallbeispielen wird in der Arbeit gezeigt, wie auch diejenigen, die sich als Repräsentanten der Arbeiterklasse verstanden, im Kampf um Hegemonie auf eine nationale Rhetorik zurückgriffen und ein Narrativ der Nation als Solidaritätsgemeinschaft entwarfen. Zusammenfassend kommt die Dissertation zum Ergebnis, dass die Erfahrung der Politisierung und der öffentlichen Auseinandersetzung um politische Teilhabe innerhalb bestehender, ursprünglich aber keineswegs national oder demokratisch legitimierter Institutionen maßgeblich dazu beitrug, dass ein großer Teil der Bevölkerung Luxemburgs sich nach und nach als Teil einer vorgestellten Gemeinschaft verstand.