Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (493) (entfernen)
Sprache
- Deutsch (493) (entfernen)
Schlagworte
- Deutschland (24)
- Stress (13)
- n.a. (10)
- Bodenerosion (9)
- Tourismus (8)
- Fernerkundung (7)
- Geschichte (7)
- Modellierung (7)
- Motivation (6)
- Nachhaltigkeit (6)
Institut
- Psychologie (117)
- Raum- und Umweltwissenschaften (98)
- Wirtschaftswissenschaften (34)
- Geschichte, mittlere und neuere (28)
- Germanistik (25)
- Kunstgeschichte (21)
- Mathematik (18)
- Politikwissenschaft (15)
- Soziologie (15)
- Fachbereich 1 (11)
- Informatik (10)
- Philosophie (9)
- Fachbereich 3 (8)
- Romanistik (8)
- Anglistik (6)
- Computerlinguistik und Digital Humanities (6)
- Fachbereich 2 (6)
- Fachbereich 4 (6)
- Fachbereich 6 (6)
- Medienwissenschaft (6)
- Geschichte, alte (5)
- Allgemeine Sprach- und Literaturwissenschaft (4)
- Fachbereich 5 (4)
- Klassische Philologie (4)
- Pädagogik (4)
- Ethnologie (3)
- Archäologie (2)
- Japanologie (2)
- Rechtswissenschaft (2)
- Sinologie (2)
- Phonetik (1)
- Slavistik (1)
Die vorliegende Arbeit widmet sich der Beantwortung der Fragestellung, inwieweit die NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen erfolgreich war, und aufgrund welcher Akteure, Praktiken und Bedingungen die Normübernahme (nicht) erfolgte. NATOisierung wird hierbei als Sozialisationsprozess im Politikfeld Sicherheit begriffen. Konzeptioneller Ausgangspunkt für die theoriegeleiteten Fallstudien bildet die Entwicklung eines Forschungsdesigns, mittels dessen der rational-institutionalistische und der konstruktivistisch-institutionalistische Strang der internationalen Sozialisations-forschung für die Analyse der NATOisierung postkommunistischer Sicherheitspolitik nutzbar gemacht werden kann. In Kritik an der Mehrheit der Sozialisationsstudien, die die Übernahme von Normen internationaler Institutionen seitens der postkommunistischen Staaten entweder als Verhandlungs- und Anpassungsprozess strategisch handelnder Akteure oder als sozialen Lern- und normativen Überzeugungsprozess intrinsisch motivierter Akteure betrachten, argumentiert diese Studie, dass die Wahl eines komplementären Zugangs sowohl aus theoretisch-konzeptionellen als auch empirisch-phänomenologischen Erwägungen unabdingbar ist. Die hierbei zu Grunde liegende Methode der doppelten Interpretation, mittels derer der Verlauf und das Ergebnis der NATOisierung Polens und Tschechiens im Bereich der zivil-militärischen Beziehungen sowohl aus Sicht des rationalen als auch des konstruktivistischen Institutionalismus beleuchtet worden sind, hat sich als tragfähig erwiesen. In der Tat variiert die Erklärungskraft beider theoretischer Ansätze im Hinblick auf die unterschiedlichen Akteure, Phasen und/oder Kontexte des sicherheitspolitischen Sozialisationsprozesses. Wenngleich die NATO durch ihre Sozialisationspolitik den Demokratisierungsprozess Polens und Tschechiens im Politikfeld Sicherheit begünstigte, bestätigt die empirische Analyse die weit verbreitete Betrachtungsweise der 'Partnerschaft für den Frieden' als ausschließliche Erfolgsgeschichte nicht. Vielmehr war die Erweiterungs- und Sozialisationspolitik der NATO mit gravierenden (nichtintendierenden) Konsequenzen verbunden, die sich hinderlich auf die Transformation der zivil-militärischen Beziehungen postkommunistischer Staaten auswirkten.
Die Dissertation untersucht vergleichend deutsch-japanische fotografische Kriegspropaganda des Zweiten Weltkrieges anhand der zu jener Zeit auflagenstärksten illustrierten Zeitschriften "Illustrierter Beobachter" auf deutscher und "Shashin Shūhō" (Fotografische Wochenzeitung) auf japanischer Seite. Unter Rückgriff auf die ikonographisch-ikonologische Methode des Kunsthistorikers Erwin Panofsky bei gleichzeitiger Bezugnahme auf das Bildverständnis Charles Sanders Peirces werden Muster der bildlichen Darstellung von Kindern und Jugendlichen analysiert, um hierdurch Rückschlüsse zu ziehen auf Gemeinsamkeiten und Unterschiede in der Ausgestaltung der Bildpropaganda beider Länder unmittelbar vor und im Zweiten Weltkrieg (1939-1945), auf allgemeine Tendenzen in der Gestaltung von Propaganda im selben Zeitraum, auf die Organisation und Funktion von Propaganda in radikalnationalistischen Staaten. Gleichzeitig wird durch Einbeziehung der Rezipientensicht die Frage nach Mehrdeutigkeit und, hiermit einhergehend, Wirkungsweise und Wirkungsgrad der Propaganda gestellt. Schwerpunkt der Untersuchung bilden sämtliche publizierten Ausgaben der zweiten Jahreshälften 1938 und 1943.
This dissertation investigates the psychological and endocrinological make-up of patients with functional gastrointestinal disorders (FGD). Patients with irritable bowel syndrome and/or non ulcer dyspepsia were compared with healthy control subjects on several parameters: psychological disorders, bodily complaints, depressed mood, anxiety, chronic stress, personality and basal activity, reactivity (hCRH-test) as well as feedback-sensitivity(Dexamethasone-suppression-test) of the hypothalamic-pituitary-adrenocortical (HPA) system. Patients with FGD had different -mostly higher- scores in almost every psychological/psychometric measure. Furthermore, results of the endocrinological studies indicate a down-regulated HPA activity in patients with FGD.
Ein positiver Zusammenhang von Leistungsmotivation, Flow und Wohlbefinden ist in Einzelpfaden gut belegt. Befunde, welche alle drei Variablen miteinander in Beziehung setzen, stehen in der Bildungsfor-schung noch aus. Ziel dieser Arbeit ist es, den Einfluss einzelner Dimensionen von Leistungsmotivation & Flow auf das subjektive Wohlempfinden von Schüler/innen, unter Berücksichtigung etwaiger Media-tionseffekte durch Flow zu untersuchen. Die Grundlage der Daten bildet der erste Messzeitpunkt einer motivationsbezogenen Interventionsstudie.
Erhoben wurden die Daten im Rahmen einer prospektiven randomisierten Längsschnittstudie im Kon-trollgruppendesign (N=742; 46,2% weibl.), welche mit Schüler/innen von sieben rheinland-pfälzischen Schulen durchgeführt wurde. Leistungsmotivation, Wohlbefinden und Flow wurden mit folgenden In-strumenten erfasst: Petermann & Winkel (2007a&b): Fragebogen zur Leistungsmotivation; Flow-Skala (in Anlehnung an Rheinberg et al., 2003); Flourishing-Skala (in Anlehnung an Diener et al., 2009). Ausge-wertet wurden die Daten mittels Mediatoranalysen per multipler Regression mit SPSS.
Die Ergebnisse multipler Regressionsanalysen konnten sowohl in der Primar-, als auch Sekundarstufe direkte Effekte einzelner Leistungsmotivationsskalen auf das subjektive Wohlbefinden belegen. Zudem wurden in den Jahrgansstufen 2&3,4&5,7&9 der Zusammenhang zwischen Leistungsmotivation und Wohlbefinden durch Flow-Erleben mediiert. In der Jahrgangsstufe 11 konnte kein Mediationseffekt gefunden werden.
Die Ergebnisse bestätigen vorliegende Korrelationsstudien und identifizieren Flow als einen zentralen Mediator zwischen der Leistungsmotivation und dem Wohlbefinden bei Schüler/innen. Die Reflexion dieser Befunde eröffnet großes Potential für die weitere Ausarbeitung und Implementierung Flow-förderlicher Interaktionen in der Schule.
Das Triple-X-Syndrom ist die häufigste Chromosomenstörung im weiblichen Geschlecht und dennoch wenig bekannt und erforscht. Um die wissenschaftliche Datenlage für die Betroffenen, werdenden Eltern und genetischen Berater zu verbessern wurde die vorliegende Studie durchgeführt. Ziel der Studie war es zu untersuchen, ob bei Mädchen und Frauen mit Triple-X-Karyotyp häufiger psychische Probleme und Verhaltensauffälligkeiten auftreten als bei Mädchen und Frauen mit einem regelrechten Chromosomensatz. Insgesamt konnten 72 Mädchen und Frauen mit Triple-X und 69 mit einem regelrechten Chromosomensatz in die Studie eingeschlossen werden. Durch drei in Altersgruppen aufgeteilte Kohorten konnte verglichen werden, ob mögliche Auffälligkeiten altersabhängig auftreten, wie sich der Entwicklungsverlauf vom Kind zur erwachsenen Frau darstellt und ob dabei Zusammenhänge erkennbar sind. Bei den Mädchen im Alter von vier bis sieben Jahren zeigten sich im Vergleich zur Kontrollgruppe bereits signifikante Unterschiede in Bezug auf schulische Kompetenzen, soziale Probleme und Aufmerksamkeitsprobleme. In der Altersgruppe der Mädchen von acht bis 17 Jahren haben sich diese Auffälligkeiten noch verstärkt und die Ergebnisse aus dem Fragebogen "Child Behavior Checklist" weisen über alle Skalen hinweg einen deutlichen Unterschied zwischen der Triple-X-Gruppe und der Kontrollgruppe auf. Dies betrifft insbesondere die Bereiche "Schulische Kompetenzen", "Internalisierende Auffälligkeiten", "Sozialer Rückzug", "Soziale Probleme" und "Aufmerksamkeits-probleme". In der Gesamtintensität der Auffälligkeiten haben die Triple-X-Mädchen im Mittel signifikant schlechtere Werte als die Mädchen der Kontrollgruppe. Auch ist der Anteil der Mädchen, die in den klinisch auffälligen Bereich fallen, in der Triple-X-Gruppe signifikant erhöht. Die Untersuchungen zum Selbstwertgefühl machen deutlich, dass Mädchen mit Triple-X-Karyotyp ein vermindertes Selbstwertgefühl im Vergleich zur Kontrollgruppe aufweisen. Auch unterscheiden sich Triple-X-Mädchen in Bezug auf ihr Emotionsregulationsverhalten. Sie haben eine Tendenz zu eher maladaptiven Bewältigungsstrategien und sie zeigen insbesondere beim "Problemorientierten Handeln" und auch in Bezug auf die Emotion "Angst" signifikante Unterschiede zur Kontrollgruppe. Für die Gruppe der Erwachsenen konnte nachgewiesen werden, dass sich Triple-X-Frauen in ihren Persönlichkeitsmerkmalen von Frauen mit einem regelrechten Chromosomensatz unterscheiden. Die Ergebnisse lassen darauf schließen, dass Triple-X-Frauen häufiger emotional labil und ängstlich reagieren und auch eher zurückhaltend und introvertiert und weniger leistungsorientiert sind. Sie haben eine geringere Lebenszufriedenheit und neigen dazu weniger sozial verantwortlich zu handeln. Triple-X-Frauen sind in ihrem täglichen Leben stärker durch körperliche und psychische Symptome beeinträchtigt, wenngleich diese Beeinträchtigungen nicht so stark sind, dass sie in den klinisch auffälligen Bereich fallen.
Die Arbeit bietet die erste umfassende und vergleichende kunsthistorische Untersuchung der hoch spannenden und komplexen lokalen Helena-Traditionen von S. Croce in Gerusalemme Rom, der Trierer Kirche mit ihren Sondertraditionen in den Abteien St. Maximin und St. Eucharius/St. Matthias sowie der niederrheinischen Thebäer-Stifte Köln, Bonn und Xanten. Den Hintergrund bildet an jedem der fuenf Orte eine spezifische lokale Tradition, die unter verschiedenen Vorzeichen die Gruendung der jeweiligen Kirche durch die Mutter Konstantins postuliert. In Rom und Trier gilt sie darueber hinaus als Stifterin bedeutender Reliquien und Vorbesitzerin der Gebaeude, in denen die betreffende Kirche eingerichtet wurde. Umso interessanter ist die Frage nach dem Auftraggeber- und Nutzungskontext der untersuchten Helena-Darstellungen des 13. bis 18. Jahrhunderts, vor allem in Trier, wo die Helena-Tradition in einem komplexen Spannungsfeld politischer Legitimationsverhaeltnisse steht.
Benzodiazepine und Neuroleptika werden in der klinischen Praxis effektiv in der Behandlung verschiedener Angststörungen eingesetzt. Trotz ihrer weiten Verbreitung wurden ihre Effekte auf die physiologische Komponente (v. a. die Hypothalamus-Hypophysen-Nebennierenrinden Achse (HHNA) und das sympatho-adrenomedulläre System (SAM)) der Stress- und Angstreaktion bisher allerdings wenig gut untersucht. Ziel der vorliegenden Untersuchung war es deshalb, die Effekte zweier prominenter anxiolytischer Substanzen, Alprazolam (Benzodiazepin) und Flupentixol (Neuroleptikum), auf die Aktivierung der HHNA und des SAM durch einen reinen psychogenen Stressor, den Trier Sozial Stress Test (TSST), zu untersuchen. Studienteilnehmer waren 69 junge, gesunde Männer, die eine bzw. drei Stunden vor dem TSST entweder 1mg Alprazolam, 0.5mg Flupentixol oder ein entsprechendes Placebo-Präparat oral einnahmen. Vor und nach dem TSST wurden verschiedene Blut- und Speichelproben zur Bestimmung von ACTH, Cortisol, Noradrenalin, Adrenalin, Prolaktin und Wachstumshormon entnommen, zudem wurden Herzfrequenz, Blutdruck und Körpertemperatur erfasst. Über Fragebögen bewerteten die Probanden ihr aktuelles psychisches Wohlbefinden. Nach der Einnahme von Alprazolam war eine deutlich verminderte Aktivierung der HHNA in Reaktion auf den TSST zu beobachten, während Parameter des SAM unbeeinflusst blieben. Auf den entsprechenden Fragebogenskalen schätzten sich die Probanden nach Alprazolam- im Vergleich zur Placebo-Einnahme deutlich müder ein, zudem zeigten sich stimmungsstabilisierende Eigenschaften von Alprazolam, da Probanden nach Alprazolam-Einnahme eine geringere Beeinträchtigung der guten Stimmung durch den TSST erlebten. Nach der Einnahme von Flupentixol vor dem TSST unterschieden sich die Probanden in keinem der erhobenen Parameter signifikant von der Placebo-Kontrollgruppe, lediglich die Blutkonzentrationen der Katecholamine Adrenalin und Noradrenalin waren signifikant erhöht. Diese Daten verdeutlichen rasch einsetzende und auf die verschiedenen Komponenten der Stressreaktion differentiell wirkende Effekte von Alprazolam, während Effekte von Flupentixol auf die physiologischen Komponenten der Stressreaktion möglicherweise erst nach längerer Einnahme zu beobachten sind.
Bei der Mauereidechse (Podarcis muralis, Laurenti 1768) handelt es sich um eine Süd- und mitteleuropäisch verbreitete Art. Sie ist im Süden weitgehend flächendeckend verbreitet, wohingegen sie am Nordrand ihres Verbreitungsgebietes in fragmentierten Populationen vorkommt, deren dauerhaftes Fortbestehen fraglich ist. Das Ziel der vorliegenden Arbeit bestand in der vergleichenden Untersuchung der genetischen Variabilität und Diversität ausgewählter Mauereidechsen-Populationen aus ihrem rezenten mitteleuropäischen Verbreitungsgebiet und ihren Refugialräumen. Weiterhin sollte überprüft werden, ob aus den erhaltenen Daten Rückschlüsse auf eventuell unterschiedliche Einwanderungswege der nördlichen Populationen mittels molekular-genetischer Methoden gezogen werden können. Als Untersuchungsmethode wurde die Mikrosatelliten-DNA Analyse gewählt. Gegenüber der in vorhergehenden Untersuchungen angewandten RAPD-PCR Methode besitzt die Analyse von DNA-Mikrosatelliten den großen Vorteil, über die direkte Bestimmung von Allelfrequenzen wichtige populationsgenetische Daten berechnen zu können. Isoenzymatische Voruntersuchungen an Mauereidechsen erwiesen sich als wenig geeignet. Die SSR-Methode ist besonders gut geeignet, die genetische Diversität und Populationsdifferenzierungen zu ermitteln. Mittels acht spezifischer Mikrosatelliten-Loci wurde die genetische Struktur von sieben Populationen der Mauereidechse untersucht. Als Untersuchungsgebiete wurden Standorte in Italien, Kroatien, Südfrankreich, Nordfrankreich, Rheinland-Pfalz, Nordrhein-Westfalen und Belgien ausgewählt und beprobt. Die untersuchten Loci erwiesen sich alle als polymorph und zum Teil als hoch variabel. Im Rahmen der populationsgenetischen Analysen wurden zahlreiche deskriptive und populationsgenetische Parameter zur Charakterisierung der Populationen verwendet. Wegen unerwarteter Fragmentlängen des Locus A7 wurden exemplarisch einige Allele von etwa 400 bp sequenziert. Dabei konnte zusätzlich außer dem Mikrosatelliten eine etwa 200 bp lange Sequenz nachgewiesen werden, die wahrscheinlich durch eine Insertion entstanden ist. Außerdem wurde ein Basenaustausch (G-C, C-G) beim Vergleich der FOREWARD- und REVERS- Sequenzierung festgestellt. Die Ergebnisse der vorliegenden Arbeit zeigen, dass die Vorkommen der Mauereidechse an ihrem nördlichen Verbreitungsrand teilweise separiert sind. Es konnte gezeigt werden, dass ein Genaustausch der Trierer und der Urfter Tiere untereinander besteht. Eingeschränkt besteht der Genaustausch auch mit den Bitcher Tieren, wohingegen der Genaustausch mit den Belgischen Tieren wohl schon lange eingeschränkt ist oder nur sehr eingeschränkt stattgefunden hat. Die Einwanderung der Mauereidechse in ihr nördliches Verbreitungsgebiet dürfte von den Südfranzösischen Populationen durch das Rhônetal, die Burgundische Pforte, das Rheintal bis zur, in der vorliegenden Arbeit untersuchten Population von Bitche, erfolgt sein. Die Trierer und Urfter Tiere dürften über den Obermoselraum eingewandert sein. Aufgrund der im Verhältnis zu den anderen Populationen stark reduzierten Allelzahl der Population Anhée muss für diesen Standort von einem so genannten bottleneck (Flaschenhals) ausgegangen werden. Der Verdacht, dass sich die zwei Unterarten P. m. brogniardi (Belgien) und P. m. merremia (Nordeifel, Mosel, Bitche) unterscheiden lassen, scheint sich eher zu erhärten, als zu entkräften. Die großen genetischen Unterschiede der Belgischen Population zu den anderen nördlichen Populationen lassen sich am ehesten durch eine Einwanderung über Frankreich an die Maas und einen stark eingeschränkten Genfluss zwischen der Belgischen Population und den restlichen nördlichen Populationen erklären.
During the twelve years of the National Socialist regime in Germany, the relationship between the writers who left the country as emigrants and those who decided to stay was characterized by latent tensions. The former claimed that they were the only active literary opposition to stand up against Nazi Germany while the latter insisted that they impartially witnessed, in an attitude of passive hostility, what happened in the country. This tense relationship grew into an open dispute after World War II. It has been extensively outlined that this controversy has significantly influenced the development of German Literary theory in the post-war-period. Today, we should approach the writings of German exiles and "inner emigration" from a more rational perspective, ceasing to see this era only in the light of a subsequent literary controversy. The PhD thesis presented here aims at developing a set of such rational evaluation parameters which may serve to better understand selected writings of authors from exile and "inner emigration" in the historical context of National Socialism. An in-depth review of three novels (Werner Bergengruen, Der Großtyrann und das Gericht; Ernst Glaeser, der letzte Zivilist; Ernst Weiß, Der Augenzeuge) will analyze to which extend an omnipresent Nazi propaganda and a strong NS symbolism influenced the work of these three authors - regardless of where they wrote, in their mother country or from exile`s perspective.
Diese Arbeit betrachtet die formalen, semantischen und pragmatischen Eigenschaften produktiv gebildeter Partikelverben mit präpositionenähnlichen Verbzusätzen. Der empirische Teil basiert auf zahlreichen Belegen für mehr als 2500 Partikelverb-Neubildungen mit "ab-", "an-", "auf-", "aus-" und "ein-", die im Zuge einer exhaustiven Korpusstudie mitsamt ihren Kontexten in einem pressesprachlichen Korpus erhoben wurden. Im Zentrum steht die Untersuchung von mehr als 500 neologistischen Partikelverben mit "an-". Zunächst anhand von formalen Kriterien (vorrangig der Argumentstruktur) in fünf Gruppen sortiert, werden die semantischen und pragmatischen Eigenschaften dieser Gruppen mittels einer Betrachtung der einzelnen Verbvorkommen in ihren authentischen Gebrauchskontexten untersucht. Dabei wird insbesondere eine pragmatische Funktionalisierung der ursprünglichen Richtungssemantik nachvollzogen. Zwei offene Fragen der Partikelverb-Forschung werden in ergänzenden Fallstudien detailliert untersucht. Die erste widmet sich sogenannten "Kontaminationsbildungen" und zeigt, dass diese im Bereich der Partikelverben präzise angebbaren Regularitäten folgen. Die zweite beleuchtet anhand von 99 neologistischen Analogiebildungen zum lexikalisierten Verb "aufwerten" formale und semantisch-pragmatische Aspekte der Bildung von Partikelverben und revidiert damit das problematische Verhältnis von Analogie und Produktivität in der Wortbildungstheorie. Die an den Neubildungen gewonnenen Erkenntnisse werden schließlich auf den Wortschatzausschnitt der etablierten, lexikalisierten Partikelverben abgebildet. Dabei wird gezeigt, wie die Untersuchung produktiver Schemata anhand von Neubildungen zur Entwicklung von Objektivierungsheuristiken führen kann, die auch bei den lexikalisierten Formen die systematisch-regelhaften von den irregulär-idiosynkratischen zu trennen vermögen. Von unmittelbarem praktischem Nutzen ist das beispielsweise für die Sprachdidaktik, wie abschließend erläutert wird.
In einer Fragebogenstudie (N = 694) wurden vollzeitbeschäftigte Arbeitnehmer online oder klassisch schriftlich befragt, welche Verzichte zugunsten der Schaffung neuer Arbeitsplätze in Deutschland sie aus welchen Motiven leisten würden. Die Arbeit geht in Abgrenzung zu dominierenden Rational-Choice-Modellen von einem Motivpluralismus aus, der das Spannungsfeld zwischen Eigeninteresse und Gemeinwohl fokussiert. Die Befunde zeigen, dass beide Motivgruppen unabhängig voneinander zur Prädiktion der Bereitschaften beitragen. Überdies zeigt sich eine systematische Überschätzung des Eigeninteresses für das Handeln anderer. Bei anderen wahrgenommene Motivationen haben nachweislich Einfluss auf die eigenen Handlungsbereitschaften. Eine spezifische Form der Ausbeutung gemeinsinnigen Handelns ist das Trittbrettfahren als Profitieren vom Engagement und Einsatz anderer, ohne selbst etwas beizutragen. Die Untersuchung zeigt, dass phänotypisch eigennütziges Verhalten wie Trittbrettfahren aus dem Motiv resultieren kann, individuelle Ungerechtigkeit gegenüber anderen zu vermeiden oder unsolidarisches Handeln anderer zu bestrafen.
Während die Ziele "Sicherheit" und "Europa" der polnischen Außenpolitik nach 1989 mit dem Beitritt zu Europarat, NATO und EU bereits nahezu gelöst sind und die in diesem Zusammenhang auftretenden Probleme in den Rechts- und Sozialwissenschaften in West und Ost schon in breiterem Rahmen diskutiert wurden, steht vor allem die westliche systematische Forschung zur polnischen Ostpolitik nach 1989 noch am Anfang. Dies mag zum Teil an in Westeuropa fehlenden profunden Sprach- und Landeskenntnissen oder vermeintlich fehlender tagespolitischer Aktualität liegen. Jedoch ist offensichtlich, dass das Thema nach dem EU-Beitritt Polens und der damit einhergehenden direkten Nachbarschaft der Union mit Weißrussland und der Ukraine auf der Brüsseler Agenda weit nach vorne gelangen wird. Theoretisch-methodisch stützt sich die Arbeit auf moderat-konstruktivistische Ansätze (PAFE-Ansatz der Universität Trier), verfolgt einen qualitativen Ansatz und stützt sich bewusst auf den wichtigsten außenpolitischen Akteur eines Staates " die Regierung. Im Falle Polens verdienen neben dem Ministerrat vor allem der Präsident und der Senat, die zweite Kammer des polnischen Parlamentes, besondere Aufmerksamkeit. Ferner konzentriert sich die Dissertation auf eine Analyse des (nicht notwendig entgegengesetzt gerichteten) Diskurses und Verhaltens. Die empirischen Ergebnisse der Dissertation sind insbesondere Resultat eines zweijährigen Forschungsaufenthaltes in Warschau mit Studienreisen nach Kaliningrad, Vilnius, Minsk, Grodno, Lemberg und Kiev. Die Dissertation präsentiert ihre Ergebnisse in drei Fallstudien: zur polnischen Minderheit in Litauen, Weißrussland und der Ukraine, zur polnischen Außenwirtschaftsförderung nach Osteuropa und zu den Regelungen und der Bedeutung des Schengener Übereinkommens für die polnische Ostgrenze nach Polens EU-Beitritt. Dabei ergab sich insbesondere ein bis heute offener Diskurs zu Minderheitenfragen sowie im Verhalten eine nur schwache Rolle des Ministerrates, der in dieser Hinsicht eindeutig vom Senat dominiert wird. In Fragen der Außenwirtschaftsförderung ergab sich ein leichtes Übergewicht für die Verfechter der "strategischen Partnerschaften" mit der Ukraine und Litauen und gegen eine Ökonomisierung der bilateralen Beziehungen mit osteuropäischen Staaten um jeden Preis. In der Praxis zerstob indes aufgrund der fortdauernden instabilen Lage in Osteuropa rasch die Hoffnung, dass die GUS-Staaten ein vielversprechender Zukunftsmarkt werden würden. Ferner blieb die Eigenkapitalknappheit polnischer Firmen ein Kernhindernis. Die Studie über das Schengener Übereinkommen ergab, dass sich der Diskurs nur zögerlich öffnete. Im Verhalten erwies sich Warschau dagegen als sehr aktiv und akzeptierte bereits 1993 (mit der Ukraine) bzw. 1997 (mit Litauen) den visumfreien Reiseverkehr mit zwei seiner vier östlichen Nachbarn, lehnte jedoch den von Russland und Weißrussland geforderten visumfreien Reiseverkehr ohne Rücknahmeabkommen ab. Gegenüber der EU konnte Polen für die Zeit nach dem EU-Beitritt zumindest die Einreise für Ukrainer nach Polen mit einem gebührenfreien Visum durchsetzen. Im Unterschied zur Zwischenkriegszeit, als Polen von Ost und West bedroht war, selbst regionale Vormacht werden wollte, keine allseits anerkannten Grenzen hatte und gerne in der Rolle des "Zivilisators" oder "Retters" auftrat, erscheint das heutige Polen aus westlicher Sicht als so "europäisch" wie noch nie zuvor in seiner Geschichte.
Die vorliegende Dissertation präsentiert sich im Rahmen einer Synopse des Buches Laozi bestehend aus der Wang-Bi-Ausgabe, den beiden Mawangdui-Seidentexten sowie den drei Guodian-Bambustexten. Diese verschiedenen Textversionen werden einzeln ins Deutsche übersetzt und kommentiert. Zusätzlich zu meinen eigenen Übersetzungen ins Deutsche werden auch die älteren englischen Übersetzungen D.C. Laus und Wing-Tsit Chans - und zum Teil auch die weiterer bekannter Übersetzer - zur Verfügung gestellt, um weiteres Nachdenken anzuregen über die Bedeutung einzelner Zeichen, ja selbst ganzer Sätze, aber auch über die Interpretation grammatikalischer Strukturen. Die im direkten Anschluß an die chinesischen Textversionen und ihre Übersetzungen zu findende Kommentierung bezieht sich sowohl auf einzelne Zeichen, auf ganze Ausdrücke als auch auf das im Buch Laozi zu findende gesellschaftskritische Gedankengut - denn Hauptaugenmerk dieser Arbeit ist auf der Grundlage philologischer Kleinarbeit speziell die das Buch Laozi charakterisierende gesellschaftskritische Grundhaltung. Die vorliegende Dissertation bemüht sich durch zahlreiche werkimmanente Querverweise, durch die Betonung bestimmter bisher nicht erstellter Querverbindungen innerhalb des Buches Laozi und mit Hilfe von Textbeispielen aus einem weltanschaulich teilweise verwandten Text, dem Buch Zhuangzi (ca. 4./3. Jh.v.Chr.), einen in sich geschlossenen gesell-schaftskritischen Gesamtzusammenhang herauszuarbeiten und diesen zu verdeutlichen. In der abschließenden Auswertung zeigt sie, daß die im Buch Laozi vorgetragenen gesellschaftskritischen Bedenken gegen eine zivilisatorische Entwicklungsrichtung und eine Konzentration auf Wissen auch von einem "modernen" Standpunkt aus nicht automatisch als naiv zu betrachten sind.
Zu den klassischen Verteilungen der mathematischen Statistik zählen die zentralen F- und t-Verteilungen. Die vorliegende Arbeit untersucht Verallgemeinerungen dieser Verteilungen, die sogenannten doppelt nichtzentralen F- und t-Verteilungen, welche in der statistischen Testtheorie von Bedeutung sind. Die Tatsache, dass die zugehörigen Wahrscheinlichkeitsdichten nur in Form von Parameterintegral- bzw. Doppelreihendarstellungen gegeben sind, stellt eine große Herausforderung bei der Untersuchung analytischer Eigenschaften dar. Unter Verwendung von Techniken aus der Theorie der vorzeichenregulären Funktionen gelingt es, die bisher vermutete, jedoch lediglich aus Approximationen abgeleitete, strikt unimodale Gestalt der Dichtefunktion für eine große Klasse doppelt nichtzentraler Verteilungen zu zeigen. Dieses Resultat gestattet die Untersuchung des eindeutig bestimmten Modus als Funktion gewisser Nichtzentralitätsparameter. Hier erweist sich die Theorie der vorzeichenregulären Funktionen als wichtiges Hilfsmittel, um monotone Abhängigkeiten nachzuweisen.
Seit den frühen siebziger Jahren ist im anglo-amerikanischen Raum eine große Anzahl an Romanen erschienen, die alle auf einer bzw. zwei eng verwandten schottischen Feenballaden ("Thomas the Rhymer" und "Tam Lin") basieren. Die vorliegende Arbeit untersucht eine Auswahl dieser Romane in vergleichender Perspektive. Der erste Teil beschäftigt sich mit Feenglauben und -literatur im Allgemeinen, während der zweite Teil der Analyse von zehn auf den Balladen basierenden Romanen gewidmet ist. Da im Ausgangsmaterial Elemente keltischen Volksglaubens eine zentrale Rolle spielen, untersucht das erste Kapitel die Grundlagen und möglichen Ursprünge des keltischen Feenglaubens. Um neben einer Einführung in die volkskundlichen Grundlagen auch eine Verankerung der Arbeit in aktuellen literaturwissenschaftlichen Theorien zu gewährleisten, gibt das zweite Kapitel einen Überblick über Theorien der phantastischen Literatur. Vorgestellt werden strukturalistische und funktionale Ansätze, die sich chronologisch von J.R.R. Tolkien (1948) über Tzvetan Todorov (1970) bis hin zu Farah Mendlesohn (2005) bewegen. Um die Bearbeitungen der frühmodernen Balladen literaturgeschichtlich einzuordnen, zeichnet das nächste Kapitel die Geschichte der literarischen Bearbeitungen des Elfenstoffes in der Literatur vom Mittelalter bis ins späte 20. Jahrhundert nach, mit Schwerpunkt auf englischsprachigen Werken. Von im Mittelalter noch stark vom Volksglauben beeinflussten, moralisch ambivalenten Figuren entwickeln sich die Elfen seit dem 16. Jahrhundert zu satirisierten, miniaturisierten und verniedlichten Gestalten; die Fantasyromane des späten 20. Jahrhunderts scheinen jedoch wieder zu stärker bedrohlichen Elfen zurück zu finden. Das nächste Kapitel widmet sich der Darstellung des Ausgangsmaterials, der zwei Balladen, die als Nr. 37 bzw. 39 in der Balladensammlung von Francis James Child zu finden sind. Erläutert werden die Entstehungsgeschichte der traditionellen Ballade (traditional ballad) im Allgemeinen und von Child Nr. 37 und 39 im Besonderen, sowie Varianten, Symbolik und Besonderheiten der zwei Balladen. Die anschließenden Analysekapitel beschäftigen sich jeweils schwerpunktmäßig mit einer Balladenadaption in Romanform: - Dahlov Ipcar: The Queen of Spells (1973) - Elizabeth Marie Pope: The Perilous Gard (1974) - Diana Wynne Jones: Fire and Hemlock (1984) - Ellen Kushner: Thomas the Rhymer (1990) - Pamela Dean: Tam Lin (1991) - Terry Pratchett: Lords and Ladies (1992) und The Wee Free Men (2003) - Patricia McKillip: Winter Rose (1996) Alle Analysekapitel sind ähnlich strukturiert: Nach kurzer Vorstellung des Autors folgt eine Zusammenfassung der Romanhandlung. Da alle Romane mehr oder weniger stark intertextuell sind, werden daraufhin Einflüsse und intertextuelle Anspielungen untersucht. Besonderes Augenmerk liegt dabei auf der Verarbeitung der zwei Child-Balladen. Da nahezu alle untersuchten Romane ähnliche Hauptcharaktere aufweisen (junges Mädchen, junger Mann, Elfenkönigin) untersuchen die Analysekapitel diese Figurenkonstellation sowie die hier verarbeiteten folkloristischen Einflüsse. Trotz der großen zeitlichen und geographischen Bandbreite der Schauplätze sind sich die Romane erstaunlich ähnlich, vor allem in der Darstellung ihrer Hauptfiguren. Die weibliche Heldin ist meist jung, eigenwillig und unterscheidet sich oft durch eine negative Charaktereigenschaft oder Umweltbedingung von ihren Altersgenossinnen. Nahezu alle Romane werden aus der Perspektive der weiblichen Hauptfigur erzählt. Dies führt dazu, dass die männliche Hauptfigur weniger zentral und oft durch eine gewisse Passivität gekennzeichnet ist. Infolgedessen ist die zweite aktive Figur der Konstellation ebenfalls eine Frau " die Elfenkönigin. Auch in ihrer Darstellung lassen sich in allen Romanen große Gemeinsamkeiten finden: Sie ist attraktiv und grausam, kühl und oft überheblich. Insgesamt werden die Elfen in den Romanen deutlich unsympathisch geschildert. Sie sind eine Spezies schöner, (fast) unsterblicher, oft übernatürlich intelligenter und mit magischen Fähigkeiten begabter Wesen, doch sind sie auch kalt, grausam und vollkommen fremdartig und unverständlich für die Menschen. Ein möglicher Grund für die negative Darstellung der Elfen scheint didaktischer Art zu sein, da die Botschaft aller Adaptionen an die Leser lauten könnte: "Akzeptiere deine Unvollkommenheit und lass dich nicht von vermeintlich überlegenen Gegnern einschüchtern " auch sie haben Schwächen". Auch in Richtung Gender-Diskurs scheinen viele der Autoren eine Aussage machen zu wollen. Sie zeichnen ihre Heldinnen als "starke Mädchen", die in einer Umkehrung des "damsel in distress"-Schemas einen Mann aus der Gefangenschaft der Elfen retten. Als feministisch kann man die Adaptionen jedoch nicht bezeichnen, da sie hierzu eher zu konservativ sind, was sich vor allem darin zeigt, dass die einzige Frau im Roman, die wirklich über Macht verfügt " nämlich die Elfenkönigin " am Ende die Verliererin ist.
One of the current issues in psycholinguistics is how the frequency of syntactic structures influences the mental processing of sentences, especially in the case of ambiguous constructions. The present work attempts to shed light on this issue from the perspective of computational and corpus linguistics. Existing theories of human sentence processing assign different roles to frequency, varying from certain 'principle-based' models that completely ignore it to 'experience-based' models relying on frequency alone. The present work develops a frequency-based parsing component that may be combined with other factors influencing disambiguation. This module, named the Optimized Frequency Constraint (OFC), addresses questions largely left open by existing frequency-based models: How are the frequencies of syntactic structures stored mentally? When does the human sentence processing mechanism access this stored information, and in what sequence? OFC is then applied to a range of syntactic constructions in German (licensing, attachment of phrases and relative clauses, word order, etc.) that have been used in psycholinguistic experiments. The settings of OFC's parameters are determined by analyzing German corpus data. The predictions based on OFC are confirmed by the results reported in the psycholinguistic literature in most cases, indicating that OFC offers psychologically valid predictions of the influence of frequency in human parsing.
Die Dissertation mit dem Thema "Cross-Border-Leasing als Instrument der Kommunalfinanzierung " Eine finanzwirtschaftliche Analyse unter besonderer Berücksichtigung der Risiken - befasst sich am Beispiel des primär steuerinduzierten, grenzüberschreitenden Cross-Border-Leasings (CBL) mit einem innovativen, strukturierten Finanzierungsinstrument, das sich im Spannungsfeld von Rechtsstaatlichkeit und privatwirtschaftlichem Management öffentlicher Akteure befindet. Dazu werden bereits finanzierte und sich im Betrieb befindliche Assets in Variationen von langfristigen Leasingverträge eingebracht. Durch die geschickte Ausnutzung steuerlicher Zurechnungskriterien werden unter Einbindung mehrerer Jurisdiktionen Gewinnverschiebungsmöglichkeiten und Steueroptimierungspotenziale geschaffen, wobei die generierten Zusatzerträge unter den Akteuren aufgeteilt werden. Die Untersuchung orientiert sich an einem umfassenden forschungsleitenden Fragenkatalog, der sehr vielschichtig und zudem interdisziplinär die komplexen Aspekte des CBLs theoretisch sowie praktisch an einem Fallbeispiel untersucht. Zunächst erfolgt die Einbettung des CBLs in den kommunalen Hintergrund. Daran schliesst sich eine Darstellung des Untersuchungsgegenstands im Hinblick auf seine elementare Grundstruktur, Zahlungsströme, Vertragsparteien und deren bilateralen Verpflechtungen an. Daneben erfolgt eine Analyse der öffentlich-rechtlichen Implikationen des CBLs sowie der regulatorischen kommunalaufsichtsrechtlichen Anforderungen. Im zentralen empirischen Teil der Dissertation wird eine idealtypische CBL-Transaktion einer bundesdeutschen Metropole als Fallstudie analysiert: im Rahmen einer erstmaligen wissenschaftlichen Analyse einer Orginaldokumentation werden zunächst die strukturellen Rahmenparameter untersucht, um dann den Finanzierungsvorteil der Transaktion zu ermitteln. Eine Klassifikation erfolgt dabei in diejenigen Risken, die sich unmittelbar im Einflussbereich der Kommune befinden und somit direkt, d.h. durch aktives eigenes Handeln, minimiert oder vermieden werden können und in solche, die aus ihrer Sicht extern sind. Abgerundet wird die Risikoanalyse durch eine Abschätzung der maximalen Risikoposition in Form der Schadensersatzzahlungen, die die Kommune in vertraglich vereinbarten Fällen leisten muss. Dabei ermittelt die Verfasserin den Break-Even der Transaktion und setzt Szenarien sowie mathematische Modelle ein, um die inhärenten Risiken aufgrund ihrer Kostenfolgen sorgfältig gegenüber dem vereinnahmten kurzfristigen Vorteil abzuwägen. Die Untersuchung bedient sich dem anerkannten mathematisch-statistischen Value-at-Risk-Verfahren (VaR), das unter Verwendung von Ansätzen der Wahrscheinlichkeitsverteilung das Marktpreisrisiko zu quantifizieren vermag. Um zu validen Ergebnissen zu gelangen, werden zur Ermittlung des VaRs die beiden bekanntesten (nicht-parametrischen) Tools des VaR-Ansatzes angewendet, um die potenziellen Performanceschwankungen des Depotwertes unter Zugrundelegung bestimmter Wahrscheinlichkeiten abschätzen zu können. Dies ist das Verfahren der Historischen Simulation sowie die als mathematisch sehr anspruchsvoll eingestufte Monte-Carlo-Simulation. Als Weiterentwicklung des VaR-Modells wird zudem der Conditional VaR berechnet, der Aussagen über das Ausmaß der erwarteten Verluste zulässt. Anhand dieser Ergebnisse wird die maximale finanzielle Risikoposition der Kommune, bezogen auf das Kapitaldepot, abgeleitet. Darüber hinaus wird das CBL im Rahmen eines mathematischen Modells insgesamt beurteilt, indem eine Gegenüberstellung von vereinnahmtem Finanzierungsvorteil und den mit Eintrittswahrscheinlichkeiten gewichteten Ausfallrisiken, unter Berücksichtigung des jeweiligen Eintrittszeitpunktes, durchgeführt wird. Diese Vorgehensweise führt zu einer Symbiose aus Finanzierungsvorteil und den Risikomaßzahlen VaR, Expected Shortfall und Expected Loss. Die ermittelten finanzwirtschaftlichen Risikomaßzahlen führen zu überraschenden Ergebnissen, die die propagierte Risikolosigkeit und das vermeintlich attraktive Renditepotenzial derartiger Transaktionen eindeutig verneinen. Aus den gewonnenen Erkenntnissen leitet die Verfasserin praktische Handlungsempfehlungen und Absicherungsmöglichkeiten für kommunale Entscheidungsträger ab. Die sich aufgrund der US-Steuerrechtsänderung vom Februar 2005 ergebenden Auswirkungen auf bestehende Transaktionen wie auch auf Neugeschäfte werden im Ausblick dargelegt.
Im März 196 v. Chr. erließ eine in Memphis versammelte Synode von Priestern aus den Tempeln Ägyptens ein Ehrendekret in drei verschiedenen Sprachen für den amtierenden Herrscher Ptolemaios V. Epiphanes: Der klassischen Sprache des pharaonischen Ägypten, geschrieben in altägyptischen Hieroglyphen, dem Demotischen, der damals gesprochenen Sprachstufe des Altägyptischen und dem hellenistischen Griechisch des 2 Jh.. Von dieser Textsorte sind bisher insgesamt nur vier relativ vollständig erhaltene Beispiele auf uns gekommen. Diese folgen sämtlich in ihrem Formular in hohem Maße der im griechischen Bereich ubiquitären Psephismata und setzen alle im jeweiligen Beschlussteil Ehrungen fest, die die Rolle des ptolemäisch-hellenistischen Herrschers im Kontext der altägyptischen Kulte betreffen. Die vorliegende Arbeit will zum einen in ihrem Kommentarteil eine Grundlage für die weitere Beschäftigung mit allen drei Sprachfassungen des Dekrets von Memphis durch die ptolemaistisch-althistorische Forschung leisten. Zum anderen möchte sie auf Grundlage des Textes die Rolle des Herrschers aus Sicht der beschließenden Priesterschaft beleuchten. Es kann gezeigt werden, dass das Dekret - anders als bisher angenommen - nicht zur eigentlichen Thronbesteigung, sondern anlässlich eines späteren Thronjubiläums erlassen wurde und gleichwohl die Fiktion eines innenpolitischen Neuanfangs (vermutlich im Sinne des Hofes) angesichts erster, bescheidener Erfolge gegen innere Aufstände der indigenen Bevölkerung in Unter- und Oberägypten inszeniert. Die kultische Herrscherverehrung hellenischer Provenienz erscheint in diesem Text ggü. den früheren Dekreten von Kanobos und Raphia relativ vollständig in den altägyptischen religiösen Kontext übersetzt, sodass hier durchaus von einem "ägyptischen Herrscherkult" gesprochen werden kann. Dabei wird der sehr junge fünfte Ptolemäerkönig sehr auffällig mit Kindformen des Gottes Horus (Harendotes, Harsiese) gleichgesetzt, was zum einen die legitime Machtübernahme durch den Sohn des verstorbenen Herrschers von einer im ägyptischen Kontext religiös definierten Sieghaftigkeit gegen die "Götterfeinde" abhängig erscheinen lässt, zum anderen den König in den Kontext der spätzeitlichen Verehrung von Kindgottheiten und Götterttriaden setzt. Alles in allem scheint die ägyptische Priesterschaft mittels einer für die eigenen Bedürfnisse flexibel adaptierten ursprünglich griechischen Textform den eigenen Anspruch auf Definition religiös legitimierter Königsmacht erhoben und im Diskurs um Privilegien und Unterstützung im ptolemäischen Ägypten kommuniziert zu haben.
Intensiv diskutierte Aspekte der Politikwissenschaft heben zunehmend die Bedeutung von Strategiefähigkeit zur erfolgreichen Durchführung von Wahlkämpfen für Parteien hervor. Der Widerspruch der mit den Implikationen der modernen Mediengesellschaft eingehergehenden unterstellten Akteursfähigkeit der Parteien und ihrer kollektiven heterogenen Interessens- und Organisationsvielfalt bleibt dabei bestehen. Die Fokussierung der Parteien auf das Ziel der Stimmenmaximierung bringt unter den sich wandelnden Rahmenbedingungen Veränderungen der Binnenstrukturen mit sich. So diskutieren Parteienforscher seit Längerem die Notwendigkeit eines vierten Parteitypus als Nachfolger von Kirchheimers Volkspartei (1965). Verschiedene dieser Ansätze berücksichtigen primär die Wahlkampffokussierung der Parteien, während andere vor allem auf den gesteigerten Strategiebedarf abzielen. Auch die Wechselwirkungen mit den Erfordernissen der Mediengesellschaft sowie Auswirkungen des gesellschaftlichen Wandels stehen im Vordergrund zahlreicher Untersuchungen. Die Arbeit von Uwe Jun (2004), der mit dem Modell der professionalisierten Medienkommunikationspartei auch die organisatorischen und programmatischen Transformationsaspekte des Parteiwandels beleuchtet, liefert einen bemerkenswerten Beitrag zur Party-Change-Debatte und bietet durch die angeschlossene vergleichende exemplarische Fallstudie eine praxisnahe Einordnung. Die geringe empirische Relevanz, die Jun seinem Parteityp anhand der Untersuchung von SPD und New Labor zwischen 1995 und 2005 bestätigt, soll in dieser Arbeit versucht werden zu relativieren, in dem der Parteiwandel der deutschen Großparteien seit der Wiedervereinigung durch die Untersuchung ihrer Wahlkampffähigkeit aufgezeigt wird. Anhand eines längsschnittlichen Vergleiches der Bundestagswahlkämpfe von SPD und CDU zwischen 1990 und 2013 soll die Plausibilität dieses vierten Parteitypus überprüft werden. Hierdurch soll die Entwicklung der Strategie- und Wahlkampffähigkeit beider Großparteien in den Bundestagswahlkämpfen seit 1990 untersucht und die Ergebnisse miteinander verglichen und in Bezug auf den Parteiwandel eingeordnet werden.
Dass sich Parteien genau wie ihre gesellschaftliche und politische Umwelt im Wandel befinden, ist nicht zu bestreiten und seit Langem viel diskutierter Gegenstand der Parteienforschung. „Niedergangsdiskussion“, Mitgliederschwund, Nicht- und Wechselwähler, Politik- und Parteienverdrossenheit, Kartellisierung und Institutionalisierung von Parteien sind nur einige der in diesem Kontext geläufigen Schlagwörter. Prozesse der Individualisierung, Globalisierung und Mediatisierung führen zu veränderten Rahmenbedingungen, unter denen Parteien sich behaupten müssen. Diese Veränderungen in der äußeren Umwelt wirken sich nachhaltig auf das parteipolitische Binnenleben, auf Organisationsstrukturen und Programmatik aus. Die Parteienforschung hat daher schon vor zwanzig Jahren begonnen, ein typologisches Nachfolgemodell der Volkspartei zu diskutieren, das diesen Wandel berücksichtigt. Verschiedene typologische Konstruktionen von z. B. Panebianco (1988), Katz und Mair (1995) oder von Beyme erfassen (2000) wichtige Facetten des Strukturwandels politischer Parteien und stellen mehrheitlich plausible typologische Konzepte vor, die die Parteien in ihrem Streben nach Wählerstimmen und Regierungsmacht zutreffend charakterisieren. Die Parteienforschung stimmt bezüglich des Endes der Volksparteiära mehrheitlich überein. Bezüglich der Nachfolge konnte sich unter den neueren vorgeschlagenen Typen jedoch kein vierter Typ als verbindliches Leitmodell etablieren. Bei genauerer Betrachtung weichen die in den verschiedenen Ansätzen für einen vierten Parteitypen hervorgehobenen Merkmale (namentlich Professionalisierung des Parteiapparates, die Berufspolitikerdominanz, Verstaatlichung und Kartellbildung sowie die Fixierung auf die Medien) wenig von jüngeren Modellvorschlägen ab und bedürfen daher mehr einer Ergänzung. Die in der Regel mehrdimensionalen entwicklungstypologischen Verlaufstypen setzten seit den 1980er Jahren unterschiedliche Schwerpunkte und warten mit vielen Vorschlägen der Einordnung auf. Einer der jüngsten Ansätze von Uwe Jun aus dem Jahr 2004, der das typologische Konzept der professionalisierten Medienkommunikationspartei einführt, macht deutlich, dass die Diskussion um Gestalt und Ausprägungen des vierten Parteityps noch in vollem Gang und für weitere Vorschläge offen ist – der „richtige“ Typ also noch nicht gefunden wurde. Jun bleibt in seiner Untersuchung den zentralen Transformationsleitfragen nach der Ausgestaltung der Parteiorganisation, der ideologisch-programmatischen Orientierung und der strategisch-elektoralen Wählerorientierung verhaftet und setzt diese Elemente in den Fokus sich wandelnder Kommunikationsstrategien. Die bisher in parteitypologischen Arbeiten mitunter vernachlässigte Komponente der strukturellen Strategiefähigkeit als Grundlage zur Entwicklung ebensolcher Reaktionsstrategien wird bei Jun angestoßen und soll in dieser Arbeit aufgegriffen und vertieft werden.
Der aktuellen Partychange-Diskussion zum Trotz scheint die Annahme, dass Parteien, die sich verstärkt der Handlungslogik der Massenmedien unterwerfen, deren strategischen Anforderungen durch interne Adaptionsverfahren auch dauerhaft gerecht zu werden vermögen, nicht immer zutreffend. Die Veränderungen der Kommunikationsstrategien als Reaktion auf gesamtgesellschaftliche Wandlungsprozesse stehen zwar im Zentrum der Professionalisierungsbemühungen der politischen Akteure, bleiben aber in ihrer Wirkung eingeschränkt. Wenngleich das Wissen in den Parteien um die Notwendigkeiten (medialer) Strategiefähigkeit besteht und die Parteien hierauf mit Professionalisierung, organisatorischen und programmatischen Anpassungsleistungen und der Herausbildung strategischer Zentren reagieren, so ist mediengerechtes strategisches Agieren noch lange keine natürliche Kernkompetenz der Parteien. Vor allem in Wahlkampfzeiten, die aufgrund abnehmender Parteibindungen und zunehmender Wählervolatilität für die Parteien zum eigentlich zentralen Moment der Parteiendemokratie werden, wird mediengerechtes Handeln zum wesentlichen Erfolgsfaktor. Strategiefähigkeit wird hierbei zur entscheidenden Voraussetzung und scheint zudem in diesen Phasen von den Parteien erfolgreicher umgesetzt zu werden als im normalen politischen Alltag. Die wahlstrategische Komponente findet in Juns typologischer Konstruktion wenig Beachtung und soll in dieser Arbeit daher als ergänzendes Element hinzugefügt werden. Arbeitshypothese Die beiden deutschen Großparteien berufen sich auf unterschiedliche Entstehungsgeschichten, die sich bis in die Gegenwart auf die Mitglieder-, Issue- und Organisationsstrukturen von SPD und CDU auswirken und die Parteien in ihren Anpassungsleistungen an die sich wandelnde Gesellschaft beeinflussen. Beide Parteien versuchen, auf die veränderten sozialen und politischen Rahmenbedingungen und den daraus resultierenden Bedeutungszuwachs von politischer Kommunikationsplanung mit einem erhöhten Maß an Strategiefähigkeit und kommunikativer Kompetenz zu reagieren. Diese Entwicklung tritt seit der deutschen Wiedervereinigung umso stärker in Augenschein, als dass nach 1990 die Bindekraft der Volksparteien nochmals nachließ, sodass die Parteien sich zunehmend gezwungen sehen, die „lose verkoppelten Anarchien“ in wahlstrategische Medienkommunikationsparteien zu transformieren. Diesen vierten Parteityp kennzeichnet vor allem die zunehmende Bemühung um Strategiefähigkeit, die mittels Organisationsstrukturen und programmatischer Anpassungsleistungen die Effizienz der elektoralen Ausrichtung verbessern soll. Insgesamt geht die Party-Change-Forschung davon aus, dass die Parteien sich zunehmend angleichen. Dies gilt es in dieser Studie zu überprüfen. Unter Berücksichtigung unterschiedlicher Entwicklungspfade kann vermutet werden, dass auch die Transformationsprozesse bei SPD und CDU in unterschiedlicher Weise verlaufen. Wenngleich die SPD über einen höheren Strategiebedarf und die größere Innovationsbereitschaft zu verfügen scheint, werden auf Seiten der Union potentiell strategiefähigere Strukturen vermutet, die die erfolgreiche Umsetzung von Wahlkampfstrategien erleichtern. Die historische Entwicklung und der Aspekt der Historizität spielen in diesem Kontext eine Rolle.
Zusätzlich spielen individuelle Führungspersönlichkeiten eine zentrale Rolle in innerparteilichen Transformationsprozessen, welche für die Ausprägung strategiefähiger Strukturen oftmals von größerer Bedeutung sind als institutionalisierte Strukturen. Im Vordergrund steht die Untersuchung des Parteiwandels anhand der Veränderung der Kommunikationsstrategien der Parteien im Allgemeinen sowie der Strategiefähigkeit in Wahlkämpfen im Besonderen, da diese als zentrale Merkmale für den vierten Parteityp in Anlehnung an die Professionelle Medienkommunikationspartei (Jun 2004) gewertet werden sollen. Strategiefähigkeit soll dabei anhand der Kriterien des Umgangs der Parteien mit Programmatik, Organisation und externen Einflussfaktoren in Wahlkämpfen operationalisiert werden. Die Analyse untersucht sowohl das Handeln einzelner Personen wie auch die Rolle der Partei als Gesamtorganisation. Die Arbeit besteht aus zehn Kapiteln und gliedert sich in zwei Blöcke: einen theoretisch konzeptionellen Teil, der die in der Perspektive dieser Arbeit zentralen Grundlagen und Rahmenbedingungen zusammenführt sowie die sich daran anschließende Untersuchung der Konzeption und Implementation von Kommunikationskampagnen im Wahlkampf seit 1990. Das aktuell in die politikwissenschaftliche Diskussion eingebrachte Feld der politischen Strategiefähigkeit (Raschke/Tils 2007) wird in ausführlicher theoretischer Grundlegung bisher zwar mit den Implikationen der Medienkommunikation und damit einhergehend auch den organisatorischen und programmatischen Strukturmerkmalen der Parteien verknüpft, diese erfolgte allerdings oft ohne vertiefte Berücksichtigung des Parteiwandels. Dies soll in diesem Beitrag daher versucht werden. Der Diskursanalyse des Strategiebegriffes in Wahlkampfsituationen folgt die detaillierte Darstellung der drei Operationalisierungsparameter, die in die Festlegung des Parteityps münden. Die Diskussion idealtypischer Wahlkampfmodelle als theoretischer Bezugsrahmen für die Bewertung der Wahlkampagnen ergänzt den theoretisch-konzeptionellen Bezugsrahmen. Die insgesamt in der Literatur in ihren Ausführungen oftmals normativ gestalteten Darstellungen idealtypischer politischer Strategie sollen im letzten Teil der Arbeit auf ihre Umsetzbarkeit im parteipolitischen Alltag überprüft werden und dies nicht nur anhand einzelner, mit einander nicht in Zusammenhang stehender Ereignisse, sondern anhand der sich periodisch unter vergleichbaren Bedingungen wiederholenden Wahlkämpfe. Dafür werden die jeweiligen Ausgangs- und Rahmenbedingungen der einzelnen Wahlkämpfe sowie die zuvor dargelegten Elemente professionalisierter Wahlkampagnen für die Wahlkampagnen von SPD und CDU seit 1990 dargestellt. Aus diesen Gegenüberstellungen soll im Anschluss der längsschnittliche Vergleich der Strategiefähigkeit und Kommunikationskompetenz von SPD und CDU abgeleitet werden
Im Mittelpunkt der Arbeit steht der spätgotische Kirchenbau der 2. Hälfte des 15. Jahrhunderts im alten Erzbistum Trier. Dabei soll besonderes Augenmerk auf die unter Erzbischof und Kurfürst Johann II. von Baden (1456-1503) neu entstandenen und/oder umgebauten bzw. "modernisierten" Kirchen gelegt werden. Diese wurden in der bisherigen Forschung, bis auf Einzelmonographien, nicht in einer Zusammenschau betrachtet. Auch auf die Bau- und Stiftungspolitik Johanns II. von Baden, der scheinbar sämtliche in seiner Regierungszeit entstandenen Baumaßnahmen durch sein Wappen kennzeichnete, und deren Hintergründe, soll näher eingegangen werden. Neben den bekannteren Bauten in den Zentren des Erzstiftes Trier " Trier und Koblenz - entstanden in der 2. Hälfte des 15. Jahrhunderts im gesamten Erzbistum bedeutende spätgotische Bauten, so etwa in St. Wendel, in Klausen oder die Kirche des ehem. Kreuzherrenklosters Helenenberg. Neben den allgemein bekannteren Bauten sollen in der geplanten Dissertation aber vor allem auch die zahlreichen ländlichen Pfarrkirchen in Eifel, Hunsrück, Westerwald und Rhein-Lahn-Kreis gewürdigt werden. Diese blieben in der bisherigen kunsthistorischen Forschung außen vor, obwohl sie zum Teil von großer künstlerischer Qualität zeugen und einen wesentlichen Beitrag der Kunst- und Kulturgeschichte des Trierer Raumes leisten. Mit einer solchen Arbeit könnte eine Lücke der bisherigen Forschung zum spätmittelalterlichen Kirchenbau in Westdeutschland geschlossen werden, was nicht nur aus kunsthistorischer Sicht, sondern auch aus lokal-historischer, sozial- und kirchengeschichtlicher Sicht dringend erforderlich wäre.
Auf der Mikroebene einer durch verwandtschaftliche Kohäsion verbundenen Personengruppe werden in einer prosopographischen Fallstudie Konsistenz und Persistenz sozialer Rangbildung im rheinisch-maasländischen Adel des späten Mittelalters untersucht. Ausgehend von dem wohl berühmtesten Vertreter der Familie von Schönau/von Schönforst, Reinhard von Schönau (ca. 1305-1376), dessen Karriere bereits in der zeitgenössischen Chronistik in Anbetracht seiner sozialen und wirtschaftlichen Ausgangsbedingungen als außergewöhnlich qualifiziert wurde, greift die Themenstellung sowohl auf dessen genealogische Aszendenz wie auch auf seine Deszendenz aus, um in mehr als 35 Biogrammen aus dem Zeitraum von ca. 1250 bis ca. 1450 in einem Längsschnitt über acht Generationen hinweg das überaus disparate Quellenmaterial für die einzelnen Familienmitglieder zusammenzutragen und in seinem historischen Kontext darzustellen. Der innerhalb verschiedener Stratifikationsdimensionen " wirtschaftliche Stellung, politische Position, Konnubium, administrative Funktionen in den miteinander konkurrierenden Landesherrschaften im Westen des Reiches sowie Selbst- und Fremdbezeichnungen " differenziert evaluierte soziale Status der einzelnen Familienmitglieder jenseits einer schematischen Zuweisung in 'hohen' und 'niederen' Adel erlaubt es, strukturelle von individuellen statusbildenden Faktoren zu unterscheiden und deren unterschiedliche Bedeutung für die Persistenz sozialen Ranges darzustellen. Diese Analyse mündet in die These, daß sich die Weitergabe sozialen Ranges in der Generationenabfolge im Rahmen eines Modells hierarchisierter statusbildender Faktoren beschreiben läßt. Dieses Modell ist nicht nur auf andere genealogisch definierte Personengruppen übertragbar, sondern kann im Ergebnis auch Gültigkeit über die Familie von Schönau/von Schönforst und den Rhein-Maas-Raum hinaus beanspruchen.
Dargestellt werden die Ergebnisse einer Studie zur Raucherprävention bei Schülerinnen und Schülern der 6. Jahrgangsstufe an Gymnasien. Das durchgeführte Programm wird in Manualform genau beschrieben. Es besteht aus einem medizinischen Teil mit den Themen Ernährung, Herz-, Kreislauf- und Lungenfunktion und Sport und Gesundheit sowie einem psychologischen Teil mit den Unterrichtseinheiten Gründe für und gegen das Rauchen, Widerstand gegen das Rauchen und Werbung und Wirklichkeit. Die Ergebnisse einer anonymisiert durchgeführten Begleitstudie beschreiben die Prävalenz des Zigaretten- und Alkoholkonsums vor Beginn und fünf Monate nach der Durchführung des Präventionsprogramms und geben erste Hinweise auf die Effekte des Programms.
Die vorliegende Dissertation befasst sich mit der Bildung der Modelle der Komposita in der englischen Sprache.Um eine linguistische Theorie richtig zu bilden, stellen wir 7 Hypothesen auf, die auf umfangreiches englisches Sprachmaterial basieren. Wir schaffen den Regelkreis, der die Möglichkeiten für weitere Untersuchungen in diesem Bereich gibt. In unserem Fall ist diese Untersuchung ein begrenzter Bereich, der als die Bereicherung des Regelkreises von Köhler (2005) gilt (synergetisch-linguistische Modellierung).
Die sich entwickelnden mittelalterlichen Städte waren Triebfedern für vielfältige sprachliche Entwicklungen. Der in dieser Arbeit gewählte Untersuchungszeitraum von 1388 bis 1500 beleuchtet eine Zeit, in der sich in vielen Städten ein völlig neues System der Namengebung entwickelte. Dies wurde nötig, weil es in einer heterogenen Gesellschaft zunehmend schwieriger wurde, Individuen über ihren Rufnamen eindeutig zu identifizieren, was vor allem im Bereich des Rechts und der Verwaltung zu Problemen führte. Somit mussten neue Wege gefunden werden, um einen Namen in einem schriftlich verfassten und rechtsgültigen Dokument eindeutig einer Person zuordnen zu können. Basis dieser Untersuchung sind die Rechnungsbücher der Stadt Luxemburg, die in jährlichen Berichten penibel die Einnahmen und Ausgaben der Stadt verzeichnen. Tätigkeiten im Dienst der Stadtgemeinschaft wurde entlohnt und die Kosten für jeden einzelnen Arbeiter in den Büchern vermerkt. Somit sind Rechnungsbücher ein reicher Fundus für namenkundliche Analysen. Sie werfen ein Licht auf eine Zeit, in der sich im Bereich der Personennamen ein grundlegend neues System der Namengebung beginnt herauszubilden, dessen Auswirkungen uns bis heute prägen. Die Arbeit besteht aus einem nach verschiedenen Gesichtspunkten gegliederten und kommentierten Namenbuch sowie einer onomastischen Analyse des Bestands.
Ein gut funktionierendes Umweltmanagementsystem strebt im Allgemeinen nach einer kontinuierlichen Verbesserung der Umweltleistung. Diese kontinuierliche Verbesserung setzt bei den beteiligten Unternehmen einmal die Identifizierung der Umweltaspekte voraus. Die Umweltaspekte beziehen sich vor allem auf den Produktionsprozess und somit auf die Umwelteinwirkungen und - auswirkungen des Produktionsstandortes. Das Potential für kontinuierliche Verbesserung ist nicht immer offensichtlich, wie auch Schwachstellen nicht immer sofort erkannt werden. Beides äußert sich in der Umweltleistung eines Unternehmens. Das vorliegende Bewertungssystem ermöglicht es nun, diese Umweltleistung zu messen und im Sinne des Benchmarking die daraus erlangten Kenntnisse zu nutzen. In dieser Arbeit wird dargestellt, wo die Darstellung der Umweltleistung mit Kennzahlen seine Grenzen hat. Für den operativen Bereich werden daraufhin neue operative Umweltleistungskriterien entwickelt, und es wird gezeigt, wie die Killerargumente gegen einen Vergleich "unterschiedliche Fertigungstiefen und unterschiedlicher Produktoutput" ausgeschaltet werden können. Das Ergebnis sind operative Umweltleistungskriterien, die zwar mit Fehlern belastet sind, aber sie wurden analysiert und auf ein Minimum reduziert. Parallel dazu wird ein Katalog qualitativer Kriterien für den Managementbereich vorgestellt. Hiermit soll der organisatorische Teil, also die "Soft Skills" des Umweltmanagementsystems, abgedeckt werden. Zunächst wurde versucht, diesen Katalog von managementbezogenen Umweltleistungskriterien durch eine Delphi-Befragung zusammenzustellen. Nach einer Analyse der bestehenden Checklisten und Literatur musste dieser jedoch ergänzt werden. Nach dem betriebswirtschaftlichen Grundsatz: "What you cannot measure, you cannot manage." gibt der vorliegende Ansatz die Möglichkeit, durch die Vergabe von Zielerfüllungsgraden auch hier quantitative Aussagen zu machen. Dann wurde der Versuch, unternommen beide Umweltleistungskriterienpakete in einem naturwissenschaftlichen Bewertungsverfahren zu einem Bewertungssystem für Umweltmanagementsysteme zu vereinen. Dieser Versuch mündet in einem praktikablen Ansatz der Umweltleistungsbewertung zugeschnitten, auf die Automobilindustrie. Allerdings wird darauf verzichtet, eine Gesamt- Umweltleistungskennzahl über alle Kriterien zu kreieren, da die Aussage für den Anwender nicht detailliert genug wäre und eine so starke Aggregierung aus bewertungstheoretischer Sicht sehr problematisch ist.
Thema der vorliegenden Arbeit ist eine Analyse alltäglicher Rachereaktionen und rachebezogener Reaktionen unter gerechtigkeitspsychologischen Aspekten. Rache wird als eine Bewältigungsreaktion verstanden, welche mit Hilfe eines handlungstheoretischen Rahmenmodells beschrieben werden kann. Diese Konzeption will sich bewusst von jenen (vor allem in der Rechtsphilosophie vertretenen) Ansätzen, nach denen Rache eine destruktive, affektgesteuerte, irrationale Form der Vergeltung sei, abgrenzen. Besonderes Augenmerk wird auf die Frage gelegt, wo und wie sich der Einfluss gerechtigkeitsbezogener Persönlichkeitseigenschaften (Glaube an eine gerechte Welt, Sensibilität für widerfahrene Ungerechtigkeit, Soziale Verantwortung) sowie gerechtigkeitsbezogener Kognitionen und Emotionen im Prozessmodell einer Rachehandlung verorten lässt. Es wird erstens argumentiert, dass gerechtigkeitsbezogene Persönlichkeitseigenschaften (a) auf die subjektive Bedeutsamkeit gerechtigkeitsbezogener Ziele, (b) auf die Wahrscheinlichkeit, mit der von einer verfügbaren Racheaktion Gebrauch gemacht wird, (c) auf den Einsatz sekundärer Bewältigungsstrategien sowie (d) auf die Bewertung rachebezogener Ereignisse Einfluss nehmen. Zweitens wird argumentiert, dass Racheaktionen zumindest begrenzt rational in dem Sinne sind, als ihnen (im Sinne von "Erwartung-´Wert-Theorien") spezifische Kosten-Nutzen-Überlegungen zugrunde liegen. Drittens wird untersucht, inwiefern die Beobachtung eines Schicksalsschlages zu Lasten des "Täters" aus der Perspektive des "Opfers" ebenso funktional sein (d.h. aversive Emotionen reduzieren und zum Erleben von Genugtuung, Zufriedenheit und wiederhergestellter Gerechtigkeit beitragen) kann wie eine erfolgreich ausgeführte Racheaktion. Es werden vier Studien beschrieben, die die im theoretischen Teil der Arbeit entwickelten Hypothesen konsekutiv prüfen. Bei zwei Studien wird mit Vignetten gearbeitet, bei den beiden anderen handelt es sich um laborexperimentelle Untersuchungen. Die Ergebnisse dieser vier Studien zeigen, dass Rachereaktionen zumindest zu einem gewissen Anteil durch antizipatorische Kognitionen sowie durch gerechtigkeitsbezogene Persönlichkeitseigenschaften vorhergesagt werden können. Ebenso kann der Einfluss gerechtigkeitsbezogener Persönlichkeitseigenschaften auf die subjektive Bedeutsamkeit gerechtigkeitsbezogener Ziele sowie auf sekundäre Bewältigungsstrategien nachgewiesen werden. Ein beobachteter Schicksalsschlag zu Lasten des "Täters" kann zwar Ärger und Frustration auf Seiten des "Opfers" dämpfen, nicht aber Zufriedenheit, Genugtuung und die Wahrnehmung wiederhergestellter Gerechtigkeit signifikant erhöhen. Die Befunde werden vor dem Hintergrund aggressions-, gerechtigkeits- und bewältigungspsychologischer Konzepte diskutiert. Aus einer vertieften methodischen Diskussion der verwendeten Untersuchungsansätze ergeben sich darüber hinaus konkrete Vorschläge dahingehend, wie Racheaktionen und rachebezogene Reaktionen in zukünftigen Studien untersucht werden sollten.
Debatten führen nicht immer zu einem Konsens. Selbst die Vorlage von Beweisen bewirkt nicht immer eine Überzeugung der Gegenseite. Dies zeigt sich nicht nur in der Geschichte der Wissenschaften (vgl. Ludwik Fleck, Bruno Latour), sondern auch in der in unterschiedlichen Disziplinen geführten zeitgenössischen Debatte unter dem Label ‚science wars‘ zwischen einem Realismus und Konstruktivismus beziehungsweise Relativismus. Unterschiede in ihren Legitimierungen zeigen systematisch verschiedene Wirklichkeits- und Wahrheitsverständnisse, die sich aus den vom Seinsstandort der Perspektive abhängigen Grundannahmen konstituieren. Über einen wissenssoziologischen Zugriff wird es möglich die (sozio-)strukturlogische Konstitution von Perspektivität zu analysieren, die eine epistemologisch vorstrukturierte Revolvierung untereinander inkommensurabler Beiträge in der Debatte aufdeckt, was als Erklärung für ungelöste Debatten in Wissenschaft, Politik und Alltag überhaupt fungieren kann.
Die vorliegende Arbeit orientiert sich in ihrem Vorgehen an dem von Paul Boghossian veröffentlichten Werk ‚Angst vor der Wahrheit‘ als zeitgenössischen Vertreter eines Neuen Realismus. Hierbei werden zum einen den direkten Bezügen von Boghossian die Aussagen der kritisierten Perspektiven (v.a. Latour und Goodman) gegenübergestellt, als auch zum anderen weitere Spielarten eines Konstruktivismus (kognitionstheoretischer Konstruktivismus nach Maturana und Varela, soziologischer Konstruktivismus nach Berger und Luckmann, Wissenschaftssoziologie am Beispiel von Bloor und Latour, die Systemtheorie von Luhmann sowie postkonstruktivistische Positionen) in den Dimensionen ‚Wissensverständnis‘, ‚Subjektrelevanz‘ und ‚Einstellung zu einer naturalistischen Grundlage‘ vorgestellt. Es wird eine systematische und beidseitige Fehlinterpretation in der Debatte zwischen Realismus und Konstruktivismus sichtbar. Diese wird auf die Seinsgebundenheit von Perspektiven nach dem Verständnis einer mannheimschen Wissenssoziologie zurückgeführt. Anhand einer Rekonstruktion der Erkenntnistheorie des frühen Mannheims (1922: ‚Strukturanalyse der Erkenntnistheorie‘) wird die (sozio-)strukturlogische Konstitution erkenntnistheoretischer Elemente von Grundwissenschaften herausgearbeitet, wodurch denkstilgemäße Objektivierungen (und damit Wahrheitsverständnisse) unterschieden werden können. Diese Unterschiede erklären nicht nur die Inkommensurabilität von heterogenen Perspektiven in Debatten, sondern zeigen auf, dass das Aufeinandertreffen der Debattierenden vorstrukturiert sind. Der Ablauf einer Debatte ist soziostrukturell determiniert. Abschließend wird in der vorliegenden Arbeit diskutiert, inwiefern der verfahrenen Situation einer Debatte entgegengewirkt werden kann und auf welche Weise eine wissenssoziologische Analyse zu einem gegenseitigen Verständnis zwischen debattierenden Parteien beitragen kann.
"Ärztenetzwerke" als Reformmodell für den ambulanten Sektor? Diese Frage steht im Mit-telpunkt der vorliegenden Arbeit. Ausgangspunkt der Untersuchung ist die Feststel-lung, daß die institutionelle Fragmentierung des ambulanten Sektors, die aus einer organisato-rischen, rechtlichen und finanziellen Trennung zwischen hausärztlicher und fachärztlicher Versorgung resultiert, zu erheblichen Qualitätseinbußen und Kostensteigerungen in der Gesundheits-versorgung führt. Als Antwort auf diese institutionellen Schwachstellen werden in der derzeitigen Reformdebatte zwei konkurrierende Modelle diskutiert: Ärztenetzwerke und integrierte Versorgungsformen nach Vorbild der amerikanischen Health Maintenance Organizations (HMO's). Vor diesem Hintergrund sind zwei Fragestellungen Gegenstand der folgenden Untersu-chung. Zum einen wird näher analysiert, ob Ärztenetzwerke aus ökonomischer Perspektive geeignet sind, die Fragmentierung der Versorgungsstrukturen im ambulanten Sektor zu beheben. Wenn Ärztenetzwerke als Alternative zur derzeitigen Organisation der ambulanten Versorgung zu empfehlen sind, so wird zum anderen die Frage des effizienten Netzwerkaufbaus und -arrangements beantwortet. Da keine umfassenden theoretischen oder empirischen Studien über Gesundheitsnetzwerke vorliegen, ist das Vorgehen in dieser Arbeit weitestgehend explorativ. Inwiefern Netzwerke zur Verringerung der institutionellen Schwachstellen im ambulanten Sektor beitragen können, ist abhängig von den konkreten Ursachen der Leistungsver-schlechterungen. Daher erfolgt zunächst eine eingehende Darstellung des ambulanten Sektors und eine Ursachenanalyse. Hierauf aufbauend wird aus theoretischer Perspektive näher untersucht, inwiefern Netzwerke zu einer Verringerung dieser Leistungsverschlechterungen beitragen können. Zu diesem Zweck wird die netzwerkliche Organisationsform aus zwei Gründen der marktlichen sowie der hierarchischen bzw. inte-grierten Organisation gegenübergestellt. Auf der einen Seite stellen Netzwerke aus institutio-nenökonomischer Sicht eine Synthese der beiden "Idealtypen" Markt und Hierarchie bzw. Integration dar, so daß über eine netzwerkliche Organisation theoretisch jene Elemente der beiden Systeme miteinander kombiniert werden können, die für die Organisation der Gesund-heitsversorgung als besonders effizient angesehen werden können. Auf der anderen Seite erfolgt ein Vergleich der Effizienz von Netzwerken und integrierten Versor-gungsformen, da diese in der aktuellen Reformdiskussion als Alternative zum derzeitigen System präferiert werden. Bei der Gegenüberstellung der beiden "Idealtypen" stehen vor allem fünf Strukturmerkmale im Vordergrund: die räumliche Organisation der Leistungserstellung, die Koordinations- und Kontrollmechanismen, die Verteilung der Eigentums--rechte und die Kosten der Vertragsausgestaltung zwischen Versicherern und Anbietern. Hieran anschließend wird dargestellt, daß über eine netz-werkliche Organisation die Vorteile der beiden idealtypischen Formen kombiniert werden können. Unter der Annahme, daß das Netzwerkarrangement, das sich aus verschiedenen Netzwerk-regelungen und der Netzwerkstruktur zusammensetzt, Einfluß auf den Anreiz zur Einhaltung der Netzwerkverpflichtungen und die Wahrscheinlichkeit opportunistischen Verhaltens ausüben können, steht im weiteren Verlauf der Arbeit die Frage des effizienten Arrangements im Mittelpunkt. Im Gegensatz zur ersten Fragestellung wird diese sowohl theoretisch als auch empirisch untersucht werden. Unter Berücksichtigung ver-schiedener soziologischer sowie institutionenökonomischer Theorieansätze werden Hypo-thesen über einen optimalen Netzwerk--aufbau abgeleitet. Diese theoretischen Ableitungen werden anhand von Gesundheitsnetzwerken in der Schweiz näher überprüft.
Rotary, Kiwanis, Lions, Zonta, Soroptimist und Round Table. Bereits seit 100 Jahren setzen sich Service Clubs mit den verschiedensten Service-Projekten weltweit für sozialen Frieden und Menschenrechte ein. Heute gibt es unzählige Service Clubs mit unterschiedlichen Entstehungsgeschichten und Denkweisen. Obwohl Service Clubs insbesondere auf der Gemeinde-Ebene durch soziales und ökonomisches Engagement, aber auch über die Nutzung sozialer Netzwerke wichtigen Einfluss ausüben, sind sie bislang, zumindest in Europa, kaum wissenschaftlich untersucht worden. Dieses Defizit versucht Sebastian Gradinger im Rahmen einer Studie auszuräumen. Die Studie stellt vor diesem Hintergrund die historische Entstehung der traditionellen Service Clubs dar und widmet sich der Frage nach der Funktion von Service Clubs für unterschiedliche Ebenen der Gesellschaft wie auch für ihre individuellen Mitglieder. Schließlich wird die Zukunftsperspektive der Clubs in einer gewandelten Gesellschaft diskutiert.
Die Arbeit versucht einen Beitrag zum besseren Verständnis von Identitifikations- und Migrationsprozessen von Russlandddeutschen zu leisten. Dabei werden die folgenden zentralen Froschungsfragen behandelt:rnGibt es die Gruppe der Russlanddeutschen aus einer Binnenperspektive? Was führt dazu, dass sich jemand als Mitglied der Gemeinschaft der Russlanddeutschen fühlt? Welche Parameter üben entscheidenden Einfluss auf Migrationsprozesse aus? Welchen Einfluss üben Identitätskonstrukte auf soziale Handlungen, wie Migration aus?
Die Versuche, das Funktionieren von Sprache zu beschreiben oder gar zu erklären, sind zahlreich und vielfältig. Das ist hinlänglich bekannt. Tatsächlich mangelt es jedoch erheblich an solchen Beschreibungen, die nicht nur Symbol und Referenz, sondern auch Kontext und Gelingensbedingungen erfassen und in einen historischen Vergleich stellen. So soll folgende Fragestellung diese Untersuchung prägen: "Wie?" wird "Was?" genannt und "Wann?" geschieht dies "Wo?" mit welchem Erfolg? Im Fall der Liebe ist die erste Frage diejenige nach dem "Was?": Welche Referenz wird hier überhaupt verhandelt? Und wenn es keine Referenz gibt, über was reden wir, wenn wir Symbole wie "Liebe" oder ähnliche Zeichen verwenden? "Wie?" und "Wo?" sind nur ausschnitthaft zu beschreiben, das liegt in der Natur der Sache. Aus verschiedenen Gründen erschien das Format Doku-Soap in diesem Zusammenhang geeignet. Immerhin handelt es sich hier um eine Textsorte, die sich seit kurzer Zeit stets wachsender Beliebtheit beim Fernsehpublikum erfreut, und deren Funktionsweisen sich stark von anderen unterscheidet. Außerdem lässt sich die Frage nach dem Erfolg in der Doku-Soap gut erfassen: Wie in kaum einer anderen Textsorte werden hier im Fall des Misserfolges Sanktionen verhängt in Form von Nominierung und Abwahl. Um Schlüsse über die gegenwärtige Symbolverwendung ziehen zu können wird immer wieder die Frage nach dem "Wann?" zu stellen sein: Nur wenn Entwicklungen mit Tendenzen und Richtungen beschrieben werden können lassen sich Aussagen über die gegenwärtige Konfiguration dieser Linien machen. Nur wenn ein historischer Vergleich gezogen wird lässt sich die Gegenwart ansatzweise einordnen.
Preisvergleiche zwischen verschiedenen Regionen spielen in zahlreichen wirtschaftlichen und politischen Zusammenhängen eine wichtige Rolle. Unabhängig davon, ob es darum geht, die Wirtschaftskraft von Regionen oder Ländern gegenüber zu stellen, die Lebensverhältnisse innerhalb eines Landes zu vergleichen, oder aber die Wirkungsweise sozial- und lohnpolitischer Entscheidungen einzuschätzen: Interregionale Preisvergleiche dienen in erster Linie als Instrument, um gesamtwirtschaftliche und ökonomische Größen zwischen verschiedenen Regionen oder Ländern real vergleichbar zu machen. Interregionale Preisvergleiche sind allgemeinhin besser bekannt als sogenannte Kaufkraftparitäten. Die enorme Bedeutung von Kaufkraftparitäten wurde in der Vergangenheit lange unterschätzt. Insbesondere bei Preisvergleichen innerhalb eines Landes mangelt es oftmals an einer soliden Datenbasis, sodass verlässliche Schätzungen regionaler Preisniveauunterschiede häufig nicht möglich sind. Die vorliegende Arbeit zeigt allerdings, dass ein breites Angebot verschiedener multilateraler Aggregationsmethoden bereit. Im Mittelpunkt des ersten Teils Arbeit steht die methodische Ausarbeitung verschiedener Aggregationsverfahren, mit deren Hilfe sich erhobene Daten zu verlässlichen und aussagekräftigen Preisvergleichskennzahlen aggregieren lassen. Im Unterschied zu intertemporalen Vergleichen sind gewöhnliche bilaterale Preisindizes für diesen Zweck nur begrenzt einsetzbar. Vielmehr sind spezielle multilaterale methodische Instrumente nötig, die den speziellen Anforderungen regionaler Preisvergleiche gerecht zu werden. Im Rahmen der Arbeit werden die verschiedenen multilateralen Aggregationsverfahren unterschiedlichen Berechnungsansätzen zugeordnet, wobei jeder dieser Ansätze durch bestimmte Eigenschaften charakterisiert ist. Neben den Mitgliedern der Klasse des Gini-Eltetö-Köves-Szulc (GEKS) und Minimum Spannning Tree (MST) Ansatzes sowie des Regressionsansatzes, widmet sich diese Arbeit schwerpunktmäßig den unterschiedlichen Verfahren des sogenannten Standardisierungsansatzes. Es stellt sich heraus, dass der Standardisierungsansatz grundsätzlich sehr dem Konstruktionsprinzip bilateraler Durchschnittswertindizes (GUV-Indizes) ähnelt, weshalb sich die Mitglieder dieser Klasse auch als multilaterale GUV-Indizes auffassen lassen. Darüber hinaus wird eine neue Unterklasse des Standardisierungsansatzes definiert, deren Mitglieder die breite Palette bereits existierender Verfahren ergänzen. Allerdings wird den Aggregationsverfahren des Standardisierungsansatzes nachgesagt, unter den Auswirkungen des sogenannten Gerschenkron-Effekts zu leiden und im Gegensatz zu anderen Aggregationsverfahren häufig verzerrte Preisvergleiche hervorzubringen. Der zweite Teil der Arbeit ist einem empirischen Vergleich der zuvor erörterten Aggregationsverfahren vorbehalten. Grundlage für die Berechnungen (auf und unterhalb der elementaren Güterebene) sind Daten des Europäischen Vergleichsprogramms (EVP). Eine wichtige Erkenntnis des empirischen Teils der Arbeit ist, dass viele der unterschiedlichen Aggregationsmethoden für die Berechnungen auf der Elementarebene sehr ähnliche Ergebnisse für die Preisvergleiche zwischen den Ländern im EVP generieren. Die Sorge verzerrter Preisvergleiche infolge der Auswirkungen des Gerschenkron-Effektes lässt sich auf Grundlage der empirischen Untersuchungen nicht (zweifelsfrei) bestätigen. Ferner zeigen die empirischen Untersuchungen, dass weitaus größere Schwierigkeiten bei der Berechnung von Preisvergleichen unterhalb der Elementarebene bestehen. Die Berechnungen offenbaren, dass die häufig in der Praxis eingesetzten Verfahren der GEKS-Methode in Situationen, in denen nur wenige Daten vorhanden sind, keine plausiblen Ergebnisse liefern. Es stellt sich heraus, dass in diesen Fällen die Verfahren des Regressionsansatzes eine unkompliziertere und verlässlichere Berechnung von Preisvergleichen erlauben. Nichtsdestotrotz decken die Ergebnisse schonungslos die Probleme und Schwächen interregionaler Preisvergleiche auf. Trotz intensiver Anstrengungen der internationalen statistischen Organisationen, eine vergleichbare und fundierte Datenbasis zu schaffen, sind die Dateninformationen einiger Regionen bzw. Länder nach wie vor sehr lückenhaft. Da verlässliche und aussagekräftige Preisvergleiche im Wesentlichen von der Verfügbarkeit und der Qualität der Daten abhängig sind, sollte der Forschungsschwerpunkt zukünftig daher mehr an der Bereitstellung eines soliden Datenfundaments ausgerichtet werden.
Sozialunternehmen haben mindestens zwei Ziele: die Erfüllung ihrer sozialen bzw. ökologischen Mission und finanzielle Ziele. Zwischen diesen Zielen können Spannungen entstehen. Wenn sie sich in diesem Spannungsfeld wiederholt zugunsten der finanziellen Ziele entscheiden, kommt es zum Mission Drift. Die Priorisierung der finanziellen Ziele überlagert dabei die soziale Mission. Auch wenn das Phänomen in der Praxis mehrfach beobachtet und in Einzelfallanalysen beschrieben wurde, gibt es bislang wenig Forschung zu Mission Drift. Der Fokus der vorliegenden Arbeit liegt darauf, diese Forschungslücke zu schließen und eigene Erkenntnisse für die Auslöser und Treiber des Mission Drifts von Sozialunternehmen zu ermitteln. Ein Augenmerk liegt auf den verhaltensökonomischen Theorien und der Mixed-Gamble-Logik. Dieser Logik zufolge liegt bei Entscheidungen immer eine Gleichzeitigkeit von Gewinnen und Verlusten vor, sodass Entscheidungsträger die Furcht vor Verlusten gegenüber der Aussicht auf Gewinne abwägen müssen. Das Modell wird genutzt, um eine neue theoretische Betrachtungsweise auf die Abwägung zwischen sozialen und finanziellen Zielen bzw. Mission Drift zu erhalten. Mit einem Conjoint Experiment werden Daten über das Entscheidungsverhalten von Sozialunternehmern generiert. Im Zentrum steht die Abwägung zwischen sozialen und finanziellen Zielen in verschiedenen Szenarien (Krisen- und Wachstumssituationen). Mithilfe einer eigens erstellten Stichprobe von 1.222 Sozialunternehmen aus Deutschland, Österreich und der Schweiz wurden 187 Teilnehmende für die Studie gewonnen. Die Ergebnisse dieser Arbeit zeigen, dass eine Krisensituation Auslöser für Mission Drift von Sozialunternehmen sein kann, weil in diesem Szenario den finanziellen Zielen die größte Bedeutung zugemessen wird. Für eine Wachstumssituation konnten hingegen keine solche Belege gefunden werden. Hinzu kommen weitere Einflussfaktoren, welche die finanzielle Orientierung verstärken können, nämlich die Gründeridentitäten der Sozialunternehmer, eine hohe Innovativität der Unternehmen und bestimmte Stakeholder. Die Arbeit schließt mit einer ausführlichen Diskussion der Ergebnisse. Es werden Empfehlungen gegeben, wie Sozialunternehmen ihren Zielen bestmöglich treu bleiben können. Außerdem werden die Limitationen der Studie und Wege für zukünftige Forschung im Bereich Mission Drift aufgezeigt.
Ziegel waren im 19. und 20. Jahrhundert der bevorzugte Baustoff. Sie wurden für den Ausbau der Städte in heute kaum noch vorstellbaren Mengen nachgefragt, da sie preiswert und in Massen verfügbar waren. Das stabile Baumaterial erwies sich zudem in Form, Farbe und Ornamentik als vielseitig einsetzbar. Die Bedeutung des Ziegels lässt sich besonders gut an den Fassaden der gründerzeitlichen Berliner Stadtquartiere able-sen. Im Rahmen der vorliegenden Arbeit wird die städtebauliche Entwicklung Berlins einführend dargestellt, um aufzuzeigen, welche Auswirkungen sich daraus für das bran-denburgische Umland ergaben. Das an der oberen Havel in Nordbrandenburg gelegene Zehdenicker Revier profitierte von dieser Entwicklung und nahm als Standort der Ziegelindustrie im Deutschen Reich eine besondere Stellung ein. Handwerkliche Verfahren der Ziegelherstellung waren Ende des 19. Jahrhunderts zunehmend durch industrielle Massenproduktion abgelöst worden. 1887 wurden nördlich der Kleinstadt Zehdenick zufällig reichhaltige Tonlagerstätten an der Havel entdeckt. Die neugeborene Industriestadt stieg innerhalb weniger Jahre zum Zentrum der Märkischen Ziegelindustrie auf. Bis 1913 wurden 63 Hoffmannsche Ring-öfen nördlich von Zehdenick errichtet, mit denen bis zu 500 Millionen Ziegel pro Jahr gebrannt werden konnten. Nach dem Zweiten Weltkrieg entwickelte sich der VEB Zie-gelwerke Zehdenick zum bedeutendsten Ziegelhersteller in der DDR. Noch bis 1990 be-stimmten historische Ringofenziegeleien das Landschaftsbild im Revier. Die Ziegelferti-gung endete mit der Wiedervereinigung Deutschlands. Untersuchungsgegenstand der Dissertation ist das Erbe der Zehdenicker Ziegelindustrie und die von ihr geprägte Kulturlandschaft, die nicht nur erhebliche geschichtliche Bedeu-tung für den Aufbau Berlins vor 1945 sondern auch für die Baustoffindustrie in der der DDR hat. Bislang wurde dieses Kulturgut kaum erforscht. Aus diesem Grund erfolgte zunächst eine grundlegende Inventarisierung der persistenten Relikte, die erfasst, be-schrieben, in ihrer Erscheinung erklärt und hinsichtlich ihrer touristischen Verwendbarkeit bewertet wurden. Es konnte dadurch festgestellt werden, dass derzeit noch ein reichhal-tiges bauliches Erbe der Ziegelindustrie im Untersuchungsraum existiert. Dieses bedeutende Erbe wird bislang erst in Ansätzen durch den Tourismus genutzt, zumal in den westlichen Industrieländern nur noch wenige Hoffmannsche Ringöfen erhal-ten geblieben sind. Die Arbeit zeigt auf, dass die mittlerweile vollständig gefluteten Ton-tagebauten und Teile der historischen Kulturlandschaft mit ihrem Formenschatz - Relikte der Aufbereitung, der Freilufttrocknung, Produktions- und Wohngebäude oder Häfen - eine hohe Relevanz für den Erholungs- und Kulturtourismus aufweisen. Kulturtouristisch erschlossen wurde bislang einzig der Ziegeleipark Mildenberg, der pro Jahr etwa 40.000 Besucher zählt. Sein besucherorientiertes Angebot wurde im Rahmen der Dissertation analysiert und bewertet. Er stellt bislang eine inselartige Erschließung dar, die den histo-rischen Dimensionen des Reviers mit seinen vielen Standorten nicht entspricht. Die Arbeit liefert wesentliche Grundlagen für die Konzeption einer kulturtouristischen Erschließung der gesamten Zehdenicker Tonstichlandschaft unter Nutzung und Wahrung ihrer authentischen Relikte und regionalen Spezifik. Sie schließt mit konkreten Vorschlä-gen für eine gezielte Erhaltung und Pflege dieses Erbes unter besonderer Berücksichti-gung des Kulturtourismus. Dabei fließen Erfolgsmuster tourismusrelevanter Nutzungs-formen vergleichbarer Standorte in Deutschland und in Belgien, die durch eigene Re-cherchen und Expertengespräche mit Vertretern bedeutender Ziegeleimuseen ermittelt wurden, mit ein. Noch wäre es möglich, den seit 1990 fortschreitenden Verfall dieses Kulturgutes aufzu-halten, vor weiterer Zerstörung zu schützen und die wertvolle Substanz der industriellen Vergangenheit inwertzusetzen.
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
Umweltschutz wird in dieser Arbeit als Soziales Dilemma betrachtet. Es wird mittels eines experimentellen Online-Spiels (N = 182) primär überprüft, inwieweit unkooperatives Verhalten von Akteuren zu genuinem Ungerechtigkeitserleben bei anderen Personen führt und ob diese in Folge u. a. das eigene kooperative Verhalten reduzieren. Somit wird im Gegensatz zu Erklärungen der Rational-Choice-Theorien angenommen, dass ein Teil des phänotypisch unkooperativen, umweltschädigenden Verhaltens nicht auf Egoismus, sondern auf einem genuinen Gerechtigkeitsmotiv beruht. Zur Erhöhung der internen Validität wird ebenfalls der moderierende Einfluss der Persönlichkeitseigenschaften "Eigeninteresse" und "Gerechtigkeitszentralität" untersucht. Die Hypothesentestungen zeigen, dass unkooperatives Verhalten anderer Akteure in Sozialen Dilemmata bei vielen Personen Ungerechtigkeitserleben auslöst, was sich u. a. in Emotionen der Empörung, Ungerechtigkeitskognitionen, Bestrafungsverhalten und einer Reduktion des eigenen kooperativen Verhaltens niederschlägt. Hierbei spielen interindividuelle Unterschiede hinsichtlich der Stärke des Gerechtigkeitsmotivs bei etlichen gefundenen Effekte eine moderierende Rolle. Es wird somit ein motivpluralistischer Ansatz bestätigt, der die Rolle des Gerechtigkeitsmotivs bei der Vorhersage und Veränderung von Verhalten in Sozialen Dilemmata hervorhebt. Implikationen in Hinblick auf Theorie, zukünftige Forschung und Interventionen in Sozialen-Dilemma-Situationen werden erörtert.
Die vorliegende Dissertation "Wortwahl, Grammatik und Aussage. Eine strukturelle Analyse der Dramen Три ÑеÑтры, Вишневый Ñад und ВлаÑÑ‚ÑŒ тьмы" befaßt sich mit einer Analyse dieser ausgewählten Dramen von ÄŒechov und Tolstoj. Ausgehend von Fragestellungen, die im Å’uvre der Dichter implizit und explizit problematisiert werden, sind diejenigen Themenbereiche abgeleitet worden, die sich aus Inhalt und Gestaltung der literarischen Werke ergeben. Auf der Grundlage bestimmter Einteilungskriterien, die aus den Disziplinen der Psychologie, Soziologie, Medizin, Theologie und Philosophie übernommen wurden, wird in der Untersuchung eine Subsumierung der Dramenlexik unter bestimmte Oberbegriffe bzw. Sinnbereiche (Emotionen, Alltag, Leben und Tod, Folklore, Volks- und Aberglauben, Religion, menschlicher Körper, physiologische Phänomene und Krankheit) vorgenommen. Vor diesem Hintergrund wird - ausgehend vom literaturwissenschaftlichen Begriff des russischen Realismus - der Fragestellung nachgegangen, inwieweit eine Literaturströmung sich in der vom Autoren verwendeten Lexik widerspiegelt. Insofern lotet die Studie am Beispiel von Dramentexten die Möglichkeit aus, mit Hilfe eines linguistischen Instrumentariums (Grammatik, Semantik, Pragmatik, Morphologie) einen Beitrag für eine literaturwissenschaftliche Untersuchung zu liefern, um damit einen die literaturwissenschaftlichen Interpretationszugänge ergänzenden methodischen Zugang unter linguistischem Blickwinkel vorzustellen. Jost Trier als Begründer der Wortfeldtheorie hat die methodologische Grundlage dafür geschaffen, daß auch die Literaturwissenschaft durch die Verbindung von Wort und Vorstellung (Sinnbezirke) Aussagen über den semantischen Kern und Umfang treffen kann. Diesem Ansatz ist nicht nur Elisabeth Weis, die sich mit Sinnbereichen der Freude und Traurigkeit im Bereich der deutschen und französischen Sprache beschäftigt hat, sondern auch Henning Bergenholtz, der das Wortfeld Angst aus lexikographischer Sicht untersucht, verpflichtet. Auch die vorliegende Dissertation folgt diesen Überlegungen. Die Beschäftigung mit literarischen Texten und der besonderen Form des Dramas macht es notwendig, über die genannten Forschungsansätze insofern hinauszugehen, als Literatur eine eigene Welt mit eigenen Vorstellungen schafft, die durch die Betrachtung einzelner Sinnbereiche nicht umfassend erschlossen werden kann. Um der ästhetischen Rezeption poetischer Werke umfassend Rechnung zu tragen und eine Beurteilungsgrundlage eines literarischen Kunstwerkes vorzuschlagen, zeigt die vorliegende Untersuchung Begriffsnetze auf, durch die die Funktionsweise eines literarischen Textes im Rezipienten deutlich gemacht wird. Die in der Untersuchung vorgeschlagene Methode unterstützt das Erkennen der rezipienteneigenen Vorstellungswelt durch eine werkimmanente, lexikgestützte Konstruktion der Weltinterpretation der Autoren ÄŒechovs und Tolstojs.
Die Arbeit verteidigt zwei Thesen: 1. Der Realismus ist eine semantische These; 2. Religiöse Sprache muß realistisch interpretiert werden. Der erste Teil von Kapitel 1 bis 4 widmet sich der ersten These, der zweite Teil in Kapitel 5 und 6 der zweiten. Zuerst wird ein Überblick über die Problematik von Realismus und Antirealismus in der Philosophie überhaupt geben und erläutert, was das Kernproblem dieser Debatten ist, das eine adäquate Interpretation der realistischen These lösen muß. Dann wird eine Lösung mit Michael Dummetts Theorie des semantischen Realismus entwickelt, so daß sich die metaphysischen Probleme in sprachphilosophische übersetzen lassen und eine semantische Formulierung des Realismus möglich wird. Danach werden verschiedene Einwände gegen diese Theorie diskutiert, um in der Folge eine eigene, verbesserte Formulierung des semantischen Realismus zu entwickeln, die fähig ist, der Kritik standzuhalten. Schließlich werden zwei von Dummett selbst vorgebrachte Argumente gegen den Realismus behandelt und widerlegt. Mit diesen sprachphilosophischen Werkzeugen wird dann gezeigt, wie sich die religionsphilosophischen Debatten mit den Mitteln des semantischen Realismus beschreiben und klassifizieren lassen und wie sich anhand semantischer Kriterien Klarheit schaffen läßt, was genau einen religiösen Antirealismus charakterisiert und was nicht. Abschließend werden die bisher in der Debatte für und wider den religiösen Antirealismus vorgebrachten Argumente analysiert und dann auf der Basis der semantischen Interpretation des Realismus einige eigene Argumente entwickelt, um die Unmöglichkeit eines religiösen Antirealismus nachzuweisen.
In dieser Arbeit wird ein Middlewaremodell für Anwendungen in mobilen ad-hoc Netzwerken vorgestellt. Der primäre Fokus liegt dabei auf Netzen, die auf Basis von mobilen Endbenutzergeräten wie PDAs, PocketPCs oder Smartphones gebildet werden und die über eine drahtlose Kommunikationstechnik wie WLAN oder Bluetooth verfügen. Zur Identifizierung der Ansprüche an eine Middleware in diesen Netzen wurden Anwendungen aus dem universitären Umfeld untersucht. Da die Kommunikation in drahtlosen Netzen nicht immer so transparent wie in drahtgebundenen Infrastrukturnetzen erfolgen kann, enthält die Middleware ein Kommunikationsframework, welches die Adaption und auch die Kombination von Kommunikationsmechanismen ermöglicht. Neben der direkten Auslieferung von Nachrichten werden auch Mechanismen zur sukzessiven Weitergabe von Nachrichten, die so genannte Store-and-Forward Kommunikation, angeboten. Hier steht insbesondere die Weitergabe von Informationen im Vorbeigehen (En-Passant) im Vordergrund. Die Komponenten der Middleware und darauf basierenden Applikationen werden als interagierende mobile Objekte modelliert. Die Interaktion dieser Objekte erfolgt aufgrund der Dynamik der mobilen ad-hoc Netze ereignisorientiert. Sowohl die Interaktion, als auch die Adaption und Wahl von Kommunikationsmechanismen erfolgt auf Basis von Informationen über das direkte Umfeld, Applikationswissen über das Netzwerk und Erfahrungen aus der Vergangenheit. Diese Informationen, die von Objekten verbreitet und gesammelt werden können, werden als Spuren bezeichnet. Da eine Aufhebung der Transparenz der Middlewarekomponenten einen höheren Entwicklungsaufwand bedeutet, wird eine Realisierung der Objektinteraktion in Objektrepräsentanten vorgeschlagen. Objektrepräsentanten ermöglichen die Kommunikation mit entfernten Objekten, das lokale Verwalten von Informationen über diese Objekte und schließlich die Repräsentierung von Objekten ohne reale Objektinstanz. Objekte ohne Objektinstanz werden verwendet, um Gerätegruppen mit bestimmten Eigenschaften zusammenzufassen, beispielsweise Objekte an einem bestimmten geographischen Ort. Somit ist auch das Wissen über geographische Orte und deren Identifizierung ein wichtiger Aspekt des Modells. Aufgrund der Anwendungsuntersuchungen ist sukzessive ein Middlewareprototyp entstanden, der in eine Simulationsumgebung für mobile ad-hoc Netze integriert ist. Die Umgebung erlaubt neben der reinen Simulation mobiler ad-hoc Netze und der zu untersuchenden Anwendung auch die Integration realer Geräte und die Ausführung der Anwendungen auf realen Geräten. Somit konnte, neben einer simulativen Untersuchung, auch eine praktische Evaluation der Anwendungen in Feldversuchen durchgeführt werden.
By means of complex interaction-processes sea ice not only modifies the regional climate in the ocean-atmosphere-sea-ice system but also the general circulation of the atmosphere and the ocean's circulation. Besides a strong interannual variability sea-ice extent shows an arcticwide significant negative trend during the last two decades with maximum rates in spring and summer. These are often linked to (small-scale) processes in the Siberian Arctic and the Laptev Sea, respectively. The objective of this thesis is the expansion of the understanding of the processes concerning atmosphere-sea-ice interactions on the regional scale during the summer from 1979 to 2002 in the Arctic with a special emphasis on the Laptev Sea. To achieve this, numerical simulations of the regional climate model HIRHAM4 are used in conjunction with ground- and satellite-based observational data. A precondition for the numerical experiments and the realistic reproduction of atmospheric processes is an improved lower boundary forcing dataset for HIRHAM4 based on observational datasets, which is developed, validated and described. To investigate the effects of the sea-ice distribution, its properties and small-scale features on the atmosphere, HIRHAM4 is used in sensitivity studies systematically with different model settings, each of which incorporates the lower boundary forcing data in a different manner. Even little changes in the lower boundary forcing fields, while retaining the lateral boundary forcing, are sufficient to cause the model to produce significantly different atmospheric circulation patterns relative to the control simulations which use standard forcings and settings. Cyclone activity, which is a special focus of this study, is also altered. The mean atmospheric circulation patterns and the near-surface air temperature distribution can be reproduced more realistically with the new forcing dataset, which is shown by validation experiments with observational data. The biggest relative impact, besides an altered sea-ice coverage and distribution, can be reached by using sea-ice concentrations instead of a binary sea-ice mask. By utilizing sea-ice drift data, dynamic and thermodynamic processes can be partially separated from each other to investigate the development of sea-ice anomalies in the Laptev Sea. They depend on a time-critical succession of atmospheric conditions and the properties of sea ice during May and August. Positive air temperature anomalies are identified to be the key driving factors for the development of negative sea-ice anomalies. They are found to be a result of enhanced short-wave radiation balances, which are coupled to high pressure areas and intermediate anticyclones. The polynyas during early summer seem to have an important influence too. Because of lower process rates, the wind-induced sea-ice drift is enhancing and damping the development of the sea-ice area anomalies, but it cannot cause an anomaly all by itself. A precise separation of the effectiveness of the sea-ice transport and the melting rates is not possible due to the available data.
Die Arbeit beschäftigt sich mit der Interaktion zwischen den Juden des Regnum Teutonicum und den verschiedenen Herrschaftsträgern, mit denen die Juden in Kontakt kamen. Dies waren neben dem König auch geistliche und weltliche Landes- und Stadtherren. Chronologisch an vier Herrschaftsphasen Rudolfs ausgerichtet, analysiert die Studie sämtliche überlieferte schriftliche Zeugnisse, um insbesondere der Frage nach der Bedeutung der Kammerknechtschaft im Reich nachzugehen. Diese stellt sich als höchst ambivalente und keinesfalls nur negative Beziehungsform heraus, die zudem nur in einem europäischen Kontext verständlich wird.
In der vorliegenden Dissertation wurde Belohnungssensitivität mit Spielverhalten und elektrophysiologischen Korrelaten wie dem Ruhe-EEG und ereigniskorrelierten Potenzialen auf Feedback-Reize in Verbindung gebracht. Belohnungssensitivität ist nach der zugrundeliegenden Definition als Konstrukt mit mehreren Facetten zu verstehen, die eng mit Extraversion, positiver Affektivität, dem Behavioral Activation System, Novelty Seeking, Belohnungsabhängigkeit und Selbstwirksamkeit assoziiert sind. Bei der Untersuchung einer spezifischen Spielsituation, in der 48 gesunde Studentinnen durch eigene Entscheidungen Belohnungen erhalten konnten, zeigte sich, dass das Spielverhalten mit den während des Spiels erfassten ereigniskorrelierten Potentialen (hier: FRN (feedback related negativity)und P300) auf die Belohnungssignale in Form eines Feedbacks korreliert. Belohnungssensitive Personen zeigen tendenziell nach einem Gewinn-Feedback eine weniger negative FRN-Amplitude, die wiederum positiv mit der gewählten Einsatzhöhe assoziiert ist. Auch die Amplitude der P300 scheint mit dem Spielverhalten zusammenzuhängen. So zeigte sich ein positiver Zusammenhang zwischen typisch belohnungssensitivem Verhalten und der mittleren Amplitude der P300: Gewinne gehen mit einer größeren P300-Positivierung und schnelleren Entscheidungen im Spiel einher. Dagegen konnte weder das Spielverhalten noch die über diverse Fragebögen erfasste Ausprägung der Belohnungssensitivität in der kortikalen Grundaktivierung im Ruhezustand einer Person abgebildet werden. Die vorliegenden Ergebnisse deuten darauf hin, dass Belohnungssensitivität ein Persönlichkeitsmerkmal ist, das sich sowohl im Verhalten, als auch in der elektrokortikalen Aktivität in belohnungsrelevanten Situationen widerspiegelt.
Die Dissertation beschäftigt sich mit der Wahrnehmung ländlicher Armut als räumlichem Phänomen und untersucht die Maßnahmen der Agrar-, Sozial- und Raumordnungspolitik, die als strukturpolitisch wirksam zur Bekämpfung sowie Vermeidung ländlicher Armut in den zeitgenössischen Diskursen angenommen wurden. Im Mittelpunkt der Analyse stehen dabei die traditionell landwirtschaftlich geprägten Bundesländer Rheinland-Pfalz und Baden-Württemberg. Untersucht wird, wie das ländliche Armutsproblem in Aussagen von Agrar- und Sozialpolitikern sowie Experten definiert und beschrieben wurde und welche Maßnahmen aufgrund dieser Annahmen als geeignet erschienen, Armut in den agrarwirtschaftlich geprägten Regionen zu bekämpfen. Die Forschungsarbeit basiert auf der Analyse und Bewertung von Förderprogrammen und Förderungshilfen von Bund, Ländern und Kommunen und untersucht diese auf ihre Wirksamkeit hinsichtlich der Existenzsicherung landwirtschaftlicher Betriebe im südwestdeutschen Raum zwischen 1949 und 1974. Ländliche Armut wird so als vor allem bäuerliche Armut beschrieben, die in den zeitgenössischen Diskursen als räumlich abgrenzbare Existenzgefährdung in sogenannten "strukturschwachen" Räumen konstruiert wurde. Im Zusammenhang mit der Untersuchung wirtschaftspolitischer Debatten werden die sozialpolitischen Probleme diskutiert, gesetzliche Durchführungsbestimmungen der Sozialpolitik auf ihre konkreten Ziele hinsichtlich Armutsbekämpfung auf dem Land untersucht sowie die Verflechtungen von Wirtschafts- und Sozialpolitik analysiert.
Weibliches Publikum, Programmgestaltung und Rezeptionshaltung im frühen deutschen Kino (1906-1918)
(2009)
Die vorliegende Dissertation analysiert die wechselseitigen Einflussnahmen von weiblichem Publikum und der Kino-Programmgestaltung in der Zeit von der Gründung erster ortsfester Kinos um 1906 bis zum Ende des 1. Weltkrieges. Dabei bilden der Kinobesuch von Frauen, die Konstruktion von Geschlechteridentität im und durch das Kinoprogramm und der wechselseitige Einfluss von weiblichem Publikum und Programmgestaltung, sowie die Veränderung von Filmgenres und -längen und die Veränderung des Rezeptionsverhaltens das Paradigma der Analyse. Der Fokus auf das weibliche Publikum ist bewusst gewählt, da Frauen auch zu Beginn des 20. Jahrhunderts einen großen Anteil am Kino-Publikum ausmachten. Dies ist besonders bemerkenswert unter der Prämisse, dass Frauen traditionell aufgrund der bürgerlichen Trennung zwischen privater und öffentlicher Sphäre nicht Teil eines öffentlichen Publikums waren. Daher liegt es nahe zu vermuten, dass das Auftreten dieses völlig neuen Publikumssegments nicht spurlos am Kino vorbeigegangen ist. Es hat Einfluss genommen auf die Filme, aber auch auf das Kino als Ort und die Programmierung seiner Filme. Das Aufkommen eines weiblichen Publikums bewirkte, so die Leitthese der vorliegenden Dissertation, eine Veränderung der Kinoprogrammstruktur weg vom diversen Nummerprogramm des "cinema of attractions", das kürzere Slapstick-Filme, Trickfilme sowie kurze Filme mit Spielhandlungen mit dokumentarischem Material verband hin zu einem Programm, dessen Hauptattraktion ein, oder maximal zwei lange Filme mit fiktionalem Inhalt waren. Auf der Grundlage zweier Lokalstudien zum Kinoprogramm zweier mittelgroßer deutscher Städte analysiert die vorliegende Arbeit den Prozess, in dem das von klassen- und geschlechtsspezifischer sowie kultureller Diversität geprägte frühe Kino, dem Heide Schlüpmann eine heimliche Komplizenschaft mit der weiblichen Emanzipationsbewegung des Wilhelminischen Deutschlands zuspricht, abgelöst wird durch ein stabilisiertes, institutionalisiertes, nationalisiertes deutsches Kino. Eingeführt und ergänzt wird die tiefergehende Analyse der Kinoprogramme der untersuchten Städte durch eine auf historischen Quellen beruhende Untersuchung der Struktur und Wahrnehmung des weiblichen Publikums und der Programm- und Aufführungsmodalitäten in der Zeit zwischen 1906 und 1913 sowie während des Ersten Weltkriegs.
Der Radtourismus hat in den letzten 15 bis 20 Jahren eine dynamische Entwicklung genommen, die ihn zu einer wichtigen Tourismusart für viele Regionen in vor allem ländlich geprägten Regionen werden ließ. Die Konsequenz war und ist ein erheblicher Ausbau der radtouristischen Infrastruktur, die hauptsächlich aus öffentlichen Mitteln finanziert wurde. Die radtouristische Nachfrage umfasst in Deutschland - je nach zu Grunde gelegten Daten - zwischen 4,2 und 7,9 Mio. Bundesbürger. Dabei ist die Entwicklung dieser Nachfrage in den letzten Jahren eher stagnierend verlaufen, trotzdem steht ihr ein weiter wachsendes radtouristisches Angebot gegenüber. Die Frage, ob sich diese Investitionen über die durch den Radtourismus ausgelösten regionalwirtschaftlichen Effekte bezahlt machen, steht im Zentrum dieser Arbeit und wurde mit Hilfe einer empirischen Erhebung untersucht. Für das Bundesland Rheinland-Pfalz insgesamt konnte eine Spannweite von 4,2 bis 7,7 Mio. Radtouristen pro Jahr ermittelt werden, wovon zwischen 2,9 und 6,0 Mio. Tagesgäste sind. Auf Grund der während der Radurlaube getätigten Ausgaben lassen sich die durch den Radtourismus induzierten regionalwirtschaftlichen Effekte in einer Größenordnung von 275 Mio. € bis 327 Mio. € bestimmen, was rund 10% der gesamttouristischen Wertschöpfung in Rheinland-Pfalz entspricht. Werden die Investitionskosten für die vier untersuchten Radwege " Mosel-Radweg, Nahe-Radweg, Maare-Mosel-Radweg und Kraut und Rüben-Radweg " der jährlich auf diesen Wegen erzielten Wertschöpfung in Höhe von ca. 62 Mio. € gegenübergestellt, muss festgestellt werden, dass sich die Investitionen schon nach kurzer Zeit über die positiven, indirekten wirtschaftlichen Effekte in den Regionen bezahlt gemacht haben. Insgesamt gesehen stellt sich somit der Radtourismus als attraktives, wirtschaftlich tragfähiges touristisches Segment dar, welches in der Lage ist, auch in peripheren Regionen touristische Wertschöpfung zu erzeugen. Voraussetzung hierfür ist aber die Beachtung der dargestellten Anforderungen, welche die Nachfrage an das Produkt Radtourismus stellt und die Einhaltung von verschiedenen Qualitätsanforderungen. Erst wenn Radtourismus als Qualitätsprodukt verstanden wird, hinter dem auch die touristischen Leistungsträger einer Region stehen, kann Radtourismus zu einem wichtigen Wirtschaftsfaktor innerhalb einer Region entwickelt werden.
Medienpolitische Verflechtungen in Italien seit 1945 - Entwicklungslinien, Akteure, Konfliktfelder
(2007)
Der Schwerpunkt der Arbeit basiert auf einer retrospektiven Betrachtung des seit Jahrzehnten in Italien etablierten komplexen Beziehungsnetzwerkes zwischen Medien und Politik. Von seinen Anfängen im 19. Jh. bis einschließlich Mitte September 2006 werden die Konsequenzen dieser medienpolitischen Interdependenzen analysiert und kritisch hinterfragt. Ein weiterer Forschungsschwerpunkt liegt dabei auf der seit dem letzten Jahrzehnt virulent geführten Debatte über den Einfluss des italienischen Medienmoguls und Spitzenpolitikers Silvio Berlusconi auf die mediale Politikberichterstattung Italiens. Die vorhandenen Sprachbarrieren machen es allerdings oft nicht leicht, die Komplexität der italienischen Medien- und Politiklandschaft zu verstehen. Bei oberflächlicher Betrachtung kann dies rasch zu Fehleinschätzungen und -interpretationen führen, die in der gegenwärtigen Studie korrigiert werden. Neben einer fundierten Analyse der existierenden Fachliteratur zur Entwicklung der italienischen Massenmedien gründet die Studie auf einer detaillierten Berücksichtigung journalistischer Publikationen unterschiedlicher italienischer Tageszeitungen. Bei diesem literature review werden insgesamt 335 italienischsprachige Quellen berücksichtigt, von denen 128 Fachpublikationen sind. Mehrheitlich handelt es sich um soziologische, politik- und kommunikationswissenschaftliche Veröffentlichungen aus den vergangenen 15 Jahren. In Form eines chronologisch-deskriptiven Überblicks wird vor allem die Entwicklung des italienischen Fernsehsektors seit seiner Einführung 1954 bis zur Gegenwart nachgezeichnet. In diesem Kontext wird der Aufstieg Berlusconis zum Medienmogul und zum zweimaligen Ministerpräsidenten Italiens vor dem gesellschaftspolitischen Hintergrund skizziert und mit Interpretationen der italienischen Vergangenheit und Gegenwart abgeglichen. Dies erklärt letztlich auch die Herausbildung des Medienmonopols von Silvio Berlusconi und dessen Instrumentalisierungsversuche der Medien für seine politischen Zwecke. Die Arbeit gliedert sich in zwei Teile. Der erste Teil beinhaltet eine historisch-deskriptive Darstellung der seit Jahrzehnten bestehenden symbiotischen Verquickung von Medien und Politik in Italien (Kap. 1 bis 7). Hierbei finden politische, ökonomische, soziale und rechtliche Aspekte Berücksichtigung. Zudem stehen die unterschiedlichen Akteure des Mediensektors wie politische Parteien, Politiker, Journalisten, Medienunternehmen, Wähler sowie die katholische Kirche im Zentrum der Arbeit. Zum besseren Verständnis werden sie nicht isoliert, sondern in ihren vielfältigen Wechselwirkungen betrachtet. Da Berlusconi in den vergangenen vier italienischen Parlamentswahlen stets der Anwärter auf das Präsidentschaftsamt des Mitte-Rechts-Lagers war, werden die relevanten medienpolitischen Aspekte aller vier Wahlen zusammengefasst und erstmalig zueinander in Beziehung gesetzt. Im zweiten Teil werden Perspektiven für ein zukünftiges Forschungsvorhaben präsentiert, um die Qualität italienischer Hauptabendnachrichten in Bezug auf ihren tendenziösen Charakter zum Vor- bzw. Nachteil politischer Akteure bestimmen zu können (Kap. 8). Auf Basis des identifizierten Forschungsdefizits italienischer Studien wird ein idealtypisches Analysekonzept für künftige Studien entwickelt, das auf der empirischen Methode der Inhaltsanalyse beruht. Ein exemplarisch vorgestelltes Forschungsdesign soll dazu beitragen, zukünftig Erkenntnisse über die Qualität der politischen Fernsehberichterstattung in Italien gewinnen zu können. Dies erfolgt unter Rückgriff auf die kommunikationswissenschaftlichen Theorien: gatekeeper-, agendasetting-, framing-, bias-Ansatz und instrumentelle Aktualisierung. Das Ziel der Arbeit ist es, das Wechselspiel und die Einflussversuche unterschiedlicher Akteure des italienischen Mediensektors in ihrem historischen Kontext darzustellen. Hierbei interessieren vor allem die zentralen Konfliktfelder und Entwicklungslinien, die im Rahmen der medienpolitischen Verflechtungen Italiens zu konstatieren sind. Mittels eines umfassenden reviews der italienischen Literatur sollen die vorhandenen Sprachbarrieren überwunden und der deutschsprachigen Leserschaft gezielt soziopolitische Zusammenhänge des modernen italienischen Journalismus und seiner historischen Entwicklung zugänglich gemacht werden. Ein weiteres Ziel besteht darin, den Kenntnisstand über italienische Studien zum engen Netzwerk aus Medien und Politik zu erhöhen. Insgesamt wird eine systematische Aufarbeitung der medienpolitischen Charakteristika Italiens sowohl aus inländischer als auch aus ausländischer Sicht geliefert.
Untersucht wird die Geschichte des Führerkorps des nationalsozialistischen Reichsarbeitsdienstes von seinen Anfängen im Freiwilligen Arbeitsdienst der Weimarer Republik bis zu den Traditionsverbänden der ehemaligen Führer in der Gegenwart. Der Schwerpunkt der Arbeit liegt auf der Sozial- und Institutionsgeschichte des Führerkorps, die um alltags- und mentalitätsgeschichtliche Aspekte ergänzt werden. Auf der Grundlage einer statistischen Auswertung von 1000 Personalakten werden die Zusammensetzung und die Sozialstruktur des Führerkorps, seine "Gleichschaltung" sowie seine Beziehungen zu Militär, Nationalsozialismus und Kirche analysiert. Als Folie für die Interpretation dient der Vergleich mit anderen Berufsgruppen sowie den Führerkorps anderer NS-Organisationen. Aufbauend auf dieser prosopographischen Untersuchung wird anhand von zeitgenössischen und autobiographischen Äußerungen von Arbeitsdienstführern erklärt, warum der Arbeitsdienst so positiv erlebt wurde, daß er Teil der Identität vieler Führer wurde, und welche Faktoren zur Entstehung einer Gemeinschaft unter den Führern beitrugen, die bis in die jüngste Vergangenheit hinein bestand. Das primäre Interesse gilt hierbei den Mechanismen, mit denen der totalitäre NS-Staat bei den Angehörigen seiner unteren und mittleren Führungs- und Trägerschichten Loyalität erzeugte und erhielt. Schließlich wird die Rolle der Führer im Lageralltag und in der Lagererziehung des Reichsarbeitsdienstes betrachtet. Die Strukturen der Lager und die zu konstatierende Diskrepanz zwischen Anspruch und Realität der Lagererziehung lassen dabei Schlüsse auf Charakter und Funktion des Arbeitsdienstes im "Dritten Reich" zu.
Erlebnisgenese im Tourismus
(2021)
Das Thema des Erlebnisses steht bereits seit langem im Fokus von Anbietern von Dienstleistungen. Dies gilt insbesondere für den Tourismus, einer Branche, deren Produkte zu einem signifikanten Teil aus solchen bestehen. Entsprechend der Prominenz des Themas, vor allem in den Bereichen touristischer Produktentwicklung und Marketing, ist dieses bereits breit in der Forschung diskutiert worden.
Trotz ausgiebiger Publikationsaktivitäten ist der tatsächliche Wissensstand in diesem Thema dennoch auffällig gering. Ein wichtiges Problem liegt darin begründet, dass die Terminologie im Bereich von Erlebnissen noch nicht allgemein akzeptiert und scharf abgegrenzt ist. So muss zwischen Erlebnissen und Erfahrungen unterschieden werden. Erstere treten während des Prozesses der Wahrnehmung einer touristischen Dienstleistung auf und bilden die Basis für Erfahrungen, welche prägend hinsichtlich der Wahrnehmung wirken und im Gesamtkontext der Reise betrachtet werden. Dieser Unterscheidung wird nicht nur in der englischsprachigen Literatur, in der beide Begriffe mit dem Begriff Experience beschrieben werden, sondern auch in der deutschsprachigen Literatur zumeist zu wenig Rechnung getragen, was dazu führt, dass häufig zu Erlebnissen publiziert wird, obwohl eigentlich Erfahrungen beschrieben werden. Problematisch ist dies vor allem, weil damit ein Phänomen untersucht wird, dessen Basis nahezu gänzlich unbekannt ist. Wichtige Fragen, welche zum Verständnis von Erlebnissen und damit auch von Erfahrungen bleiben unbeantwortet:
1) Welche Faktoren werden in der Genese von Erlebnissen wirksam?
2) Wie wirken diese zusammen?
3) Wie wird die Stärke eines Erlebnisses determiniert?
4) Wie werden Erlebnisse stark genug um den Konsum einer touristischen Dienstleistung zu prägen und damit gegebenenfalls zu Erfahrungen zu werden?
In der vorliegenden Arbeit wurden diese Fragen beantwortet, womit ein erster Schritt in Richtung der Füllung einer für die Tourismuswissenschaft nicht unbedeutenden Forschungslücke gelungen ist.
Um Erlebnisse, den Prozess der Genese dieser und deren Bewertung durch den Gast verstehen zu können, wurde ein triangulierter, zweistufiger Forschungsprozess ersonnen und in einem naturtouristischen Setting im Nationalpark Vorpommersche Boddenlandschaft zur Anwendung gebracht. Es handelt sich dabei um einen Mixed-Methods-Ansatz:
1) Induktive-qualitative Studie auf Basis der Grounded Theory
a. Ziel: Identifikation von Wirkkomponenten und deren Zusammenspiel und Generierung eines Modells
b. Methoden: Verdeckte Beobachtung und narrative Interviews
c. Ergebnisse: Modelle der Genese punktueller Erlebnisse und prägender Erlebnisse
2) Deduktive-quantitative Studie
a. Ziel: Überprüfung und Konkretisierung der in 1) generierten Modelle
b. Methoden: Fragebogengestützte, quantitative Befragung und Auswertung mittels multivariater Verfahren
c. Ergebnisse: Zusammenfassung der beiden Modelle zu einem finalen Modell der Erlebnis- und Erfahrungsgenese
Das Ergebnis des Vorgehens ist ein empirisch erarbeitetes und validiertes, detailliertes Modell der Genese von Erlebnissen und der Bewertung dieser durch den Erlebenden in Bezug auf deren Fähigkeit zu Erfahrungen zu werden.
Neben der Aufarbeitung und Konkretisierung dieses Prozesses konnte zusätzlich die in viele Richtungen diskutierte Bedeutung von Erwartungen und Produktzufriedenheit mit Blick auf die Bewertung von Erlebnissen geklärt werden. So konnte empirisch nachgewiesen werden, dass Erlebnisse, die auf Überraschungen, dem Unerwarteten, basierten besonders resistent gegenüber Störfaktoren waren und positive Erlebnisse zwar durchaus im Zusammenhang mit Produktzufriedenheit stehen aber sich vor allem durch eine zumindest temporär gesteigerte Lebenszufriedenheit manifestieren. Damit konnte das Hauptkriterium für die Bewertung von Erlebnissen mit Blick auf ihre Tauglichkeit zu Erfahrungen identifiziert werden.
Für die weitere Forschung kann die vorliegende Arbeit mit dem finalen Modell der Erlebnis- und Erfahrungsgenese einen soliden Ausgangspunkt bilden. So bieten zahlreiche Faktoren im Modell die Möglichkeit zur weiteren Forschung. Auch sollten die Ergebnisse in weiteren touristischen Kontexten überprüft werden.
Für die touristische Praxis kann die vorliegende Arbeit zahlreiche Hinweise geben. So bedeutet die Generierung von Erlebnissen im touristischen Kontext mehr als nur die Erfüllung von Erwartungen. Die widerstandsfähigsten Erlebnisse sind jene, die den Gast zu überraschen vermögen. Ein qualitativ hochwertiges, den Gast zufriedenstellendes Produkt ist dabei nicht mehr als ein Basisfaktor. Wirklich erfolgreich ist ein erlebnisbasierender Ansatz nur dann, wenn dieser es vermag die Lebenszufriedenheit des Gastes zu steigern.
In der Arbeit wird untersucht, wie die EU mit Diversität umgeht, wie sich entsprechende Maßnahmen in der Personalpolitik der verschiedenen europäischen Behörden niederschlägt und welche Auswirkungen dies hat. Es wird herausgearbeitet, dass die EU als Institution einige Spezifika aufweist, die diese Frage beeinflussen und die bei einer Beurteilung Berücksichtigung finden müssen. So ist die EU verpflichtet, die Vielfalt der Mitgliedstaaten in den eigenen Institutionen abzubilden. Eine Besonderheit ist auch, dass die Effizienz der Organisation " und damit auch der mögliche Wert von Diversity Management (DiM) " mangels marktinduzierter Kriterien schwer zu bestimmen ist. Die Arbeit gliedert sich in vier Teile. Nach einer überblickartigen Einführung (Teil A) werden in Teil B der Anspruch von DiM und dessen Vor- und Nachteile dargestellt. Als Bezugspunkt für erfolgreiches DiM werden einige Beispiele aus deutschen Großunternehmen angeführt, wo DiM eine relativ bedeutende Rolle spielt. Die Einschätzung, was diese Erfahrungen für die EU bedeuten könnten, schließt den Teil B ab. Dabei werden die Besonderheiten einer Behörde, die durch starke rechtliche Regelungen gebunden ist und für die es kaum eindeutige Effizienzkriterien gibt, besonders hervorgehoben. Der Teil C enthält die empirischen Recherchen, die angestellt wurden. Dazu werden zunächst das Weißbuch des Kinnock Reports und das Statut für die Beamten der Europäischen Gemeinschaften von 2004 ausführlich dargestellt und anschließend gewürdigt. Es stellt sich heraus, dass bei einzelnen Personalmaßnahmen bereits weitgehende Öffnungen und Flexibilitäten vorgesehen sind, die sich unmittelbar zur Implementierung von DiM anbieten. Im Weiteren wurde ein leitender Mitarbeiter des Europäischen Parlaments zu dem Statut ausführlich interviewt. Die Ergebnisse verleihen den vorher geschilderten Regelungen des Statuts Farbe und vermitteln dem Außenstehenden ein lebendiges Bild vom Innenleben einer solchen Behörde. Die Einschätzung der neuen Regelungen durch den Interviewten ist zwar differenziert, aber insgesamt ergibt sich doch ein positives Bild der personalpolitischen Maßnahmen im Hinblick auf die mögliche Implementierung von DiM. Die zweite wesentliche empirische Quelle der Arbeit sind Publikationen der EU selbst zu Problemen der Diversität, Diskriminierung und verwandten Themen. Die dazu erschienenen Broschüren geben Auskunft darüber, welche Ansichten die Mitarbeiter zu Bestrebungen um Diversität und Chancengleichheit äußern, welche Aktionen die EU plant und welche Erfolge man sich erhofft. Die Prüfung dieser Unterlagen ergibt, dass in einer solchen Organisation die Integration von Minderheiten weit fortgeschritten ist und Vorurteile und offene Diskriminierungen weitgehend fehlen. Jedoch werden Umsetzungsprobleme der Maßnahmen zur Chancengleichheit der Geschlechter, zur work-life balance, zur Respektierung von Behinderungen oder sexuellen Orientierungen konstatiert. Um die geschilderten Maßnahmen zu beurteilen, werden sie mit entsprechenden Entwicklungen der im zweiten Teil der Arbeit beschriebenen privatwirtschaftlichen Organisationen, die als Vorreiter des DiM in Europa angesehen werden können, verglichen. In einem weiteren Schritt sollten die Einschätzung der Mitarbeiter zu Diversität und zu den vorher beschriebenen Maßnahmen ergründet werden. Die ins Auge gefasste repräsentative Befragung konnte trotz anfänglicher Ermutigung in einer Behörde der EU, dem Europäischen Parlament (EP), nicht durchgeführt werden, da die EU-Behörden eine offizielle Unterstützung der Untersuchung und damit den Zugang zu anderen Interviewpartnern nicht zustimmten. Daher beschränkte sich die Befragung auf Mitarbeiter, die sich nach Ansprache durch einige leitende Beamte zur Beantwortung gleichsam als Privatpersonen zur Ausfüllung des Fragebogens bereit erklärten. Die Befragung hat also keinerlei repräsentativen, sondern rein explorativen Charakter. Im Teil D der Arbeit wird eine Gesamtbewertung der Recherchen abgegeben. Es wird konstatiert, dass zwar eine Menge an Einzelinitiativen und -maßnahmen in den Behörden der EU zu finden ist, dass aber mit einem übergreifenden Konzept des DiM diese Aktionen koordiniert und in ihrem Nutzen verstärkt werden könnten.
Die Wechselwirkungen zwischen Atmosphäre und Schnee sind für die Simulation der Grenzschicht (BL) über Schneedecken von Bedeutung. Um diese Wechselwirkungen zu untersuchen, wird das mesoskalige Lokalmodell (LM) des Deutschen Wetterdienstes (DWD) mit einer horizontalen Auflösung von etwa 14 km und einer hohen vertikalen Auflösung in der Grenzschicht für Simulationen über Grönland verwendet. Weil die Verwendung des Bodenmodells des LM zu unrealistischen Ergebnissen führt, wurden dessen Schneeeigenschaften angepasst. Die Simulationen werden für zehn Tage im Juli 2002 durchgeführt, währenddessen ein Feldexperiment an der Station Summit stattfand. Zur Validation des LM wurden die Simulationsergebnisse mit diesen Messungen verglichen. Der Vergleich ergibt Defizite bei der bodennahen Temperatur sowie bei Turbulenzgrößen. Die Turbulenzparametrisierung des LM weist bei stabiler Schichtung Defizite auf. Daher wurde ein lokaler Mischungswegansatz und eine skalare Rauhigkeitslänge über Eis und Schnee implementiert und ihr Einfluss untersucht. Beide Parametrisierungen zeigen eine Verbesserung der turbulenten kinetischen Energie und des fühlbaren Wärmeflusses. Um die Schneedrift und ihren Einfluss auf die Schneeakkumulation zu untersuchen, wurde das eindimensionale Schneemodell SNOWPACK mit PARCA-Messungen und LM-Ergebnissen angetrieben, sowie eine gekoppelte Version LM/SNOWPACK verwendet. SNOWPACK hat eine realistischere Darstellung des Schnees als das LM-Bodenmodell und ermöglicht die Simulation der mikrophysikalischen Schneeigenschaften. Die mit PARCA-Messungen angetriebenen Simulationen ergeben einen Zusammenhang zwischen Schneedrift und Neuschnee sowie hohen Windgeschwindigkeiten, diese Faktoren sind jedoch nicht die alleinigen Mechanismen. Während die Eigenschaften des Schneefeldes von den Anfangsbedingungen abhängen, ist der Einfluss des Anfangsfeldes auf die Schneedrift gering. Die Simulationen mit dem LM ergeben eine Verbesserung der bodennahen Temperaturen durch die Kopplung. Die Schneedrift ist in erster Linie in den Randgebieten des grönländischen Eisschildes zu finden. Dort ist die Schneeakkumulation durch Schneedrift von gleicher Größenordnung wie Evaporation/Sublimation von Schnee.
Die vorliegende Arbeit zielt auf die Erstellung eines Programmes, das zu Beginn des Studiums insbesondere den zu wenig bewegten Studierenden über den gesamten Ausbildungszeitraum an der Hochschule hinweg ein artgerechten Bewegungsverhalten vermittelt und dieses nachhaltig habitualisiert.
Im einleitenden Kapitel 1 werden die Kernfragen formuliert, die in den Kapiteln 2 bis 4 zu beantwortet sind, um Schlussfolgerungen für die Programmerstellung ziehen zu können. Daneben werden Begrifflichkeiten definiert, die zentral für die Arbeit sind. Neben der antipodischen Darstellung von ‚Körperlicher Aktivität‘ und ‚Körperlicher Inaktivität‘, denen sich schon kurz nach der Mitte des 20. Jahrhunderts die interdisziplinäre Sportwissenschaft zugewandt hat, wird auch eine Präzisierung der Begriffe Bewegung (in Abgrenzung zu Sport) und Fitness (vs. Gesundheit) vorgenommen, um im Folgenden ein operationalisierbares Instrumentarium vorweisen zu können. Ableitend aus den Erkenntnissen der Sportwissenschaft – insbesondere der Sportmedizin – werden in Anlehnung an die ‚Nationalen Empfehlungen zu Bewegung und Bewegungsförderung‘ Vorgaben formuliert, welche Inhalte, Umfänge und Intensitäten an Bewegung wöchentlich zu erfüllen sind, um von einer artgerechten Bewegung sprechen zu können.
Das Kapitel 2, das die sportmedizinischen Befunde zum Thema Bewegungsmangel in den Fokus rückt, stellt einerseits die Auswirkungen von Bewegungsmangel auf das Individuum in den Mittelpunkt und betrachtet andererseits die Effekte auf die Gesellschaft. Bezogen auf das Individuum wird festgehalten, dass Morbidität in sehr vielfältigen Formen durch Bewegungsmangel ansteigt und andererseits eine artgerechte Bewegung ein hohes Schutzpotential für körperliche und geistige Funktionsfähigkeit besitzt. Es wird gezeigt, dass Bewegungsmangel zurecht als Risikofaktor Anerkennung gefunden hat, da er alleine – sowie in Kombination mit Fehlernährung – zu Störungen im Stoffwechsel führen kann, die ihrerseits mannigfaltige negative Effekte auslösen, die zum Anstieg vieler Erkrankungen (z.B. Herz-Kreislauferkrankungen wie Hypertonie, Stoffwechselerkrankungen wie Diabetes mellitus Typ 2, Haltungsstörungen, psychische Störungen) führen, die die Lebensqualität senken und die Lebensspanne reduzieren können.
Neben der höheren Inzidenz von Erkrankungen kann Bewegungsmangel zu z.T. massiven Einschränkungen von Alltagsfunktionen führen. Exemplarisch – und mit Vorgriff auf die Pilotstudie, die im Kapitel 3 beschrieben wird – wird berichtet, wie stark die Cardiorespiratorische Fitness (CRF) unter Bewegungsmangel leidet. Es wird ein Modell vorgestellt, das zeigt, dass Menschen, die als Kind und als Erwachsene unter Bewegungsmangel leiden, eine stark verkürzte ‚Health Span‘ gegenüber durchweg bewegten Personen aufweisen.
Neben der Tatsache, dass die Funktionsfähigkeit eingeschränkt ist, wird darauf hingewiesen, dass mit den beschriebenen Prozessen auch eine Verringerung der Lebensqualität und einer Verkürzung der Lebensspanne insgesamt einhergehen können.
Dass diese Effekte nicht nur das einzelne Individuum betreffen, sondern gesamtgesellschaftliche Wirkung entfalten liegt auf der Hand und es wird dargestellt, dass weltweit an Programmen gearbeitet wird, um die ökonomischen und sozialen Folgen von Bewegungsmangel abzumildern, indem diese an der Wurzel bekämpft werden soll.
Es wird schlussgefolgert, dass die Erhöhung des Bewegungsausmaßes angestrebt werden muss, um physiologische und psychische Folgen die direkt oder indirekt auf Bewegungsmangel zurückzuführen sind, einzudämmen, damit die sowohl die ‚Life Span‘ als auch die ‚Health Span‘ verlängert werden.
Das Kapitel 3 nimmt unter Anwendung soziologischer Forschungsmethoden die Gruppe der Studierenden in den Fokus und klärt, wie sich die Zielgruppe hinsichtlich ihres Bewegungsverhaltens beschreiben lässt. Mit Blick auf die nationale Referenzstichprobe zum Gesundheitszustand und –verhalten von Studierenden werden zunächst die Ergebnisse einer eigenen Pilotstudie präsentiert. Diese basiert auf einem zweisemestrigen Lehr- und Forschungsprojekt, an dem eingangs 23 Studierende (15 weiblich, 8 männlich, Durchschnittsalter zu Beginn: 22.9 Jahre) teilnahmen. Diese wurden in einer Interventionsstudie ein- bzw. zweimal pro Woche in der Vorlesungszeit bewegt, wobei vor und nach dem Programm als auch vor und nach der Vorlesungszeit verschiedene physiologische und psychometrische Messungen durchgeführt wurden. Über den gesamten Beobachtungszeitraum hinweg trugen alle Probanden täglich (mit wenigen Ausnahmen) einen Fitnesstracker, der es ermöglichte das Bewegungsverhalten während der Wachzeit zu erfassen.
Neben der Tatsache, dass der Beobachtungszeitraum nicht ausreichte, um die Studierenden an das artgerechte Bewegungsverhalten, das über die Bewegungspraxiseinheiten in der Vorlesungszeit erreicht wurde, zu binden, zeigten sich Effekte, die für die Programmgestaltung von Bedeutung sind. Positiv entwickelten sich alle gemessenen physiologischen Parameter. So konnte ein Anstieg der Muskelmasse ebenso festgestellt werden wie die Verbesserung der Core-Muskulatur und der CRF. Andererseits führte der Bewegungsmangel in den Pausen nicht nur zum (fast vollständigen) Verlust dieser Gewinne, sondern es konnte auch ein Anstieg der Körperfettmasse identifiziert werden.
Die Beobachtung des Bewegungsverhaltens ergab ein Bild, das sich mit Ergebnissen der Referenzstudie deckt und zeigt, dass diese Gruppe sich ohne Anleitung deutlich unter dem zu fordernden Mindestmaß bewegt.
Dieses Ergebnis zeigte auch die Auswertung der Onlinebefragung, an der ca. 1000 Studierende teilgenommen hatten. Studierende, die regelmäßig Sport treiben, beklagen weit weniger häufig körperliche Beschwerden und psychische Belastungen als ihre Kommilitonen, die nur gelegentlich oder nie Sport treiben. Auch wenn diese Ergebnisse zu erwarten waren, überraschte die Häufigkeit des Auftretens bestimmter Beschwerden. So gaben fast 48% der Studierenden an, häufig unter Rückenbeschwerden zu leiden.
Erhellend war insbesondere das Ergebnis, dass das Spaßmotiv die wichtigste beeinflussbare Determinante ist, über die sich Studierende zu mehr Bewegung leiten lassen, wenn auch andere Barrieren niedrig gehalten werden.
Das Kapitel 4 beschäftigt sich mit den motivationalen und handlungsbezogenen Modellen zur Vorhersage des Bewegungsverhaltens und soll Erkenntnisse bündeln, wie junge unbewegte Menschen im Sinne der Zielstellung zu unterstützen sind. Der Blick in die Forschungsgeschichte und aktuelle Ansätze zeigt, dass eine Verhaltensmodifikation nur gelingen kann, wenn sowohl kognitive als auch emotionale Prozesse in den Blick genommen werden.
Ein strukturiertes Vorgehen, bei dem die unterschiedlichen Phasen des Verhaltenswechsels das Gerüst für Ansätze bietet, muss phasengerechte emotionale und kognitive Interventionen aufweisen, die passgenau die Situation des Betroffenen aufnehmen und ihm die benötigte Unterstützung anbieten. Im Sinne einer ‚tailored intervention‘ müssen die Kerndeterminanten, die sich aus den kognitiv-affektiven Kombinationsmodellen identifizieren lassen angewendet werden, um auf beiden Ebenen einen Wirkimpuls in die gleiche Richtung auszulösen. Im Mittelpunkt wird dabei die Verbesserung der Selbstwirksamkeit stehen, die auf beiden Ebenen angesprochen werden muss.
Nach einem kurzen Zwischenfazit in Kapitel 5, das die Schlussfolgerungen der Vorkapitel pointiert zusammenfasst, wird in Kapitel 6 das UiB-Konzept dargestellt. Im ersten Teil (Kapitel 6.1.) werden anhand der Phasenstruktur die Methoden und Strategien vorgestellt, die Studierende auf den Weg zu mehr Bewegung bringen und halten sollen. Das Herangehen besteht dabei darin, die Inhalte, die Didaktik und Methodik und die Formate vorzustellen und rückt dann die Aufgaben des einzusetzenden Personals in den Vordergrund. Diese Struktur wird erst in den letzten Unterkapiteln zugunsten einer Fokussierung auf die Inhalte und das Personal aufgegeben, um eine bessere Lesbarkeit ohne ein zu großes Maß an Redundanzen zu erzeugen. Für die Präkontemplationsphase werden Formate vorgestellt, die – eingepasst in den Semesterablauf der Erstsemesterstudierenden – von speziell ausgebildetem Lehrpersonal Ideen und Konzepte aus Kapitel 4 aufgreifen, um Studierende für die Problemstellung zu sensibilisieren. In der Kontemplationsphase, in der zum erstem Mal auch sogenannte Buddies, die ob ihrer eigenen Bewegungssozialisation und v.a. ihrer Nähe zur Peergroup, die Vertrauen schafft, in den Vordergrund treten, wird den interessierten Studierenden in eigens konzipierten Seminaren Wissen vermittelt, das sie in die Lage versetzt, zu entscheiden, ob das Programm einen Mehrwert für sie erbringen kann. Im Anschluss an diese Veranstaltungen (Präparationsphase) wird den Studierenden durch Buddies der Übergang in die Phase der Umsetzung aufgezeigt und mit ihnen eine Art Vertrag abgeschlossen, der schriftliches Zeugnis des Commitments ist, sich in die Phase der Umsetzung zu begeben. In der Phase der Handlungsaufnahme selbst werden die Teilnehmenden zu Buddygruppen zusammengeschlossen, die als Keimzelle des sozialen Miteinanders als wesentlicher Stützpfeiler des Programms dienen. Eine entscheidende Rolle zum Aufbau der Selbstwirksamkeit nehmen die Kursleiter ein, die den Bewegungsanfängern Zuversicht in ihre eigenen Möglichkeiten stärken sollen. Dabei agieren sie auf der Basis einer ausgearbeiteten Vermittlungs- und Inhaltsanleitung, die sehr feinschrittig für die beiden Kurstypen (Core-Kurs und Kurs Funktionales Ganzkörpertraining) ausgearbeitet wird. Exemplarisch wird dies im Kapitel 6.1.4 für den Core-Kurs dargestellt, wo beginnend mit dem Erstkontakt und dem initialen Fitnesstest ein Bogen bis hin zu dem Test im Anschluss an das Semester geschlagen wird. Schon in dieser Phase werden parallel zu den Bewegungskursen, initiiert durch die Buddies, Kontakte außerhalb des direkten Kursrahmens angeregt, die die Studierenden zu einer Gruppe formen, die als stabilisierendes Element fungiert und die Teilnehmer unterstützt im Programm zu bleiben. Diese Taktik ist auch die Kernstrategie der Phase der Aufrechterhaltung, in der die Studierenden weiter in Buddygruppen zusammengehalten werden. Neben neuen Inhalten in den Kursen, die trainingstheoretisch begründet benötigt werden, um Trainingsgewinne zu sichern, dienen diese auch dazu für Abwechslung zu sorgen und so zum Bleiben zu motivieren. Die Aktivitäten in den Gruppen werden zudem in übergreifenden Maßnahmen gebündelt, in den die Studierenden ein Selbstverständnis entwickeln sollen, Teil einer großen Gemeinschaft zu sein. Um die Fortschritte, die sich aus der Bewegung ergeben zu dokumentieren, und so den Teilnehmern zu zeigen, dass sich ihr Einsatz lohnt, werden regelmäßig Testungen durchgeführt, deren Ergebnisse mit denen der Eingangstests verglichen werden können.
Im zweiten Teil des Kapitels werden die prominenten Rollen des Kernpersonal (Übungsleiter und Buddies) beschrieben und dargelegt, wie die ausgewählt und geschult werden. Auch diese Funktionen sind den Ansätzen aus den Vorkapiteln entliehen. Einerseits zeigte die Onlinebefragung, dass viele unbewegte Studierende einen Partner vermissen, der sie beim Bewegen begleitet, andererseits zeigt der Blick in die psychologischen Modelle, dass diese Personen evident für den Aufbau einer Selbstwirksamkeit und so dem Wandel der Verhaltensmuster hin zum bewegten Menschen sind.
Der abschließende dritte Teil dieses Kapitel greift in Kürze die Idee auf, begleitend zu den Bewegungskursen Theoriekurse anzubieten und stellt deren Inhalte dar.
Im Kapitel Diskussion und Ausblick wird auf die Limitationen des Programms eingegangen, die v.a. darin besteht, dass die Buddy-Forschung noch recht jung ist und so die Wirkweise und -konsitenz noch schwer abzusehen ist. Andererseits wird auch kritisch betrachtet, wie stark die Rolle der äußeren Faktoren sein kann und eine Unterstützung der universitären Strukturen vonnöten ist, um Erfolg zu haben. Abschließend wird ins Auge gefasst, den Umsetzungsprozess umfänglich zu evaluieren, um Ansatzmöglichkeiten für Verbesserungen zu finden, und so im jungen Feld der ‚Fitnesswissenschaft‘ Kompetenz in der Vermittlung eines artgerechten Bewegungsverhaltens mehren zu können.
In dieser Arbeit wird die funktionelle Hemisphärenasymmetrie bei Menschen mit Angsterkrankungen untersucht. Während bisherige Forschungsergebnisse auf Untersuchungen an Personen mit variierender Ausprägung der Persönlichkeitsdimension "Ängstlichkeit" und unter Berücksichtigung der situativen Ängstlichkeit basieren, wird in der vorliegenden Untersuchung eine klinische Stichprobe von Patienten mit Angsterkrankungen untersucht und mit gesunden Kontrollpersonen verglichen. Die Gruppe der Angstpatienten umfasst Patienten mit Paniksyndrom und Patienten mit phobischer Symptomatik. Theoretische Modelle zur Beschreibung des Zusammenwirkens von funktioneller Lateralität und Affektivität liefern die Theorie der Aufmerksamkeitssteuerung der Arbeitsgruppe um Tucker (1990) und das Modell der Aktivitätsmuster von Heller und Mitarbeiter (1990, 1993). Tucker geht bei Angst von einer Überaktivierung der linken Hemisphäre, die zu einer Leistungsbeeinträchtigung führt, aus. Heller und Mitarbeiter nehmen bei Angst eine verbesserte Leistung in der rechten Hemisphäre bei Aufgaben an, die rechtsparietal verarbeitet werden. Angsterkrankungen haben eine hohe Komorbidität mit depressiven Erkrankungen. Patienten mit depressiver Symptomatik zeigen Verschiebungen in der funktionellen Lateralität. Bei Komorbidität können die durch eine Angsterkrankung bedingten Veränderungen der funktionellen Lateralität dadurch verzerrt werden. Aus diesem Grund werden in der vorliegenden Untersuchung Patienten mit aktuell bestehenden depressiven Erkrankungen ausgeschlossen. Mit der Angsterkrankung einhergehende depressive Symptome werden berücksichtigt und in die Auswertung einbezogen. Außerdem wird untersucht, ob sich Veränderungen in der funktionellen Asymmetrie während einer massierten Konfrontationsbehandlung zeigen. Die genaue Untersuchung der Kontrollgruppe ermöglicht darüber hinaus die Möglichkeit die Ergebnisse bisheriger Studien zum Zusammenhang des Persönlichkeitsmerkmal "Ängstlichkeit" und funktioneller Lateralität zu bestätigen. 37 Patienten mit Angststörungen und 32 gesunde Kontrollpersonen wurden zu zwei Messzeitpunkten untersucht. Für die Patienten-Gruppe fielen diese Zeitpunkte mit Aufnahme und Entlassung in die Selbstkontrollphase statt. Vor Teilnahme an der Studie wurden alle Probanden einer genauen Diagnostik unterzogen. Zur Überprüfung der Effektivität der Therapie und möglicher Zusammenhänge zur Lateralität werden 6-Wochen-Katamnesen in die Auswertung miteinbezogen. Operationalisiert wurde die funktionelle Lateralität durch eine verbale Worterkennungsfrage und einer Aufgabe zum Emotionsgehalt dargebotener Gesichter. Beide Aufgaben werden lateralisiert präsentiert. Die Ergebnisse zeigen moderate Unterschiede zwischen Angstpatienten und Kontrollpersonen. In der verbalen Aufgabe unterscheiden sich Angstpatienten nicht in der funktionellen Lateralität. Hingegen kann die Vermutung einer besseren Leistung der rechten Hemisphäre bei Angstpatienten im Vergleich zu den Kontrollpersonen in der Gesichter-Aufgabe bestätigt werden. Bei differenzierter Betrachtung zeigen sich Auffälligkeiten, allerdings nicht im Ausmaß der funktionellen Asymmetrie sondern im Zusammenwirken unterschiedlicher Aspekte von Lateralität. Es ergeben sich deutliche Hinweise auf in den Hemisphären konträr ablaufende Prozesse. Die rechte Hemisphäre zeigt eine über die Messzeitpunkte hinweg unveränderte Leistung im linken visuellen Feld in der Gruppe der Angstpatienten. Bei Kontrollpersonen hingegen variiert die Leistung in Abhängigkeit von der Antworthand. Angstpatienten haben im Vergleich zu gesunden Kontrollpersonen möglicherweise nicht die Möglichkeit, die rechte Hemisphäre zu mobilisieren. Eine völlig andere Bedeutung hat den Ergebnissen dieser Untersuchung zufolge die linke Hemisphäre. Hier kommt es in Abhängigkeit von der Angsterfahrung in den Konfrontationen zu einer Steigerung der Leistungsfähigkeit. Die Leistung der linken Hemisphäre verbessert sich erst im Therapieverlauf, daher ist die Annahme plausibel, dass dieser Prozess eine konstruktive Auseinandersetzung mit der Angst widerspiegelt. Die Untersuchung legt die Annahme einer stabil ausgeprägten funktionellen Hemisphärenasymmetrie bei Angsterkrankungen nahe. Gesunde verfügen demzufolge über eine geringer ausgeprägte flexible funktionelle Lateralität. Die Modellvorstellungen der Arbeitsgruppen um D. Tucker und um W. Heller konnten nur teilweise an einer klinischen Stichprobe bestätigt werden.
Während die ersten Naturwissenschaftler, wie Humboldt und Darwin, auf dem Feld der klassischen Biogeographie noch vor allem die Aufschlüsselung der Verbreitung von Arten untersuchten, entwickelte sich mit Wallace die Erkenntnis, dass es kausale Gründe für die Verbreitung von Arten gibt. Ihre Erkenntnisse erlangten Wallace oder auch de Lattin noch dadurch, dass Sie Verbreitungsmuster von Arten übereinander projizierten und Ausbreitungszentren ableiteten. In den letzten Jahrzehnten bieten die mannigfaltigen Möglichkeiten computerbasierter Analysen besondere Vorteile bei der Analyse von Verbreitungsmustern, welche in der vorliegenden Dissertation genutzt werden, um eine interdisziplinäre Arbeit im Schnittpunkt von Natur- und Rechtswissenschaften zu schreiben. In fünf Kapiteln werden verschiedene Aspekte aus dem Bereich der klassischen Biogeographie analysiert und diskutiert. Im ersten Beitrag dieser Arbeit wird die biogeographische Struktur der Libellen in der westlichen Paläarktis mittels Verbreitungsanalysen untersucht. Der zweite Beitrag vertieft die Betrachtung mit einer regionalen Analyse der Biogeographie der Odonaten und Tagfalter in Rumänien. Ein dritter Beitrag schließt diesen westpaläarktischen Block mit einer Analyse der Inselbiogeographie des westlichen Mittelmeergebietes ab. In einem zweiten eurasischen Block werden in der vierten Arbeit die biogeographischen Muster Eurasiens herausgearbeitet. Abschließend wird im fünften Beitrag die Phylogeographie der Zwerglibelle (Nehalennia speciosa) als ein Beispiel für trans-paläarktisch verbreitete Arten untersucht. Neben ihrer Bedeutung in der Grundlagenforschung stellen diese fünf Arbeiten eine wesentliche Grundlage für die Ausarbeitung der juristischen Abhandlung dar. In der juristischen Abhandlung werden verschiedene Aspekte unter zu Hilfenahme, der zuvor erarbeiteten Erkenntnisse erläutert, die dazu geführt haben dürften, dass Libellen in der FFH-Gesetzgebung eher unterrepräsentiert sind. Es sind dies eine fehlende europaeinheitliche Gefährdungsbewertung, das Fehlen eines Schutzkriteriums Ausbreitungsfähigkeit und eine fragwürdige Herangehensweise bei den Überlegungen, welche Arten überhaupt auf ihre Schutzwürdigkeit hin untersucht werden sollen.
Die Untersuchung widmet sich dem Verhältnis von Kunst und Fernsehen in Deutschland seit den 1960er Jahren bis heute unter Berücksichtigung des gesellschaftlichen und künstlerischen Diskurses. In den 1960er Jahren begann die Zusammenarbeit von Künstlern und dem Fernsehen mit Projekten wie "Black Gate Cologne" oder Gerry Schums "Fernsehgalerie" äußerst vielversprechend. In enger Zusammenarbeit mit den Fernsehverantwortlichen wurden Sendungen speziell für die Ausstrahlung im Fernsehen produziert und auch als Fernsehkunst gesendet. Die Akzeptanz und Resonanz auf diese Projekte waren jedoch nach anfänglicher Euphorie bescheiden bis ablehnend. Allerdings führte dies nicht zu einem Scheitern und einer Rückverlagerung der Kunst in den Präsentationsort Museum oder Galerie, sondern zu einer Weiterentwicklung der Fernsehkunst bis in die heutige Zeit. Fernsehkunst hat sich ihrem Aufführungs- und Produktionskontext, aber auch bei der Wahl ihrer Themen der jeweiligen Epoche mit ihren technischen und kommunikativen Möglichkeiten sowie dem gesellschaftlichen Diskurs zu öffentlichkeitsrelevanten Themen anpasst. Fernsehkunst ist stets ein Spiegel der aktuellen Diskurse in Kunst und Gesellschaft. In der bisherigen Forschung wurde Fernsehkunst als gescheitert und damit als nicht mehr existent angesehen. Die Stigmatisierung des Fernsehens als reines Unterhaltungs- und Informationsmedium führte dazu, dass Fernsehkunst als Begriff und als Kunstgattung im öffentlichen und im wissenschaftlichen Diskurs nicht vorkam. Die typologische und inhaltliche Analyse hat jedoch gezeigt, dass Fernsehkunst in klarer Abgrenzung zur Videokunst auch gegenwärtig existiert.
In der vorliegenden Arbeit wurden potentielle Kandidatengene für Periodische Katatonie und Schizophrenie untersucht. Es erfolgte eine strukturelle und funktioneller Promotoranalyse des Megalencephalic leukoencephalopathy with subcortikal cysts 1 (Mlc1/MLC1)-Gens, welches eine Rolle bei der Entwicklung der Megalenzephalen Leukoenzephalopathie spielt und auch für die Ätiogenese der Periodischen Katatonie diskutiert wird. Die in silico Promotoranalyse ergab, daß Bindestellen für wichtige Transkriptionsfaktoren und gängige Promotorelemente wie TATA- und GC-Boxen fehlten. Ebenso konnte in vitro keine Aktivität des Promotors nachgewiesen werden, was vermuten läßt, daß ein noch nicht identifiziertes Enhancer-Element oder einen Ko-Faktor für die Aktivierung des Mlc1-Promotors nötig ist. Als ein weiteres Kandidatengen für die Periodische Katatonie wurde das Gen für die mitotic checkpoint kinase BUB1B auf eine mögliche Ätiologie für die Periodische Katatonie untersucht. Aufgrund fehlender kausativer Mutationen konnte BUB1B als Kandidatengen für die Periodische Katatonie ausgeschlossen werden. Ein weiterer Teil dieser Arbeit umfaßte eine Studie zur Untersuchung der Gene für den nikotinergen Acetylcholinrezeptor (CHRNA7), des D-aminosäure Aktivators (DAOA) und des bromodomain containing protein 1 (BRD1) mit einer Assoziation zur Schizophrenie. Es konnte hierbei eine Assoziation von BRD1 mit Schizophrenie bestätigt werden.
Im Fokus der Dissertation steht das Spannungsfeld zwischen betriebswirtschaftlichen Zielen und unternehmerischer Sozialverantwortung. Dieses wird im Hinblick auf die Ebene des Arbeitsmarktes und die Beschäftigung von Menschen mit Behinderung im Tourismus untersucht. Das Ziel der Untersuchung ist die Identifikation des durch die sozialwirtschaftlichen Intentionen integrativer Hotels entstehenden gesamtgesellschaftlichen Nutzens. Ob integrativen Hotels der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt, wird hierbei ermittelt. Bei dem herangezogenen Untersuchungsobjekt integrativer Hotelbetrieb handelt es sich um Hotels, die Menschen mit und ohne Behinderung beschäftigen, als Integrationsprojekte anerkannt sind und vom Gesetzgeber als Unternehmen des allgemeinen Arbeitsmarktes definiert werden. Da es sich um ein in der Tourismuswissenschaft weitgehend unbekanntes Untersuchungsobjekt handelt, wird dieses grundlegend erläutert, sodass neben dem Konzept, den rechtlichen Rahmenbedingungen und den Fördermöglichkeiten auch eine situative Beschreibung integrativer Hotels in Deutschland Bestandteil der Arbeit ist. Da es sich um Betriebe handelt, die im Rahmen der Beschäftigung von Menschen mit Behinderung staatlich gefördert werden, ist darüber hinaus die fiskalische Bilanz der Beschäftigungssituation Integrationshotel Gegenstand der Untersuchung. Des Weiteren stehen die Werte, die integrative Hotels über monetär messbare Werte hinaus schaffen, im Mittelpunkt. Neben der sozial- und volkswirtschaftlichen Ebene findet auch die betriebswirtschaftliche Ebene Berücksichtigung. Sowohl Merkmale und interne Strukturen integrativer Hotelbetriebe als auch deren betriebswirtschaftliche Situation und deren Gäste werden in diesem Zusammenhang behandelt. Das Methodenspektrum der Untersuchung ist entsprechend des erläuterten Inhaltes der Arbeit vielschichtig. Neben der Analyse relevanter Literatur liefern Experteninterviews wesentliche Ergebnisse. Die Analyse der sozial- und volkswirtschaftlichen Ebene basiert zunächst auf der Sekundäranalyse vorhandener Daten und darüber hinaus auf der Analyse und Weiterentwicklung eines Bewertungsmodells. Im Rahmen der betriebswirtschaftlichen Analyse werden betriebliche/betriebsinterne Daten analysiert und die Methode der standardisierten Gästebefragung angewendet. Als Abschluss der Arbeit werden die Untersuchungsergebnisse zusammengefasst und die Übertragbarkeit sowie die gesellschaftliche Relevanz des Themas diskutiert. Durch die Zusammenfassung der zentralen Befunde wird der Nutzen, der durch das Wirken integrativer Hotels auf verschiedenen Ebenen entsteht, benannt. Mit der Identifikation des durch integrative Hotels entstehenden gesamtgesellschaftlichen Nutzens liefert die Arbeit einen erweiterten theoretischen Ansatz der Argumentationslinie für Integrationsprojekte in der Hotellerie und weist nach, dass diesen ein Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt. Die Balance zwischen den parallelen Motiven Wirtschaftlichkeit und Gemeinnützigkeit bzw. der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen ist zugleich der kritischste als auch der für den Erfolg integrativer Hotels entscheidendste Punkt. Die Herstellung eines Ausgleiches zwischen konträren Zielen ist dementsprechend die Voraussetzung für den maximal erreichbaren Zusatznutzen. Die Schlussfolgerung der Arbeit zielt jedoch nicht auf die ausnahmslos überall umzusetzende Integration von Menschen mit Behinderung im Teilarbeitsmarkt Tourismus ab, sondern weist auf das Potential eines erfolgreichen Ansatzes hin, der für die Entstehung eines eigenständigen Hoteltyps geeignet ist. Die Wahrnehmung der sozialen Verantwortung sollte hierbei jedoch nicht in den Vordergrund rücken, denn auch unter Einsatz des Alleinstellungsmerkmals Beschäftigung von Menschen mit Behinderung muss die vom Gast gebuchte touristische Dienstleistung vordergründig sein.
Die Arbeit widmet sich vor dem Hintergrund der globalen ökologischen Krise der Fragestellung, wie eine Ökologisierung der Hochschule aussehen könnte. Ziel ist es dabei, eine Konzeption für die Universität Trier zu erarbeiten, die auf Basis einer nachhaltigen Entwicklung die Ökologisierung der Universität Trier anstrebt. Nach einer Vorstellung des Leitbildes einer nachhaltigen Entwicklung werden die Aufgaben der Hochschulen gemäß der Agenda 21 analysiert und aus der COPERNICUS-Charta ("University Charter for Sustainable Development") fünf Kernbereiche für die Ökologisierung der Hochschule abgeleitet. Zudem geht die Arbeit auf die Aufgaben, Funktionen, Entscheidungs- und Organisationsstrukturen der Institution "Hochschule" sowie die Zielvorstellungen der Hochschulgruppen, auf die Hochschulkultur und das Thema "Hochschulreform" ein. Ob Ökologisierungen von privatwirtschaftlichen Unternehmen Hilfestellungen oder Ansätze für Hochschulen geben können, stellt eine weitere zentrale Frage dar. Es werden die Instrumentarien des Öko-Audits gemäß der EG-Öko-Audit-Verordnung und der ISO 14001 sowie Organisationsstrukturen des betrieblichen Umweltschutzes vorgestellt und die Möglichkeiten einer Übertragung auf Hochschulen diskutiert. Dabei geht die Arbeit auch auf das in der betriebswirtschaftlichen Literatur behandelte Konzept des Veränderungsmanagements ein, um herauszufinden, ob dessen Ansätze der Organisationsentwicklung und des organisationalen Lernens wichtige Erkenntnisse zur Ökologisierung der Hochschule beisteuern können. Des weiteren erfolgt eine Vorstellung von Umweltschutz- und Nachhaltigkeitsprojekten sechs ausgewählter Hochschulen, wobei diesen Projekten eine Ist-Zustandsbeschreibung der Umweltschutzorganisation und Nachhaltigkeitsaktivitäten der Universität Trier gegenübergestellt wird. Basierend auf den Erkenntnissen der im Rahmen der Arbeit durchgeführten Analysen und Interviews werden abschließend Vorschläge für Ökologisierungsmaßnahmen an der Universität Trier präsentiert.
Es wird eine Personenbezogene (differenzielle) Kontinuitätshypothese formuliert, in der angenommen wird, dass Personen, die kognitive Defizite als Folge massiven Alkoholkonsums erleiden, drei aufeinanderfolgende Schädigungsstufen durchlaufen. Ziel der vorliegenden Untersuchung war es, eine Prävalenzrate von Störungen der (selektiven) Aufmerksamkeit und der nonverbalen Intelligenzfunktionen als Maße für exekutive Funktionsstörungen und der Gedächtnisleistungen bei alkoholabhängigen Patienten zu Beginn einer medizinischen Rehamaßnahme zu ermitteln. Zudem wurde zu einem zweiten Messzeitpunkt eine Remissionsrate festgestellt. Im Zeitraum von November 2005 bis Ende April 2006 wurden in den Kliniken Wied 87 konsekutiv aufgenommene Patienten mit einer neuropsychologischen Testbatterie untersucht. Es zeigte sich eine Prävalenzrate von 49.4% für Beeinträchtigungen nicht sprachlicher Intelligenzfunktionen und von 43.7% für Störungen der selektiven Aufmerksamkeit. Gedächtnisdefizite traten lediglich bei 15% auf. Nach fünf Wochen fanden sich deutliche Verbesserungen der selektiven Aufmerksamkeit, während sich die Gedächtnisleistungen kaum verbesserten.
Die eigene Web-Präsenz hat sich für Unternehmen zu einem nicht mehr wegzudenkenden Instrument, einer flexiblen Schnittstelle zum Kunden, entwickelt. Mit ihr wird eine global erreichbare Anlaufstelle offeriert: Die Chancen der Online-Techniken nutzend ist dem Unternehmen mit seiner Web-Präsenz ein Medium für die "klassische" Werbung, darüber hinaus ein Direkt-Marketing- und Dialog-Medium sowie weiterhin ein eigenes Marktforschungs-Instrument an die Hand gegeben. Dessen Entwicklung und speziell sein Betrieb stellen für ein Unternehmen in verschiedenen Hinsichten eine ernstzunehmende Herausforderung dar. Aus organisatorischer Sicht ist hier die nicht einfach zu realisierende Integration der Web-Präsenz in das Unternehmen anzustreben: Nicht einem isoliert arbeitenden, technikverliebten Mitarbeiter, dem "`Webmaster"', obliegt die Pflege der Web-Präsenz als Allein-Zuständigen, sondern entsprechend ihren Zuständigkeiten übernehmen anteilig die in den Fachabteilungen des Unternehmens tätigen Arbeitskräfte diese Aufgabe. Aus technischer Sicht stellt eine moderne Web-Präsenz ein umfangreiches, und bei hoher Dynamik entsprechend komplexes Produkt dar, für dessen Realisierung nicht unerhebliche Anstrengungen unternommen werden müssen -- insbesondere dann, wenn die zugrundeliegende Technik den organisatorischen Anforderungen innerhalb des Unternehmens gerecht werden soll. Bedingt durch die hohe Innovationsrate im Umfeld der Internet-Technologie befinden sich die Anforderungen an die Betreiber einer Web-Präsenz in einem steten Wandel und erschweren damit den Unternehmen den Einstieg in dieses Medium. Gerade die in vielen Fällen in den Unternehmen noch eingesetzten proprietären Lösungen erfordern aus technischer Sicht einen hohen Integrationsaufwand, wenn die darin vorgehaltenen Informationen für die Web-Präsenz automatisiert einer Zweitverwendung zugeführt werden sollen. Über die zusätzliche Nutzung der Unternehmens-Web-Präsenz bzw. des Systems, mit dem sie erstellt und verwaltet wird, für die unternehmensinterne Arbeit, d.h. für das Intranet, kann der für das Unternehmen entstehende Aufwand relativiert werden. In das Bild des Lebenszyklus' einer modernen Web-Präsenz eingebettet, steht die Konzeption und Entwicklung eines an die im Umfeld des Web-Präsenz-Managements in Unternehmen vorzufindenden Randbedingungen flexibel anpassbaren Online-Redaktionssystems im Vordergrund dieser Arbeit. Zentraler Bestandteil seiner Konzeption ist die Idee, ein sich aus derart vielen separaten Elementen zusammensetzendes, komplexes Gesamtdokument wie eine Unternehmens-Web-Präsenz durch eine wachsende Mitarbeiterzahl -- direkt von deren jeweiligen Arbeitsplätzen aus -- gemeinsam aufzubauen und zu pflegen. Der Praxiseinsatz des bedarfsgerecht in seinen endgültigen Ausprägungen auf die speziellen Belange der Unternehmen maßgeschneiderten Systems begründet die konsequente Nutzung von Internet-Technologien sowie die auf offenen Standards basierende Implementation durch flexible plattformunabhängige Installation und einfache Integration. Im Anschluss an ein einleitendes Kapitel beschreibt diese Arbeit ausgehend von der Problemstellung sowie technischen Grundlagen die Konzeption, Implementation und den Einsatz des webbasierten Online-Redaktionssystems bevor eine Einordnung und schließlich die Zusammenfassung den Abschluss dieser Arbeit bilden.
Aus dem Wunsch, die zentralen Prozesse im System Boden"Pflanze"Atmosphäre einschließlich der Auswirkungen verschiedener Bewirtschaftungspraktiken zu verstehen und nachzubilden, resultiert die Entwicklung verschiedener Pflanzenwachstumsmodelle. Ziel der vorliegenden Untersuchung ist zum einen, die im Realsystem auftretenden räumlichen Ertragsmuster zu identifizieren und zu charakterisieren. Mithilfe der Semivariogramm-Analyse ist eine räumliche Autokorrelation der Ertragsdaten von maximal 48 Meter abzuleiten. Die räumliche Analyse (GIS) zeigt, dass die Sommergerste ein leicht abweichendes Verhalten im Vergleich zu den Winterkulturen (Winterweizen, Winterraps) aufweist. Schließlich werden mithilfe der selbstorganisierenden Merkmalskarten die primär und sekundär für das Ertragsverhalten verantwortlichen Ursachen identifiziert. Eine abschließende hierarchische Clusteranalyse gliedert die in die Untersuchung eingehenden Standorte in vier spezifische Cluster mit charakteristischen Eigenschaften. Ein zweites Ziel ist die Klärung der Frage, ob die Pflanzenwachstumsmodelle STICS und DAISY bei entsprechender Parametrisierung in der Lage sind, das für ein detektiertes Muster charakteristische Verhalten von Pflanzenwachstum und Ertrag realitätsnah abzubilden. Den Modellanwendungen gehen eine Sensitivitätsanalyse und verschiedene Parametrisierungsansätze zur Erfassung des jeweiligen Modellverhaltens voraus. In beiden Modellen übt der Bodenwasserhaushalt einen starken Einfluss auf die Ertragsbildung aus. Des weiteren kommt in beiden Modellen den Stressfaktoren eine zentrale Bedeutung zu. Die Parametrisierung der Modelle auf der Grundlage der im Feld erhobenen Daten führt bei beiden Modellen nicht zu einem dem Realsystem entsprechenden Bild. Eine über die Sensitivitätsanalyse hinausreichende, vertiefte Modellkenntnis ist erforderlich, um die in die Modelle eingehenden Parameter bzw. deren spezifischen Einfluss auf das Modellverhalten beurteilen und interpretieren zu können. Dies betrifft insbesondere die Modellgrößen der Bodenmodule. Dieser Aspekt erschwert eine einfache räumliche Übertragung der Modelle STICS und DAISY.
Auf der Grundlage der Beobachtung, dass Städte und Regionen in Deutschland signifikant unterschiedliche durchschnittliche Lohnniveaus aufweisen, macht es sich die Dissertation zur Aufgabe, die Gründe für die Divergenz regionaler Lohnniveaus in Westdeutschland zu erforschen. Theoretischer Ausgangpunkt der Analyse ist das Konzept der lokalen Humankapitalexternalitäten. Dieses besagt, dass der individuelle Bildungsstand eines Arbeitnehmers nicht nur für diesen selbst produktivitätsbestimmend ist, sondern darüber hinaus auch einen Einfluss auf die Produktivität anderer Arbeitnehmer in räumlicher Nähe ausüben kann. Das Vorliegen von Humankapitalexternalitäten ist für den deutschen Fall potenziell relevant, da sich beträchtliche Unterschiede in den durchschnittlichen regionalen Bildungsniveaus feststellen lassen. Die Dissertation untersucht daher, in welchem Umfang regionale Lohndisparitäten in Deutschland auf externe Produktivitätseffekte des regionalen Bildungsniveaus zurückzuführen sind und durch welche mikroökonomischen Mechanismen derartige Effekte entstehen. Diese Frage wird in vier thematisch eng miteinander verknüpften Artikeln beantwortet. Der erste Artikel stellt eine Überblicksstudie dar, in der die Literaturen zu regionalen Humankapitalexternalitäten und zur städtischen Lohnprämie hinsichtlich ihrer Ergebnisse und Methodik miteinander verglichen werden. Der Literaturvergleich zeigt, dass sowohl Agglomerationseffekte, als auch Humankapitalexternalitäten gültige Erklärungen für regionale Lohnunterschiede darstellen. Weiterhin werden die ökonometrische Methodik und die Identifikationsstrategien, die beiden Literaturen zugrunde liegen, verglichen. Es wird gezeigt, dass ein beträchtliches gegenseitiges Lernpotenzial zwischen beiden Literaturen besteht. Der zweite Artikel untersucht empirisch die Bedeutung von Humankapitalexternalitäten für die Divergenz regionaler Lohnniveaus in Deutschland. Es werden individuelle Lohngleichungen geschätzt, die um regionale Variablen erweitert werden. Einer möglichen Inkonsistenz der Schätzer wird durch den Einsatz von Instrumentvariablen begegnet. Die Ergebnisse weisen darauf hin, dass ebenso wie in anderen Ländern der regionale Humankapitalbestand auch in Deutschland einen signifikanten Einfluss auf die Löhne von Arbeitnehmern ausübt und somit zum Auftreten regionaler Lohndifferenziale beiträgt. Der dritte Artikel untersucht das Auftreten von Matchingeffekten als möglichen mikroökonomischen Mechanismus, durch den Humankapitalexternalitäten individuelle Löhne beeinflussen. Konkret wird überprüft, ob in humankapitalintensiven Regionen stärker ausgeprägte lokale Karrierenetzwerke bestehen, die durch einen besseren Informationsfluss im Hinblick auf Karrierechancen zu einer erhöhten Matchingeffizienz und damit zu höheren Löhnen in regionalen Arbeitsmärkten führen. Hierzu wird untersucht, ob sich signifikante Unterschiede zwischen humankapitaintensiven und humankapitalschwachen Regionen hinsichtlich des Lohnanpassungs- und Arbeitsplatzwechselverhaltens von Arbeitnehmern feststellen lassen. Die empirischen Ergebnisse zeigen, dass regionale Humankapitalexternalitäten unter anderem durch verbesserte Matches zwischen Arbeitnehmern und Unternehmen in humankapitalintensiven Regionen entstehen. Der vierte Artikel untersucht, ob erfolgreicher industrieller Wandel und regionale Humankapitalexternalitäten insoweit zwei Seiten derselben Medaille sind, als dass die produktivitätsbestimmende Wirkung des einen Einen das Vorliegen des Anderen voraussetzt. Die Ergebnisse deuten auf eine Komplementarität dynamischer Arbeitsmärkte und regionaler Humankapitalausstattungen hin. So weisen lokale Industrien eine signifikant höhere Produktivität auf, wenn sie in regionalen Arbeitsmärkten beheimatet sind, die gleichermaßen einen hohen Anteil hochqualifizierter Arbeitnehmer und eine überdurchschnittliche Arbeitsmarktdynamik aufweisen. Die Ergebnisse zeigen weiterhin, dass Humankapitalexternalitäten vor allem dann entstehen, wenn Arbeitnehmer ihren Arbeitsplatz innerhalb einer Region wechseln und damit zum Auftreten von produktivitätssteigernden Wissenspillovers und einer erhöhten Matchingeffizienz beitragen. Die Ergebnisse aus allen vier Artikeln untermauern die Bedeutung regionaler Humankapitalexternalitäten für das Entstehen regional unterschiedlicher Lohnniveaus. Hieraus erwachsen zwei zentrale Implikation für die regionale Bildungs- und Infrastrukturpolitiken, die im Schlusskapitel der Dissertation erörtert werden. So können staatliche Investitionen in Humankapital effizienzsteigernd wirken, da eine Unterinvestition in Bildung eine wahrscheinliche Folge beim Vorliegen von Humankapitalexternalitäten ist. Weiterhin können Infrastrukturinvestitionen zu einem Verschmelzen von humankapitalarmen mit humankapitalintensiven Arbeitsmärkten führen und somit eine größere Zahl an Arbeitnehmern an den positiven Produktivitätseffekten, die durch regionale Humankapitalexternalitäten entstehen, teilhaben lassen.
Im Rahmen der Vertrauensforschung ermöglicht das handlungstheoretische Partialmodell der Persönlichkeit von Krampen (1997) eine differenzierte Betrachtung der drei Vertrauenskonstituenten, interpersonales Vertrauen, Selbstvertrauen und Zukunftsvertrauen, welche auch als Vertrauens-Trias bezeichnet werden. Diese Vertrauenskonstrukte wurden in der vorliegenden Arbeit mit der klinischen Bindungsforschung und der differenziellen Allianzforschung in Zusammenhang gebracht. Vor diesem theoretischen Hintergrund wurde in der vorliegenden klinischen Studie die prognostische Bedeutung der Vertrauenskonstituenten für den Therapieerfolg an einer diagnostisch heterogenen Stichprobe von 280 Patientinnen und Patienten im Rahmen der Routineversorgung untersucht. Dabei wurden die Vertrauenskonstituenten sowohl auf generalisierter Ebene operationalisiert als auch auf bereichsspezifischer Ebene im Rahmen der therapeutischen Beziehung. Durch Item- und Skalenanalysen konnten die Eindimensionalität, Konstruktvalidität und Änderungssensitivität der in dieser Studie realisierten generalisierten und bereichsspezifischen Facetten von Vertrauen bestätigt werden. Die Analysen zur prognostischen Bedeutung der Vertrauens-Trias für den Therapieerfolg zeigten eine bedeutsame Varianzaufklärung durch die bereichsspezifischen Vertrauensskalen. Das bereichsspezifische Zukunftsvertrauen stellte dabei den varianzstärksten Prädiktor für den Therapieerfolg dar. Darüber hinaus wurde dieser Zusammenhang von der Art des Störungsbildes moderiert und lieferte damit einen wichtigen Hinweis auf die differenzielle Indikationsstellung für die psychotherapeutische Behandlung von Patientinnen und Patienten mit psychischen Störungen.
Aus dem Spektrum dadaistischer Kunst greift die Arbeit den Teilaspekt Masken und Puppen heraus und behandelt sie im Hinblick auf primitivistische und performative Intentionen. Angesprochen sind die Aufhebung von nationalen, künstlerischen und personalen Grenzen, die Permissivität kultureller Systeme, die Dynamik und Medialität von Kunst sowie Interaktionsprozesse von Künstlern und Rezipienten. Der gewählte Ansatz fasst die Puppen und Masken des Dada Zürich unter den Begriff des "Agenten": Sie waren plastische Objekte, die aufgeführt wurden und sich selbst aufführten, die nicht nur "performative" (Handlungen vollziehende), sondern "performatorische" (Handlungen provozierende) Funktionen hatten. Sie waren in der Lage, Kräfteverhältnisse von Künstlern, Werken und Betrachtern zu erzeugen und zu beeinflussen. Sie stehen außerdem für die objektgewordene Auseinandersetzung mit Fragen von Alterität und Genderstereotypen. Alterität bezeichnet im Dada nicht nur die labile Beziehung zwischen Individuen und ihren Repräsentationen, sondern auch die performative Relation von Künstlern und Objekten, von Künstlern und Rollenbildern und von Künstlern zueinander. Das Künstlersubjekt wird ebenso wie seine Objekt-Beziehung als wandelbar erfahren und das Konzept von Autorschaft in einem System des "Geschehenlassens" aufgehoben.
Die Dissertation illustriert die Entwicklung der angelsächsischen Sittenkomödie von den Theaterstücken der englischen Restoration Comedy der 1660er Jahre zu den Tonfilmen der Screwball Comedy in Hollywoods Glanzzeit der 1930er Jahre und deren Nachfolgern bis in das neue Jahrtausend. Zugleich wird die Genre-Evolution der hier erstmals so bezeichneten "Screwball Comedy of Manners" aufgezeigt und anhand zweier prototypischer Filmbeispiele (The Awful Truth, 1937 und Bringing up Baby, 1938) exemplarisch veranschaulicht. Die Arbeit entwirft also ein interdisziplinäres Panorama eines kommerziellen dramatischen Genres, dessen interkulturelle und intermediale Zusammenhänge bisher, insbesondere von der US-amerikanischen Filmgeschichtsschreibung, ignoriert oder als peripher abgewertet wurden. Die ungebrochene Aktualität und Attraktivität des Genres liegt im zentralen Sujet des Geschlechterkampfes begründet, der hier als spielerisches Kräftemessen zweier gleichberechtigter Gegner entworfen wird. Vor dem Hintergrund einer kultivierten, privilegierten Gesellschaft entfaltet sich das exzentrische Liebeswerben des elitären "gay couple" (des "heiteren", glücklichen Paares) als engagierter, nicht jedoch aggressiv-destruktiver "Wettkampf". Die "Kontrahenten" erleben ihren Antagonismus als Symptom, Motor und Basis des gegenseitigen Interesses - "Verlierer" sind nur die Rivalen des Paares, deren Mangel an Witz, Tempo und Flexibilität gnadenlos bloßgestellt wird. Die Transformationen, die die englischsprachige Sittenkomödie in mehr als drei Jahrhunderten naturgemäß durchläuft, sind jeweils Ergebnisse politischer, kulturhistorischer und medienästhetischer Gegebenheiten und widerlegen keineswegs eine literarhistorische Kontinuität des Genres. Interessanter als die offensichtlichen Unterschiede zwischen Restoration- und Screwball Comedy sind die frappierenden generischen Gemeinsamkeiten, die die Bezeichnung "Screwball Comedy of Manners" rechtfertigen. Das Genre bleibt für Zuschauer und Wissenschaftler nicht zuletzt ob seiner Fähigkeit interessant, sozio-kulturelle Konflikte (männliche vs. weibliche Dominanz, Individualität vs. Integration) scheinbar mühelos auszubalancieren. Liebe, Ehe, Partnerschaftlichkeit und Humor werden hier unsentimental, geistreich, psychologisch komplex und dennoch zutiefst optimistisch als untrennbare Komponenten individuellen und gesellschaftlichen Glücks präsentiert.
Insbesondere im wissenschaftlichen Bereich ist es zur Selbstverständlichkeit geworden, zur Befriedigung eines Informationsbedürfnisses zunächst das World Wide Web (Web) zu benutzen. Der komplexe Aufbau des Webs und die dort herrschende Unordnung machen das Auffinden bestimmter Dokumente zu einem diffizilen Vorgang. Suchmaschinen und Web-Verzeichnisse unterstützen den Benutzer hierbei; ihre effektive Nutzung ist jedoch nicht einfach. Es ist daher hilfreich, Suchdienste zu entwickeln, welche Kontextwissen mitbringen. In der vorliegenden Arbeit wird das Verfahren der thematisch spezialisierten Suche präsentiert und anhand der Menge der persönlicher Home Pages von Informatikern exemplifiziert. Der Bibliographie-Server DBLP.uni-trier.de liefert u.a. zu über 4.000 Wissenschaftlern manuell gesammelte persönliche Home Pages. Durch verschiedene Analysen werden in dieser Menge häufig vorkommende, also relevante Eigenschaften ermittelt. Dies ist ein kreativer Prozess, in den sowohl Suchwissen -- Wissen über Techniken des Suchens im Web -- als auch Fachwissen -- Wissen über die Beschaffenheit persönlicher Home Pages -- einfließen. Nach der Überprüfung dieser Eigenschaften auf ihre Signifikanz in der Gesamtheit der Web-Dokumente ist ein thematisch spezialisiertes Wissen erschaffen worden. Zur Durchführung der Suche würde man idealerweise alle Web-Dokumente mit Hilfe des erarbeiteten Wissens und des Anfrageterms -- des vollständigen Namens eines Informatikers -- untersuchen. Da das Web aus mehreren Milliarden Dokumenten besteht, ist dies praktisch nicht durchführbar: Es ist notwendig, eine geeignete Vorauswahl zu treffen. Suchmaschinen haben Daten zu vielen Web-Dokumenten erfasst. Deshalb wird mit ihrer Hilfe unter Verwendung des Anfrageterms eine Vorauswahl getroffen. Um nun die Dokumente der Vorauswahlmenge gemäß der Anfrage zu bewerten wird das thematisch spezialisierte Wissen adäquat in einer Bewertungsfunktion repräsentiert, welche jedem Dokument einen Wert zuweist und somit eine Rangfolge erstellt. Das Design der Bewertungsfunktion ist eine schöpferische Tätigkeit: Die sachgerechte Gewichtung der verschiedenen Eigenschaften bestimmt maßgeblich das Gelingen des Verfahrens. Der vornehmlich in Java implementierte, vollautomatisierte Web-Dienst HomePageSearch (hpsearch.uni-trier.de) führt regelmäßig für über 100.000 Namen diesen Suchvorgang durch. Der Benutzer kann auf das in einer DB2-Datenbank gespeicherte Ergebnis zurückgreifen. Durch die periodische Neuberechnung des thematisch spezialisierten Wissens wird der Dynamik des Webs Rechnung getragen. Der modulare und stark parametrisierte Aufbau des Systems erleichtert die Portierung des Verfahrens auf andere Mengen von Web-Dokumenten. Nicht zuletzt aufgrund der starken Verlinkung mit DBLP und ResearchIndex wird HomePageSearch von vielen Wissenschaftlern intensiv genutzt.
Die vorliegende Arbeit analysiert ausgehend von der Funktionalität der Dimension 'Natur' zum einen die Dramaturgie der Viebig'schen Novellen und zeigt zum anderen die zentralen diskursiven Felder auf, welche die Autorin aufgreift und zum literarischen Interdiskurs ausarbeitet. Weiterhin will diese Studie dazu beitragen, die Leistung der die Natur schildernden Passagen für das novellistische Œuvre Clara Viebigs über die literaturgeschichtlichen Kategorien Naturalismus und Heimatkunst hinaus neu zu überdenken. Zunächst bleibt festzustellen, dass die Bewertung der Dimension 'Natur' als heimatkünstlerisches Element oder gar Hommage an eine bestimmte Region zu kurz greift und der Leistung dieser Kategorie, die ein Hauptkriterium des literarischen Schaffens Viebigs darstellt, nicht gerecht wird. Denn Natur ist in Viebigs Werk vor allem ästhetische Kontrafaktur, die Elemente verschiedener Schreibtechniken der Jahrhundertwende in sich vereinigt. Viebigs Umgang mit Natur ist ein besonderer: Sie radikalisiert den Gebrauch der literarischen Landschaft sowohl auf der dramaturgischen als auch auf der expressiven Seite. Die Dimension 'Natur' präsentiert sich im Werk Clara Viebigs als polyvalentes Medium, das in den Dienst der Novellendramaturgie und der narrativen Inhalte gestellt wird. Als dramaturgisches Element ist Natur viel mehr als Kulisse, Tableau, Setting oder sentimentales Stimmungsbild. Neben der traditionellen Strukturierung von Raum und Zeit weist die Autorin der Kategorie ,Natur" einen festen Platz im fiktiven Figurentableau zu, lässt diese zum Mitspieler, zum Gegenspieler, zur Neben- und Hauptfigur des fiktiven Geschehens werden. Als 'gestimmter Raum' fungiert Natur außerdem als vermittelndes und verstärkendes Medium für Emotionen und Verhalten der menschlichen Figuren. Auch zur Erreichung der novellentypischen Konzentrierung des Epischen wird sie in die Pflicht genommen. Die Kategorie 'Natur wird von Clara Viebig ganz bewusst in der Novellenhandlung platziert und ist somit ein konstitutiver Teil und nicht etwa eine 'funktionslose Pause' in der Textkomposition. Neben diesen erzähltechnischen Aufgaben übernimmt Natur auch für die inhaltlich-expressive Seite der Texte eine gewichtige Funktion. Für das novellistische Œuvre Clara Viebigs konnten ausgehend von der Dimension ,Natur" vier zentrale diskursive Felder herausgearbeitet werden. Das erste Feld befasst sich mit dem von naturmythischen, pantheistischen Ideen und biologistisch-evolutionstheoretischen Gedanken beeinflussten Konzept der allmächtigen Naturgewalt, der 'magna mater' respektive der 'mater omnium'. Einen zweiten Schwerpunkt bildet das zumeist weibliche Verlangen nach individueller Entfaltung und selbstbestimmter Lebensführung. Fluchtbewegungen, ob räumlich, zeitlich, real oder imaginiert, haben Clara Viebig in ihrem Früh- wie in ihrem Spätwerk beschäftigt und bilden einen dritten inhaltlichen Schwerpunkt. Ein weiterer zentraler Wert, der Clara Viebig in all ihren Schaffensperioden beschäftigt hat, ist die Idee oder das Gefühl 'Heimat'. In ihren Texten präsentiert sich diese Denkform in einer Vielzahl von Facetten. Die Autorin bedient sich der Inhalte des gesellschaftlichen Heimatdiskurses ihrer Zeit und kreiert aus diesen einen eigenen literarischen Interdiskurs mit verschiedenen zum Teil disharmonischen Bedeutungsseiten. Felder übergreifend setzt sich Clara Viebig mit Themen rund um Weiblichkeit und Mutterschaft auseinander. Clara Viebig hat in ihren Novellen nicht nur unterschiedliche literarische Strömungen, wobei Naturalismus und Heimatkunst als prägendste Stilkomponenten und Gegensätze zu nennen sind, verarbeitet, sondern ebenso an zahlreichen gesellschaftlichen, ideologischen und literarischen Diskursen teil genommen und diese literarisch umgesetzt. Stets war sie an aktuellen Themen und Problemen interessiert und hat diese in ihrer Prosa, nicht immer eindeutig, diskutiert. Ausgehend von der Dimension ,Natur" zeigt der Blick auf Viebigs Werk, dass nicht etwa ein eindimensionales, sondern ein mehrdimensionales und ambivalentes Weltbild, in dem sich Charakteristika einer Vielzahl literarischer wie ideologischer Strömungen vermischen, vermittelt wird. Letztlich bleibt zu konstatieren, dass die Dimension ,Natur" im Novellenkonzept Clara Viebigs einen textkonstitutiven Mehrwert entfaltet, ohne den weder die Textdramaturgie noch die narrativen Inhalte bestehen können. Natur ist demnach als funktionale, Form und Inhalt konstituierende Kategorie das entscheidende Kriterium in Clara Viebigs Novellenwerk.
In 40 Referenzgebieten in Schleswig-Holstein sind im Zeitraum zwischen 1995 und 2002 Feldhasendichten (Lepus europaeus) mittels Scheinwerfertaxation ermittelt worden. Parallel dazu wurden in den durchschnittlich etwa 1000 ha großen Gebieten die Geheckdichten des Rotfuchses (Vulpes vulpes) sowie die Brutpaardichten des Mäuse-bussards (Buteo buteo) bestimmt. Die Feldhasendichten variierten im Frühjahr zwischen 1,2 und 85 Hasen/100 ha und im Herbst zwischen 5 und 127 Hasen/100 ha. Zur Analyse eines potentiellen Einflusses der landschaftlichen Gegebenheiten auf die Feldhasenpopulationen erfolgte eine digitale Erfassung der linearen Landschaftselemente. Außerdem wurden Flächennutzungskartierungen zur Feststellung der Ackernutzung durchgeführt. Zur Bestimmung des Klimaeinflusses wurden Temperatur- und Niederschlagswerte zu Dekadenmittelwerten zusammengefasst und mit der durchschnittlichen Höhe der Nettore-produktionsleistung und der Populationsdichte korreliert. Während die klimatischen Einflüsse nicht die Populationsdichte oder die mittlere Zuwachsleistung bestimmen, diktieren die Niederschlagssummen insbesondere der letzten beiden März- und der ersten beiden Aprildekaden die dichteunabhängige, annuelle Ausprägung des Nettozuwachses. Landschaftsparameter konnten nicht monokausal in Beziehung zur Konstitution der Hasenpopulation gesetzt werden, während sich enge Beziehungen mit negativem Vorzeichen zwischen dem Rotfuchsvorkommen und der Dichte des Feldhasen ergaben (p<0,01). In einer Multifaktorenanalyse wurde als dominierende Einflussgröße für das derzeitige Feldhasenvorkommen der Rotfuchs bestimmt. Die Anbauvielfalt in der Landwirtschaft scheint einen positiven Einfluss auf den langjährigen Reproduktionserfolg zu besitzen, wohingegen die Zahl der Mutterbaue des Rotfuchses eine höhere Reproduktionsleistung zu vereiteln scheint. Die Jagd auf den Feldhasen wurde als Form der nachhaltigen Nutzung herausgestellt. Die jaglich induzierte Sterblichkeit stellt eine teilweise kompensatorische Mortalität dar.
Zum Problem eines Bewusstseins bei Tieren am Paradigma der kantischen Theorie des Bewusstseins
(2012)
In einem ersten längeren Teil wird die These begründet und verteidigt, dass vor dem Hintergrund der Bewusstseins- bzw. Erkenntnislehre Kants, die vornehmlich den Menschen in den Blick nimmt, auch die Tiere als Züge transzendentaler Subjektivität aufweisend verstanden werden müssen. Im Anschluss daran wird diese Einsicht kritisch auf Kants Theorie menschlichen Bewusstseins und Erkennens bezogen. Es sind vornehmlich zwei Gesichtspunkte der Bewusstseins- bzw. Erkenntnistheorie Kants, die zur Begründung genannter These herangezogen werden: Zum einen die Lehre Kants von der Apriorität von Zeit und Raum als Formen der Anschauung eines transzendentalen Subjekts - insofern Tiere in Zeit und Raum anschauen, müssen auch sie über die apriorischen Anschauungsformen der Zeit und des Raumes verfügen; zum anderen die mit Kant aufzuweisende Abhängigkeit des Wahrnehmungsbewusstseins von nicht dem Vermögen der Sinnlichkeit zuzurechnenden Synthesisleistungen. Letztere sind vielmehr als von der Einheit eines transzendentalen Subjekts abhängig anzusehen, welche bzw. welches mithin auch bei Tieren zu veranschlagen ist. Vor dem skizzierten Hintergrund - und nachdem noch Kants Begriff des Organismus, des Lebens und seine Position zum Vorstellungsleben von Tieren nähere Betrachtung gefunden haben - werden in einem abschließenden Teil der Arbeit zwei Gesichtspunkte der kantischen Theorie menschlichen Bewusstseins kritisch diskutiert. Zunächst wird problematisiert, inwiefern Kants mindestens implizite These zu verteidigen ist, Vernunft weise gleichsam eine organologische Einheit auf, in der die einzelnen "Glieder" wechselseitig aufeinander bezogen sind und somit eine unauflösbare Einheit bilden. Die Notwendigkeit, auch Tieren transzendentale Subjektivität in bestimmtem Ausmaß zuzusprechen, scheint eine Aufspaltung besagter organologischer Einheit zur Folge zu haben. Des Weiteren wird erwogen, ob bei Tieren " nämlich insofern bei ihnen offenbar die Bewusstseinsebene vorliegt, die Kant beim Menschen die empirische Apperzeption oder den inneren Sinn nennt - nicht auch schon von Selbstbewusstsein zu sprechen ist. Es ist doch in ihrem wie in unserem Fall ein transzendentales Subjekt, das, insofern Zeit und Raum lediglich apriorische Anschauungsformen sind, sich selbst anschaut bzw. sich auch seiner selbst insofern bewusst ist. Es ist, so wird argumentiert, allererst Selbsterkenntnis, die den Menschen wesentlich vom Tier unterscheidet, nicht aber schon Selbstbewusstsein.
In den letzten Jahren führte die intensive Forschung im Bereich der Hochleistungskommunikationsnetze zu kontinuierlichen technologischen Verbesserungen. Gegenwärtig ist eine schnell wachsende Nachfrage nach mobilen Kommunikationssystemen wie Mobiltelefonen oder kabellosen Computernetzen zu verzeichnen. Parallel zu diesen Entwicklungen stiegen die Anforderungen an die Methoden zur Leistungsanalyse derartiger Systeme. Die Warteschlangentheorie stellt klassische Modelle zur Analyse von Kommunikationsnetzen bereit. Ein Bereich in der modernen Warteschlangentheorie sind die Matrixanalytischen Methoden. Hier konzentriert sich die Forschung auf den Batch Markovian Arrival Process (BMAP), welcher äquivalent zu Neuts Versatile Markovian Point Process ist, und Warteschlangensysteme mit diesem Ankunftsprozeß. Der BMAP ist eine Verallgemeinerung des Poisson Prozesses, des Markov Modulated Poisson Process (MMPP) und des Markovian Arrival Process (MAP). Das BMAP/G/1 Warteschlangensystem wurde analysiert von Ramaswami (damals noch mit der Bezeichnung N/G/1) und Lucantoni. Weitere Varianten wurden später untersucht. Die bisher betrachteten Ankunftsprozesse sind räumlich homogen und somit unabhängig vom aktuellen Zustand des Warteschlangensystems. In modernen Kommunikationsnetzen, wie z.B. ATM, kann jedoch ein dynamisches Routing erfolgen, so daß der Ankunftsstrom in einen Knoten vom aktuellen Zustand dieses Knotens abhängt. Dies war unser Ausgangspunkt für die Definition eines Level-abhängigen BMAPs und die Analyse des BMAP/G/1 Warteschlangensystems mit Level-abhängigen Ankünften. Letzteres stellt eine Verallgemeinerung des klassischen BMAP/G/1 Warteschlangensystems dar. Es umfaßt auch das BMAP/G/1 Warteschlangensystem mit beschränktem Warteraum. Im ersten Teil dieser Arbeit definieren wir einen Level-abhängigen BMAP und leiten wichtige Eigenschaften der Generatormatrix und der Übergangswahrscheinlichkeiten her. Wir zeigen, daß die Übergangsmatrix des Level-abhängigen BMAPs die Vorwärts- und Rückwärtsdifferentialgleichungen erfüllt und somit als Matrixexponentialfunktion der Generatormatrix darstellbar ist. Der zweite Teil befaßt sich mit der Analyse des BMAP/G/1 Warteschlangensystems mit Level-abhängigen Ankünften. Dieses Warteschlangensystem und die zugehörigen stochastischen Prozesse werden in Kapitel 2 eingeführt. Um die Grenzverteilung der Warteschlangenlänge zu bestimmen, verwenden wir die Methode der eingebetteten Markov Kette. In Kapitel 3 bestimmen wir die Einträge der Übergangsmatrix der eingebetteten Markov Kette und die mittlere Zahl Ankünfte während einer Bedienzeit. Stabilitätsbedingungen für das BMAP/G/1 Warteschlangensystem mit Level- abhängigen Ankünften werden durch Anwendung eines verallgemeinerten Foster Kriteriums hergeleitet. Im Level-unabhängigen Fall spielt die Fundamentalperiodenmatrix G die Hauptrolle bei der Bestimmung der Gleichgewichtsverteilung. In unserem Fall hängen die Fundamentalperioden vom Anfangslevel k ab. Daher erhalten wir verschiedene Fundamentalperiodenmatrizen G ( k ) für alle Level k >= 1 . Wir leiten zwei Algorithmen zur Berechnung dieser Matrizen her. Weiterhin zeigen wir, daß die Vektoren der mittleren Anzahlen Bedienabschlüsse während einer Fundamentalperiode die eindeutige Lösung eines unendlich - dimensionalen Systems linearer Gleichungen bilden. Mit diesen Ergebnissen kann die stationäre Verteilung der Warteschlangenlänge zu Bedienabschlußzeitpunkten bestimmt werden. Wir wenden ein Ergebnis aus der Theorie der Semi-Markov Prozesse an, um die Gleichgewichtswahrscheinlichkeiten für Level 0 zu erhalten. Um die Gleichgewichtswahrscheinlichkeiten der übrigen Level zu berechnen, verallgemeinern wir die Formel von Ramaswami. Die Grenzverteilung der Warteschlangenlänge zu beliebigen Zeitpunkten wird unter Verwendung des Hauptsatzes der Erneuerungstheorie hergeleitet. Im dritten Teil betrachten wir einige Spezialfälle. Zunächst nehmen wir an, daß der Phasenprozeß Level-unabhängig sei. In diesem Fall können wir einige unserer Ergebnisse erweitern. Insbesondere leiten wir eine stärkere Stabilitätsbedingung her. Wir beenden diesen Teil, indem wir zeigen, daß unsere Ergebnisse mit den für das klassische BMAP/G/1 Warteschlangensystem und das BMAP/G/1 Warteschlangensystem mit beschränktem Warteraum übereinstimmen. Zum Abschluß dieser Arbeit geben wir einige Hinweise für weitere Forschungen.
Schlagwörter sind Phänomene der Rhetorik. Sie sind in ihrem jeweils aktuellen Gebrauch evaluierend und evozieren bestimmte emotionale Reaktionen. Sie erhalten ihr positives oder pejoratives Konnotat abhängig von der Lebens- und Erfahrenswelt der Gesprächspartner, wobei auch eindeutig qualifizierende Schlagwörter entstehen können. Schlagwörter fokussieren die spezifischen Diskurse und geben dadurch gebündelt sowohl Konfliktfälle als auch reflektivische Momente bestimmter Gruppen in konkreten Zeitabschnitten wider. Anhand der lexikalischen Untersuchung von Schlagwörtern in deutschsprachigen, vorreformatorischen Schriften, sollen spezifische politische, religiöse und soziale Konflikte rekonstruiert werden.
The spatio-temporal changes of rangelands in the European Mediterranean are analysed with remote sensing and GIS-based methods, referring to an example of two mountain ranges in central Crete, Greece. The focus is to monitor and assess land degradation and its potential correlation with ecological and socio-economic boundary conditions. Particular attention is paid to the unique European Mediterranean setting and the Greek integration within the European Union. After a geometric correction of the satellite data, a radiometric pre-processing chain is employed to calculate reflectance values via a DEM-based atmospheric correction. The computation of pixel-wise soil and vegetation fractions is based on a spectral unmixing approach. A subsequent time-series analysis reveals spatially explicit trends, mean vegetation cover and phenological variability. Results do not only exhibit significant differences between the two test sites, but also within the respective regions. In both mountain ranges there extended areas with degrading vegetation patterns are revealed. However, along the Southern Cretan coast those processes are bound to a much lower base level of vegetation cover. Beyond trends and mean vegetation abundance, the phenological variability is another important figure which is employed to characterise plant communities from space. Moreover, a satellite-based map of soil development proves the correspondence between soil and vegetation degradation processes. Vegetation cover and change are then analysed with regard to aspect, slope, elevation and geological substrate to allow for a comparison of degradation processes and natural boundary conditions. In a second step, the analyses are extended to find interrelationships with socio-economic determinants. Based on these results the degradation risk for the grazing habitats of central Crete is assessed in differentiated ways. We neither encounter the scenario of irreversible degraded rangelands, nor a cultural landscape in an equilibrium under intense human influence.
In mehreren aktuellen Studien wurde bei Kindern und Erwachsenen ein Zusammenhang zwischen der Diagnose einer Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS) und dem Vorliegen eines erhöhten Gewichtsstatus bzw. Übergewicht und Adipositas nachgewiesen. Übergewicht und Adipositas entwickeln sich aufgrund einer mittel- bzw. langfristigen positiven Energiebilanz (Energieaufnahme > Energieverbrauch). Da ADHS zumeist mit vermehrter Bewegung bzw. Hyperaktivität einhergeht, welche sich steigernd auf den Energieverbrauch auswirkt, sollte sich eine positive Energiebilanz im Falle einer ADHS überwiegend durch eine erhöhte Energieaufnahme erklären lassen. In der vorliegenden Untersuchung wurde das Ess- und Ernährungsverhalten von 30 Jungen ohne sowie 47 Jungen mit einer ADHS nach DSM-IV im Alter von 8 bis 14 Jahren mittels verschiedener Methoden untersucht. Die Makrostruktur des Essverhaltens der Probanden im Alltag wurde mittels eines Ernährungstagebuches erfasst. Es zeigten sich v.a. eine geringere berichtete Energieaufnahme bei den adoleszenten Probanden mit ADHS, jedoch keine weiteren Unterschiede in der so erfassten Makrostruktur des Essverhaltens zwischen den Gruppen. Allerdings stellte sich ein erhöhter Gewichtsstatus auch als bedeutsamer Prädiktor einer Unterschätzung der konsumierten Nahrung heraus. Mittels Fragebogen wurde u.a. erfasst, wie problematisch und belastend die Mahlzeiten von den Eltern der Jungen erlebt werden. Ess- und Ernährungsprobleme stellten sich dabei als Teilaspekte der psychischen Gesamtauffälligkeit der Kinder heraus, während Eltern von Kinder mit ADHS sich im Vergleich dadurch als stressbelasteter erlebten. Letztlich wurde die Mikrostruktur des Essverhaltens der Probanden während einer Testmahlzeit im Labor untersucht. Die Jungen mit einer ADHS zeigten dabei v.a. eine größere Bissengröße sowie eine kürzere Essdauer. Die Befunde werden abschließend im Rahmen eines Modells zu impulsivem Essverhalten diskutiert.
Monatelange Wartezeiten auf einen ambulanten Psychotherapieplatz sind der Regelfall im deutschen Gesundheitssystem. Die Veränderung der Symptombelastung der Patienten in der Wartezeit ist bislang allerdings kaum empirisch untersucht worden. In der vorliegenden Arbeit wurden an einer Stichprobe ambulanter Psychotherapiepatienten die Ausprägungen und Veränderungen der allgemeinen psychischen Symptombelastung während der durchschnittlich sechsmonatigen Wartezeit auf den Psychotherapieplatz untersucht. Zudem wurde überprüft, mit welchen Merkmalen die Symptombelastungen zum Zeitpunkt der Anmeldung zur Therapie und zum Zeitpunkt des Erstgesprächs sowie ihre Veränderungen in der Wartezeit zusammenhängen. Die dabei untersuchten Persönlichkeitsmerkmale wurden aus theoretischen Rahmenmodellen abgeleitet. Hierzu gehören die aktionale Entwicklungspsychologie, das handlungstheoretische Partialmodell der Persönlichkeit mit der darin eingeordneten Vertrauens-Trias und das Androgynie-Modell der psychischen Gesundheit. Nach einem direkten Veränderungskriterium zeigten 48 % der Patienten in der Wartezeit keine bedeutsame Veränderung, 29 % eine Verbesserung und 23 % eine Verschlechterung. Durch die bei der Anmeldung erfassten Persönlichkeitsmerkmale konnten Verbesserungen, Verschlechterungen und gleichbleibende Symptombelastungen in der Wartezeit anhand einer multinomialen logistischen Regressionsanalyse für 60 % der Patienten korrekt vorausgesagt werden. Eine traditionelle normative Geschlechtsrollen-Orientierung stellt einen negativen Prädiktor für eine Verbesserung dar. Soziales Vertrauen konnte Verschlechterungen negativ vorhersagen. Bei Hoffnungslosigkeit handelt es sich um einen marginal negativen Prädiktor für eine Verbesserung. Ein hoch ausgeprägtes Selbstkonzept eigener Fähigkeiten ist ein positiver Prädiktor für eine Verschlechterung. Hinsichtlich der soziodemografischen und störungsbezogenen Merkmale konnten das Alter, das Geschlecht und die Anzahl der Diagnosen die Veränderungen der Symptombelastung in der Wartezeit zu 54 % korrekt vorhersagen. Das Alter ist ein positiver Prädiktor für eine Verschlechterung. Weibliches Geschlecht und die Anzahl an Diagnosen sind negative Prädiktoren für eine Verbesserung. Darüber hinaus wurden differenzierte Zusammenhänge zwischen den Persönlichkeitsmerkmalen und der Symptombelastung exploratorisch untersucht.
In the past twenty years considerable research has focused on the distinction between implicit and explicit measures of retention. In implicit memory tests, subjects are asked to perform a task that is apparently not related to a previous study phase, e.g. to produce category exemplars or to complete word stems. Implicit memory is revealed when the previous exposure to stimuli facilitates later performance in the implicit memory task relative to a nonstudied baseline performance. Implicit memory tests are contrasted with explicit memory tests, such as recall or recognition that require an intentional recollection of previous experiences. So far, only few studies on the development of implicit memory have been published. Despite the relative paucity of research with children, findings have been quite consistent: While explicit memory improves with age, no age differences were found in implicit memory tests. In these studies, however, mainly perceptual implicit memory tests have been employed. In recent studies with adults, dissociations have been observed between different implicit tests, especially between perceptual and conceptual ones. To draw conclusions about the developmental invariance of priming from findings using only one single type of test thus seems premature. In the present study, six experiments have been conducted that compared the memory performances of preschoolers and school-aged children using conceptual implicit tests (category production and word association). Conceptual priming effects rely on conceptual knowledge and conceptual processes (e.g., organization, semantic elaboration). Age-related improvements were found in both conceptual tests. This finding is interpreted in the context of a more elaborated knowledge base and enhanced processing abilities of older children. In contrast to the hypothesis that implicit memory is in general age-invariant, the results of this study suggest that at least conceptual implicit memory is influenced by developmental changes.
Diese Arbeit befasst sich mit den Poetiken von Botho Strauß und Rainald Goetz, in denen Zeit und Literatur sowie Zeiterfahrung und Sinnerfahrung auf der Ebene der Sinnkonstruktion in der Literatur eng verknüpft sind. Botho Strauß, ein reaktionärer Autor, und Rainald Goetz, ein anti-elitärer Pop-Autor, betrachten trotz ihrer gegensätzlich konzipierten poetologischen Programme die Literatur als den besten Möglichkeitsraum der Sinnherstellung und Sinnerfahrung. Davon ausgehend untersucht diese Arbeit ihre Poetiken, nämlich die Poetik der Erinnerung (Strauß) und die Poetik des Jetzt (Goetz) und versucht dabei, den Umgang der beiden Schriftsteller mit der Zeit, der Sprache und der Welt zu beleuchten. Grundlegend für die gesamte Analyse ist der Gesichtspunkt, dass es in ihren Poetiken unter anderem um ein Ereignis, um die ästhetische Erfahrung eines plötzlichen Augenblicks, geht, in dem man den im Alltag verlorenen Sinn wiedergewinnt oder das Sinnvolle, das Schöne und das Wahre als Unbeschreibbares und Neues entsteht. In dieser Arbeit gilt die These, dass sich ein solcher Augenblick, ein erfüllter Moment, insbesondere in der Sprache verwirklicht. Davon ausgehend kommt diese Arbeit zu dem Schluss, dass beide Autoren vor allem in der Schrift, wie auch überhaupt in der Kunst, die sogenannte Erlösung finden wollen.
Synergieeffekte und Kollaboration bei e-Learning-Anwendungen in selbstorganisierenden Computernetzen
(2009)
In den letzten Jahren haben sich mehrere neue Netzklassen im Bereich der Verteilten Systeme etabliert. Diese können unter Ausnutzung von Selbstorganisationsprinzipien und verschiedener kollaborativer Aspekte viele der netzinhärenten Probleme wie Skalierbarkeit, Latenz- und Lastverteilungsbetrachtungen sowie Konsistenzwahrung entschärfen. Gleichzeitig kann die Nutzung entsprechender Prinzipien zu positiven Synergieeffekten führen, die von den verschiedenen auf diesen Netzen aufsetzten Applikationsdomänen genutzt werden können. Von besonderer Bedeutung sind diese Aspekte für die beiden neuartigen Netzklassen der Multi-Hop Adhoc-Netze (MANETs) und der globalen virtuellen Umgebungen (MMVEs). Beiden Netzklassen ist gemeinsam, dass sie aufgrund der erwähnten Problemstellungen nicht mit traditionellen verteilten Architekturen, wie zentralistischen und monolithischen Systemen, umgesetzt werden können. Hier muss ein Paradigmenwechsel hin zu dezentralen, selbstorganisierenden Systemstrukturen erfolgen, um den angesprochenen Herausforderungen zu begegnen. Die erste in dieser Arbeit untersuchte Netzklasse der MANETs zeichnet sich dadurch aus, dass sie Nutzern erlaubt, immer und überall auf Ihre Daten zugreifen zu können und mit der vor Ort vorhandenen Infrastruktur transparent zu kommunizieren. Dabei erfolgen die Daten-zugriffe vermehrt über immer kleiner werdende mobile Endgeräte, die sowohl aufgrund ihrer inhärenten Mobilität als auch ihrer eingeschränkten Ressourcen daran angepasste Netzstrukturen erfordern. Die neuartige Netzklasse der MMVEs dagegen soll Dateninhalte in einem dreidimensionalen Rahmen und damit nativ und intuitiver als die vorherrschende zweidimensionale Darstellung, wie z.B. im Internet, präsentieren. Der Datenzugriff erfolgt hier meist über eine virtuelle Benutzerrepräsentation " einen Avatar. MMVEs basieren zwar im Vergleich zu MANETs in der Regel auf physisch verlässlichen Netzen, benötigen aber aufgrund der massiven Verteilung und der großen Nutzerzahlen neue Netzwerkarchitekturen. Die Anwendungsdomäne e-Learning eignet sich in diesem Zusammenhang besonders gut für wissenschaftliche Untersuchungen, da hier eine ähnliche Entwicklung beobachtbar ist, wie bei den eingangs erwähnten Netzklassen. Genauso wie mobile Endgeräte immer kleiner und ubiquitär verfügbar werden und das Internet praktisch an jedem Ort der Welt mit hoher Bandbreite nutzbar ist, finden e-Learning Inhalte immer mehr Einzug in das tägliche Leben. Während sie früher nur eine vernachlässigbare Ergänzung zu etablierten Schulungsformen darstellten, die mehr oder weniger invasiv und starr zentral administriert wurde, steigt Ihre Bedeutung besonders im Zusammenhang mit neuen Zugangsformen täglich. Besonders das Bedürfnis an Schulen oder Universitäten sowie bei der innerbetrieblichen Aus- und Weiterbildung, immer und überall verteilt, nativ und transparent auf entsprechende Lehr- und Lerninhalte zugreifen zu können, steigt mit dem wachsenden und teilweise rein wirtschaftlich bedingten Bedarf nach einer qualitativ hohen, kontinuierlichen gesellschafts- und technikdurchdringenden Grund- und Weiterbildung. Die geforderte Transparenz und Ubiquität kann für die angesprochene Anwendungsdomäne dadurch erreicht werden, dass spezielle, auf die neuartigen verteilten Netzstrukturen abgestimmte, Applikationen entwickelt werden, die die netzinhärenten Selbstorganisations-prinzipien explizit ausnutzen. Eine wichtige Fragestellung in diesem Zusammenhang ist, welche Auswirkungen ein solcher Paradigmenwechsel auf die Qualität der Wissens-vermittlung und der Inhalte hat. Erste Evaluationen mit prototypischen Applikationen haben gezeigt, dass dieser Wechsel problemlos möglich ist. Dabei spiegeln auftretende Synergie-effekte die Abbildung auf soziale Netze wieder, die beiden Aspekten inhärent zugrunde liegt und einen Mehrwert erzeugen, der die dabei auftretenden technischen Herausforderungen und Probleme relativiert. Entsprechende Effekte lassen sich sogar noch weiter verstärken, indem kollaborative Aspekte sowohl auf Applikationsebene als auch in den darunter liegenden Basisstrukturen ausgenutzt werden. Die vorliegende Arbeit soll diese Annahmen durch adäquate Beispiele aus beiden Bereichen (MANETs und MMVEs) aus verschiedenen Perspektiven beleuchten und anhand von beispielhaften Anwendungen und darauf aufbauende Evaluationen den Synergiegewinn von e-Learning Applikationen und mögliche kollaborative Aspekte in diesem Umfeld aufzeigen.
Die Eisenbahn entwickelte sich im 19. Jahrhundert zum bedeutendsten Landverkehrsträger mit überragender gesellschaftspolitischer Bedeutung. An der Schwelle zum 20. Jahrhundert war der ehemals starke Einfluss privater Eisenbahnunternehmen nur noch gering. Verstaatlichte Bahnen waren der Regelfall. Interessengruppen, die die Verstaatlichungspolitik Bismarcks gefördert hatten, wurden dafür belohnt. Das Staatsmonopol behinderte private Kleinbahnen und produzierte im System Schiene viele Transportkettenbrüche. Die politische Einflussnahme der verstaatlichten " später verreichlichten " Bahnen beschränkte sich auf defensive Maßnahmen mit der Zielsetzung, Besitzstände zu wahren. Die Vertreter des aufstrebenden Kfz nahmen offensiv auf die politische Spitze Einfluss, um ihre Ideen und Pläne (z. B. von einem gesamtdeutschen Autobahnnetz) voranzubringen. Trotz der Behinderung durch die Deutsche Reichsbahn-Gesellschaft wurde das Kfz immer populärer. Im Dritten Reich setzte die Naziregierung auf das Auto und ließ " mit maßgeblicher Unterstützung durch die Reichsbahn " den Grundstein für das deutsche Autobahnnetz legen. Nach dem Zweiten Weltkrieg blieb die dualistische Verkehrsmarktordnung bestehen. Auto- und straßenbauaffine Verbände erlangten immer größeren Einfluss auf die deutsche Verkehrspolitik. Die Behörde "Bundesbahn" verhielt sich vergleichsweise passiv und setzte fast keine eigenen offensiven Akzente in wichtigen verkehrspolitischen Prozessen. Die Auto- und Straßenbaulobbyarbeit war sehr erfolgreich (Beispiel: Einfüh-rung der Kilometerpauschale). Verkehrspolitik gab es im Bereich des Güterverkehrs immer noch eine Schutzpolitik für die Schiene, die sich in zahlreichen Behinderungen für den gewerblichen Straßengüterverkehr ausdrückte. Erst mit den Arbeiten der Regierungskommission Bundesbahn gelang es Interessenvertretern der Eisenbahn, offensiv und aktiv an einem wichtigen verkehrspolitischen Prozess mitzuwirken. Kennzeichen der Lobby- und Öffentlichkeitsarbeit von modernen Großunternehmen ist ihr dialogorientierter Charakter. Auf Seiten vieler Mitarbeiter der DB AG aber auch bei vielen politischen Entscheidern herrscht auch im Jahr 2001 noch "Bundesbahndenken" vor. Dies führt beim Auftreten der DB AG im politischen Raum häufig zu Erschwernissen und Missverständnissen. Diese können mittel- und langfristig zu negativen Folgen für den Unternehmenserfolg der DB AG führen. Im Politikfeld Raumordnung finden sich zahlreiche Rahmenbedingungen, die sich auf die Wettbewerbsfähigkeit der DB AG nachteilig auswirken. Zwar gibt es raumordnerische Leitbilder und Zielsetzungen, die die Bevölkerungsentwicklung vor allem in die Nähe von Haltepunkten und Achsen des Schienenverkehrs steuern wollen. Die Umsetzung dieser Zielsetzungen mit Hilfe raumordnerischer Instrumente gelang in den letzten Jahrzehnten nur äußerst begrenzt. Darüber hinaus sind das Bauge-setzbuch " im Zusammenwirken mit weiteren Rahmenbedingungen, wie z. B. der immer noch gültigen Reichsgaragenordnung " einseitig autoorientiert. Die Netz- bzw. Systemqualität der Verkehrsträger Straße und Schiene ist höchst unterschiedlich. Dies führt zu erheblichen Konsequenzen für die jeweilige politische Einflussnahme. Ziele der politischen Einflussnahme im Politikfeld Raumordnung sind (vor dem Hintergrund einer Verkehrsverlagerung von der Straße auf die Schiene, bzw. auf den Umweltverbund), die Zugangszeit für größere Teile der Bevölkerung zum System Schiene zu verringern und die Bevölkerungsdichte im Einzugsbereich von Zugangspunkten zum System Schiene zu erhöhen. Dies ist eine strategische Zielsetzung, die langfristig den wirtschaftlichen Erfolg von Schienenverkehrsunternehmen beeinflusst. Mit einem Lobbykonzept können die Maßnahmen in diesem Politikfeld systematisch geplant werden. In das entsprechende Konzept gehen Erkenntnisse aus der historischen Analyse der Entwicklung der verkehrspolitischen Rahmenbedingungen genauso ein wie die Ergebnisse einer Analyse im bahnpolitischen Umfeld, die von Oktober 2000 bis Januar 2001 durchgeführt wurde.
"Tempelsklaverei" in Kleinasien: Ein Beitrag zum Tempeldienst in hellenistischer und römischer Zeit
(2007)
Der Begriff "Tempelsklaverei" bezeichnet in der Forschung eine rechtliche und ökonomische Abhängigkeit von Menschen, die einer Gottheit geweiht waren, und in einem Heiligtum arbeiten mußten. Die "Tempelsklaverei" gilt als typisch kleinasiatische Erscheinung mit einer orientalischen Tradition. Bezeugt ist sie in vorwiegend epigraphischen und wenigen literarischen Quellen seit der Mitte des 4. Jhs. v.Chr. bis in das 3. Jh. n.Chr. Eine Besonderheit dieser "Tempelsklaverei" ist, daß nicht nur Sklaven, sondern auch persönlich freie Menschen in sozialer, rechtlicher oder ökonomischer Abhängigkeit von einem Heiligtum standen. Welche Aufgaben im Heiligtum den sog. Tempelsklaven anvertraut wurden und worin ihre rechtliche und ökonomische Abhängigkeit im einzelnen bestand, ist Thema dieser Arbeit. Unter dem Begriff "Tempelsklaven" werden in der Forschung folgende griechische Begriffe subsumiert: hieródoulos und hierós (und feminine Formen), sómata hierá und paídes hieroí. Diese Begriffe werden anhand zahlreicher Texte mit Übersetzungen vorgestellt und ausgewertet (Kapitel 2). Sie werden in Kleinasien nicht als Synonyme verwendet; einige bezeichnen darüber hinaus nicht nur Menschen im Tempeldienst, sondern definieren andere religiöse Bindungen, die keinem Dienst in einem Heiligtum entsprechen. Auf der Basis der bislang besprochenen Quellen sowie weiterer epigraphischer und literarischer Quellen werden die Wege in den Tempeldienst untersucht. In Frage kommen vor allem Weihung, Kindesaussetzung und das Tempelasyl (Kapitel 3). Um die rechtlichen und ökonomischen Aspekte des Tempeldienstes schärfer zu fassen, werden diese mit den wesentlichen Elementen der antiken Sklaverei sowie von kollektiven Abhängigkeitsformen persönlich freier Menschen verglichen (Kapitel 4) . Zur Sprache kommt auch die sakrale Prostitution (Tempelprostitution), die mit den "Tempelsklaven" häufig in Verbindung gebracht wird. In der Zusammenfassung werden die wesentlichen Ergebnisse zusammengefaßt und knapp diskutiert, warum in der älteren Forschung ein nicht zutreffendes homogenes Bild einer kleinasiatischen bzw. orientalischen "Tempelsklaverei" gezeichnet wurde (Kapitel 5). Ergebnis der Arbeit: "Die" Tempelsklaverei als eine besondere rechtliche Form von Abhängigkeit oder Unfreiheit gibt es im hellenistischen und römischen Kleinasien nicht. Nachweisbar sind unterschiedliche Formen der rechtlichen, sozialen und wirtschaftlichen Bindung an eine Gottheit und ihr Heiligtum. Diese beruhen in weiten Bereichen auf bekannte Rechtsformen der griechisch-römischen Antike: Sklaverei und kollektive Abhängigkeit ländlicher Gemeinden. Im hier bearbeiteten Zeitraum sind die orientalischen Traditionen weitaus weniger nachweisbar als bislang vermutet wurde.
Die vorliegende Arbeit entstand im Rahmen des EU INTERREG NWE IVB Projektes "ForeStClim - Transnational Forestry Management Strategies in Response to Regional Climate Change Impacts". Zum Zweck der Verbesserung des Prozessverständnisses von Abflussprozessen in Wäldern sowie zur Validierung und Weiterentwicklung eines GIS-basierten Tools (GIS-DRP) zur Erstellung von Abflussprozesskarten wurden auf 25 Test-Plots in vier Einzugsgebieten in Rheinland-Pfalz und dem Großherzogtum Luxemburg boden-hydrologische Untersuchungen durchgeführt. Auf Grundlage dieser Untersuchungen konnten große intraspezifische Unterschiede im Abflussverhalten von Waldstandorten erhoben werden. Die Differenzen werden dabei hauptsächlich durch das Substrat, die bodenphysikalischen Eigenschaften, die Nutzung bzw. deren Intensität und die Vorfeuchte bedingt. Es wurde nachgewiesen, dass Wälder generell hohe Infiltrationsraten aufweisen und verzögerte Zwischenabflussprozesse begünstigen. Durch einen prinzipiell naturnahen Waldbau und etwaige Meliorationsmaßnahmen auf Niederertragsstandorten bestehen zudem Möglichkeiten positiv auf die Wasserretention und das Wasserspeichervermögen eines Forstbestandes einzuwirken. Die mittels GIS-DRP erstellten Abflussprozesskarten der vier Testgebiete wurden durch die Ergebnisse der Geländeuntersuchungen sowie der Abflussprozesskartierung nach SCHERRER (2006) validiert. Hierdurch wurden für die Abflussgenerierung wichtige Parameter ermittelt und Optimierungsansätze erarbeitet, welche anschließend in GIS-DRP implementiert werden konnten. Verschlämmungsprozesse auf Ackerflächen können nun durch das modifizierte GIS-DRP-Werkzeug identifiziert werden. Zudem war es möglich, Extrem-Ereignis basierte Abflussprozesskarten zu etablieren, die Hot Spots der Abflussgenerierung identifizieren können. Die Einführung des Abflussprozesses "dSSF" (tiefer Zwischenabfluss) wurde durch eine neue Klassifizierung des geologischen Ausgangssubstrates erreicht. Forstwirten und Entscheidungsträgern im Waldmanagement wird somit die Möglichkeit geboten, Expertenwissen in ihre Planungen einfließen zu lassen. Hierdurch kann zum einen positiv auf den Landschaftswasserhaushalt eingewirkt werden, da gezielt auf Flächen nachteiliger Abflussbildung geeignete Maßnahmen des dezentralen Hochwasserschutzes angewandt werden können. Zum anderen werden Potentiale für bestmögliche Waldwachstumsvoraussetzungen in einem Landschaftsraum aufgezeigt. Der nachhaltigen Nutzung von Wäldern wird somit auch im Kontext des Klimawandels Rechnung getragen.
In der Forschung zur aktuellen Prozessdynamik der Bodenerosion sind Niederschlagssimulationen mit kleinen mobilen Beregnungsanlagen (KBA) ein unverzichtbarer Bestandteil. Weltweit werden sehr viele KBA unterschiedlicher Bauart, Plotgrößen, Tropfenerzeugung, Niederschlagsintensitäten, und -spektren eingesetzt. Eine Standardisierung der Anlagen ist aufgrund der Verschiedenheit der Forschungsfelder und -fragen nicht in Sicht. Darüber hinaus sind die erzeugten Niederschläge (Nd) der Anlagen unzureichend genau charakterisiert und es liegt keine einheitliche Datenbasis aller relevanten Parameter vor. Zudem werden mit KBA bisher ausschließlich Starkregen unter windstillen Bedingungen simuliert, obwohl Wind einen deutlichen Einfluss auf fallende Regentropfen ausübt. Die vorliegende Arbeit gliedert sich in drei Teile: (1) Weiterentwicklung und Anwendung von KBA: Wie lässt sich die Performance der Trierer KBA optimieren und eine einheitliche Mess- und Kalibrierungsmethode für den simulierten Niederschlag definieren? Welche Anforderungen, Möglichkeiten, Grenzen und Anwendungsbereiche gibt es? (2) Vergleich verschiedener Typen von KBA im Gelände: Inwieweit sind Nd-Charakteristika, Oberflächen-¬abflussgenerierungen und Bodenabträge europäischer KBA vergleichbar? (3) Implemen-¬tierung von windbeschleunigtem Regen in KBA mit dem neuen mobilen Trierer Windregenkanal (WiReKa): Wie kann Wind in ein KBA-Setting integriert werden? Wie sind Unterschiede von Erosionsraten mit und ohne Windeinfluss in-situ zu quantifizieren und wie hoch fallen sie aus? Im ersten Teil der Arbeit wurde zunächst die Nd-Charakteristik der langjährig von der Physischen Geographie eingesetzten KBA mit unterschiedlichen, weltweit angewandten Messmethoden untersucht. Dabei zeigten sich einige Schwächen der KBA bezüglich ihrer Funktionalität. Der Einsatz verschiedener Mess-¬methoden zur Charakterisierung des künstlich erzeugten Nd führte zu sehr unterschiedlichen Ergebnissen. Mittels Laser-Niederschlags-Monitor (LNM) und Nd-Sammlern wurde daher ein einheitliches Testverfahren entwickelt, das eine detaillierte Aufnahme, Auswertung und Darstellung der relevanten Nd-Parameter nahezu aller KBA-Designs ermöglicht. Mit Hilfe dieses Testverfahrens wurden Nd-Charakteristik, Funktionalität und Mobilität der Trierer KBA durch technische Veränderungen deutlich verbessert. Alle Parameter dieser Anlage sind nun bekannt und lassen sich zuverlässig reproduzieren. Die Anforderungen, Möglichkeiten und Grenzen des Einsatzes von KBA wurden detailliert erarbeitet und beschrieben. Auf dem "International Rainfall Simulator Workshop" in Trier konnte mit 40 Wissenschaftlern aus 11 Nationen Einigkeit über grundlegende Aspekte beim Bau und Einsatz von KBA erzielt werden. Der zweite Teil der Arbeit stellt die Arbeitsmethoden und Ergebnisse eines in internationaler Kooperation durchgeführten Projektes zu Messmethoden und Vergleichbarkeit von Simulatordesigns und Nd-Charakteristika unterschiedlicher europäischer KBA vor. An 13 Instituten in Deutschland, den Niederlanden, der Schweiz und Spanien wurde mit dem Trierer Testverfahren eine einheitliche Datenbasis aller wesentlichen Nd-Parameter erstellt. Im praktischen Teil des Rainfall Simulator Workshop in Trier wurden dann vergleichende Versuche mit sieben KBA auf einer universitätsnahen Versuchsfläche zur Oberflächenabflussgenerierung und zum Bodenabtrag durchgeführt. Vor allem die (maximale) Sedimentkonzentration einer Simulation hat sich dabei als gute Vergleichsgröße herausgestellt. Differenzen in den gemessenen Oberflachenabfluss- und Sedimentmengen sind ganz klar unterschiedlichen Nd zuzuordnen. Der zeitliche Ablauf des Oberflächenabfluss- und Erosionsverhalten differiert dagegen nur bei zunehmender Plotgröße. Im dritten Teil der Arbeit wird analysiert, wie windbeschleunigter Regen in einer KBA simuliert werden kann. Darüber hinaus wurde eine spezielle Testreihenfolge für die Erosionsmessungen entwickelt, deren Praktikabilität sich in der Anwendung bewährt hat. Es konnten stark erhöhte Abtragsraten aufgrund der Zuschaltung von Wind zu der Regensimulation auf kohäsionslosem sandigen Substrat quantifiziert werden. Das Dissertationsprojekt kann auf mehreren Ebenen als erfolgreich angesehen werden: Die Arbeit mit den Trierer KBA konnte qualitativ verbessert werden insofern, als die Anlagenparameter optimiert und die Güte der produzierten Daten gewährleistet werden konnte. Darüber hinaus konnten die gewonnenen Erkenntnisse durch eine gezielte internationale Vernetzung in Wert gesetzt und die Zusammenarbeit auf der operationalen Ebene gestärkt werden.
In light of the severe air pollution in Trier, restrictions of motorized traffic and the associated personal willingness to do so are absolutely essential. Yet before an effective model of intervention can be developed, the following questions must be addressed from an analytical and conditional perspective: Which motives underlie the willingness of the citizens of Trier to reduce their personal automobile use or to participate actively in a political way with respect to traffic? Do they do this because of their own responsibility-related and justice-related beliefs or from purely rational and self-interest oriented calculations? The results of a questionnaire study (N = 369) could show that the postulate of the rational choice theory is not tenable with the dominance of the self-interest motive. Instead, there is a pluralism of motives based on responsibility, justice, and self-interest related cognitions and emotions that form the basis of the willingness to act with respect to traffic. The interviewees in Trier are, above all, willing to actively speak up in favor of local political measures for reducing traffic when they regard these measures as fair; are outraged about the low commitment of other citizens, but also expect personal benefits from such measures. In the first place, specific internal and external control beliefs are relevant for the reduction of personal automobile use. Other important influential factors here also include outrage over the low commitment of others and the expectation of personal benefits. The results of this study allow specific starting points to be derived for developing interventions aimed at the reduction of the amount of traffic in Trier. Moreover, important from the practical point of view of intervention, general lifestyle analyses identified seven lifestyle clusters which make it possible to design intervention programs specifically for the target groups, thus allowing intervention programs to be organized more effectively.
Gegenstand dieser corpusbasierten textlinguistischen Studie ist die Entwicklung eines holistischen und integrativen texttheoretischen Beschreibungs- und Analyseapparates für Hypertexte, um eine tragfähige Basis für linguistische Untersuchungen an umfassenderen Corpora zu schaffen. Es werden sowohl traditionelle Text- und Diskursanalysemethoden als auch neuere interdisziplinäre, zum Teil bereits an Hypertexten ausgerichtete textlinguistische Modelle im Hinblick auf deren Praktikabilität und Adäquanz zum Untersuchungsgegenstand erprobt und evaluiert. Die Studie ist in zwei Teile geliedert: Teil A erörtert grundlegende Konzepte der Hypertextforschung, führt die für den texttheoretischen Rahmen relevanten linguistischen Kriterien, Konzepte und Modellierungen ein und beleuchtet diese kritisch anhand exemplarischer Betrachtungen von Hypertext-Lesarten. Die Auswahl der (text-) linguistischen Modelle zur Hypertextanalyse erfolgt vor dem Hintergrund, dass neben traditionellen systemlinguistisch-strukturalistisch orientierten Ansätzen und pragmalinguistischen Konzeptionen auch neuere diskurssemantische Modellierungen, wie die Grundprinzipien der Sequenzanalyse und das Quaestio-Modell (nach Klein / von Stutterheim 1991), jeweils komplementär in die Analysekontexte miteinfließen. Teil B bildet den empirischen Schwerpunkt der Studie und sieht die Anwendung des in Teil A eingeführten integrativen textlinguistischen Untersuchungsapparates auf ein umfassendes Hypertextcorpus vor. Grundlage ist ein komplexer Hypertext eines deutschen Unternehmens, der aus den oben genannten, mitunter komplementären (text-)linguistischen Perspektiven analysiert wird. Die Ergebnisse der Corpusstudie werden abschließend einer qualitativen und quantitativen Interpretation unterzogen.
Falsche Erinnerungen sind eine Gedächtnisillusion und dadurch gekennzeichnet, dass Ereignisse oder Informationen erinnert werden, die gar nicht stattgefunden haben bzw. präsentiert wurden. In der vorliegenden Arbeit wurde in insgesamt fünf Experimenten anhand des Deese/Roediger-McDermott- (DRM) Paradigmas untersucht, ob Vorschulkinder empfänglicher für falsche Erinnerungen sind als ältere Grundschulkinder und junge Erwachsene. Ausgehend von dem Aktivierungs-Monitoring Ansatz wurde darüber hinaus geprüft, inwieweit etwaige alterskorrelierte Veränderungen in falschen Erinnerungen auf Unterschiede in den Fähigkeiten zur Quellenkontrolle und/oder auf Unterschiede in der Wahrscheinlichkeit der Aktivierung der kritischen Wörter zurückgehen. Im ersten Experiment wurden neben einem abschließenden Wiedererkennenstest zwei verschiedene implizite Testverfahren eingesetzt, die nur Aktivierung ohne Quellenkontrolle erfassen. Da sich aus den Ergebnissen von Experiment 1 keine eindeutigen Schlüsse über alterskorrelierte Veränderungen der Aktivierungsstärke ziehen ließen und ein Indikator für die Quellenkontrolle eingesetzt werden sollte, wurden in den folgenden drei Experimenten explizite Testverfahren verwendet (Experiment 2: Freie Reproduktion, Experiment 3A und Experiment 3B: Wiedererkennenstest). Um die Aktivierung der kritischen Items ohne entgegenwirkende Quellenkontrolle zu prüfen, wurden Inklusionsinstruktionen erteilt. Die Quellenkontrolle wurde separat durch Nachbefragungen erfasst. Zur Förderung der Aktivierung bei Kindern, wurden in Experiment 3B und 4 spezielle Lerninstruktionen erteilt, die eine semantisch-relationale (3B) bzw. eine itemspezifische und semantisch-relationale Verarbeitung der Wortlisten verlangten (4). Im letzten Experiment (4) sollte die Quellenkontrolle differenzierter untersucht werden, in dem ein Quellentest eingesetzt wurde, der nach beiden möglichen Quellen fragte. In allen Experimenten zeigte sich eine geringe alterskorrelierte Zunahme der Aktivierung kritischer Items, aber deutliche alterskorrelierte Verbesserungen der Quellenkontrolle. Die Befunde zu falschen Erinnerungen in den verschiedenen Experimenten waren je nach Lern- und Testbedingung unterschiedlich: Die Ergebnisse deuteten sowohl auf eine alterskorrelierte Zunahme als auch auf eine alterskorrelierte Abnahme hin.
Deutschland befindet sich mitten im demographischen Wandel, woraus sich tiefgreifende, langfristige Auswirkungen sowohl auf das Konsumverhalten als auch auf die Konsumstruktur ergeben. Vorliegende Arbeit fokussiert die Veränderung der Nachfragepotentiale im Tourismus, die aus dem demographischen Wandel resultieren. Ziel war es, Daten zur demographischen Entwicklung mit zu erwartenden Veränderungen ausgewählter sozioökonomischer Faktoren und hierbei konkret der Haushaltsgröße, des Bildungstandes sowie des Äquivalenzeinkommens zu verbinden und systemendogen zu erklären.
Mit Hilfe eines mehrstufigen Verfahrens wurde dargelegt, wie sich die relevanten sozioökonomischen Faktoren im Zuge einer alternden Gesellschaft verändern und welche Konsequenzen sich daraus für die quantitative, strukturbedingte Nachfrage nach touristischen Leistungen bis zum Jahr 2030 ergeben. Die ökonometrische Grundlage für die Prognosen bilden unterschiedliche binär-logistische Regressionsanalysen auf der Basis der Scientific Use Files der Reiseanalyse 2010, woraus sich Wahrscheinlichkeiten für die Teilnahme an einer mindestens fünftägigen Reise, einer Kurzreise sowie an unterschiedlichen Reisearten generieren lassen. Die additive Form des Modells der logistischen Regression macht es dabei möglich, den Fokus auf einen sozioökonomischen Faktor oder auf das Zusammenspiel mehrerer Variablen zu setzen und somit die Wirkungsstärke der einzelnen Faktoren auf die Nachfrage zu bestimmen.
Bei der Berechnung der künftigen Anzahl an Reisenden, führt die Endogenisierung der Struktureffekte altersklassenübergreifend zu (deutlich) höheren Prognoseergebnissen als im Falle einer rein demographischen Betrachtung. Für die Teilnahme an einer Reise mit einer Dauer von mindestens fünf Tagen prognostiziert das Modell unter ausschließlicher Berücksichtigung des demographischen Wandels bis zum Jahr 2030 eine Abnahme der Reisenden um 4,16 Prozent. Bezieht man die Entwicklungstendenzen der Haushalte sowie der Einkommens- und Bildungsstruktur mit ein, ergibt sich ein ganz anderes Bild: Der demographisch bedingte Rückgang wird nicht nur ausgeglichen, sondern es kommt zu einer Zunahme der Reisenden um 7,49 Prozent. Prognosen zur Anzahl der Kurzreisenden bzw. zur Teilnahme an ausgewählten Reisearten zeigen ähnliche Ergebnisse. Auch hier wirken die Struktureffekte dem demographischen Wandel bei der Nachfrage nach touristischen Leitungen deutlich entgegen.
Die Zielsetzung der vorliegenden Arbeit war die raumdifferenzierte und skalenübergreifende Untersuchung der Hochwasserentstehungsprozesse im Frankelbach-Einzugsgebiet, das ein Beispiel eines land- und forstwirtschaftlich genutzten Kleineinzugsgebiets in Mittelgebirgen der gemäßigten Breiten ist. Eine Kernaufgabe war die Quantifizierung der Beiträge einzelner Abflusskomponenten während des Scheiteldurchflusses eines Hochwassers. Zudem sollten Zusammenhänge zwischen der Bodenfeuchtedynamik und der Abflussreaktion herausgearbeitet werden. Zur Bodenfeuchtemessung wurde ein neu entwickeltes Spatial-TDR-Messsystem eingesetzt. Im Rahmen dieses pilothaften Einsatzes war zudem die Tauglichkeit des Messsystems zu überprüfen und zu bewerten. Das im Rotliegenden gelegene 5 km2 große Frankelbachgebiet mit Jahresniederschlägen von 750 mm a-1, steil eingeschnittenen, bewaldeten Kerbtälern und ackerwirtschaftlich genutzten Hochflächen liegt zwischen 200 und 450 m ü. NN. Auf schuttführenden Sand- und Schlufflehmen, deren Genese auf periglaziale Solifluktionsprozesse zurückgeht, sind hangabwärts mächtiger werdende Braunerden zu finden. Bemerkenswert sind die zahlreichen Quellen auf gleicher Höhenlage, die teilweise als Pipequellen ausgebildet sind. Beregnungs- und Infiltrationsversuche dienten der Beurteilung der Oberflächenabflussreaktion unterschiedlich bewirtschafteter Flächen. Durch stündliche Spatial-TDR-Messungen an 13 Standorten (60 cm lange vertikal installierte Dreistabsonden) konnten Hangwasserflüsse identifiziert werden. Zwischen 2005 und 2009 wurden die Abflüsse vier geschachtelter Einzugsgebiete sowie einer Quelle in 10min-Intervallen erfasst und 87 Hochwasserereignisse analysiert. Mittels Messungen der elektrischen Leitfähigkeit und eines Zweikomponenten-Mischungsmodells wurde der Ereigniswasseranteil für die höchsten Hochwasser abgeschätzt. Ergänzend zu den Geländeexperimenten wurde ein einfaches Modell konzipiert, das eine quantitative Abschätzung der ober- und unterirdischen Wasserflüsse in einen Gewässereinschnitt erlaubt. Zum Vergleich mit 31 anderen Untersuchungsgebieten wurde eine Codierung entwickelt, die eine Einordnung sowohl hinsichtlich der Geofaktoren der Gebiete als auch bezüglich der untersuchten Hochwasserereignisse ermöglicht. Das im hanghydrologischen Forschungsbereich als eher trocken einzuordnende Frankelbachgebiet, zeigte ein jahreszeitlich sehr unterschiedliches Abflussverhalten. Während in trockenen Sommern hohe Niederschläge im Gebiet gespeichert werden, liegen die Abflusskoeffizienten für einige schneeschmelzfreie Frühjahrsereignisse über 50 %. Das höchste beobachtete Hochwasser weist einen Abflusskoeffizient von 55 % bei einer relativ niedrigen Abflussspende von 140 l s-1 km-2 auf. Die Großberegnungsversuche, die Quellabflussmessungen, die Ereignisanalysen und die Modellierungsergebnisse weisen darauf hin, dass Dauerregen- und Schneeschmelz-Hochwasser zum Großteil aus Zwischenabfluss bestehen. Hier konnten zwei Abflusskomponenten differenziert werden: (i) eine oberflächen- und gerinnenahe Komponenten, die aufgrund des hohen Ereigniswasseranteils von etwa 60 % durch präferentielles Fließen erklärt werden kann, und (ii) eine ein bis zwei Tage verzögerte tiefere Komponente, die durch unterirdische Abflusskonzentration auf stauenden Schichten generiert wird. Letztere war in den Quellabfluss- und Spatial-TDR-Messungen erkennbar, hatte jedoch an den am Pegel beobachteten Scheiteldurchflüssen nur einen sehr kleinen Anteil. Während sehr intensiver Niederschläge könnte zusätzlich der Horton'sche Oberflächenabfluss von offen liegenden, hydraulisch angeschlossenen Äckern zum Scheiteldurchfluss beitragen. Für sämtliche Spatial-TDR-Messstandorte ist von hohen Infiltrations- und Sickerraten auszugehen. Eine Aufsättigung der Standorte war nicht erkennbar, für die nassen Wintermonate liegen jedoch nur sehr wenige Spatial-TDR-Messwerte vor. Eine in einer Tiefenlinie installierte Sonde (A08) zeigte das Umschalten des Gesamtgebiets in relativ nasse Zustände an. Hier nahm die Bodenfeuchte während zwei größerer Dauerregenereignisse infolge der unterirdischen Abflusskonzentration stark zu. In der vorliegenden Arbeit wurden die einbau- und substratbedingten Unsicherheiten sowie die Schwächen des Algorithmus zur Rekonstruktion der absoluten Bodenfeuchtewerte konkretisiert. Demzufolge wurde lediglich das Spatial-TDR-Rohsignal als Indikator für die aktuelle Bodenfeuchte verwendet. Durch eine Transformation des Spatial-TDR-Signals von der Zeit auf den Sondenort können dennoch Aussagen zur relativen Änderung der Bodenfeuchte in einer bestimmten Tiefe gemacht werden können. Diese Informationen sind hinreichend genau für die Untersuchung hanghydrologischer Prozesse und für die Ableitung von Gebietsfeuchtezuständen.
Im Rahmen psychologischer Wissenschaftskommunikation werden Plain Language Summaries (PLS, Kerwer et al., 2021) zunehmend bedeutsamer. Es handelt sich hierbei um
zugängliche, überblicksartige Zusammenfassungen, welche das Verständnis von Lai:innen
potenziell unterstützen und ihr Vertrauen in wissenschaftliche Forschung fördern können.
Dies erscheint speziell vor dem Hintergrund der Replikationskrise (Wingen et al., 2019) sowie Fehlinformationen in Online-Kontexten (Swire-Thompson & Lazer, 2020) relevant. Die
positiven Auswirkungen zweier Effekte auf Vertrauen sowie ihre mögliche Interaktion fanden im Kontext von PLS bisher kaum Berücksichtigung: Zum einen die einfache Darstellung von Informationen (Easiness-Effekt, Scharrer et al., 2012), zum anderen ein möglichst wissenschaftlicher Stil (Scientificness-Effekt, Thomm & Bromme, 2012). Diese Dissertation hat zum Ziel, im Kontext psychologischer PLS genauere Bestandteile beider Effekte zu identifizieren und den Einfluss von Einfachheit und Wissenschaftlichkeit auf Vertrauen zu beleuchten. Dazu werden drei Artikel zu präregistrierten Online-Studien mit deutschsprachigen Stichproben vorgestellt.
Im ersten Artikel wurden in zwei Studien verschiedene Textelemente psychologischer PLS systematisch variiert. Es konnte ein signifikanter Einfluss von Fachtermini, Informationen zur
Operationalisierung, Statistiken und dem Grad an Strukturierung auf die von Lai:innen berichtete Einfachheit der PLS beobachtet werden. Darauf aufbauend wurden im zweiten Artikel vier PLS, die von Peer-Review-Arbeiten abgeleitet wurden, in ihrer Einfachheit und
Wissenschaftlichkeit variiert und Lai:innen zu ihrem Vertrauen in die Texte und Autor:innen befragt. Hier ergab sich zunächst nur ein positiver Einfluss von Wissenschaftlichkeit auf
Vertrauen, während der Easiness-Effekt entgegen der Hypothesen ausblieb. Exploratorische Analysen legten jedoch einen positiven Einfluss der von Lai:innen subjektiv wahrgenommenen Einfachheit auf ihr Vertrauen sowie eine signifikante Interaktion mit der
wahrgenommenen Wissenschaftlichkeit nahe. Diese Befunde lassen eine vermittelnde Rolle der subjektiven Wahrnehmung von Lai:innen für beide Effekte vermuten. Im letzten Artikel
wurde diese Hypothese über Mediationsanalysen geprüft. Erneut wurden zwei PLS
präsentiert und sowohl die Wissenschaftlichkeit des Textes als auch die der Autor:in manipuliert. Der Einfluss höherer Wissenschaftlichkeit auf Vertrauen wurde durch die
subjektiv von Lai:innen wahrgenommene Wissenschaftlichkeit mediiert. Zudem konnten
dimensionsübergreifende Mediationseffekte beobachtet werden.
Damit trägt diese Arbeit über bestehende Forschung hinaus zur Klärung von Rahmenbedingungen des Easiness- und Scientificness-Effektes bei. Theoretische
Implikationen zur zukünftigen Definition von Einfachheit und Wissenschaftlichkeit, sowie
praktische Konsequenzen hinsichtlich unterschiedlicher Zielgruppen von
Wissenschaftskommunikation und dem Einfluss von PLS auf die Entscheidungsbildung von
Lai:innen werden diskutiert.
Heimatfabrik Lokalmuseum bietet einen neuen Blick auf lokal verankerte Museen. Anhand von ausgewählten Fallbeispielen, die durch eine quantitative Untersuchung von etwa 370 Museen im Großherzogtum Luxemburg und in der belgischen Region Wallonien ergänzt werden, analysiert die Autorin, welche Identifikationsangebote bäuerliche Alltagsmuseen, Stadtmuseen, Industriemuseen, Kriegsmuseen und Auswanderermuseen ihren Besuchern bieten. Wen schließen die Museumsverantwortlichen durch ihre Erzählweisen ein und wen grenzen sie aus? Wie gehen sie mit sprachlichen, konfessionellen, kulturellen, sexuellen und soziale Minderheiten um?
Das Buch beginnt mit der Klärung der Frage, wie sich das Heimatverständnis in Luxemburg in Luxemburg und im angrenzenden Wallonien im Spannungsfeld zwischen dem klassischen Heimatbegriff des deutschsprachigen Raums und der Inwertsetzung der Landschaft durch die französischen Humangeographen seit der Mitte des 19. Jahrhunderts entwickelt hat. Aus diesem unterschiedlichen Zugang zu dem was als enger Kreis des gesellschaftlichen Zusammenhalts empfunden wird, ergeben sich verschiedene Typen von lokalhistorischen Museen, die die Autorin in historischer Perspektive vorstellt.
Indem sie Dinge des Alltags durch die Aufnahme in ihre Sammlungen zu symbolischen Zeichenträgern einer Gesellschaft erheben sind Museen privilegierte Orte für die Schaffung von Heritage. Mit den Ausstellungen erzeugen die Museumsträger eine subjektiv empfundene gesellschaftliche Einheit, die von manchen Besucher als Heimat angenommen oder abgelehnt wird, andere wiederum gleichgültig lässt. Vor diesem Hintergrund dieser Feststellung beschäftigt sich die Autorin mit dem, was unter lokalem heritage zu verstehen ist und welcher gestalterischen Mittel sich die Verantwortlichen von lokalhistorischen Museen bedienen um ihre Vorstellung von Heimat zu konstruieren. Anhand der Themenbereiche bäuerlicher Alltag, Natur, Ein- und Auswanderung, Krieg sowie Industrie geht das Buch der Frage nach, wie interne und externe Museumsstakeholder das vom Museum vermittelte Heimatbild und damit verbunden auch die nationale Geschichtskultur mitbestimmen.
Das Buch möchte dazu beitragen, den Blick einer interessierten Öffentlichkeit für lokales Kulturerbe zu schulen sowie Historiker auf das Potenzial von lokalhistorischen Museen hinzuweisen. In diesem Sinne ist die Untersuchung auch ein Plädoyer für die Anerkennung der Besonderheit von außerakademischer historischer Aufarbeitung und für die Verstärkung der Zusammenarbeit zwischen universitärer und außeruniversitärer Forschung.
Die vorliegende Arbeit beschreibt ausgewählte Bereiche des Stadtklimas von Trier. Anhand von langjährigen meteorologischen Messreihen ist eine Bewertung der klimatologischen Gegebenheiten für das Stadtgebiet von Trier möglich. Trenduntersuchungen der Datenreihen des Niederschlags zeigen positive Niederschlagstrends für die meteorologischen Wintermonate. Die Intensität der urbanen Wärmeinsel der Stadt Trier wurde mittels mehrerer Temperaturmessfahrten untersucht und bewertet. Es treten in den Wintermonaten maximale Differenzen von bis zu 5,5 -°C zwischen dem unbebauten Umland und den Innenstadtbereichen auf. Von der erhöhten thermischen Belastung während ausgewählter Wetterlagen sind vor allem die Anwohner der Innenstadtbereiche in den Sommermonaten betroffen. Zusätzlich fand eine Bewertung der thermischen Belastung mittels verschiedener thermischer Indizes statt. Die Auswertungen von Klimaprojektionen für den Untersuchungsraum zeigen eine starke Zunahme der thermischen Belastung ab Mitte des 21. Jahrhunderts. Die Auswirkungen des Sommers 2003 auf die Bevölkerung von Trier wurde anhand von Mortalitätsdaten von JUNK ET AL. (2007) analysiert. Die Kosten des Klimawandels (Temperaturzunahme bis 2100 um 4,5 -°C) in den kommenden 50 Jahren beziffert eine Studie des Deutschen Institutes für Wirtschaftsforschung auf rund 80 Milliarden Euro für Rheinland-Pfalz. Auch wenn diese Abschätzungen mit starken Unsicherheiten behaftet sind, so wird dringender Handlungsbedarf deutlich. Vor dem Hintergrund des Klimawandels und der zunehmenden Urbanisierung muss sich auch im Bereich der Stadtplanung und der Verwaltung von urbanen Agglomerationsräumen das Prinzip der Nachhaltigkeit in allen Skalenbereichen durchsetzen. Übertragen auf den Bereich der Stadtklimatologie heißt das, dass dies auf die Ressourcen saubere Luft, angemessener Flächen- und Energieverbrauch verbunden mit Luft-schadstoffemissionen, Recht auf Mobilität usw. übertragen werden muss. Im Vordergrund steht dabei eine Entkopplung des Ressourcenverbrauchs von dem wirtschaftlichen Wachstum durch technische Innovation, effizientere Technologien und verändertes individuelles Verhalten. Bezüglich der lufthygienischen Situation im Stadtbereich von Trier konnten Partikel und Stickoxide als wichtige Schadstoffe identifiziert werden. Da die Auswertungen der Luftschadstoffe auf die Datensätze des ZIMEN-Messnetzes beschränkt sind, können keine Aussagen über Inhaltsstoffe von Partikeln getroffen werden. Für die untersuchten Luftschadstoffe CO, SO2, NOx, O3 und PM10 treten in den letzten Jahren keine Grenzwertüberschreitungen auf, jedoch liegen die gemessenen Werte nur geringfügig unter diesen und überschreiten teilweise die unteren- und oberen Beurteilungsschwellen. Die Auswertungen des wirkungsbezogenen Luftqualitätsindex DAQx zeigen, dass in der Mehrheit der Fälle Feinstaub der bestimmende Luftschadstoff ist. Die Analyse der mittleren Mortali-tätszahlen zeigt, das bei DAQx-Werten > 4,0 (ausreichende Luftqualität) die Anzahl der täglichen Mortalitätsfälle über den Durchschnitt von 5,74 Fällen pro Tag steigt. Der Klimawandel wird auch direkte Auswirkungen auf die Luftschadstoffbelastung haben. Dies geschieht über die Veränderung der Windverhältnisse, Änderungen in der Höhe der Mischungsschicht sowie Änderungen in der Frequenz und Zugbahn von Tiefdruckgebieten. Veränderte Niederschlagsmuster beeinflussen die nassen und trockenen Depositionsraten, und die prognostizierte Temperaturerhöhung beeinflusst die chemischen Bildungs- und Abbauprozesse in der Atmosphäre, sowie die natürlichen Emissionsquellen. Der Einfluss des zu erwartenden Temperaturanstieges auf die Ozonkonzentrationen in urbanen Gebieten lässt sich gut einschätzen, da während Episoden mit hohen Ozonkonzentrationen eine signifikante Korrelation zwischen der Lufttemperatur und der Ozonkonzentration besteht. Studien zeigen einen Anstieg der Ozonkonzentration zwischen 2 -µg/m-³ und 20 -µg/m-³ pro Grad Kelvin in Abhängigkeit des Emissionsszenarios, der verwendeten Modelle und der untersuchten Region aus. Die urbanen Ballungsräume werden von diesem Ozonanstieg stärker betroffen sein, da dort genügend Ozonvorläufersubstanzen vorhanden sind. Der Einfluss auf die Partikelkonzentrationen ist schwieriger zu beurteilen, da keine klaren Zusammenhänge zwischen der Lufttemperatur und den Partikelkonzentrationen bestehen. Insgesamt ist tendenziell mit einer Stagnation bis hin zu einer kurzzeitigen Verschlechterung der Luftqualität zu rechnen. Deswegen reicht die bereits erwähnte alleinige Berücksichtigung der thermischen Gegebenheiten in einem Warnsystem nicht aus. Es geht vielmehr um die integrative Bewertung der potentiellen Gefahrensituation für die Bevölkerung und die situationsbezogene Auslösung von Interventionsmaßnahmen und Aktionsplänen. Ein solches System wird derzeit für die Modellregion Esch-sur-Alzette in Luxemburg erstellt und wird 2011 in die Pilotphase eintreten.
Die Fauna-Flora-Habitat-Richtlinie (Richtlinie 92/43/EWG) stellt derzeit das umfangreichste Instrument des internationalen Naturschutzes zur Erhaltung der europäischen Biodiversität dar. Das Grundkonzept der FFH-RL beruht hierbei sowohl auf dem Schutz gefährdeter Arten als auch auf dem Erhalt natürlicher Lebensräume. Dieser ganzheitliche Ansatz verursacht jedoch infolge der großen Anzahl zu berücksichtigender Schutzgüter einen hohen personellen wie finanziellen Aufwand bei der Umsetzung der Richtlinienvorgaben. Daher wurde in der vorliegenden Arbeit am Beispiel der Schmetterlingsart Euphydryas aurinia (Anhang II FFH-RL) überprüft, inwieweit die Konzepte von ESUs (Evolutionarily Significant Units) und MUs (Management Units) geeignete Möglichkeiten bieten, um die Prioritätensetzung bei der Auswahl besonders schützenswerter Vorkommen gefährdeter Arten zu erleichtern. Zu diesem Zweck wurden mit drei verschiedenen Subspezies von E. aurinia (E. aurinia beckeri, E. aurinia debilis, E. aurinia aurinia) Fang-Markierung-Wiederfangstudien durchgeführt, sowie mit Hilfe von Allozym-Elektrophoresen populationsgenetische Parametern in europäischem Kontext und auf regionaler Ebene (Westtschechien) erfasst. Die drei untersuchten Subspezies zeigten hierbei spezifische ökologische Adaptationen an die jeweiligen Habitatbedingungen (z.B. bzgl. der Populationsdichte, Demographie und Mobilität). Ferner wiesen die genetischen Analysen starke Differenzierungen bei E. aurinia in Europa nach, die u.a. Antworten auf phylogeographische und taxonomische Fragestellungen ermöglichen. Auch auf regionaler Ebene (Westtschechien) konnten genetische Differenzierungen festgestellt werden. Auf Basis der erhobenen populationsökologischen und -genetischen Daten wird abschließend die generelle Anwendbarkeit und der Nutzen der Konzepte von ESUs und MUs bei der Etablierung von Schutzkonzepten für E. aurinia und andere Arten der FFH-RL diskutiert. rnDer zweite Teil der vorliegenden Arbeit beschäftigt sich exemplarisch mit dem aktuellen Schutzverfahren für deutsche E. aurinia-Vorkommen im Rahmen der FFH-RL und den damit verbundenen Problemen. Der Schwerpunkt lag hierbei auf der Schutzgebietsauswahl, dem Monitoring und dem Gebietsmanagement. In diesem Kontext werden u.a. Problematiken angesprochen, die sich aus der großen ökologischen Variabilität der Art ergeben bzw. die aufgrund von Koordinierungsschwierigkeiten zwischen einzelnen Bundesländern bestehen. Vor dem Hintergrund dieser Erkenntnisse werden Lösungsvorschläge unterbreitet, wie das aktuelle Schutzverfahren für E. aurinia in Deutschland weiter verbessert werden könnte.
Reduktionistische Ansätze sind in der Naturforschung allgegenwärtig und die Erklärung des Verhaltens komplexer Systeme aus der naturgesetzlich determinierten Interaktion ihrer Konstituenten ist in der Regel dazu geeignet, den jeweiligen Gegenstandsbereich sowohl auf ontologischer als auch theoretisch-deskriptiver Ebene hinreichend zu vereinfachen. Diese Form der Vereinfachung ist das Grundcharakteristikum einer wissenschaftlichen Erklärung und der Schlüssel zum ungemeinen Erfolg, den die empirischen Disziplinen seit dem Beginn der Neuzeit zu verzeichnen haben. Gleichwohl ist jene Verfahrensweise ungeachtet ihrer Vorzüge auch die Quelle ernstzunehmender Probleme, die spätestens in der Anwendung des Reduktionismus auf den Wissenschaft betreibenden Menschen selbst unübersehbar werden, insofern sich z.B. die Gesamtheit seiner kognitiven Leistungen (phänomenales Bewusstsein, Wille, Intentionalität, Sinn- und Bedeutungskonstitution etc.) letztlich als nicht mehr erweist, als das physiologische Verhaltensmuster der Nervenzellen des Gehirns. Neben der Entwertung des Bewusstseins als eines wirkungs- und somit wissenschaftlich bedeutungslosen Epiphänomens neuronaler Aktivität impliziert jene Naturalisierung des Menschen ebenfalls die Verabschiedung der Idee der Freiheit, die schließlich einem naturgesetzlich determinierten System a priori nicht zukommen kann; weitere tiefgreifende Konsequenzen für die Konzepte von Zurechenbarkeit, Verantwortlichkeit und Schuld sind daraus unmittelbar zu erschließen und bedürfen kaum der gesonderten Erwähnung. Ziel der vorliegenden Dissertation ist die Bestimmung der Grenzen der reduktionistischen Methodologie in der empirischen Naturwissenschaft, und das unter Befragung des gegenwärtigen physikalischen Weltbildes. Im Zuge einer historisch-systematischen Rekonstruktion der Quantenmechanik, die seit fast einem Jahrhundert als die fundamentale theoretische Modellierung der Naturkräfte und der Materie zu gelten hat, soll gezeigt werden, inwiefern die universellen Ansprüche des Reduktionismus relativert werden müssen und inwieweit die gegenwärtige Physik sowohl eine ernstzunehmende Neubewertung der Rolle des Bewusstseins in der Welt, als auch eine Rehabilitierung der Konzepte von Freiheit und Verantwortlichkeit ermöglichen kann.
Die Untersuchung verbindet Methoden der Korpuslinguistik und des close readings, um an einem repräsentativen Einzeltext mittlerer Länge das Verhältnis der syntaktischen und metrischen Ebene im mittelhochdeutschen Reimpaarvers zu untersuchen. Herausgearbeitet werden regelmäßig wiederkehrende Muster, die beide Ebenen stets gleich aufeinander abbilden. Diese Regelmäßigkeiten lassen sich aus den Lautstrukturen des mhd. Wortschatzes, den syntaktischen Bauplänen der Phrasen und Sätze, schließlich den Erfordernissen des metrischen Schemas erklären. Der häufig zur Erklärung herangezogene Reimzwang erweist sich bei näherer Betrachtung als eher sekundärer Einfluss auf die syntaktische Struktur. Neben typischen „Normalfällen“ bei denen sich statistisch häufige Betonungsmuster der Wörter, in üblichen, einfachen Satzstellungsmustern in immer gleicher Weise problemlos in den Reimpaarvers integrieren lassen, können auch wiederkehrende Abweichungsvarianten erklärt und beschrieben werden. Die festgestellten Regularitäten sind nur zu einem kleinen Teil und in wenigen Fällen deterministisch, es lässt sich jedoch, um die statistischen Auffälligkeiten zu begründen, zeigen, welche Vorteile sich aus bestimmten Varianten ergeben und welche Schwierigkeiten bei anderen entstehen, wie sich eine Variante durch eine andere ersetzen lässt. Beschrieben wird so der Gestaltungsraum des Dichters und die von ihm gewählten Lösungen. Indirekt ergibt sich zugleich ein Negativbild der Syntax, die den Zwängen des metrischen Schemas nicht unterworfen ist.
Wie gestaltete sich adlige Erziehung im Übergang vom Mittelalter zur Neuzeit, noch vor dem auch bildungsgeschichtlichen Wandel durch Reformation und Humanismus? Wie ist in diesen Zeiten ein junger Prinz für seine künftigen Aufgaben als Herrscher und Politiker vorbereitet worden? Gab es einen bestimmten Kanon von Fächern oder Lehrinhalten, deren Vermittlung durch Unterricht oder auch durch adlig-höfische Sozialisation eine spezifische, an seiner hohen Stellung und Verantwortung orientierte Bildung und Ausbildung eines Fürstensohns zum Ziel hatte? Diesen Fragen, welche die historische Forschung bisher weitgehend vernachlässigt hat, geht die Trierer Dissertation nach. Sie bietet damit die erste ausführliche und quellengestützte Darstellung der Kindheit und Jugend Karls V., die in den großen Biographien immer voreilig übergangen wird, wo meist ein bereits "fertiger" Kaiser in Erscheinung tritt. Ein Blick zurück auf die direkten Vorfahren - Kaiser Friedrich III., Kaiser Maximilian I. und Karls früh verstorbenen Vater, Philipp den Schönen - erkundet die Traditionen und Formen habsburgisch-burgundischer Fürstenerziehung, ihren Platz sowie ihre Organisation und personales Umfeld am Hofe. Der frühe Tod des Vaters und die psychische Labilität der Mutter bestimmten Karls Kindheit und Jugend. Anstelle der leiblichen Eltern waren es Großvater, Tante und Erzieher, die sich um ihn bemühten; daneben weitere Lehrer - darunter Adrian von Utrecht, der spätere Papst Hadrian VI., und Erasmus von Rotterdam, aber auch nicht wenige aus den spanischen Ländern -, Beichtväter und Edelknaben, die das soziale Umfeld der Erziehung komplettierten. Somit befand sich der Zögling inmitten verschiedener Interessengruppen, die in Konkurrenz untereinander sowie gemäß eigener Vorteile und Absichten agierten. Schon früh musste der junge Habsburger zu der Rolle finden, die nicht nur seine Familie, sondern auch die großen europäischen Dynastien von ihm erwarteten; denn es ging in erster Linie um Kontinuität und Berechenbarkeit, in der Familie wie in der Politik. Oft genug wurde der im höchsten Grade umsorgte wie überwachte, lange unselbständige Prinz zum Spielball der stark divergierenden Interessen seines Umfeldes, was sich auch an der Praxis der zahlreichen Heiratsoptionen zeigte, in die er ungefragt "eingepasst" wurde. Die Jugendjahre Karls V. spielten sich am Hof seiner Tante, Margarete von Österreich, ganz im burgundischen Milieu ab, das ihn kulturell und politisch prägte. Einen nachhaltigen Eindruck hinterließ hier die burgundische Rittertradition, aufs höchste symbolisiert im Orden vom Goldenen Vlies. Die Erziehung Karls, der in den ersten Jahren zusammen mit seinen Schwestern unterrichtet wurde, verlief im Prinzip zweigleisig. Neben einer fundamentalen religiösen Unterweisung durch Geistliche und Beichtväter konzentrierten sich seine Lehrer - Gelehrte wie Höflinge - einmal auf die Vermittlung eines angemessenen, gelehrten Bildungswissens und dann aber vor allem auf das praktische Handlungswissen, dabei insbesondere auf die adlige Sozialisation im Milieu des Hofes. Erziehung und Ausbildung blieben immer pragmatisch auf die späteren Aufgaben des Regierens, der Politik und der herrscherlichen Repräsentation ausgerichtet. Die Wirkung dieser Erziehung lässt sich exemplarisch fassen in Karls während der späteren Jahre konsequent verfolgten Familienpolitik, die von den Betroffenen allerdings nicht immer kritiklos akzeptiert wurde. Stationen seiner Persönlichkeitsentwicklung, die sich über viele Jahre, wenn nicht das ganze Leben, hinzog, werden vor diesem Hintergrund beleuchtet. Als die wohl prägendste Erfahrung auf dem schweren Weg vom früh verwaisten, schwächlichen und meist unsicher wirkenden Knaben zum selbständig agierenden Monarchen kann Karls erste Reise nach Spanien im Jahre 1517 gesehen werden. Hier stieß er erstmals auf offene Ablehnung und sah sich mit unerwarteten, bis dahin völlig fremden Problemen konfrontiert. Zugleich bedeutete sein Regierungsantritt als spanischer König für ihn persönlich eine entscheidende kulturelle Neuorientierung.
Die vorliegende Arbeit untersucht Effekte des Alters auf die Rezeption schmerzvoller Selbstenthüllungen in dialogischen Situationen. Schmerzvolle Selbstenthüllungen werden als verbales Kommunikationsverhalten verstanden, bei dem eine Person selbstbezogene, schmerz- oder leidvolle Erfahrungen preisgibt, beispielsweise gesundheitliche oder finanzielle Probleme. In der überschaubaren Anzahl von Studien zu dieser Thematik wurde ausschließlich die Rezeption schmerzvoller Selbstenthüllungen älterer Personen untersucht. Im Zentrum der vorliegenden Arbeit steht die Frage, ob sich die Befunde dieser Studien auf alle Konstellationen des inter- und intragenerationellen Dialogs übertragen lassen. Über die Untersuchung altersdifferentieller Effekte hinaus wird angestrebt, einige vermittelnde Prozesse zu erhellen, die der Beurteilung schmerzvoller Selbstenthüllungen zugrunde liegen. Es wird eine empirische Studie beschrieben, an der ältere Probandinnen (M = 73.54 Jahre; n = 100) und jüngere Probandinnen (M = 34.24 Jahre; n = 101) teilnahmen. Diese bearbeiteten ein Fragebogeninventar mit Untersuchungsvignetten, in denen schmerzvolle Selbstenthüllungen einer älteren (ca. 75- bis 80jährigen) oder jüngeren (35- bis 40jährigen) Protagonistin beschrieben wurden. Inhaltlich wurden die schmerzvollen Selbstenthüllungen dahingehend variiert, dass sie von einer nonnormativen vs. normativen belastenden Lebenslage handelten. Nach jeder Vignette schrieben a) die Probandin-nen der Protagonistin Eigenschaften zu, sie schätzten b) die Angemessenheit der Selbst-enthüllung ein sowie c) die vermutlichen Motive und Ursachen für die Selbstenthüllung. Als Personmerkmal wurde die Ausprägung der dispositionellen Empathie erfasst und mit Eigenschaftszuschreibungen an die Protagonistin in der Vignette in Beziehung gesetzt. Die Ergebnisse zeigen, dass die Rezeption schmerzvoller Selbstenthüllungen in erster Linie mit dem Alter der urteilenden Probandin variierte und weniger in Abhängigkeit vom Alter der Protagonistin in der Vignette oder von der dyadischen Alterskomposition von Probandin und Protagonistin. Darüber hinaus war die Preisgabe einer nonnormativen verglichen mit einer normativen belastenden Lebenslage insgesamt mit einer positiveren Beurteilung der Protagonistin und ihrer Äußerungen assoziiert. Eine hohe Ausprägung der dispositionellen Empathie war mit positiveren Eigenschaftszuschreibungen an die Protagonistin in der Vignette assoziiert. Dieser Zusammenhang erwies sich zum einen in der Teilstichprobe der älteren Probandinnen als bedeutsam, zum anderen dann, wenn die Protagonistin in der Vignette eine ältere Person war.
Das Ziel der vorliegenden Arbeit besteht in der Formulierung eines integrativen Rahmenmodells, das sowohl motivierende, als auch demotivierende Merkmale der Arbeitstätigkeit beinhaltet. Dieses Modell wird auf der Grundlage des Job Characteristics Models von Hackman und Oldham (1976, 1980) entwickelt und bei personenbezogenen Tätigkeiten angewandt. Ausgehend von handlungsregulationstheoretischen Überlegungen wird das Modell um weitere Tätigkeitsmerkmale erweitert. Dabei wird im ersten Schritt davon ausgegangen, dass neben den bereits erforschten negativen Konsequenzen auch motivierende Aspekte der Emotionsarbeit existieren und das Modell um dieses Tätigkeitsmerkmal erweitert. Im nächsten Schritt wird das Modell um demotivierende Aufgabenmerkmale erweitert, nämlich um die Stressoren Emotionale Dissonanz und Multitasking. Die dritte und letzte Erweiterung bezieht sich auf die Integration von Stressreaktionen in das Modell. Es wird davon ausgegangen, dass es sich um sogenannte Kontextvariablen handelt, die die Beziehung zwischen den Tätigkeitsmerkmalen und Ergebnisvariablen (Arbeitszufriedenheit, intrinsische Motivation und affektives Commitment) moderieren. Die Hypothesen, die sich aus dem postulierten Modell ergeben, werden in drei querschnittlichen Fragebogenstudien anhand von unterschiedlichen Stichproben aus dem Dienstleistungsbereich überprüft (Call Center-Angestellte N=114, Lehrer N=146, Verkäufer N=304). Die Annahmen des Modells lassen sich größtenteils bestätigen. Das gilt vor allem für die Erweiterungen auf der Seite der Tätigkeitsmerkmale: motivierende Aspekte der Emotionsarbeit und eine demotivierende Wirkung der Emotionalen Dissonanz konnten nachgewiesen werden. Nicht ganz so eindeutig fällt die Befundlage zu den angenommenen Moderatoreffekten aus. Zwar konnten zahlreiche Moderatoreffekte in allen Studien aufgedeckt werden, jedoch fiel die Richtung der Moderatoreffekte in der Lehrerstudie auf die Beziehung zwischen den motivierenden Tätigkeitsmerkmalen und den arbeitsbezogenen Einstellungen hypothesenkonträr aus. In der abschließenden Diskussion wird u.a. nach Begründungen für diese Befundlage gesucht. Zusätzlich werden Implikationen für die zukünftige Forschung und für den weiteren Einsatz des postulierten Rahmenmodells gegeben. Die Arbeit schließt mit Implikationen für die Praxis im Dienstleistungsbereich ab.
Quantitative Untersuchungen im Französischen: Häufigkeitsverteilungen und funktionale Zusammenhänge
(2009)
Die Quantitative Linguistik ist eine relativ junge Disziplin, deren Hauptziel es ist, Gesetzmäßigkeiten zu erforschen, denen sprachliche Phänomene folgen, und gesetzmäßige Zusammenhänge zwischen sprachlichen Variablen zu erklären. Es hat sich inzwischen in einer ganzen Reihe von Untersuchungen immer wieder gezeigt, dass solche Gesetzmäßigkeiten aufgedeckt und erklärt werden können. Die vorliegende Untersuchung stellt einen Beitrag zu dieser Thematik dar. Sie dient der Überprüfung bestimmter lexikalischer und syntaktischer Hypothesen an französischem Sprachmaterial unter der Anwendung quantitativer Methoden. Diese Hypothesen betreffen zweidimensionale Zusammenhänge zwischen den operational definierten quantitativen Eigenschaften der Länge, Frequenz und Polylexie von sprachlichen Einheiten und die Häufigkeitsverteilungen der Einheiten hinsichtlich dieser Eigenschaften. Jede Untersuchungshypothese wird mathematisch modelliert, wobei eine direkte Anwendung der Statistik betrieben wird. D.h.: Bereits existierende theoretische Modelle, die als wahres Bild der zu überprüfenden Hypothesen angesehen werden, werden verwendet. Die Güte der Anpassung des jeweiligen Modells an die empirischen Daten wird aus den Differenzen zwischen den empirischen und den entsprechenden theoretischen Werten abgeschätzt. Bei der empirischen Überprüfung der Hypothesen werden zwei Testverfahren eingesetzt: die Berechnung des Determinationskoeffizienten für die Zusammenhänge zwischen zwei quantitativen Größen und der Chiquadrat-Test für die Verteilungshypothesen. Die durchgeführten Tests bestätigen im Großen und Ganzen die Verträglichkeit der Daten mit den aufgestellten Hypothesen.
In der Tagespresse bestehen Berichte über Nordkorea meistens aus Schreckens-meldungen: Von Nuklearem Wahn, Menschenrechtsverletzungen oder Terror ist hier die Rede. Gleichzeitig ist die Informationspolitik dieses Landes so restriktiv, dass kaum anderweitige Informationen nach außen dringen. Dies macht es in den Augen vieler Menschen umso gefährlicher, weil es dadurch unbegreiflich und unkalkulierbar erscheint. Nach dem Zusammenbruch der DDR und der Öffnung von bislang unzugänglichen Archiven hat diese Undurchdringlichkeit Risse bekommen, und es erschlossen sich der Forschung vollkommen neue Quellen. Ziel der vorliegenden Arbeit ist es, mit Hilfe der nun zugänglichen Dokumente einen Teil der Informationslücken über Nordkorea und vor allem über seine Beziehungen zur DDR zu schließen. Neben der Entwicklung der bilateralen Beziehungen in den Bereichen Politik, Wirtschaft und Kultur wird hier auch ein besonderer Aspekt der bilateralen Beziehungen untersucht: Nordkoreas Umgang mit seiner Abhängigkeit von der DDR und dem damit verbundenen Sicherheitsrisiko. Zu diesem Zweck wird anhand konkreter Fallbeispiele die Zusammenarbeit zwischen der DDR und Nordkorea analysiert. Obwohl auch in anderen Gebieten Abhängigkeiten bestanden, ist die wirtschaftliche Abhängigkeit im Zusammenhang mit einem möglichen Sicherheitsrisiko von besonderer Relevanz. Dieses Risiko definiert sich in diesem Zusammenhang als Gefährdung der inneren Sicherheit Nordkoreas. Nordkorea ist seit seiner Gründung ein Staat, der seine Bürger aufs Äußerste überwacht, um ihre vollständige Indoktrination zu gewährleisten. Da die nord-¬koreanische Regierung eine eigene, künstliche Wirklichkeit für die Bewohner des Landes erschaffen hatte, musste alles, was diese Wirklichkeit in Frage stellte, als Sicherheitsrisiko eingeschätzt werden. Dazu gehörte z.B. das Sichtbarwerden von Abhängigkeit, weil hierdurch der selbsterhobene Anspruch der Chuch"e-Ideologie "alles aus eigener Kraft" konterkariert wurde. Gleichfalls musste der Kontakt mit einer anderen Wirklichkeit als der koreanischen ein Sicherheitsrisiko darstellen, wenn sich dadurch die Einstellung zur koreanischen Realität änderte. In diesem Zusammenhang spielen vor allem die nordkoreanischen Studenten, die in der DDR studierten, eine besondere Rolle. Die vorliegende Arbeit zeigt, dass der Umgang Nordkoreas mit seiner Abhängigkeit von der DDR durchaus einer Logik entsprach und sich daraus Handlungsmuster ergaben, die diesen Umgang prägten. Zunächst versuchte die nordkoreanische Regierung, sich immer aus bestehenden Abhängigkeiten zu befreien oder sie zum größtmöglichen eigenen Vorteil zu nutzen. Dabei schreckte sie auch nicht vor illegalen Maßnahmen wie Industriespionage zurück. Das oberste Primat der nordkoreanischen Politik lag jedoch in der Wahrung Innerer Sicherheit und damit in der Regimestabilität. Diesem Ziel wurden alle anderen Ziele wie auch Entwicklung der Wirtschaft untergeordnet. Ergaben sich für das Erreichen von Wirtschaftszielen Abhängigkeiten, dann wurden diese nur so lange in Kauf genommen, wie sie die Innere Sicherheit nicht gefährdeten. Wurde hier allerdings ein Sicherheitsrisiko wahrgenommen, dann wurden alle Mittel eingesetzt, um dieses auszuschalten oder zu minimieren. Dabei spielte es keine Rolle, wie drastisch diese Maßnahmen waren und wer von ihnen betroffen war. Vergleicht man dieses Verhalten mit der heutigen nordkoreanischen Politik, so finden sich kaum Unterschiede. Die Innere Sicherheit ist für Nordkorea das oberste Ziel geblieben. Um es durchzusetzen, werden alle als notwendig erachteten Maßnahmen ergriffen, von der Bespitzelung der eigenen Bevölkerung bis hin zu Internierung und Terror. Was für den Umgang der nordkoreanischen Regierung mit dem eigenen Volk gilt, lässt sich auch in seiner Außenpolitik nachvollziehen. Die Regimestabilität bleibt das oberste Ziel. Im Gegensatz zur weitverbreiteten Meinung, die Volksrepublik sei in ihrer Politik nicht kalkulierbar, macht das Wissen um dieses Ziel Nordkorea zu einem sehr berechenbaren Staat. In Übereinstimmung mit dem Primat der Inneren Sicherheit wird die nordkoreanische Führung alles ablehnen, was diese gefährden könnte. Konkret ergibt sich daraus z.B., dass Nordkorea sein Nuklearprogramm niemals aufgeben wird, weil das Einstellen seiner Ambitionen auf diesem Gebiet die Führung in P"yÅngyang angreifbar machen könnte.
Der zentrale Gegenstand der Untersuchung ist die Rechtsfigur des Indigenats im Kontext der württembergischen und preußischen Staatenlandschaft. Das Indigenat lässt sich als ein Recht bestimmen, das seine potenziellen Rechtsträger maßgeblich über das Abstammungsprinzip definiert und ein Verhältnis zwischen Rechtsträger und einem übergeordneten Rechtssubjekt zum Ausdruck bringt, sei es lehns- oder standes-, staats- oder auch bundes- beziehungsweise reichsrechtlicher Natur. Der zeitliche Schwerpunkt der Betrachtung liegt auf dem 19. Jahrhundert. Es werden jedoch auch Rückblicke in die Frühe Neuzeit geworfen, weil Wandel und Kontinuität in der Entwicklung des Indigenats in einer solch langen Perspektive besonders klar hervortreten können. Die zentrale These dieser Arbeit ist, dass ein enger Zusammenhang zwischen der im 19. Jahrhundert entstehenden und bis heute geläufigen Form der Zuordnung von Menschen zum Staat und den aus diesem Verhältnis entspringenden Rechten einerseits und dem frühneuzeitlichen Indigenat andererseits besteht. Dabei kann gezeigt werden, dass Gesellschaften ihre politischen Machtpositionen gegenüber „fremdstämmigen“, etwa zuwandernden Personen abschirmten, indem sie sich auf indigenatrechtliche, ethnische Bestimmungen beriefen.
Seit Mitte der 1970er Jahre engagiert sich das Land Nordrhein-Westfalen, in Folge des sozial/ökologischen Wertewandels der 1960er und 1970er Jahre, in der Radverkehrsförderung. Damals wie heute ist die systematische Realisierung von Radverkehrsnetzen, die durchgängig mit einem Leitsystem gekennzeichnet werden, ein zentrales Landesziel. Hierzu entwickelte das Land NRW unterschiedliche Strategien: Ende der 1970er Jahre wurde landesweit ein touristisches Netz erarbeitet, das jedoch seitens der Kommunen nur wenig Akzeptanz fand. Anschließend führte das Land NRW mit zwei Modellvorhaben den Nachweis, dass zur Förderung des Radverkehrs eine systematische Zielnetzplanung verbunden mit einer Kennzeichnung des Netzes mittels Leitsystem zielführend ist. Doch auch dies fand seitens der Kommunen nur wenig Nachahmer. Daher leitete das Land NRW einen weiteren Strategiewechsel von der Bottom-up-Strategie zur Top-down-Strategie ein: 1995 wurde im Koalitionsvertrag der Landesregierung die Realsierung des Radverkehrsnetz Nordrhein-Westfalen (RVN NRW) politisch beschlossen. Landesweit sollte ein Radverkehrsnetz geplant und anschließend mit einem Leitsystem vor Ort gekennzeichnet werden. Das RVN NRW wurde zwischen 1996 und 2007 unter vollständiger Finanzierung des Landes NRW in enger Abstimmung mit den 427 Kommunen und ca. 2.000 Projektpartnern erfolgreich umgesetzt. Es hat eine Länge von 14.155 km. Heute wird das RVN NRW durch viele Kommunen weiter lokal verdichtet. Bereits im Rahmen der Projektkonzeption waren auf Grundlage des RVN NRW umfangreiche Synergien vorgesehen, indem u. a. der Radroutenplaner NRW entwickelt wurde. Dieser wird mittels Internet/Smartphone kommuniziert und enthält sowohl alle Informationen zur Planung der Strecke vor der Fahrt, als auch zur Wegefindung während der Fahrt. Mit diesem innovativen Projekt wurden zahlreiche Mehrwerte und Synergien erzielt, indem z. B. radtouristischen Netze neu geordnet, ein landeseinheitliches Qualitätsmanagement zur Pflege entwickelt, ein Repertoire zur Sicherung des Radverkehrs außerorts geschaffen und insbesondere die Verkehrsmittel des Umweltverbunds sowohl in den Netzen (Hardware) als auch in der Informationsvermittlung (Software) miteinander verknüpft wurden. Unter Berücksichtigung der ökologischen, energetischen, demographischen und volkswirtschaftlichen Anforderungen an die Mobilität der Zukunft, muss ein nachhaltiges selbsterklärendes multimodales Mobilitätssystem mit dem Rückgrat Öffentlicher Verkehr entwickelt werden. Mit der Realisierung des RVN NRW hat das Land NRW bereits eine wesentliche Komponente fertiggestellt. Um die Systemvorteile der jeweiligen Verkehrsarten optimal nutzen zu können, sind umfangreiche weitere Maßnahmen erforderlich, die wiederum einer Landesinitiative bedürfen. Das mit der Konzeption des RVN NRW erfolgreich praktizierte Umsetzungsverfahren lässt sich auf eine Vielzahl von weiteren Zukunftsaufgaben übertragen. Allgemeingültige Handlungsempfehlungen zeigen den Weg auf, wie auch diese Visionen in die Realität übergeleitet werden können.
Die Region Trier ist ein seit langem intensiv besiedelter Kulturraum. In der vorliegenden Arbeit galt es, unterschiedliche morphodynamische Prozessphasen während des Holozäns zu unterscheiden und ihre Ursachen zu klären. Gegenstand der Untersuchungen waren Schwemmfächer und andere Sedimentkörper kleiner Einzugsgebiete, die als korrelate Sedimentkörper der (Boden-)Erosion in den Einzugsgebieten betrachtet werden. Mit Hilfe sedimentologisch-geochemischer Untersuchungen und Datierungen der Sedimente wurde der Zusammenhang zwischen dem Erosions- und Akkumulationsgeschehen, der Landnutzungsintensität und der klimatischen Entwicklung während des Holozäns untersucht. Der menschliche Einfluss in den Einzugsgebieten wurde über archäologische Funde des Rheinischen Landesmuseums Trier und historische Karten abgeglichen. Der klimatische Einfluss wurde mangels ausreichender regionaler Datendichte über die bekannte überregionale Klimaentwicklung des Holozäns in Mitteleuropa abgeschätzt. Es konnten Aktivitätsphasen (vorgeschichtlich, (früh-)römisch, Mittelalter) und Stabilitätsphasen (Völkerwanderungszeit) ausgegliedert werden. Die unterschiedlichen morphodynamischen Prozessphasen haben ihren Ursprung in der lokalen anthropogenen Landnutzung in Kombination mit dem Witterungs- und Wettergeschehen. Die Bedeutung des Klimas mit seinen gemittelten Werten holozäner "Optima" und "Pessima" tritt dahinter zurück. Die Schwermetallgehalte von Nickel, Kupfer, Zink und Blei in den fossilen und rezenten Böden der Region sind stärker von lokalen als von globalen Faktoren beeinflusst, wie sie an Geoarchiven ohne eigenen geogenen background nachgewiesen sind. Der Einsatz geochemischer Indizes ermöglicht in seltenen Fällen eine weitere Untergliederung makroskopisch homogener Sedimente. Ihre inhaltliche Interpretation wird durch die Tatsache eingeschränkt, dass es sich bei Schwemmfächern um offene Systeme handelt, bei denen in humiden Klimaten nicht entschieden werden kann, welche Verwitterungsprozesse prä- und welche postsedimentärer sind.
Selbstregulation beschreibt die Fähigkeit, eigene Bedürfnisse, Werte und Interessen in die willentliche Handlungssteuerung einzubeziehen und so das eigene Handeln auf die Verwirklichung selbstkongruenter Ziele auszurichten. Die Arbeit beleuchtet die Bedeutung der Selbstregulation im Bildungskontext und überprüft die Wirksamkeit von Fördermaßnahmen, z.B. die eines selbstkonzipierten Schülertrainings für Schülerinnen und Schüler der Orientierungsstufe. Die Ergebnisse der empirischen Untersuchungen zeigen, dass selbstregulatorische Kompetenzen durch gezielte Maßnahmen gefördert werden können.