Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (488)
- Wissenschaftlicher Artikel (93)
- Buch (Monographie) (92)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (55)
- Arbeitspapier (37)
- Teil eines Buches (Kapitel) (21)
- Ausgabe (Heft) zu einer Zeitschrift (11)
- Rezension (10)
- Sonstiges (9)
- Masterarbeit (7)
Sprache
- Deutsch (841) (entfernen)
Volltext vorhanden
- ja (841) (entfernen)
Schlagworte
- Deutschland (49)
- Luxemburg (28)
- Geschichte (23)
- Film (19)
- Schule (18)
- Juden (15)
- Politischer Unterricht (15)
- Demokratie (14)
- Schüler (14)
- Tourismus (14)
Institut
- Psychologie (118)
- Raum- und Umweltwissenschaften (107)
- Politikwissenschaft (76)
- Universitätsbibliothek (74)
- Rechtswissenschaft (55)
- Medienwissenschaft (53)
- Geschichte, mittlere und neuere (44)
- Wirtschaftswissenschaften (36)
- Fachbereich 3 (32)
- Germanistik (27)
An der Schwelle zum 21. Jahrhundert eröffnet die Verbindung von Fertilisationsmedizin und Humangenetik neue Möglichkeiten der Manipulation menschlichen Lebens. Die Diskussion um Wert und Grenzen der sich ergebenden Optionen führt in zahlreichen Staaten zu einer Auseinandersetzung mit grundlegenden gesellschaftlichen Prinzipien. Der Konflikt ethischer und wirtschaftlicher Werte kann dabei in einer zunehmend globalisierten Welt nicht ausschließlich auf nationaler Ebene gelöst werden. Der Handlungsspielraum des nationalen Gesetzgebers im Spannungsfeld von Menschenwürde, Gesundheitsschutz, Wissenschaft und Wirtschaft ist durch internationale und europäische Normen begrenzt. Akteure, Instrumente und Prinzipien dieses rechtlichen Rahmens werden in diesem Beitrag nachgezeichnet. Im Überblick werden die Positionen der internationalen Rechtsgemeinschaft zur Stammzellenforschung, Klonierungstechnik, Präimplantationsdiagnostik und Zelltherapie dargestellt. Zusammenfassungen maßgeblicher Normtexte sollen den Einstieg erleichtern.
Während die ersten Naturwissenschaftler, wie Humboldt und Darwin, auf dem Feld der klassischen Biogeographie noch vor allem die Aufschlüsselung der Verbreitung von Arten untersuchten, entwickelte sich mit Wallace die Erkenntnis, dass es kausale Gründe für die Verbreitung von Arten gibt. Ihre Erkenntnisse erlangten Wallace oder auch de Lattin noch dadurch, dass Sie Verbreitungsmuster von Arten übereinander projizierten und Ausbreitungszentren ableiteten. In den letzten Jahrzehnten bieten die mannigfaltigen Möglichkeiten computerbasierter Analysen besondere Vorteile bei der Analyse von Verbreitungsmustern, welche in der vorliegenden Dissertation genutzt werden, um eine interdisziplinäre Arbeit im Schnittpunkt von Natur- und Rechtswissenschaften zu schreiben. In fünf Kapiteln werden verschiedene Aspekte aus dem Bereich der klassischen Biogeographie analysiert und diskutiert. Im ersten Beitrag dieser Arbeit wird die biogeographische Struktur der Libellen in der westlichen Paläarktis mittels Verbreitungsanalysen untersucht. Der zweite Beitrag vertieft die Betrachtung mit einer regionalen Analyse der Biogeographie der Odonaten und Tagfalter in Rumänien. Ein dritter Beitrag schließt diesen westpaläarktischen Block mit einer Analyse der Inselbiogeographie des westlichen Mittelmeergebietes ab. In einem zweiten eurasischen Block werden in der vierten Arbeit die biogeographischen Muster Eurasiens herausgearbeitet. Abschließend wird im fünften Beitrag die Phylogeographie der Zwerglibelle (Nehalennia speciosa) als ein Beispiel für trans-paläarktisch verbreitete Arten untersucht. Neben ihrer Bedeutung in der Grundlagenforschung stellen diese fünf Arbeiten eine wesentliche Grundlage für die Ausarbeitung der juristischen Abhandlung dar. In der juristischen Abhandlung werden verschiedene Aspekte unter zu Hilfenahme, der zuvor erarbeiteten Erkenntnisse erläutert, die dazu geführt haben dürften, dass Libellen in der FFH-Gesetzgebung eher unterrepräsentiert sind. Es sind dies eine fehlende europaeinheitliche Gefährdungsbewertung, das Fehlen eines Schutzkriteriums Ausbreitungsfähigkeit und eine fragwürdige Herangehensweise bei den Überlegungen, welche Arten überhaupt auf ihre Schutzwürdigkeit hin untersucht werden sollen.
Die vorliegende Dissertation befasst sich mit der Bildung der Modelle der Komposita in der englischen Sprache.Um eine linguistische Theorie richtig zu bilden, stellen wir 7 Hypothesen auf, die auf umfangreiches englisches Sprachmaterial basieren. Wir schaffen den Regelkreis, der die Möglichkeiten für weitere Untersuchungen in diesem Bereich gibt. In unserem Fall ist diese Untersuchung ein begrenzter Bereich, der als die Bereicherung des Regelkreises von Köhler (2005) gilt (synergetisch-linguistische Modellierung).
Ein gut funktionierendes Umweltmanagementsystem strebt im Allgemeinen nach einer kontinuierlichen Verbesserung der Umweltleistung. Diese kontinuierliche Verbesserung setzt bei den beteiligten Unternehmen einmal die Identifizierung der Umweltaspekte voraus. Die Umweltaspekte beziehen sich vor allem auf den Produktionsprozess und somit auf die Umwelteinwirkungen und - auswirkungen des Produktionsstandortes. Das Potential für kontinuierliche Verbesserung ist nicht immer offensichtlich, wie auch Schwachstellen nicht immer sofort erkannt werden. Beides äußert sich in der Umweltleistung eines Unternehmens. Das vorliegende Bewertungssystem ermöglicht es nun, diese Umweltleistung zu messen und im Sinne des Benchmarking die daraus erlangten Kenntnisse zu nutzen. In dieser Arbeit wird dargestellt, wo die Darstellung der Umweltleistung mit Kennzahlen seine Grenzen hat. Für den operativen Bereich werden daraufhin neue operative Umweltleistungskriterien entwickelt, und es wird gezeigt, wie die Killerargumente gegen einen Vergleich "unterschiedliche Fertigungstiefen und unterschiedlicher Produktoutput" ausgeschaltet werden können. Das Ergebnis sind operative Umweltleistungskriterien, die zwar mit Fehlern belastet sind, aber sie wurden analysiert und auf ein Minimum reduziert. Parallel dazu wird ein Katalog qualitativer Kriterien für den Managementbereich vorgestellt. Hiermit soll der organisatorische Teil, also die "Soft Skills" des Umweltmanagementsystems, abgedeckt werden. Zunächst wurde versucht, diesen Katalog von managementbezogenen Umweltleistungskriterien durch eine Delphi-Befragung zusammenzustellen. Nach einer Analyse der bestehenden Checklisten und Literatur musste dieser jedoch ergänzt werden. Nach dem betriebswirtschaftlichen Grundsatz: "What you cannot measure, you cannot manage." gibt der vorliegende Ansatz die Möglichkeit, durch die Vergabe von Zielerfüllungsgraden auch hier quantitative Aussagen zu machen. Dann wurde der Versuch, unternommen beide Umweltleistungskriterienpakete in einem naturwissenschaftlichen Bewertungsverfahren zu einem Bewertungssystem für Umweltmanagementsysteme zu vereinen. Dieser Versuch mündet in einem praktikablen Ansatz der Umweltleistungsbewertung zugeschnitten, auf die Automobilindustrie. Allerdings wird darauf verzichtet, eine Gesamt- Umweltleistungskennzahl über alle Kriterien zu kreieren, da die Aussage für den Anwender nicht detailliert genug wäre und eine so starke Aggregierung aus bewertungstheoretischer Sicht sehr problematisch ist.
Ausgehend von der zentralen Fragestellung nach den grenzüberschreitenden Beeinflussungsformen der Aachener Frühindustrialisierung kann in den untersuchten Bereichen der Eisenindustrie und des Maschinenbaus ein umfangreiches Beziehungsgeflecht zwischen dem Lütticher und dem Aachener Raum aufgezeigt werden. Neben wallonischen Unternehmern, die im Aachener Raum alleine oder mit rheinischen Kollegen Betriebe gründeten, kann eine Reihe von wallonischen Ingenieuren, Mechanikern, Hüttentechnikern, Arbeiterhandwerkern und Facharbeitern nachgewiesen werden, deren Bedeutung für den Technologietransfer der Frühindustrialisierung des Aachener Raumes nicht hoch genug eingeschätzt werden kann. Neben den personellen Beeinflussungsformen zeigt sich vor allem in der Eisenindustrie, die bereits in der frühindustriellen Phase durch einen großen Kapitalbedarf gekennzeichnet war, eine führende Rolle belgischer Kapitalisten bei der Finanzierung von Neugründungen und der Erweiterung bestehender Produktionsanlagen in der Betriebsform der Aktiengesellschaft. Insgesamt bewirkte die belgische Beeinflussung der Frühindustrialisierung eine wirtschaftliche Durchlöcherung der staatspolitischen Grenze von 1815. Dabei wurden privatwirtschaftliche Initiativen auf beiden Seiten der Grenze durch zoll- und wirtschaftspolitische Maßnahmen unterstützt.
Der Beitrag befasst sich mit dem Einsatz der deutschen Marine bei der Bekämpfung des Terrorismus im Rahmen der Operation Enduring Freedom (OEF), bei der Verhinderung einer Verbreitung von Massenvernichtungswaffen im Rahmen der Proliferation Security Initiative (PSI) und bei dem Kampf gegen die Piraterie im Rahmen der EU-Operation Atalanta. Dabei hat die Marine u.a. die Befugnis, verdächtige Schiffe aufzubringen, an Bord zu gehen, Untersuchungen durchzuführen und ggf. verdächtige Personen in Gewahrsam zu nehmen. Die Autorin beleuchtet, inwieweit solche Maßnahmen mit der Schifffahrtsfreiheit, einem der fundamentalen Prinzipien des Seevölkerrechts, vereinbar sind. Sie geht außerdem der Frage nach, ob die im Zuge der Bekämpfung der Piraterie vor der Küste Somalias erfolgende Übergabe mutmaßlicher Piraten an Kenia zum Zwecke der Strafverfolgung mit den grund- und menschenrechtlichen Verpflichtungen der Bundesrepublik Deutschland im Einklang steht.
Zeugen die ein Tatgeschehen nicht beobachtet, sondern nur auditiv wahrgenommen haben, werden als Ohrenzeugen bezeichnet. Im Rahmen des Strafverfahrens erhalten Ohrenzeugen die Aufgabe, die Täterstimme im Rahmen einer akustischen Wahlgegenüberstellung (Voice Line-up) wiederzuerkennen. Die forensische Praxis zeigt, dass Ohrenzeugen diese Aufgabe unterschiedlich gut bewältigen können, ohne dass sich ein klares Muster erkennen lässt. In der Ohrenzeugenforschung gibt es jedoch Hinweise, dass musikalische Ausbildung die Fähigkeit zur Sprechererkennung verbessert.
Ziel dieser Arbeit ist es zu prüfen, ob das Ausmaß musikalischer Wahrnehmungskompetenz eine Prognose der Sprechererkennungsleistung erlaubt.
Um dies zu prüfen, nahmen 60 Versuchspersonen sowohl an einem „Musikalitätstest“ in Form der Montreal Battery for the Evaluation of Amusia (MBEA) als auch an einem target present Voice Line-up teil. Mittels Regressionsmodellen konnte bestimmt werden, dass die Wahrscheinlichkeit für eine korrekte Sprechererkennung steigt, je höher das Testergebnis der MBEA ausfällt. Dieses Testergebnis ermöglicht eine signifikante Prognose der Sprechererkennungsleistung. Die ebenfalls mittels Fragebögen erhobene Dauer der musikalischen Ausbildung erlaubt hingegen keine signifikante Prognose. Das durchgeführte Experiment zeigt auch, dass die Dauer der musikalischen Ausbildung das Testergebnis im Musikalitätstest nur eingeschränkt erklärt.
Diese Beobachtungen führen zu dem Schluss, dass bei einer Bewertung von Ohrenzeugen ein direktes Testen von musikalischer Wahrnehmungsfähigkeit einer Inferenz auf der Basis musik-biografischer Angaben vorzuziehen ist.
Selbstregulation beschreibt die Fähigkeit, eigene Bedürfnisse, Werte und Interessen in die willentliche Handlungssteuerung einzubeziehen und so das eigene Handeln auf die Verwirklichung selbstkongruenter Ziele auszurichten. Die Arbeit beleuchtet die Bedeutung der Selbstregulation im Bildungskontext und überprüft die Wirksamkeit von Fördermaßnahmen, z.B. die eines selbstkonzipierten Schülertrainings für Schülerinnen und Schüler der Orientierungsstufe. Die Ergebnisse der empirischen Untersuchungen zeigen, dass selbstregulatorische Kompetenzen durch gezielte Maßnahmen gefördert werden können.
Während die Ziele "Sicherheit" und "Europa" der polnischen Außenpolitik nach 1989 mit dem Beitritt zu Europarat, NATO und EU bereits nahezu gelöst sind und die in diesem Zusammenhang auftretenden Probleme in den Rechts- und Sozialwissenschaften in West und Ost schon in breiterem Rahmen diskutiert wurden, steht vor allem die westliche systematische Forschung zur polnischen Ostpolitik nach 1989 noch am Anfang. Dies mag zum Teil an in Westeuropa fehlenden profunden Sprach- und Landeskenntnissen oder vermeintlich fehlender tagespolitischer Aktualität liegen. Jedoch ist offensichtlich, dass das Thema nach dem EU-Beitritt Polens und der damit einhergehenden direkten Nachbarschaft der Union mit Weißrussland und der Ukraine auf der Brüsseler Agenda weit nach vorne gelangen wird. Theoretisch-methodisch stützt sich die Arbeit auf moderat-konstruktivistische Ansätze (PAFE-Ansatz der Universität Trier), verfolgt einen qualitativen Ansatz und stützt sich bewusst auf den wichtigsten außenpolitischen Akteur eines Staates " die Regierung. Im Falle Polens verdienen neben dem Ministerrat vor allem der Präsident und der Senat, die zweite Kammer des polnischen Parlamentes, besondere Aufmerksamkeit. Ferner konzentriert sich die Dissertation auf eine Analyse des (nicht notwendig entgegengesetzt gerichteten) Diskurses und Verhaltens. Die empirischen Ergebnisse der Dissertation sind insbesondere Resultat eines zweijährigen Forschungsaufenthaltes in Warschau mit Studienreisen nach Kaliningrad, Vilnius, Minsk, Grodno, Lemberg und Kiev. Die Dissertation präsentiert ihre Ergebnisse in drei Fallstudien: zur polnischen Minderheit in Litauen, Weißrussland und der Ukraine, zur polnischen Außenwirtschaftsförderung nach Osteuropa und zu den Regelungen und der Bedeutung des Schengener Übereinkommens für die polnische Ostgrenze nach Polens EU-Beitritt. Dabei ergab sich insbesondere ein bis heute offener Diskurs zu Minderheitenfragen sowie im Verhalten eine nur schwache Rolle des Ministerrates, der in dieser Hinsicht eindeutig vom Senat dominiert wird. In Fragen der Außenwirtschaftsförderung ergab sich ein leichtes Übergewicht für die Verfechter der "strategischen Partnerschaften" mit der Ukraine und Litauen und gegen eine Ökonomisierung der bilateralen Beziehungen mit osteuropäischen Staaten um jeden Preis. In der Praxis zerstob indes aufgrund der fortdauernden instabilen Lage in Osteuropa rasch die Hoffnung, dass die GUS-Staaten ein vielversprechender Zukunftsmarkt werden würden. Ferner blieb die Eigenkapitalknappheit polnischer Firmen ein Kernhindernis. Die Studie über das Schengener Übereinkommen ergab, dass sich der Diskurs nur zögerlich öffnete. Im Verhalten erwies sich Warschau dagegen als sehr aktiv und akzeptierte bereits 1993 (mit der Ukraine) bzw. 1997 (mit Litauen) den visumfreien Reiseverkehr mit zwei seiner vier östlichen Nachbarn, lehnte jedoch den von Russland und Weißrussland geforderten visumfreien Reiseverkehr ohne Rücknahmeabkommen ab. Gegenüber der EU konnte Polen für die Zeit nach dem EU-Beitritt zumindest die Einreise für Ukrainer nach Polen mit einem gebührenfreien Visum durchsetzen. Im Unterschied zur Zwischenkriegszeit, als Polen von Ost und West bedroht war, selbst regionale Vormacht werden wollte, keine allseits anerkannten Grenzen hatte und gerne in der Rolle des "Zivilisators" oder "Retters" auftrat, erscheint das heutige Polen aus westlicher Sicht als so "europäisch" wie noch nie zuvor in seiner Geschichte.
Deutschland befindet sich mitten im demographischen Wandel, woraus sich tiefgreifende, langfristige Auswirkungen sowohl auf das Konsumverhalten als auch auf die Konsumstruktur ergeben. Vorliegende Arbeit fokussiert die Veränderung der Nachfragepotentiale im Tourismus, die aus dem demographischen Wandel resultieren. Ziel war es, Daten zur demographischen Entwicklung mit zu erwartenden Veränderungen ausgewählter sozioökonomischer Faktoren und hierbei konkret der Haushaltsgröße, des Bildungstandes sowie des Äquivalenzeinkommens zu verbinden und systemendogen zu erklären.
Mit Hilfe eines mehrstufigen Verfahrens wurde dargelegt, wie sich die relevanten sozioökonomischen Faktoren im Zuge einer alternden Gesellschaft verändern und welche Konsequenzen sich daraus für die quantitative, strukturbedingte Nachfrage nach touristischen Leistungen bis zum Jahr 2030 ergeben. Die ökonometrische Grundlage für die Prognosen bilden unterschiedliche binär-logistische Regressionsanalysen auf der Basis der Scientific Use Files der Reiseanalyse 2010, woraus sich Wahrscheinlichkeiten für die Teilnahme an einer mindestens fünftägigen Reise, einer Kurzreise sowie an unterschiedlichen Reisearten generieren lassen. Die additive Form des Modells der logistischen Regression macht es dabei möglich, den Fokus auf einen sozioökonomischen Faktor oder auf das Zusammenspiel mehrerer Variablen zu setzen und somit die Wirkungsstärke der einzelnen Faktoren auf die Nachfrage zu bestimmen.
Bei der Berechnung der künftigen Anzahl an Reisenden, führt die Endogenisierung der Struktureffekte altersklassenübergreifend zu (deutlich) höheren Prognoseergebnissen als im Falle einer rein demographischen Betrachtung. Für die Teilnahme an einer Reise mit einer Dauer von mindestens fünf Tagen prognostiziert das Modell unter ausschließlicher Berücksichtigung des demographischen Wandels bis zum Jahr 2030 eine Abnahme der Reisenden um 4,16 Prozent. Bezieht man die Entwicklungstendenzen der Haushalte sowie der Einkommens- und Bildungsstruktur mit ein, ergibt sich ein ganz anderes Bild: Der demographisch bedingte Rückgang wird nicht nur ausgeglichen, sondern es kommt zu einer Zunahme der Reisenden um 7,49 Prozent. Prognosen zur Anzahl der Kurzreisenden bzw. zur Teilnahme an ausgewählten Reisearten zeigen ähnliche Ergebnisse. Auch hier wirken die Struktureffekte dem demographischen Wandel bei der Nachfrage nach touristischen Leitungen deutlich entgegen.
Um die weiterhin ansteigende Weltbevölkerung auch zukünftig mit Nahrungsmitteln und anderen wichtigen Rohstoffen zu versorgen, bedarf es einer immer größeren Nutzungsausweitung der Landwirtschaft auf natürliche Flächen. Im Jahre 2009 wurde ein Drittel der Landoberfläche der Erde bereits landwirtschaftlich genutzt. In jüngster Zeit kommt der Landwirtschaft zusätzlich eine wichtige Bedeutung als Energielieferant zu. Ein weiter steigender Flächenbedarf ist die Konsequenz dieser Entwicklung. Dies führt zum Verlust von Habitaten und somit zu einer starken Fragmentierung der Landschaft. Die direkten und indirekten Auswirkungen dieser Entwicklung auf den weltweiten Biodiversitätsrückgang werden mittlerweile als eine der Hauptursachen für den Rückgang vieler Arten anerkannt. Auch der Gesetzgeber hat dieses Problem erkannt und versucht dem entgegenzuwirken. In der vorliegenden Arbeit wird durch einen multiplen Methodenansatz der Einfluss der Habitatfragmentierung auf die Konnektivität der Populationen von zwei unterschiedlich mobilen Insektenarten untersucht. Als Modelarten wurden eine wenig mobile Heuschreckenart (Chorthippus montanus) und ein hoch mobiler Tagfalter (Brenthis ino) ausgewählt, welche beide an feuchte Grünländer gebunden sind. Für C. montanus wurde gezeigt, dass die Art nur ein sehr eingeschränktes Mobilitätspotenzial besitzt und stark an ihr Habitat gebunden ist. Daher ist eine Durchquerung von ungeeigneten Lebensräumen als äußerst unwahrscheinlich zu erachten. Eine Studie zur Mobilität und dem Verhalten von Brenthis ino belegt eine starke Philopatrie für eine nicht territoriale Insektenart. Zusätzlich zu den Fang-Wiederfang-Untersuchungen im Freiland wurden populations- und landschaftsgenetische Analysen durchgeführt. Die populationsgenetischen Analysen zeigen eine starke Isolation der Populationen von C. montanus, während zwischen den untersuchten Populationen von B. ino eine gute Konnektivität besteht. Mittels der landschaftsgenetischen Analyse wird gezeigt, dass Wälder und bebaute Flächen für beide Arten substanzielle Genefluss-Barrieren darstellen. Basierend auf einer GIS gestützten Analyse wird dargelegt, dass eine lokal ausreichende Vernetzung von Grünländern in Rheinland-Pfalz durch den Biotopverbund existiert. Die Berücksichtigung der Konnektivität bei der Auswahl und Ausgestaltung der Instrumente zur rechtlichen Sicherung und Umsetzung des Biotopverbundes (-§ 21 BNatSchG) bergen großes Potenzial zum Schutz von Grünländern. Ferner wird gezeigt, dass die Landschaftsplanung zwar ein geeignetes Instrument zur Erarbeitung des Biotopverbundes ist, aber kein Instrument zur rechtlichen Sicherung desselbigen im Sinne des -§ 21 Abs. 4 BNatSchG sein kann.
WICHTIGER HINWEIS: Aufgrund eines Computerfehlers bei der Rohdatenaufbereitung, müssen die 5.2.3. Ergebnisse (S. 43 ff.) wie folgt korrigiert werden: Explizite Einstellungsmessung Die Ergebnisse ändern sich inhaltlich: Haupteffekt Wortvalenz F(1, 94) = 51.10, p < .001, η2 = .35, (Mpos= 5.06; Mneg= -28.51); Interaktionseffekt Wortvalenz und kognitive Belastung F(1, 94) = 7.90, p < .01, η2 = .08, (Mpos/load= -5.01; Mpos/kein load= 15.13; Mneg/load= -25.43; Mneg/kein load= -31.75); Haupteffekt Wortnegation F(1, 94) = 8.58, p < .01, η2 = .08, (Mkeine = -7.95; Mnegation= -15.58). Implizite Einstellungsmessung Die Ergebnisse bleiben inhaltlich gleich: Zweifach-Interaktion von Wortvalenz und Prime, F(1, 80) = 4.61, p < .05, η2 = .06, (Mpos/wahr= 20.33; Mpos/falsch= 3.85; Mneg/wahr= 4.44; Mneg/falsch = 14.14). ABSTRACT: Ziel der vorliegenden Arbeit war es Evidenz für die Existenz einer Antonymie-Heuristik bei der Falsifikation valenter Information zu finden. Es wird angenommen, dass die vorherige Ankündigung, dass eine nachfolgende valenzhafte Information falsch ist, zu einer Änderung der Enkodierungsstrategie der valenzhaften Information führt. Dies bedeutet, dass zu der Valenz der gegebenen Information automatisch eine Gegenvalenz oder antonyme Valenz aktiviert werden sollte. Dementsprechend sollten falsche positive Informationen negativer und falsche negative Informationen positiver beurteilt werden als ihre wahren Entsprechungen. In vier Studien konnte dieser Effekt nachgewiesen werden. Die Ankündigung, dass eine valenzhafte Information falsch ist, beeinflusst, unabhängig von kognitiver Belastung, die Valenzübertragung in einem evaluativen Konditionierungsparadigma in vorhergesagter Weise (Experiment1). Ebenso führen generierte Gegenvalenzen, wenn eine Information als falsch angekündigt wurde, zu einem Verarbeitungsvorteil in einer Valenzkategorisierungs-Aufgabe, bei welcher positive Informationen als negativ und negative Informationen als positiv eingeschätzt werden sollten (Experiment 2). Die Ankündigung, dass eine nachfolgende Information falsch ist, führt außerdem dazu, dass positive (negative) Eigenschaften schnell und effizient negativer (positiver) eingeschätzt werden als bei einer Ankündigung der Informationen als wahr (Experiment 3 und 4). Zusammenfassend werden diese Befunde als Evidenz für die Existenz einer Antonymie-Heuristik im Zuge der Falsifikation valenter Information interpretiert.
Im Jahre 1898, während des Krieges der USA gegen Spanien, besetzten die USA die Bucht von Guantánamo, eine bedeutende Hafenanlage. Gemäß dem sog. Platt-Amendment, das die kubanische Verfassungsgebende Versammlung unter Druck akzeptieren musste (sonst wäre die vierjährige amerikanische Besetzung nicht beendet worden), sollte den Amerikanern eine oder mehrere Stützpunkte zugesprochen werden. Dies geschah im Pachtvertrag vom 23. Februar 1903, wodurch Kuba die Bucht von Guantánamo "for coaling and naval purposes, and for no other purpose" an die USA verpachtete. Bis 1934 bezahlten die USA $ 2.000 pro Jahr. Seit 1938 wurde die Summe auf $ 4.085 erhöht. Jedoch akzeptiert Kuba seit 1959 die amerikanische Präsenz auf kubanischem Boden nicht mehr und löst die Schecks nicht ein. Wie ist die amerikanische Präsenz in Guantánamo heute völkerrechtlich zu beurteilen?
Die erst vor einigen Jahren als System zur Qualitätssicherung eingeführte Akkreditierung von Studiengängen steht aktuell auf dem Prüfstand des Bundesverfassungsgerichts. Wegen Zweifeln an der Verfassungsmäßigkeit derrnAkkreditierungspflicht in Nordrhein-Westfalen hat das Verwaltungsgericht Arnsberg ein Klageverfahren ausgesetzt und den Fall dem Bundesverfassungsgericht vorgelegt, das nun über die Vereinbarkeit der Vorschriften mit dem Grundgesetz zu entscheiden hat. Welchen verfassungsrechtlichen Bedenken begegnet das deutsche Akkreditierungssystem im Einzelnen? Welche Erfolgsaussichten hat die Vorlage an das Bundesverfassungsgericht? Welche Konsequenzen hätte es für das gesamtdeutschernAkkreditierungswesen, wenn das Bundesverfassungsgericht die Akkreditierungspflicht für verfassungswidrig erklärt? Diesen und anderen Fragen widmet sich der vorliegende Beitrag.
Die A4-Strategie versucht, eine Antwort auf die Frage zu geben, ob es in der modernen Medienlandschaft optimale und effiziente Kommunikationsstrategien gibt, deren Erfolg nicht von der Höhe des Budgets abhängig ist und die gleichzeitig eine hohe Kundenbindung bewirken und eine effiziente Auswahl der Kommunikationsinstrumente sichert. Dies ist gerade für KMUs von besonderer Bedeutung, die sich in einem komplexen und globalisierten Marktumfeld bewegen. Die Marketingkommunikation ist nicht nur ein unvermeidliches Werkzeug, um die Verkaufszahlen zu steigern. Sie bedarf heutzutage auch einer durchdachten Strategie. Denn es wird erst eine erfolgreiche Interaktion zwischen diesen Partnern (Unternehmen und Kunden) stattfinden, wenn sowohl ein optimaler Unternehmenswert als auch ein Kundenwert generiert wird. Die A4-Strategie hilft zugleich dabei, Antworten auf die für eine optimale Marketingkommunikation relevante Fragen zu finden: Wer kann einkaufen? Wer kauft tatsächlich ein? Was sind die relevanten Informationen über den, der tatsächlich einkauft? Anhand der Antworten auf diese Frage wird ermittelt, wo und wie die potentielle Kundschaft besser akquiriert und wo und wie die bestehende Kundschaft optimal betreut werden kann. Dieses Konzept bietet eine strukturierte Herangehensweise und Vorgehensweise, um eine Kommunikationsstrategie je nach Situation zu entwickeln. Sie ist somit keine fertige Lösung, sondern schafft sie Rahmen für ein methodisches Entscheidungsprozess. Sie hilft zudem situationsadäquat Entscheidungen zu treffen und Handlungen vorzunehmen, die diese Entscheidungen konsequent umzusetzen.
In der vorliegenden Arbeit geht es um die Frage nach der Rolle der Zeit im Werk Friedrich von Hardenbergs (Novalis, 1772-1801). Sowohl die Zeitstruktur in der Dichtung als auch das Zeitbewusstsein in der Transzendentalphilosophie bei Novalis wurden in der Forschung mehrfach thematisiert. Eberhard Haufe (1957) und Peter Küpper (1959) analysierten die Zeitstruktur im Heinrich von Ofterdingen eingehend und kamen zu dem Schluss, dass die Entwicklung des Romaninhalts dem Stil und der Symbolhaftigkeit der Sprache unterworfen werden und dass damit die Zeit aufgehoben wird. Manfred Frank (1972) analysierte das Zeitbewusstsein in den Fichte-Studien und legte dar, dass das Bewusstsein der Zeitlichkeit aus dem Gefühl eines unlösbaren "Mangels" an Sein entstehe und dass deshalb die Freiheit des Ich nicht durch Aufhebung der Zeit, sondern in einer Synthese von Zeit und Ewigkeit in der Zeit realisiert werden sollte. Während Frank den Ort der Dynamik des "Ordo inversus" zwischen Subjekt und Objekt in der Zeit bestimmte, entwickelte Richard Warren Hannah (1981) die These, dass die Synthese von Ich und Du, Zeit und Raum, Vergangenheit und Zukunft in der Gegenwart liege und dass das Bewusstsein der Gegenwart der Ausgangspunkt der Dichtung bei Novalis wurde. Durch die Arbeiten von John Neubauer (1978) und Gordon Birrell (1979) wurde die Aufhebung der Zeit im Ofterdingen zwar verleugnet und die Rolle der Zeit und der Gegenwart im Roman hervorgehoben, aber es fehlt in der Forschung m. E. noch ein roter Faden zwischen dem transzendentalphilosophischen Zeitbewusstsein und der Zeitstruktur in der Dichtung. In seiner ersten Fragmentsammlung Blüthenstaub (1798) schreibt Novalis: "Nichts ist poëtischer, als Erinnerung und Ahndung, oder Vorstellung der Zukunft. Die gewöhnliche Gegenwart verknüpft beyde durch Beschränkung " Es entsteht Contiguitaet, durch Erstarrung " Crystallisation. Es gibt aber eine geistige Gegenwart " die beyde durch Auflösung identificirt " und diese Mischung ist das Element, die Atmosphäre des Dichters. Nicht Geist ist Stoff." (II, 468, 123) In dieser Arbeit wird erläutert, dass die Idee der "geistigen Gegenwart" ein roter Faden ist, der Philosophie und Dichtung bei Novalis verbindet. Um zwischen Theorie und Dichtung eine Brücke zu schlagen, soll der Gedankengang von Novalis von den Fichte-Studien (1795/96) bis zum Heinrich von Ofterdingen (geschrieben um 1800) nachvollzogen werden. Die vorliegende Arbeit geht davon aus, dass das Bewusstsein der Gegenwart als einer Synthese nicht nur die philosophischen Studien, sondern auch die Poetik und die Dichtung von Novalis durchgängig prägt. Es soll erläutert werden, wie er den Begriff der "geistigen Gegenwart" begründete und wie er ihn auf seine Poetik und dichterische Praxis übertrug. Diese Arbeit stellt einen Versuch dar, den ganzen Gedankengang von Novalis als eine Suche nach Möglichkeiten einer sinnlichen Erfahrung der "geistigen Gegenwart" darzustellen.
Didaktik der Menschenrechte
(2001)
In der vorliegenden Dissertation werden die Ergebnisse einer empirischer Untersuchung zur Diagnostik und Differentialdiagnostik der Borderline-Persönlichkeitsstörung (BPS) vorgestellt. Diese Untersuchung umfaßt die Überprüfung der internen Struktur der BPS gemäß dem DSM-IV (APA, 1994). Eine dimensionale Ordnung der neun Borderline-Kriterien wird mittels Faktorenanalyse erstellt und in eine Störungskonzeption eingebunden. Darüber hinaus wird die diagnostische Effizienz der einzelnen Borderline-Kriterien ermittelt. Die Kriterien der BPS werden gemäß ihrer Bedeutung für die Diagnosenstellung in eine Rangreihe gebracht. Dabei werden die Merkmale der diagnostischen Effizienz (u.a. Spezifität, Sensitivität, Kappa, Overall Classification Rate etc.) für jedes einzelne Kriterium dargestellt. Weiterhin wird die Borderline-Symptomatik außerhalb der Kriterienebene des DSM-IV untersucht. Die durch Fragebögen erhobenen klinischen Merkmale werden auf ihre Zusammenhänge und ihre Bedeutung für die Diagnostik der BPS überprüft. Dabei erlangen insbesondere die interpersonalen Probleme und emotionsbezogenen Symptome einen hohen Stellenwert. Daher wurde ein Schwerpunkt der Untersuchung auf die interpersonalen Probleme der Borderline-Patienten gelegt, deren Struktur und Zusammenhänge zu anderen Symptomen erläutert werden. Auf der Grundlage der interpersonalen Probleme werden vier Subgruppen von Borderline-Patienten ermittelt. Diese unterscheiden sich insbesondere in den Verhaltensdimensionen Kontaktbereitschaft und Kontaktgestaltung. Für die vier Subgruppen werden therapeutische Strategien als Hypothesen abgeleitet. Ebenso werden Veränderungsvorschläge für eine differenzierte Diagnostik dargelegt. Die Untersuchung dient zudem dem Vergleich der BPS und anderen psychiatrischen Störungen. Die Ergebnisse belegen erhebliche Unterschiede zwischen den Borderline-Patienten und Nicht-Borderline-Patienten. Daneben werden weitere Subgruppen von Borderline-Patienten (u.a. anhand von Komorbiditäten, demographischen Variablen und Settingfaktoren der Behandlung) untersucht. Auch hier werden Zusammenhänge zwischen den Kriterien der BPS und klinisch-psychologischen Merkmalen exploriert und erläutert. Schlußfolgerungen für die Diagnostik und Therapie der Störung werden diskutiert.
Die Arbeit befasst sich mit der quantifizierenden Wirkungsabschätzung folgender Hochwasserschutzmaßnahmen: Auwaldaufforstung, Kleinrückhalte, Tieflockerung und Wegebaumaßnahmen. Neben der Betrachtung der hochwassermindernden Wirkung der einzelnen Maßnahmen werden auch die Grenzen der eingesetzten Simulationsmodelle aufgezeigt, diskutiert und Impulse für die Weiterentwicklung der Modellsysteme geben. Für die Auwaldaufforstung wurde ein zweidimensional instationäres Strömungsmodell auf der Basis des Rauhigkeitsansatzes nach Manning-Strickler auf einen rund 7,0 km langen Abschnitt eines Auetalgewässers angewendet. Bezüglich der hochwassermindernden Wirkung der Maßnahme Auwaldaufforstung konnte festgestellt werden, dass sich die Wirkung nahe der modelltechnischen Nachweisbarkeitsgrenze bewegt. Als Referenzereignisse dienten ein ca. 5-10 jährliches sowie ein ca. 50-80 jährliches Hochwasserereignis. In allen untersuchten Fällen blieb die relative Scheitelabminderung deutlich unter 1 %. Der Maßnahmentyp Kleinrückhalte wurde zunächst anhand von zwei Einzugsgebieten der Mesoskale (Obere Blies, AE ca. 8,5 km-² und Thalfanger Bach, AE ca.17 km-²) sowie anhand von mehreren hieraus abgeleiteten Fiktivsystemen mit Hilfe eines konzeptionellen Flussgebietsmodells untersucht. Die Untersuchung von Fiktivsystemen diente der Identifikation derjenigen Modellparameter, die den Effekt " also die hochwassermindernde Wirkung der Maßnahme " im Wesentlichen bewirken. Anschließend erfolgte eine Betrachtung des Maßnahmentyps Kleinrückhalte in den Flussgebieten von Prims (AE ca. 730 km-²) und Blies (AE ca. 1.890 km-²). Die Simulationsergebnisse zeigen, dass die Retentionswirkung von Kleinrückhalten entscheidend vom Volumen der jeweiligen Standorte und vom Volumen des betrachteten Hochwassers abhängt. In Abhängigkeit des Volumens wurden Scheitelabminderungen " je nach Ereignis " von < 1 % bis über 60 % simuliert. Entscheidend ist die Summe des Volumens der Einzelstandorte. Liegt das Gesamtvolumen unter einem Wert von 2,0 mm Gebietsrückhalt, so kann davon ausgegangen werden, dass die Maßnahmen nicht signifikant zur Hochwasserminderung beitragen können. Das Retentionspotenzial der Kleinrückhalte kann entscheidend gesteigert werden, wenn die Drosselöffnungen der Kleinrückhalte entsprechend optimiert werden. Die Arbeit stellt ein einfach handhabbares Regionalisierungsverfahren zur Abschätzung des Retentionspotenzials in mesoskaligen Einzugsgebieten (bis 20 km-²) vor. In den Einzugsgebieten von Blies und Prims würden jeweils 104 bzw. 79 Standorte mit einem Gesamtvolumen von 1,9 bzw. 2,5 mm zu Scheitelabminderungen am Gebietsauslass von 2-4 % bzw. 3-5 % bei interessanten, schadbringenden Hochwasserereignissen führen. Die Maßnahmentypen Tieflockerung und Wegebaumaßnahmen wurden mit Hilfe eines Wasserhaushaltsmodells im Einzugsgebiet der Oberen Blies untersucht. Für dieses Gebiet liegen die simulierten Scheitelabminderungen bezogen auf das zugrunde liegende Hochwasserereignis vom Dezember 1993 (ca. HQ10) bei jeweils < 5 % für die beiden untersuchten Maßnahmentypen Tieflockerung und Wegebaumaßnahmen. Generell sind die Möglichkeiten der Tieflockerung und der wegebaulichen Maßnahmen als Hochwasserschutzmaßnahmen begrenzt auf kleinere, 1-5 jährliche Ereignisse. Große, schadbringende Ereignisse können nicht signifikant abgemindert werden.
Die vorliegende Arbeit entstand im Rahmen des INTERREG III B-Projektes WaReLa (Water Retention by Landuse), das sich mit dem Rückhalt von Wasser in der Fläche als Beitrag zum vorbeugenden Hochwasserschutz beschäftigt. Im Vordergrund stehen dabei die so genannten dezentralen Rückhaltemaßnahmen als Alternative bzw. Ergänzung zum technischen Hochwasserschutz. Gegenstand dieser Arbeit ist die Frage nach der Effizienz von Retentionsmaßnahmen in urbanen Räumen und deren Beitrag zum Hochwasserschutz. Es handelt sich um ein relativ junges Forschungsthema, welches die Fachwelt bis heute kontrovers diskutiert. Wie bisherige Untersuchungen zeigen, sind allgemeine Aussagen über die Retentionswirkung nicht möglich, da das Potential der Regenwasserbewirtschaftung und deren Rückhaltewirkung von mehreren gebietsspezifischen Faktoren gesteuert werden. Untersuchungen an einem Retentionssystem im Neubaugebiet Trier-Petrisberg sollten weitere Erkenntnisse bringen. Hierzu wurde zum einen die hydraulische Belastung einzelner Retentionsanlagen untersucht und zum anderen wurden N A-Simulationen mit dem Programm erwin 4.0 durchgeführt. Laut N-A-Simulationen hält das Retentionssystem, welches für ein 100-jährliches Ereignis mit 56 mm Niederschlag und der Dauerstufe 3 Stunden konzipiert wurde, im Vergleich zur Entwässerung des Gebietes über ein Trennsystem zwischen 58 % und 68 % des Jahresniederschlags zurück. Ähnlich hohe Werte (60 80 %) nennen GÖBEL, STUBBE, WEINERT, ZIMMERMANN, FACH, DIERKES, KORIES, MESSER, MERTSCH, GEIGER & COLDEWEY (2004: 270f) und WEGNER (1992: 7f) für die von ihnen untersuchten Anlagen. Sehr hoch erscheint die Scheitel abmindernde Wirkung des Retentionssystems im Vergleich zu einer konventionellen Ableitung. Im Mittel beträgt diese 82 %, so dass der Scheitel der Einleitung in den Vorfluter Brettenbach im Vergleich zur Regenwasserableitung auf 1/5 reduziert wird. Aufschluss über die Scheitelabminderung im Vorfluter selbst kann nur eine Quantifizierung der einzelnen Abflusskomponenten geben. Das Retentionssystem arbeitet im Sommerhalbjahr effektiver als im Winterhalbjahr, da trockene Vorperioden, höhere Lufttemperaturen und die Vegetation im Sommer einen besseren Rückhalt konvektiver Niederschläge begünstigen. Korrespondierende Aussagen machen ASSMANN & KEMPF (2005), GANTNER (2003a) und NIEHOFF (2002). Beobachtungen und Simulationen zeigen, dass das Retentionssystem bisher effektiv arbeitet. Sämtliche Retentionsanlagen entleeren sich innerhalb von 48 Stunden. Die Arbeit wird ergänzt durch Handlungsempfehlungen zu Planung, Bau und Betrieb von Anlagen zur Regenwasserbewirtschaftung auf Privatgrundstücken. Sie sollen helfen, die Akzeptanz naturnaher Maßnahmen zur Bewirtschaftung von Regenwasser zu steigern, Fehler zu vermeiden und Projekte erfolgreich umzusetzen.
Der Beitrag beschäftigt sich mit dem Verhältnis zwischen Deutschland und dem Völkerrecht nach dem Irak-Konflikt. Zunächst erläutert der Verfasser drei erkennbare Trends in der Völkerrechtsentwicklung, nämlich die Dominanz der USA, die Konstitutionalisierung des Völkerrechts und den Bedeutungsverlust des Staates in einigen Regionen der Welt. Zimmermann geht dann auf die Relevanz dieser Entwicklungen für Deutschland ein. In einem zweiten Teil widmet sich der Autor gezielt dem völkerrechtlichen Gewaltverbot und Deutschlands Rolle bei der Entwicklung in diesem Bereich. Der Irak-Konflikt dient ihm in allen Feldern dazu, die gegenwärtigen Entwicklungen zu verdeutlichen.
Die vorliegende Arbeit untersucht, ob eine Positionierung der von den Winzern hergestellten Erzeugnisse im hochwertigen und damit hochpreisigen Produktsegment einen geeigneten Lösungsansatz darstellt. Neben einer qualitativen Ausstattung der Produkte im Hochpreissegment, die bereits von einigen Erzeugern erfolgreich vollzogen wurde, wird insbesondere analysiert, ob ein größerer Stellenwert der Kommunikation dieser Entwicklung gegenüber den meinungsbildenden und qualitätsorientierten Konsumenten geeignet ist, die Beurteilung und damit das Image von "Deutschem Spitzenwein" zu verbessern, somit das Konsumverhalten nachhaltig zu verändern und das vorstehende Problem zu lösen. Der Dissertation liegt insoweit die übergeordnete Fragestellung zugrunde, ob und gegebenenfalls wie langfristig eine deutsche Luxusweinmarke kreiert und etabliert werden kann bzw. welche strategischen und operativen Management-Maßnahmen zur Erreichung dieser Zielsetzung erforderlich sind.
Die vorliegende Dissertation ist ein Versuch, mit einer Erforschung, Darstellung und Analyse dessen zu beginnen, was die deutsche Präsenz in Guatemala seit der Ankunft der ersten Siedler im frühen 19. Jahrhundert bedeutet. Aus diesen Seiten spricht ein im Gange befindlicher Prozess einer Akkulturation zwischen deutschen Einwanderern und Guatemalteken, in dessen Verlauf beide Teile ihr Leben gegenseitig wirtschaftlich, gesellschaftlich und geistig, wenn auch nicht immer ohne Spannungen, bereicherten. Die Darstellung beginnt mit einer Besprechung der wirtschaftlichen, sozialen und kulturellen Beiträge der ersten Siedler, sowie der Arbeit deutscher Institutionen. Sie untersucht dann die Aufnahme deutschen Gedankengutes bei der studierenden Jugend, bei Dozenten, Künstlern und Intellektuellen. Das Hauptgewicht dieses letzteren Teils liegt auf der Zeitspanne der achtziger Jahre des 20. Jahrhunderts, als Guatemala die ärgste Zeit der Gewalt, Unsicherheit und Angst erlebte. In jenen Jahren beschäftigten sich viele Intellektuelle und Studenten äusserst intensiv mit deutscher Denkart. Die Gründe dieses Interesses waren Gegenstand meiner besonderen Aufmerksamkeit. Meine Nachforschungen umfassten Reisen von Hunderten von Kilometern durch ganz Guatemala, sowohl während meines Aufenthalts als amerikanischer Diplomat (1981-1983) wie auch bei wiederholten Reisen zwischen 1984 und 1990, teilweise in abgelegenen und von Guerillaunruhen heimgesuchten Gegenden. Aspekte der historisch-sozialen und politischen Analyse Guatemalas in den nächsten Kapiteln stützen sich im wesentlichen auf meine Studie: Guatemala: A Complex Scenario. Wir erhalten nicht nur das Bild eines Guatemala, wo deutsche Siedler und Institutionen bleibende Spuren in der Gellschaft hinterliessen. Wir sehen auch einen Aspekt eines Guatemala, das sich intensiv mit wichtigen intellektuellen und kulturellen Errungenschaften Deutschlands befasst. Es ist ein faszinierendes Bild, auf dem sogar eine so komplexe Gestalt wie Heidegger ihren Schatten hinterlassen hat. Es reflektiert die stolze Anstrengung einer Gesellschaft, sich von den vielen Schwierigkeiten, denen sie sich im täglichen Leben ständig ausgesetzt sieht, die geistige Offenheit und Bereicherung nicht einschränken zu lassen.
Die Ritualmordbeschuldigung ist eine von mehreren Anklagen, die in Westeuropa seit dem hohen Mittelalter immer wieder gegen Juden erhoben wurden. Da sie die am weitesten verbreitete unter ihnen war, wirkte sie in besonderem Maße prägend auf das Bild, das in der christlichen Mehrheit von der jüdischen Minderheit in Umlauf war. Der Trienter Fall spielt in diesem Kontext aus vielen Gründen eine herausgehobene Rolle. Die vorliegende Arbeit berücksichtigt alle wesentlichen Elemente des Prozesses, seine Entstehungsbedingungen sowie die Faktoren, die seinen Verlauf beeinflussten und seine weitreichenden Auswirkungen verursachten. Die Ursache für die große Resonanz des Prozesses liegt vor allem im Zusammentreffen der beiden sehr unterschiedlichen Entwicklungen der Judenfeindschaft im deutschen und im italienischen Raum. Die geographische und politische Lage des Fürstbistums Trient im Grenzgebiet zwischen venezianischem und habsburgischem, italienischem und deutschem Einflussbereich führte zu einer Reihe von einmaligen Umständen, die verantwortlich für den Verlauf des Prozesses selbst und auch für seinen ungeheuren Widerhall waren. Hinzu treten andere Faktoren im personellen und institutionellen Bereich und nicht zuletzt die Tatsache, daß mit dem Buchdruck ein völlig neues Medium der Verbreitung und Propaganda zur Verfügung stand, das hier erstmals in großem Umfang eingesetzt wurde. Im Rahmen der Rezeption des Prozesses spielte auch die Entstehung eines Märtyrerkultes für das angebliche Ritualmordopfer, den "seligen Simon von Trient", eine zwar begrenzte, aber keinesfalls zu vernachlässigende Rolle. Langfristig gesehen war es weniger der Kult, der die Bedeutung der Trienter Ereignisse ausmachte, als die Tatsache, daß die Geschichte Simons von Trient wegen ihrer großen Bekanntheit immer wieder als Bestätigung für die Existenz jüdischer Ritualmorde herangezogen wurde und als Vorbild für andere "Ritualmordmärtyrer" fungierte - bis ins 20. Jahrhundert hinein.
Unternehmen aus güterproduzierenden Industrien und Sektoren entdecken in immer stärkerem Maße das Differenzierungs- und Erlöspotenzial des Angebots ergänzender Dienstleistungen zur Erlangung von strategischen Wettbewerbsvorteilen. In vielen Branchen ist dies bereits ein notwendiger Bestandteil im Angebotsportfolios der Hersteller um sich zu positionieren und wettbewerbsfähig zu bleiben. Ein besonders prägnantes Beispiel stellt die Automobilbranche dar, die schon vor Jahren begonnen hat in ihr Geschäftsmodell um das Kernprodukt "Automobil" auch sog. produktbegleitende Dienstleistungen (wie beispielsweise Finanzierungsdienstleistungen) zu integrieren, um sich durch Erhöhung des Kundennutzens von den Angeboten der Mitbewerber zu differenzieren. Vor dem Hintergrund, dass Marketingkonstrukte, wie Marke, Reputation, Kundenloyalität, aber auch technische Spezifikationen wie Motorisierung, Ausstattung und Zubehör die Fahrzeugwahl beeinflussen, stellt sich die Autorin die Frage, inwiefern ein Zusatzangebot von reinen produktbegleitenden Dienstleistungen einen Einfluss auf die Marken- und Fahrzeugwahl beim Autokauf hat. In diesem Zusammenhang ist ein Forschungsziel der vorliegenden Untersuchung die Konzeption einer branchenunabhängigen Wertschöpfungskette für produktbegleitende Dienstleistungen, um eine Identifikation des strategischen Differenzierungspotenzials produktbegleitender Dienstleistungen zu ermöglichen. Den Bezugsrahmen der Forschungsarbeit wird dabei aus Perspektive des Endkonsumenten bei der Automobilkaufentscheidung konstruiert, um Aussagen zur Wahrnehmung existierender Angebote produktbegleitender Dienstleistungen den individuellen Phasen der Kaufentscheidung zuordnen zu können. Dies bildet das methodische Fundament dieses empirisch geprägten Forschungsbeitrags, um die folgende Frage der Untersuchung beantworten zu können: "Haben produktbegleitende Dienstleistungen einen Einfluss auf die Kaufwahrscheinlichkeit beim konsumentenseitigen Kaufentscheidungsprozess bei Automobilen im Segment des Privat-PKW?" Als Forschungsstrategie wird die Anwendung der Kausalanalyse gewählt, um anhand zwei aufeinander aufbauenden Primärerhebungen (quantitative Datenerhebung anhand eines Online-Fragebogens) potenzielle Autokäufer hinsichtlich ihres Wissens und ihrer Wahrnehmung bezüglich produktbegleitender Dienstleistungen der einzelnen Automobilherstellermarken zu untersuchen. Die Ergebnisse der Datenauswertung lassen die Schlussfolgerung zu, dass produktbegleitende Dienstleistungen zwar einen positiven Einfluss auf die Kaufentscheidung beim potentiellen Automobilkäufer ausüben, jedoch aufseiten der Automobilhersteller und -händler durchaus großes Verbesserungspotenzial bezüglich der Kommunikation von solchen Value-Added-Leistungen vorliegt. Die vorliegende Dissertationsschrift wurde am Lehrstuhl für Organisation und Strategisches Dienstleistungsmanagement verfasst und beim Fachbereich IV der Universität Trier eingereicht.
Auf dem Friedhof der Kirche St. Matthias im Süden Triers befinden sich vier Kammern, die bis in jüngste Zeit als die Untergeschosse selbstständiger römischer Grabbauten angesprochen wurden. Bei dem Areal handelte es sich um einen Teil der südlichen Nekropole des römischen Triers, der vor allem mit Körperbestattungen belegt worden ist. Dieses Körpergräberfeld wird in der vorliegenden Arbeit zum ersten Mal anhand der archäologischen Funde und Befunde beschrieben.
Nach früheren, kleineren Untersuchungen fanden im Umfeld der Kammern 1931 umfangreiche Grabungen statt; weitere folgten in den 1960er Jahren. Die im Rahmen dieser Maßnahmen erstellten Unterlagen wurden vom Autor zusammengestellt und aufgearbeitet. Ergänzend kamen eigene Beobachtungen am noch sichtbaren Befund hinzu.
So ließ sich erschließen, dass die meisten Grabkammern nicht Reste eigenständiger Bauten waren, sondern Teile eines bisher nicht erkannten größeren Baukomplexes. Dieser bestand aus einem großen Rechteckbau, der das Untergeschoss eines älteren Grabbaus inkorporierte. Dieser bildete einen kellerartigen Raum, der mit einem Wasseranschluss versehen war. Innerhalb des Rechteckbaus konnten Reste eines festen Fußbodens zu ebener Erde, sowie farbige Wandmalerei beobachtet werden. Kurz nach seiner Errichtung wurde der Rechteckbau mit zwei unterirdischen Kammern versehen und im Osten durch drei Anbauten mit unterschied-lichen Grundrissen erweitert: Im Süden entstand so ein Apsidenbau mit einer großen unterirdischen Kammer, in der sich bis heute ein Reliefsarkophag befindet.
Die Befundauswertung ergab, dass der Baukomplex in konstantinischer Zeit errichtet worden ist und offenbar schon um die Mitte des 5.Jhs. n. Chr. aufgegeben wurde.
Zu diesem Baubefund ließ sich in den benachbarten römischen Provinzen keine direkte Parallele finden. Am ehesten vergleichbar scheint ein weiterer Baukomplex aus der nördlichen Nekropole Triers, der unter der Kirche St. Maximin aufgedeckt wurde. Er ist ab der Mitte des 4. Jhs. n. Chr. errichtet und von der christlichen Gemeinde genutzt worden. Dieser Bau ähnelt in seinem Grundriss dem Baukomplex von St. Matthias, unterschiedet sich aber in der Bestattungspraxis: Während zahlreiche Sarkophag-Bestattungen im Hauptbau und teilweise auch den Anbauten in den unbefestigten Boden eingelassen worden sind, fand sich bei St. Matthias sowohl im Hauptbau als auch den Anbauten ein fester Boden. Innerhalb dieses Baukomplexes kann nur der oben beschriebene Reliefsarkophag der Nutzungszeit zugeordnet werden. Demnach könnte hier die Schaffung separater Bestattungsräume bedeutsam gewesen sein – neben anderen Funktionen, wie der Bereitstellung von Wasser und überdachtem Raum zur Begehung der Totenfeiern. Die stärkere Berücksichtigung solch funktionaler Elemente scheint demnach eine wichtige Ergänzung zur weiterführenden Deutung römischer Sepulkralarchitektur zu sein.
Die Geschichte verteilter Systeme und Anwendungen hat die unterschiedlichsten Technologien hervorgebracht: Client-Server-Architekturen, Peer-To-Peer-Netzwerke und Komponentensysteme sind nur einige Vertreter. Die vorliegende Arbeit ist im Bereich der Middleware-Architekturen angesiedelt, einem zur Zeit sehr stark beachteten Zweig der verteilten Anwendungen. Als Mittler zwischen den Anwendungen auf der einen Seite sowie Datenbanken, eMail-Systemen oder weiterer Servern auf der anderen Seite, schlägt sie die Brücke zu heterogenen IT-Landschaften. Sie verbirgt Details und Änderungen dieser IT-Umgebungen und schafft gleichzeitig einen transparenten Zugriff auf sie. Die Forschung hat viele Technologien im Middleware-Umfeld hervorgebracht und setzt bei den Zielen unterschiedliche Schwerpunkte. Eine Sicht auf die Middleware hat den Entwickler im Fokus und soll ihn bei der Erstellung von Anwendungen und Lösungen unterstützen. Aus diesem Grund stehen hier die Schnittstellen zum Server und zur Server-Infrastruktur sowie die Einbettung der Dienste in die Middleware im Vordergrund. Der interne Aufbau sowie die inneren Datenflüsse der Middleware dienen nur der Erfüllung dieser Ziele. Eine andere Sichtweise stellt den inneren Aufbau in den Fokus der Forschung. Hier ist das Ziel die Schaffung von flexiblen und erweiterbaren Server-Strukturen sowie die Effizienz von internen Abläufen und Datenflüssen. Damit ist eine einfache Anpassung an verschiedene Einsatzumgebungen sowie die Fähigkeit, auf die Leistungsmerkmale von Clients individuell eingehen zu können, möglich. Die im Rahmen dieser Arbeit entstandene Middleware-Architektur "Smart Data Server (SDS)" setzt Konzepte um, die beide Sichtweisen miteinander kombiniert. Ein Schwerpunkt neben der Entwicklung neuer Konzepte, liegt in der praktischen Anwendbarkeit der entwickelten Middleware. Die vorliegende Arbeit zeigt, dass der Smart Data Server die Praxistauglichkeit seiner Konzepte unter realen Bedingungen unter Beweis stellen kann und zeigt gleichzeitig, welche Konstrukte für den praktischen Einsatz tatsächlich notwendig sind. Ein zweiter Schwerpunkt liegt in der Entwicklung von Mechanismen zur Abarbeitung von streamingfähigen Anfragen. Üblicherweise folgt auf die Übermittlung von Anfragen an einen Server zunächst die Berechnung einer Antwort und anschließend deren Rücktransport. Bei Streaming-Anfragen ist neben der Übermittlung von Anfrageparametern ein kontinuierlicher und in seiner Dimension nicht beschränkter Datenstrom Bestandteil der Anfrage. Der Server startet seine Berechnungen wenn möglich schon vor dem Ende der Datenübermittlung und liefert schon bei Vorliegen von Teilergebnissen diese an den Client. Der benötigte Bedarf an Speicherplatz im Server kann so optimiert werden, da nur so viele Daten der Anfrage im Server vorgehalten werden müssen wie zur Berechnung tatsächlich notwendig sind und nicht etwa die gesamte Anfrage. Die Entwicklung eines Streaming-Mechanismuses muss entsprechende Möglichkeiten in der Anfragestruktur sowie in der Architektur der Middleware vorsehen. Der Smart Data Server schafft mit der Einführung einer streamingfähigen Anfragestruktur die Voraussetzung für die Verarbeitung solcher Anfragen. Zusätzlich muss eine Server-Architektur geschaffen werden, die das Abarbeiten von Streaming-basierten Anfragen unterstützt. Hier liegt der dritte Schwerpunkt der Arbeit: die Schaffung einer flexiblen und erweiterbaren Server-Struktur sowie die Effizienz von internen Abläufen und Datenflüssen unter Berücksichtigung der Anforderung einer streamingfähigen Anfragebearbeitung. Diese Anforderungen werden mit der neu entwickelten Technologie der inneren Workflow-Programme erfüllt. Innere Workflow-Programme repräsentieren Netzwerke von hochgradig unabhängigen Serverkomponenten. Durch die Umgestaltung dieser Netze sind neue Serverstrukturen möglich, um neuen Einsatzbedingungen angepasst werden zu können. Neben diesem statischen Netzwerk von Server-Komponenten kann zur Laufzeit eine Pipeline zur Abarbeitung von Datenströmen aufgebaut werden, mit der dann letztendlich die Streamingfähigkeit des Servers hergestellt wird.
In Europa haben sich im Laufe der vergangenen Jahrhunderte zahlreiche Kriege und Auseinandersetzungen Art abgespielt, die die Menschen und Nationen, ihre Ideologien und Ansichten stark geprägt haben. Gerade im SaarLorLux-Raum, einer grenzüberschreitenden Region im Gebiet von Deutschland, Frankreich, Luxemburg und Belgien, wurden die Grenzen von den Siegermächten immer neu gezogen und verschoben. Heute leben hier Menschen mit sehr verschiedenen kulturellen Hintergründen in einer multikulturellen Gesellschaft zusammen, die aber oftmals stark von einem Nebeneinander und von Unterschieden geprägt ist. Für die Grenzräume haben sich mit dem Konzept "Europa der Regionen", das kleineren räumlichen Einheiten ein Mitwirken bei Entscheidungsprozessen ermöglicht, große Kooperationschancen eröffnet. Von politischer Seite wird der SaarLorLux-Raum oft als "Mitte Europas" (BRÜCHER, QUASTEN, REITEL 1982, S. 13) oder "einzige europäische Kernregion" bezeichnet, in die "besonders hohe Erwartungen gesetzt" (SANTER 1997) werden. Wie aber sieht das Leben jenseits der Politik auf der ganz alltäglichen Ebene aus? Welche Möglichkeiten bieten sich den Menschen, die kulturelle Vielfalt, die Andersartigkeit der Nachbarländer sowie die Vor- und Nachteile hautnah in Alltagssituationen zu erleben? Die Dissertation untersucht, inwieweit die Grenzen in den Köpfen der Menschen auch nach ihrer Öffnung durch das Schengener Abkommen verankert bleiben und ob die Bewohner einer Grenzregion diesen besonderen Lebensraum in ihrem Alltag nutzen und zu grenzüberschreitend agierenden Europäern werden. Dazu werden wahrnehmungsgeographische Forschungsmethoden (mental maps) genutzt und auf das konkrete Beispiel des SaarLorLux-Raumes angewendet. In drei Studien (2000, 2002 und 2006) wurden insgesamt 5865 Schüler und Bewohner in 20 Orten in den vier Ländern zu ihren Vorstellungen vom SaarLorLux-Raum, zu ihrem aktionsräumlichen Verhalten und zu ihrer Abgrenzung der Region befragt. Dabei wurden bewusst grenznahe und grenzferne Standorte ausgewählt wurden, um Unterschiede im Verhalten herauszuarbeiten. Ziel der Analyse ist es, das Leben in der Großregion über den Zeitraum von sechs Jahren zu untersuchen und mit dieser Langzeitstudie Veränderungen beziehungsweise Gemeinsamkeiten im Verhalten der Bewohner herauszuarbeiten. Die Wahrnehmung des Lebens im SaarLorLux-Raum aus der Sicht seiner Bewohner wird herausgearbeitet und -ausgehend von den Ergebnissen- werden Potentiale und Defizite im grenzüberschreitenden Zusammenleben abzuleiten. Die politische und ökonomische Liberalisierung ist seit mehr als einem halben Jahrhundert Realität in Westeuropa. Ob allerdings die sich daraus ergebenden Chancen von den Bewohnern der grenznahen Räume erkannt, erwünscht und erlebt werden, ist Gegenstand der Untersuchungen. Durch die Fokussierung auf die Befragung von Schülern, also den jungen Menschen, die die Zukunft darstellen, wird die Frage beantwortet, ob sich traditionelle und eventuell auch eingefahrene Sichtweisen von Generation zu Generation übertragen und somit das aktionsräumliche Verhalten beeinflussen und erstarren lassen. Einen Beitrag zu einer funktionierenden Zusammenarbeit leistet die kulturelle und regionale Identität, die dazu beiträgt, dass sich die Menschen über die Grenzen hinaus als Bewohner der gleichen Region definieren. Dabei sollen nicht die Unterschiede, die zwischen den Bewohnern mit unterschiedlichen Nationalitäten bestehen, geleugnet oder verwischt werden. Abschließend werden, losgelöst vom regionalen Beispiel, Möglichkeiten aufgezeigt, wie durch unterschiedliche Initiativen vor allem auf schulischer Ebene zur Stärkung einer gemeinsamen europäischen Identität bei der jungen Bevölkerung beigetragen werden kann. Die Dissertation endet "ausgerichtet auf die Hauptzielgruppe bei den Befragungen- mit dem Entwurf einer Unterrichteinheit zur Stärkung eines grenzüberschreitenden Wir-Gefühls. Der Schulunterricht kann einen Beitrag dazu leisten, dass die zukünftigen Generationen ein tieferes Bewusstsein für das Zusammenleben im Grenzraum und in Europa erhalten.
Im 18. Jahrhundert manifestierte sich ein grundlegendes Kennzeichen moderner Kunst: ihr Öffentlichkeitsanspruch. Dessen diskursiven Verdichtungen konkretisierten sich in der zeitgenössischen Kunsttheorie und -literatur, in der Kunstkritik, in Beschreibungen und bildlichen Darstellungen, und ebenso in vielfachen impliziten Strategien zur Adressierung bildender Kunst. In der Entstehung der Kunstausstellung, der Kunstkritik, dem Wandel des Patronagesystems und den damit verbundenen Kommunikationsstrategien bildender KünstlerInnen wird nicht nur eine historisch reale Figur beschrieben, sondern zugleich ein imaginäres Konstrukt entworfen: das Kunstpublikum. Am Beispiel zweier bedeutender Kunstzentren des 18. Jahrhunderts, Paris und London, wird der Umgang mit dieser neuen Öffentlichkeit in der bildenden Kunst, Kunstliteratur und Ausstellungspraxis verfolgt. Tatsächlich ist die Anrede des "enlightened public" oder "public éclairé" allgegenwärtig, doch ist es oft schwierig, die Grenzen zwischen höflicher Leerformel, Euphemismus und Ironie richtig zu lesen. Das Sprechen über Öffentlichkeit ist nicht einfach eine Quelle für einen historisch-soziologischen Wandel, sondern stellt ein Symptom der zunehmenden Emphatisierung des Öffentlichkeitsbegriffs im Zuge der Aufklärung dar. Dabei ist das "Publikum" auch eine Konstruktion, die Leerstellen auffüllen muss, und der ihm zugewiesene Platz wechselt immer wieder. Die Formierung des Öffentlichkeitsbegriffs geschah nicht nur als Prozess der Öffnung, sondern auch der Abgrenzung. Ebenso bedeutend wie die positiven Formulierungen sind die negativen Zerrbilder des Publikums, die im 18. Jahrhunderts vielfach entwickelt werden. Am Beispiel zweier solcher Negativbilder, des "Connaisseurs" und der "multitude" werden die Verbindungen zur ästhetischen Theorie untersucht. Traditionelle Öffentlichkeitstheorien hinterlassen noch weit in das 18. Jahrhundert hinein ihre Spuren. Dies führt zu Begrifflichkeiten, die nicht emanzipatorisch oder demokratisch geprägt sind und zu einem Verständnis von Öffentlichkeit, das nicht nur prinzipiell kritisch oder widerständig, subversiv oder oppositionell gedacht werden kann, sondern mit jeder Öffnung auch eine Schließung unternimmt. Das "Kunstpublikum" entwickelt sich in einem konfliktreichen Prozess, in dem sich die Zugangsberechtigungen zur Institution Kunst immer wieder verändern und neu ausdifferenzieren.
Der Photograph Willi Huttig
(2019)
Demokratie lebt von der Beteiligung engagierter Bürger*innen. Hierzu ist es notwendig, Kinder und Jugendliche frühzeitig an demokratische Handlungsweisen heranzuführen. Der demokratiepädagogische Klassenrat bietet vielfältige Chancen, Schüler*innen Partizipationserfahrungen zu eröffnen und ihre demokratischen Kompetenzen zu stärken.
Die Implementierung eines Klassenrats ist mit der Hoffnung verbunden, die demokratischen Kompetenzen von Schüler*innen zu stärken. Welche Kompetenzen die Teilnehmer*innen mithilfe dieser demokratiepädagogischen Methode tatsächlich erwerben und wie sich der Klassenrat auf die Klassengemeinschaft auswirkt, hat eine empirische Studie1 am Lycée Nic Biever in Dudelange untersucht.
Recht als begründete Ableitung aus politisch Vorentschiedenem und Politik als autokratischer Erstentscheid blicken als zwei Welten aufeinander, mit verschiedenen Augen und auf jeweils für sie verschiedene Gegenstände. Strukturelle Unterschiede, aber auch die gegenseitige Durchdringung von Recht und Politik hebt der Verfasser hervor und versteht Rechtspolitik auch als Kampf für die Belange eines konsistenten Rechtssystems. Politik erscheine heute nicht mehr als der große Integrationsentwurf, sondern als Lavieren zwischen den Zwängen aller anderen Funktionssysteme der Gesellschaft. Grundlegend den Zustand unserer Demokratie hinterfragend mahnt der Verfasser, das Recht und die Juristen dürften nicht uneingeschränkt auf eingefahrene Kontrollmechanismen vertrauen, wenn der verfassungsrechtliche Sozialstaatsauftrag unter dem Standortwettbewerb und der wirtschaftlichen Funktionslogik ins Wanken gerate und Verantwortung zunehmend an Private delegiert werde.
Der Hauptmann von Koepenick
(2005)
Schon seit geraumer Zeit wird darüber diskutiert, ob die Besetzung der Rundfunkgremien im Allgemeinen und beim ZDF im Besonderen mit dem aus der Rundfunkfreiheit abzuleitenden Gebot der Staatsferne vereinbar ist. Nachdem sieben der vierzehn Verwaltungsratsmitglieder des ZDF im September letzten Jahres gegen den Vorschlag des Intendanten Markus Schächter gestimmt haben, den Vertrag von Nikolaus Brender als Chefredakteur zu verlängern, hat diese Diskussion an Brisanz gewonnen. Kritiker halten die aus ihrer Sicht zu staats- und politiknahe Besetzung des ZDF-Verwaltungsrates und des Fernsehrates für unvereinbar mit dem Grundgesetz. So will die Bundestagsfraktion Bündnis 90/Die Grünen mit einem Normenkontrollverfahren, für das sie allerdings ein Viertel der Mitglieder des Bundestages benötigt, durch das Bundesverfassungsgericht klären lassen, ob die im ZDF-Staatsvertrag vorgesehene Zusammensetzung des Fernseh- und des Verwaltungsrates mit der Rundfunkfreiheit vereinbar ist. Nunmehr hat auch das Land Rheinland-Pfalz ein solches Normenkontrollverfahren angekündigt. Dabei geht es um eine wichtige Frage. Die Rundfunkfreiheit mit einem unabhängigen, staatsfernen und qualitätsvollen öffentlich-rechtlichen Rundfunk ist aus Sicht des Bundesverfassungsgerichts für die Demokratie schlechthin konstituierend.
Am 03.03.2004 verkündete das Bundesverfassungsgericht sein Urteil zum Großen Lauschangriff, in dem es die akustische Wohnraumüberwachung unter eng begrenzten Umständen für zulässig erklärte. Der Beitrag setzt sich, beginnend mit rechtsgleichenden Betrachtungen, eingehend mit dem Urteil auseinander und beleuchtet die Entscheidung ebenso wie die abweichenden Voten kritisch. Dabei zeigt der Autor Probleme auf, die sich bei der Anwendung des Urteils in der Praxis ergeben und plädiert für die Normierung auch des sog. kleinen Lauschangriffs.
Umweltschutz wird in dieser Arbeit als Soziales Dilemma betrachtet. Es wird mittels eines experimentellen Online-Spiels (N = 182) primär überprüft, inwieweit unkooperatives Verhalten von Akteuren zu genuinem Ungerechtigkeitserleben bei anderen Personen führt und ob diese in Folge u. a. das eigene kooperative Verhalten reduzieren. Somit wird im Gegensatz zu Erklärungen der Rational-Choice-Theorien angenommen, dass ein Teil des phänotypisch unkooperativen, umweltschädigenden Verhaltens nicht auf Egoismus, sondern auf einem genuinen Gerechtigkeitsmotiv beruht. Zur Erhöhung der internen Validität wird ebenfalls der moderierende Einfluss der Persönlichkeitseigenschaften "Eigeninteresse" und "Gerechtigkeitszentralität" untersucht. Die Hypothesentestungen zeigen, dass unkooperatives Verhalten anderer Akteure in Sozialen Dilemmata bei vielen Personen Ungerechtigkeitserleben auslöst, was sich u. a. in Emotionen der Empörung, Ungerechtigkeitskognitionen, Bestrafungsverhalten und einer Reduktion des eigenen kooperativen Verhaltens niederschlägt. Hierbei spielen interindividuelle Unterschiede hinsichtlich der Stärke des Gerechtigkeitsmotivs bei etlichen gefundenen Effekte eine moderierende Rolle. Es wird somit ein motivpluralistischer Ansatz bestätigt, der die Rolle des Gerechtigkeitsmotivs bei der Vorhersage und Veränderung von Verhalten in Sozialen Dilemmata hervorhebt. Implikationen in Hinblick auf Theorie, zukünftige Forschung und Interventionen in Sozialen-Dilemma-Situationen werden erörtert.
Die Lehre von wirkungsvollem Sprechen und Schreiben, die Rhetorik, stellt seit der Antike Möglichkeiten bereit, wie man die Überzeugung eines Gegenübers mit Argumenten (aber auch mit einer schönen Form) beeinflussen kann. Unter diesen Möglichkeiten war und ist eins die Verwendung eines dem Gegenüber vertrauten oder unmittelbar einleuchtenden Sachverhalts, von dem auf den gegebenen Fall geschlossen werden konnte, das Exemplum. In der vorliegenden Studie habe ich den Exempelgebrauch in Sangspruchstrophen und -liedern zwischen ca. 1170 und 1320 untersucht. Die letzte Monographie zu diesem Thema ist Joachim Teschners Bonner Dissertation von 1970. In den seither vergangenen 35 Jahren haben sich die Voraussetzungen und die Betrachtungsweise in der Erforschung der Sangsprüche verändert. Dies hängt insbesondere mit dem Erscheinen der Bände 3-5 des "Repertoriums der Sangsprüche und Meisterlieder" (1986-91) zusammen, in denen Autoren dieser Gattung und ihre Werke bis zum ausgehenden Mittelalter katalogisiert sind. Anders als meine Vorgänger habe ich als oberstes Gliederungskriterium die Frage gewählt, wie das Exempel und seine Anwendung auf die Strophe verteilt sind. Nach der Erarbeitung einer Definition des Exempelliedes anhand der einschlägigen Literatur habe ich das Material für meine Untersuchung, in fünf Zeitanschnitte gegliedert, chronologisch zusammen gestellt (vgl. Helmut Tervooren, Sangspruchdichtung, 1995). In Kapitel 2 ermöglicht eine Tabelle einen schnellen Überblick. Es sind vier Typen der Verteilung von Exempel und Auslegung in einer Strophe und später in einem mehrstrophigen Lied zu unterscheiden: Am häufigsten ist der klassische Typ a: Auf ein Exempel folgt die Auslegung. Hier finden sich zwei Untertypen: mehrheitlich ist ein Exempel zwar narrativ (a1), es kann sich aber auch um eine Beschreibung handeln (a2). Zwei weitere Formen fanden weit weniger häufig Verwendung, nämlich Typ b: Das Exempel folgt auf eine sentenziöse Einleitung und die eigentliche Auslegung steht am Abschluss, und Typ c, die Umkehrung des genannten Haupttyps: für eine These wird erst in der zweiten Hälfte oder am Ende der Strophe ein Beispiel genannt. Der Typ des Exempelliedes, bei dem die Auslegung wegfällt, nimmt wiederum größeren Raum ein, die Zahl der Belege ist beträchtlich. Damit endet dieses Kapitel. Im Laufe der Arbeit haben sich zwei Sondertypen herausgestellt, für die es angebracht erschien, sie für sich zu besprechen. Es sind dies die Ich-Parabeln, bei denen im Exempel ein zwischen dem Exempel im eigentlichen Sinne und den Rezipienten vermittelndes Ich steht; es handelt sich dabei meist um persönliche Klagen des Dichter-Ichs. Als zweiter Sonderfall wird die Verwendung eines Traums als Exempel besprochen; hier konnte es zur zweifachen Auslegung von Träumen kommen, im Exempel und bei der Ausdeutung. Die Vorstellung dieser beiden Randerscheinungen bildet den Abschluss der Untersuchung. Die Beobachtungen in der vorliegenden Untersuchung führen zu fünferlei Ergebnissen, die in dem Schlusskapitel zusammengefasst sind: Diese betreffen die Problematik der Textsorte, die Anordnung von Exempel und Auslegung in der Strophe, die Entwicklung zur Mehrstrophigkeit, die für Exempellieder kennzeichnenden Ausdrücke, mit denen die Auslegung eingeleitet wird, und schließlich die vielfältigen Anwendungsbereiche des Exempels.
Diese Dissertation ist 2006 verbessert beim Verlag Königshausen & Neumann in der Reihe "Würzburger Beiträge zur deutschen Philologie" erschienen. Ein Register der behandelten Strophen mit Angabe der Siglen im "Repertorium der Sangsprüche und Meisterlieder des 12. bis 18. Jahrhunderts" wurde hinzugefügt.
Das EU-weite Naturschutznetz Natura 2000 (FFH) umfasst über 11% der terrestrischen Ökosystemfläche. Zur langfristigen Erhaltung dieser Gebiete fehlt ein funktionierendes Monitoringsystem mit geeigneten Indikatoren, Parametern und Datenprodukten, die eine regelmäßig wiederholbare, flächendeckende und vor allem kosteneffiziente Erhebung ermöglichen. Hierfür untersucht diese Dissertation moderne, höchstauflösende Satellitendaten und die Möglichkeiten ihrer Anwendung im Naturschutz, insbesondere als Grundlage zur Indikatorenableitung. Es wurden konkrete Anforderungen von Behörden und NGO bzgl. Daten und Indikatorwerten gesammelt und für zwei Untersuchungsgebiete im Naturpark "Hoher Fläming" in Brandenburg umgesetzt. Dazu wurden zwei Aufnahmen des QuickBird-Satelliten akquiriert und mit vorhandenen GIS-Daten kombiniert. Der praktische Teil der Arbeit beschreibt Eigenschaften und Vorverarbeitung aller Daten, ihre Auswertung nach einem objektbasierten Ansatz und die Ableitung spezifischer quantitativer Parameter. Diese beschreiben den Zustand der Ökosysteme und berücksichtigen die sozio-ökonomischen Belastungen, die auf die Flächen einwirken und Nutzungskonflikte verursachen. Auf der Basis dieser Parameter wurden räumliche Indikatoren erprobt. Zur Anwendung auf der lokalen Ebene in bewaldeten Gebieten und für das Monitoring von Offenland-Flächen werden je zwei Indikatoren vorgeschlagen. Für die regionale Ebene wird ein sozio-ökomischer Indikator empfohlen. Diese fünf Indikatoren sind dazu geeignet, ausgewählte Aspekte der (Bio)Diversität in Schutzgebieten zu beschreiben. Sie analysieren Komposition, Struktur und Funktion der Habitat-Typen sowohl auf der regionalen Landschafts-Ebene, als auch auf der lokalen Ökosystem- bzw. Schutzgebiets-Ebene. Alle Indikatoren besitzen einen Nutzen für das Management von Schutzgebieten und bieten zumindest indirekte Hilfe für die Berichterstattung im Sinne der FFH-Richtlinie. Die vorgeschlagenen Indikatoren sind zwar spezifisch auf die lokalen Untersuchungsgebiete zugeschnitten, doch sind die ökologischen Rahmenbedingungen allgemein gültig. Es ist möglich, diese Indikatoren auch in anderen europäischen Regionen mit den gleichen natürlichen Gegebenheiten und sozio-ökonomischen Strukturproblemen anzuwenden. Für die Anwendung verschiedener Fernerkundungsdaten zur Erfüllung von Monitoringaufgaben sprechen die positiven Ergebnisse der durchgeführten Kosten-Nutzen-Analyse. Vor- und Nachteile von Daten und Auswertungsmethoden werden ausführlich diskutiert.
Das Stresshormon Cortisol zeigt einen starken zirkadianen Rhythmus mit hohen Cortisolwerten nach dem morgendlichen Erwachen und niedrigen Werten am Abend. Die vorliegende Arbeit legt die Grundlagen dafür, dass der Cortisolspiegel nach dem Erwachen (Cortisol Awakening Response) zukünftig Bestandteil einer multimodalen Diagnostik stressbezogener Erkrankungen werden kann. Zu diesem Zweck werden besonders messmethodische Aspekte des Cortisol Awakening Response (CAR) dargestellt und eingehend diskutiert. Der Einfluss verschiedener konfundierender Variablen wurde in einer quantitativen Metaanalyse untersucht. Ein gesonderter Abschnitt beschreibt verschiedene Möglichkeiten der statistischen Analyse des CAR. Zu diesem Zweck wurden verschiedene statistische Kennwerte generiert und deren Reliabilitäten und Interkorrelationen an einem empirischen Datensatz untersucht. In dieser Arbeit werden auch Normwerte für die einzelnen statistischen Kennwerte des CAR angegeben.
In der Welt existieren zahlreiche Institutionen zur Verteidigung der Menschenrechte. Besonderes Interesse verdient dabei eine relativ neue Möglichkeit zur Wahrung dieser Rechte " das Amt des Bürgerbeauftragten. In Bulgarien sind die ersten derartigen Institutionen 1998 als Projekt auf Gemeindeebene ins Leben gerufen worden. Seit 2003 sind die Institutionen eines Ombudsmanns auf nationaler Ebene sowie eines gesellschaftlichen Vermittlers auf Gemeindeebene gesetzlich geregelt. Die wesentliche Aufgabe der Bürgerbeauftragten ist die Annahme von Bürgerbeschwerden über Verletzungen ihrer Rechte durch die Staats- oder Gemeindeverwaltung. Der Bürgerbeauftragte in Bulgarien stellt eine demokratische Garantie zur Wahrung der Menschenrechte sowie zur weiteren Entwicklung des Rechtsstaates dar.
Im Zentrum dieser Arbeit stehen die Darstellung und Analyse der Leitbilder und Konzeptionen für tugendhaftes Verhalten, bürgerliche Werte und Normen, wie sie in den niederländischen Moralischen Wochenschriften über beinahe die gesamte Dauer des 18. Jahrhunderts diskutiert wurden. Die Moralischen Wochenschriften richteten sich an den "Bürger" und "Mitmenschen", den sie zu einem "nützlichen" Mitglied der Gesellschaft zu bilden gedachten. Dem an Orientierung interessierten Leser konnten sie dabei mehr und anderes bieten als das bis dahin gängige Schrifttum. In regelmäßiger Folge und in unterhaltsamer fiktionaler Form behandelten sie Fragen der Religion und der Ethik, sowie aus der Lebenspraxis des Alltags. Aus diesem nur scheinbar unpolitischen Blickwinkel heraus berührten die Moralischen Wochenschriften einige der zentralen Aspekte der politischen Philosophie: die Frage nach dem Verhältnis zwischen dem individuellen Glück des Menschen und dem Zustand der Gesellschaft, die Aporien der Freiheit und der Gleichheit, die Frage nach dem Verhältnis der Geschlechter und der Generationen, die Thematik von Geschichte und Fortschritt sowie Aspekte der Zeitkritik und Polemik. Ausgehend von ihrer klassisch-republikanisch inspirierten Staats- und Gesellschaftsauffassung nach der die gesamte Einwohnerschaft eines "guten" Gemeinwesens in ihrer gemeinsamen sittlichen Aufgabe, das Gemeinwohl zu verwirklichen, unlöslich miteinander verbunden war, entwickelten die Wochenschriftenschreiber ein ganz auf die Bedürfnisse eines modernen kommerziellen Gemeinwesens wie den nördlichen Niederlanden ausgerichtetes Ideal "guter" Bürgerschaft. Die Grundlage einer freien, auf Handel und Gewerbe beruhenden Republik wie der Niederländischen, so lautete die Kernbotschaft, beruhe auf dem offenen und zivilisierten Austausch zwischen verantwortungsbewussten und gebildeten Einwohnern. Von tugendhaften Bürgern erwarteten die Wochenschriftenschreiber, dass sie bei der Verfolgung ihrer individuellen Interessen in allen Lebensbereichen immer auch zugleich auf das Wohl und das Interesse des Gemeinwesens als Ganzem - der res publica - im Blick behielten und stets so handelten, dass die Maximen ihres eigenen Tuns auch Prinzip für das Wollen und Tun anderer sein könnten. Das für die Autoren der Moralischen Wochenschriften offenbar reizvolle an diesem Konzept bürgerlicher Tugend war, dass es ermöglichte, an die Verantwortlichkeit aller Mitglieder des Gemeinwesens zu appellieren, ohne die bestehende politisch-soziale Ordnung in Frage stellen zu müssen. Die - bei aller Kritik an den bestehenden Zuständen - im Kern stets konservative Tugendbotschaft der Moralischen Wochenschriften verlor erst seit den frühen 1780er Jahren an Glaubwürdigkeit, als die bestehende aristokratische Verfassung der niederländischen Republik unter dem Eindruck innenpolitischer Unruhen sowie revolutionärer Vorgänge in Amerika und in den benachbarten Ländern ihren paradigmatischen Wert als bestmögliche freiheitliche Ordnung zusehends einbüßte. So lag es nicht nur an der gegen Ende des 18. Jahrhunderts altmodisch gewordenen literarischen Form, dass die Moralische Wochenschrift in den 1790er Jahren als Gattung vom niederländischen Zeitschriftenmarkt verschwand, sondern auch an ihrer durch die revolutionären Umbrüche überholten politisch-sozialen Botschaft.
Der terroristische Anschlag auf das World Trade Center in New York am 11. September 2001 hat nicht nur den Themenkatalog der internationalen Politik durcheinandergebracht, sondern auch das Völkerrecht vor erhebliche Herausforderungen gestellt. Traditionell versteht man das Völkerrecht als ein Recht der zwischenstaatlichen Beziehungen. Terroristen werden als Kriminelle gesehen, die es mit allen Mitteln des Strafrechts zu bekämpfen gilt. Freilich versagen die üblichen Methoden der internationalen Zusammenarbeit, wenn ein Staat terroristischen Handlungen seine Rückendeckung gibt. Es bereitet erhebliche Schwierigkeiten, ein derartiges Komplizentum richtig einzuordnen. Im Mittelpunkt aller Überlegungen steht heute die Frage, ob Afghanistan durch die Usama bin Laden gewährte Unterstützung selbst einen bewaffneten Angriff gegen die USA geführt hat, der die USA nach Artikel 51 der UNO-Charta zur Selbstverteidigung berechtigt.
Die Arbeit analysiert Bedeutungen von Körperlichkeit im Straßenprotest. Ausgehend von den Selbstwahrnehmungen von Aktivist_innen wird dabei der Frage nachgegangen, wie Erfahrungen den reflexiven Umgang mit Verletzlichkeit und Verletzungsmacht prägen. Zunächst wird dafür eine theoretische Konzeption einer leibkörperlich gebundenen Reflexivität entwickelt. Pierre Bourdieus Theorie der Praxis, die sich der Verkörperung von Wissen widmet, wird ergänzt durch den Rückbezug auf Maurice Merlau-Ponty, der konsequenter herausstellt, dass jegliche Wahrnehmung immer nur körperlich-leiblich möglich ist. Während Merleau-Pontys Fokus auf dem wahrnehmenden Leib liegt, wird mit der philosophischen Anthropologie Helmuth Plessners die Verschränkung von wahrnehmendem Leib und wahrgenommenem Körper, bzw. wie Wahrgenommenes reflexiv auf das Spüren und Erleben zurückwirkt, nachvollziehbar. Aufbauend auf Plessner hat Heinrich Popitz eine Phänomenologie der Macht entwickelt, in deren Zentrum die anthropologischen Grundkonstanten von menschlicher Verletzungsoffenheit und Verletzungsmacht stehen. Diese Konzeption, verbunden mit Ergebnissen aus verschiedenen Vorstudien zur vorliegenden Arbeit, leitet die empirische Analyse von zehn leitfadengestützten Interviews, in denen Aktivist_innen mit teilweise langjähriger Straßenprotestbiographie zu ihren Erfahrungen und Praktiken in Straßenprotesten befragt werden. Die Arbeit ist an der Schnittstelle der drei Teildisziplinen Politische Soziologie, Körpersoziologie und Wissenssoziologie angesiedelt. Innerhalb der Politischen Soziologie liegen die Anknüpfungspunkte insbesondere in der sozial- und kulturwissenschaftlichen Protestforschung. Hier ist der Körper nach wie vor weitgehend marginalisiert und es existieren bisher in Anbetracht des insgesamt kaum noch überschaubaren Umfangs der Protestforschung vergleichsweise wenige Studien. Hinsichtlich der Körpersoziologie zielt die Arbeit - insbesondere mit der Bezugnahme auf Plessners philosophische Anthropologie - auf einen Erkenntnisgewinn hinsichtlich der Verbindung von Körpersoziologie und politischer Soziologie. Es lässt sich vor allem in den letzten Jahren eine deutliche Renaissance Plessners innerhalb der allerdings fast ausschließlich deutschsprachigen Körpersoziologie feststellen. Die körpersoziologischen Arbeiten sind bisher jedoch kaum im Rahmen einer politischen Soziologie aufgegriffen worden. Eine solche Brücke möchte die vorliegende Arbeit insbesondere via Popitz (und z.T. Michel Foucault) schlagen. Wissenssoziologisch folgt die Arbeit dem Verständnis eines verkörperten Wissens, wie es vor allem in Bezug auf Bourdieu konzeptionalisiert wird. Es werden Überlegungen aufgegriffen, die sich u.a. auch Analysen und Konzepten der Dance Studies oder der Sportsoziologie hinsichtlich körperlicher Reflexion verdanken. Im Anschluss an die phänomenologisch orientierten Arbeiten Bourdieus und Merleau-Pontys sowie an Plessners philosophische Anthropologie werden dabei sogenanntes kognitives und körperliches Wissen integriert und die unmittelbare Verschränkung beider Wissensformen aufgezeigt.
Den Klassenrat einführen
(2019)
Bevor eine Einführung des Klassenrats in einer Schulklasse erfolgen kann, sind organisatorische, inhaltliche und methodische Vorbereitungen erforderlich. Der Beitrag gibt Hinweise zur Einführung des Klassenrats und bietet konkrete Methoden, die eine erfolgreiche Implementierung in einer Schulklasse unterstützen.
Schule entwickeln – ohne feste Tagesordnung, ohne starres Rednerpodium mit festgelegten Beiträgen und alle Mitglieder der Schulgemeinschaft können frei entscheiden, was sie wann tun möchten und werden mit ihren Ideen und Anliegen gehört. Klingt das sowohl interessant, als auch ein wenig verrückt? Open Space als Werkzeug zur demokratischen Schulentwicklung macht es möglich.
Digitale Tools bieten vielfältige Möglichkeiten, demokratische Beteiligung in Schule und Gesellschaft zu unterstützen, an politischen Entscheidungsprozessen zu partizipieren und schulische Gremienarbeit, Entwicklungsprozesse und Projekte zu organisieren. Damit Schüler*innen die Tools kompetent nutzen können, sollte ihre Anwendung in Schule und Unterricht erprobt und reflektiert werden.
Digitalisierung wirkt sich in radikaler Weise auf alle Lebensbereiche aus. Durch die technische Vernetzung und die Umwandlung analoger in digitale Daten entstehen umfassende Datenmengen. Aus ihrer Verknüpfung und Verarbeitung lassen sich Regelmäßigkeiten erkennen und Anwendungen generieren, deren soziale, ethische, politische, rechtliche, arbeitsweltliche und ökonomische Folgen heute noch nicht ansatzweise abzuschätzen sind.
Der Beitrag zeichnet die jüngere öffentliche Debatte über die Spannungen in der Europäischen Union und insbesondere innerhalb der Europäischen Währungsunion nach, die durch die Folgen der Finanzkrise und der Staatsverschuldung in mehreren Mitgliedsländern der Europäischen Union entstanden sind. Es wird deutlich, dass die Grundsätze der Solidarität und der Solidität etwa im Hinblick auf die äußerst schwierige Lage in Griechenland mit einer enormen Beanspruchung des gemeinschaftlichen Zusammenhalts verbunden sind. Der Unterstützungsbedarf mehrerer Mitgliedsländer der Euro-Zone hat auf fast schmerzhafte Weise Grundsatzfragen demokratischer Legitimität aufgeworfen. Europa steht möglicherweise an einem Schweideweg.
Tschechien hat nach deutschem Vorbild ein sehr starkes Verfassungsgericht. Das Gericht besitzt die Kompetenz, nicht nur verfassungswidrige Gesetze aufzuheben, sondern auch alle Entscheidungen anderer Gerichte, wenn sie die Grundrechte verletzen.
Im grundsätzlichen Urteil des Plenums des Verfassungsgerichts Pl. ÚS
27/09 (Nr. 318/2009 Sb., Fall Melčák) hob das Verfassungsgericht
sogar das Verfassungsgesetz über die Verkürzung der fünften Wahlperiode der Abgeordnetenkammer auf. Das Verfassungsgericht stimmte so der Auslegung zu, dass es die Befugnis hat, auch das Verfassungsgesetz aufzuheben, falls dieses eine unzulässige Änderung der wesentlichen Erfordernisse eines demokratischen Rechtsstaats bedeutet (Art. 9 Abs. 2 der Verfassung). Die fünfzehn Richter des Verfassungsgerichts werden vom Präsidenten der Republik mit Zustimmung des Senats auf zehn Jahre ernannt; ein Verfassungsrichter muss mindestens vierzig Jahre alt sein, über eine juristische Ausbildung und eine zehnjährige Praxis verfügen (Art. 84 der Verfassung); Wiederernennung ist möglich und kommt in der Praxis vor. Im Gegensatz zu anderen Verfassungsorganen genießt das Verfassungsgericht das besondere Vertrauen der Öffentlichkeit.
Der Beitrag von Dr. Wintr fasst die wichtigsten Urteile des tschechischen Verfassungsgerichts zusammenfassen.
In light of an alarming increase of sick leave and early retirement because of mental diseases, the public, political and scientific interest in an effective protection of psychological health within organizational context has been increasing for years. More and more the focus is especially on executives who influence the mental health of their employees by leadership behavior within interactions and by designing work tasks and working pro-cesses. In this regard classical and modern, explicit health-oriented leadership approaches provide valuable insights but also neglect the important influence of leadership situation on health-oriented leadership. This situation reduces the explanatory and predictive potential of available health-oriented leadership concepts.
In article 1 a conceptual framework model called Systemic Salutogenic Interaction Model (SSIM) is developed and justified that is based on findings of evidence-based leadership research but also integrates systemic concepts and key elements of the theory of saluto-genesis. The SSIM distinguishes between two levels: Within the primary system of salutogenic interaction salutogenic leadership and employees behavior for the first time are conceptualized as recipocal influence factors that influence each other (level 1). The organizational context is explicitly taken into account as significant factor outside the primary system that effects the behavior of both interaction partners mediated via cognitive pro-cesses (level 2). Due to this focus on interactions und context factors for the first time leadership situation becomes an explicit component of a health-oriented leadership concept.
First of all, article 2 focusses on the systematic analysis of the relative importance health related leadership aspects. For this purpose the TIMP-inventory was developed that records three distinct core-factors of salutogenic leadership (trust, incident management and pressure) which explain more variance of the Work-SoC construct than established general approaches and health-related leadership concepts.
In article 3 the results of a cross-sectional multilevel analysis indicate that the perceived leadership situation significantly explains variance of salutogenic leadership between teams. For the first time, this shows a significant correlation between specific aspects of leadership situation und salutogenic leadership behavior.
Within the frame of a quasi-experimental study (article 4), for the first time, a correlation is shown between salutogenic target-setting processes on executive’s side and the Work-SoC of team members. These results support an essential effect mechanism that is postulated in the SSIM. Furthermore these findings indicate that the SSIM can profitably be used within the context of salutogenic coachings, underlining its practical benefit.
Taken together the empirical findings of this dissertation support the assumption that the new SSIM approach significantly expands the explanatory und predictive potential of the health-oriented leadership concepts so far available. The results also raise a number of new, interesting questions for future research. Furthermore the SSIM broadens the perspective regarding the strategic orientation of human resource and organizational devel-opment. Especially out of the SSIM important guiding principles and innovative concepts for a target-oriented diagnostic und effective interventions can be derived. Thus this dissertation lays the foundation for a coherent, holistic oriented salutogenic leadership research und practice.
Die vorliegende Arbeit hat die zunehmende Bedeutung des Social Web und die daraus resultierenden Auswirkungen auf das Informations- und Reiseverhalten von Städtetouristen zum Thema. Hauptfragestellung ist, inwiefern sich die gestiegene Bedeutung des Social Web auf das Informationsverhalten von Reisenden und ihr Verhalten vor Ort, insbesondere hinsichtlich des Interesses an Nischenattraktionen, auswirkt. Große Städte, vor allem Metropolen, verfügen über eine fast unüberschaubare Zahl von touristischen Attraktionen und Angeboten. Dazu zählen auch jene, die abseits der Haupttouristenrouten in weniger touristisch geprägten Stadtteilen liegen. Trotz dieser Angebotsvielfalt ist die Mehrzahl der Städtetouristen meist auf der sogenannten "Straße der Ameisen" anzutreffen. Eine Ausnahme stellen jedoch die sogenannten neuen Städtetouristen dar, die weniger an klassischen Mainstream-Sehenswürdigkeiten, sondern mehr am Entdecken authentischer und einzigartiger Plätze abseits der Touristenpfade und am Erleben des Alltags der Einheimischen interessiert sind. Für die vorliegende Untersuchung der Fragestellung wurden insgesamt drei methodische Bausteine herangezogen: 1) Eine Inhaltsanalyse für den Vergleich von Social-Web-Anwendungen und klassischen Reisemedien hinsichtlich ihrer thematischen Schwerpunktsetzung; 2) eine Touristenbefragung mit dem Ziel, mehr über die Nutzung des Social Web als Reiseinformationsquelle und über das Verhalten der Social-Web-Nutzer im Allgemeinen, und ihr Interesse an Nischen und Orten abseits der Touristenpfade im Besonderen, zu erfahren. Schließlich sollten 3) Interviews mit städtetouristischen Nischenunternehmen weitere Erkenntnisse über die Nutzung sozialer Medien durch Anbieter im Städtetourismus liefern. Die Ergebnisse machen deutlich, dass die Auswirkungen des Social Web " sowohl durch die Nutzung als Reiseinformationsquelle durch die Nachfrager, als auch durch die Verwendung als Marketing- und Vertriebskanal von Seiten der Anbieter " bislang geringer sind als zunächst angenommen. Auch wenn Nischenangebote und Alltagskultur zum Teil in sozialen Medien stärker präsent sind als z. B. in Reiseführern, und einige kleine Nischenanbieter die Möglichkeiten, die ihnen das Social Web bietet, schon optimal nutzen, so hat eine verstärkte Social-Web-Nutzung bislang doch keine grundlegenden Verhaltensänderungen auf Seiten der Reisenden bewirkt. Die Straße der Ameisen ist trotz der gestiegenen Social-Web-Nutzung nach wie vor existent. Dass das Social Web als ein Filter fungiert, der Interessierte in Richtung der Long-Tail-Angebote "schickt", konnte im Rahmen der vorliegenden Dissertation nur zum Teil bestätigt werden. Neben der Informationsquelle Social Web üben doch auch viele andere Faktoren einen Einfluss auf das Interesse von Reisenden an Lokalkolorit, authentischen Erlebnissen und besonderen Nischenangeboten aus. Trotzdem dürfte gerade für den sogenannten neuen Touristen das Social Web neue Möglichkeiten der Informationsgewinnung über einzigartige Örtlichkeiten an den Reisezielen bereitstellen. So ist es heutzutage einfacher als je zuvor, an Hinweise und Tipps zu ganz spezifischen Reisezielen und -aktivitäten zu kommen, die zudem meist noch sehr persönlich und authentisch wirken, da sie größtenteils von anderen Nutzern stammen.
Auf Twitter sind viele Journalisten mit persönlichen Accounts präsent und damit ein potenzieller Interaktionspartner für das Publikum. Untersuchungen aktiver Twitterer zeigen, dass auf der Netzwerkplattform politisch interessierte, persönlichkeitsstarke Nutzer interagieren, die sich vom Durchschnitt typischer Internetnutzer unterscheiden. Nachrichtenjournalisten berichten über negative Erfahrungen im direkten Publikumskontakt auf Twitter. Anders als bei Nutzerkommentaren auf Nachrichtenseiten sind öffentliche Anschriebe und Kontakte zu Journalisten auch unabhängig von einem Beitrag möglich. Zu diesem Phänomen existieren bislang jedoch kaum Studien. Über ein Tracking der Anschriebe wird daher erstens untersucht, wie häufig Politikjournalisten 2017 überhaupt in Tweets erwähnt wurden. Zweitens wurden die Nutzer befragt, die die Journalisten angeschrieben haben. Eine Nutzergruppe aus mehreren zehntausend Accounts nimmt Adressierungen vor. Die Erwähnungen verteilen sich unter den Journalisten ungleich. Die Nutzung von Blogs als alternative Informationsquelle und starke politische Orientierungen erklären das Vorkommen häufiger Interaktionen. Als Hauptmotivationen für Interaktionen zeigen sich das Bedürfnis nach eigener Meinungsäußerung und Kritik sowie das Weitergeben von neuen Informationen und Feedback an Journalisten. Sind diese Motivationen ausgeprägt, tendieren die Nutzer eher zu häufigen Interaktionen.
Mit dem am 10. Juli 2015 in Kraft getretenen „Gesetz zur Tarifeinheit“ wird der durch das Bundesarbeitsgericht im Jahre 2010 aufgegebene Grundsatz der Tarifeinheit durch den Gesetzgeber reaktiviert. Das Ziel des Gesetzes ist es, die Funktionsfähigkeit der Tarifautonomie durch die Auflösung von Tarifkollisionen zu sichern. Schon das Gesetzgebungsverfahren wurde durch vielstimmige Gutachten und Stellungnahmen begleitet, die sich nicht nur mit der verfassungsrechtlichen Problematik der gesetzlichen Regelung auseinandersetzen, sondern auch mit deren Anwendung in der tarifrechtlichen Praxis. Denn mit dem Instrument der Verdrängung eines geltenden Tarifvertrags im jeweiligen Betrieb nach dem Mehrheitsprinzip in Fällen einer Tarifkollision hat der Gesetzgeber zugleich in vielerlei Hinsicht „Neuland“ betreten.
Mit der vorstehenden Thematik befasst sich dieser Forums-Beitrag von Dr. Jürgen Treber, Richter am Bundesarbeitsgericht. Er geht dabei insbesondere auf Inhalt und Regelungssystematik der zentralen Kollisionsauflösungsregelung des § 4a Abs. 2 TVG ein.
Die Natur hat sich gewandelt. Dieser Wandel, der wichtige Fragen bezüglich Wahrnehmung, Darstellung, Neuschöpfung und Übermittlung der Natur mit einschließt, wird auch von künstlerischer Seite reflektiert. Tatsächlich ist in den vergangenen Jahren erneut ein wachsendes Interesse seitens der Künstler am Thema Natur abzulesen. Dieser vorläufige Höhepunkt des Trends ist vor allem auf das Ende der 1990er Jahre zu datieren. Zu dieser Zeit setzten sich auch verstärkt Ausstellungen und Publikationen mit diesem Themenkomplex auseinander. Mit unterschiedlichen Schwerpunkten und Vorstellungen entwickelten Künstler darin eigene, ganz verschieden künstlerische Konzepte, analysieren, erforschen und kritisieren die Gesellschaft, die Umwelt und die Natur des Menschen. Ein Trend, der bis heute anhält. Die vorliegende Arbeit möchte anhand ausgesuchter Künstler und Arbeiten genauer untersuchen, wie Künstler gegenwärtig mit der Natur umgehen, wie sie das Verhältnis zur Natur definieren und auf welche Traditionen sie gegebenenfalls zurückgreifen. Alle vorgestellten künstlerischen Positionen werden thematisch oder hinsichtlich konkret fassbarer Probleme gegliedert und vorgestellt. Exkurse über historische Entwicklungen oder thematische Schwerpunkte begleiten die Übersicht. Ziel der vielfältigen Blickpunkte ist es, im Vergleich mit den einzelnen Positionen neue Standorte zwischen Natur und Kultur vorzustellen, neu zu definieren oder erst zu entwickeln.
Das Motiv "Wasser" in der Kunst " unter Berücksichtigung der Werke Bill Violas und Fabrizio Plessis
(2008)
Wasser ist ein beliebtes Motiv in allen Kunstepochen. Der Grund für die Beliebtheit des Wassers als Sujet bei Künstlerinnen und Künstlern liegt einerseits an seiner existenziellen und kulturellen Bedeutung für das menschliche Leben und andererseits an seinen physikalischen Eigenschaften mit den daraus resultierenden vielfältigen gestalterischen Möglichkeiten. Auch in der Videokunst wird es häufig als Gegenstand aufgegriffen. Insbesondere Bill Viola (1952, USA), der tief von der östlichen Philosophie beeinflusst ist, und Fabrizio Plessi (1940, Italien) stellen in ihren Werken ein je besonderes Verhältnis zwischen Video und Wasser dar. Die vorliegende Arbeit befasst sich zunächst mit einer vergleichenden Be-trachtung der Bedeutung des Wassers in der westlichen und östlichen Kultur und einem Überblick über das Motiv in der Kunst vom Mittelalter bis zum 20. Jahrhundert. Im Mittelpunkt dieser Arbeit steht die Untersuchung der Videoskulpturen, Videoinstallationen und Videobänder Bill Violas und Fabrizio Plessis. Erörtert werden folgende Fragen: In welcher Weise hat das Wasser ästhetische, formale, inhaltliche oder symbolische sowie persönliche Bedeutung für die einzelnen Künstler? Auf welche Art haben sie ihre Vorstellungen in die Arbeiten umgesetzt? Wie weit wird dieses tradierte Thema und in welcher Form wird das natürliche Element in der Videokunst durch das moderne, technische Medium wieder aufgegriffen, weiter entwickelt oder modifiziert? Aus diesen Beobachtungen heraus zeigt die Autorin die Charakteristika der mit technischen Medien produzierten Kunstwerke der besprochenen Künstler bei der Verwendung des Motivs Wasser auf.
Die Dissertation weist nach, dass der Gerichtshof der Europäischen Union (im Folgenden: EuGH) das mitgliedstaatliche Ausgestaltungsermessen bei der Umsetzung von Richtlinien i. S. d. Art. 288 Abs. 3 AEUV, die weitreichendste Form richtlinieninhaltlich vorgesehener Umsetzungsspielräume der Mitgliedstaaten, in unterschiedlicher Art und Weise beschränkt und dabei teilweise gegen Vorgaben des primären Unionsrechts verstößt. Soweit Rechtsverstöße festgestellt werden, macht die Dissertation weiterführend Vorschläge für eine Korrektur der betroffenen unionsgerichtlichen Begrenzungsansätze im Hinblick auf das mitgliedstaatliche Ausgestaltungsermessen bei der Richtlinienumsetzung. Hierzu geht die Dissertation wie folgt vor: Ausgehend von vier in der Einleitung (Kapitel 1) aufgeworfenen Forschungsleitfragen stellt die Dissertation in Kapitel 2 die untersuchungsrelevanten unionsrechtlichen Grundlagen der Rechtsaktsform der Richtlinie dar. Dabei wird insbesondere auf die unionsvertragliche Verteilung der Kompetenzen zwischen der EU und ihren Mitgliedstaaten bei der kooperativ-zweistufigen Richtlinienrechtsetzung eingegangen und eine restriktive Auslegung des Terminus‘ „Ziel“ i. S. d. Art. 288 Abs. 3 AEUV entwickelt (sog. kompetenzinhaltsbestimmender modifiziert-enger Zielbegriff). In Kapitel 3 arbeitet die Dissertation die in der Richtlinienpraxis vorkommenden Grundformen richtlinieninhaltlich vorgesehener mitgliedstaatlicher Entscheidungsbefugnisse bei der Richtlinienumsetzung heraus und bestimmt das Ausgestaltungsermessen begrifflich als die weitreichendste Form mitgliedstaatlicher Umsetzungsspielräume. Kapitel 4 widmet sich zunächst der Ermittlung der Ansätze des EuGH zur Begrenzung des mitgliedstaatlichen Ausgestaltungsermessens. Dabei wird deutlich, dass das Unionsgericht durch seine Rechtsprechung nicht nur die Entstehung mitgliedstaatlichen Ausgestaltungsermessens begrenzt. Eine exemplarische Analyse der EuGH-Rechtsprechung zu Art. 4 Abs. 2 UAbs. 1 S. 1 und S. 2 lit. b der UVP-Richtlinie 2011/92/EU und seiner Vorgängernormen zeigt vielmehr, dass und wie der EuGH auch den Umfang des nach dem auslegungserheblichen Wortlaut einer Richtlinie bestehenden mitgliedstaatlichen Ausgestaltungsermessens begrenzt. Die hiernach ermittelten Begrenzungsansätze werden sodann einer rechtlichen Bewertung im Hinblick auf die Vorgaben des primären Unionsrechts einschließlich des in Kapitel 2 entwickelten restriktiven Zielbegriffs i. S. d. Art. 288 Abs. 3 AEUV unterzogen. Da einzelne Begrenzungsansätze des EuGH sich mit dem primären Unionsrecht als nicht vereinbar erweisen, werden insoweit schließlich Vorschläge für eine unionsrechtskonforme Korrektur dieser Rechtsprechung gemacht. Die Zusammenfassung der Forschungsergebnisse in Form einer thesenartigen Beantwortung der in der Einleitung aufgeworfenen vier Forschungsleitfragen findet sich in Kapitel 5.
Die Arbeit setzt sich mit den theoretischen und praktischen Aspekten der Analyse und Edition eines literarisch wichtigen Textes mit Methoden der Digital Humanities sowie der Korpus- und Computerlinguistik auseinander. Als Materialgrundlage dient das luxemburgischsprachige Werk des Michel Rodange. Hierzu gehören die Werke "Renert oder de Fuuss am Frack an a Maansgréisst" - ca. 35.000 Tokens, "Dem Léiweckerche säi Lidd" - ca. 5.000 Tokens, "Dem Grof Sigfrid seng Goldkuemer" - ca. 10.000 Tokens und zwei Gedichte - ca. 500 Tokens. Auf der empirischen Seite handelt es sich um die Erstellung eines elektronischen Korpus mit historisch-kritischen und linguistischen Annotationen und dessen Darstellung im Internet als Webportal. Dabei entsteht eine Wechselwirkung zwischen Theorie und Praxis, so werden die erstellten Annotationen verwendet, um das Werk aus sprach- und literaturwissenschaftlicher Perspektive zu untersuchen; diese Erkenntnisse können dann wiederum bei der Implementierung der Tools eingesetzt werden, um den Korrektheitsgrad der automatischen Annotation zu erhöhen. Die historisch-kritischen Annotationen beinhalten beispielsweise Lesarten, Korrekturen sowie Worterklärungen, wohingegen die linguistischen Annotationen die Orthographie, Morphologie (Wortklassen und Lemmata) und Phraseologie betreffen. Die Annotationen werden in der Markup-Sprache XML kodiert. Der erste Schritt der Erstellung eines elektronischen Korpus ist die Digitalisierung der Texte. Bei den Handschriften geschah dies mithilfe einer manuellen Transkription, bei den Drucken wurde auf eine OCR-Software zurückgegriffen. Es empfiehlt sich, bereits in dieser Phase den Text gut zu strukturieren und mit Annotationen zu versehen. Dabei wurden zunächst Metadaten festgehalten. Anschließend wurden Informationen wie Seitenzahl, Zeilenumbrüche etc. als Annotationen hinzugefügt. Von besonderer Bedeutung für die Erstellung eines Korpus aus einem historisch und literarisch wichtigen Text ist jedoch seine Anreicherung mit historisch-kritischen Kommentaren. Die Untersuchung und Berücksichtigung der literarischen bzw. wissenschaftlichen Gattung historisch-kritische Edition stellt die theoretische Grundlage für solche Annotationen dar. Alle für die Editionswissenschaft relevanten Texthinweise, -bruchstücke und vom Autor durchgestrichene und gelöschte Stellen wurden dokumentiert. Bei schlecht lesbaren Stellen wurden Lesemöglichkeiten vorgeschlagen und die anderer Editionen diskutiert. Die Text Incoding Initiative (TEI) bietet eine Fülle von XML-Elementen, um solche Annotationen zu speichern. Um diese Arbeit nicht manuell ausführen zu müssen, wurde auf Tools wie TUSTEP, oXygen oder Skriptsprachen wie beispielsweise Perl zurückgegriffen. Diese können u. a. die Such- und Ersetzen-Arbeiten mithilfe der Regulären Ausdrücke bedeutend erleichtern. Den nächsten Schritt der Korpus-Erstellung stellt die Tokenisierung dar. Hierbei gehen die historisch-kritischen Annotationen in linguistische Annotationen über. Die Grenzen eines Wortes werden festgelegt und jedes Wort mit seinem eigenen Element versehen. Aus der digitalen Verarbeitung nicht wegzudenken ist dabei die Berücksichtigung und Untersuchung der Sprache des Autors. In diesem Fall wurde auf Aspekte wie die Dichtungsstile des Luxemburgischen im 19. Jahrhundert, die literarischen Gattungen der Texte sowie die Schreibung des Autors geachtet. Der empirische Anteil der Analyse mit EDV-technischen Methoden und die Speicherung der Ergebnisse als Annotationen stellt die wissenschaftliche Basis für die spätere digitale Präsentation dar. In der Arbeit werden die Ergebnisse der quantitativen und qualitativen Analyse der Sprache des Werks mithilfe von selbstimplementierten Programmen diskutiert. Dabei werden die vorhandenen Theorien sowohl der klassischen Linguistik z. B. aus der Morphologie oder der Phraseologieforschung, als auch der Korpuslinguistik besprochen und evaluiert. Die Implementierung und Ergebnisse folgender Programme für das Michel Rodange Korpus werden thematisiert: Tokeniser, FreqList, POS-Trainer, POS-Tagger, Lemmatisierer und Programme zur morphologischen und phraseologischen Analyse des Korpus. Der POS-Tagger kann die Wortarten im Korpus bestimmen. Grundlage dafür sind die sogenannten Hidden Markov Modelle, die auf der Wahrscheinlichkeitstheorie basieren. Der Lemmatisierer und das Programm zur morphologischen Analyse arbeiten hauptsächlich regelbasiert, wohingegen das Programm für die phraseologische Analyse anhand statistischer Verfahren wie dem Z-Test, dem Chi-Quadrat-Test und dem Exakten Test von Fisher implementiert wurde. So widmet sich beispielsweise Kapitel 3.4 dem Output der morphologischen Analyse und diskutiert die Wortbildung. Kapitel 3.6 beschäftigt sich mit der Interpretation der Phraseologismen. Hierbei zeigte sich, dass viele der automatisch identifizierten Phraseologismen aus Michel Rodanges Werken in der Tat ein fester Bestandteil nicht nur der luxemburgischen Sprache und Kultur sind, sondern sich auch in der gesamten westlichen Kultur wiederfinden.
Textkritische Untersuchung der deutschen Überlieferung der mittelniederländischen Evangelienharmonie (die auf Tatians 'Diatessaron' beruht), des heute sog. '(ndl.-dt.) Leben Jesu'. Es handelt sich um die leicht überarbeitete Druckfassung der Einleitung zur Textausgabe der Dissertation Hamburg 1967. Die Textausgabe selbst ist gesondert erschienen: Das Leben Jhesu (Corpus Sacrae Scripturae Neerlandicae Medii Aevi, Ser. Min. I,4), Leiden 1970 (Nr. 2 des Schriftenverzeichnisses von Christoph Gerhardt).
Die Internationalisierung eines MNUs bezieht sich auf seine Nationalität. Prozesse, die die Aktivitäten von Firmen internationalisieren und koordinieren, sind mit den dominierenden nationalen Institutionen verbunden, die in ihren heimischen Ökonomien gegründet werden. Die dominierende Gesellschaft, die erfolgreiche Praktiken und Methoden entwickelt hat, versucht diese auf andere zu übertragen und diese zum Nachahmen zu bringen. Wenn es eine im Vergleich zu rein national operierenden Firmen größere Komplexität der Organisationsumwelt sowie eine bedeutende physische und kulturelle Distanz zwischen den Unternehmenseinheiten gibt, stellen Koordinationsstrategie und Kontrolle der Host-Country-Subsidiaries durch die MNU-Zentrale eine nicht zu unterschätzende Herausforderung dar. Bei der Betrachtung der Konzepte der Personalpolitik der MNUs ergibt sich ein Spannungsfeld zwischen konzernweiter Integration und Anpassung an die lokalen Institutionen. Wenn sich die üblichen Arbeitsbeziehungen und HRM-Praktiken der Host-Country-Subsidiary von denen des Country-of-Origin unterscheiden, so stellt sich die Frage, welche Personalpolitik die Host-Country-Subsidiaries verfolgen. Der Trade-off zwischen globaler Homogenisierung und lokaler Anpassung in den internationalen HRM-Praktiken ist in besonderem Maße von international divergierenden kulturellen und institutionellen Faktoren abhängig. Die jeweiligen nationalen Institutionen sind sicherlich eine der wichtigsten Hemmnisfaktoren. Institutionen, kulturelle Werthaltung und Rechtsvorschriften sind gerade im arbeitspolitischen Bereich stark an nationale Wirtschaftsräume gebunden und wirken daher einer international homogenen Personalpolitik entgegen. Es ist das Ziel, die Verknüpfung zwischen der HRM-Politik des Country-of-Origin der MNUs und dem Management ihrer Host-Country-Subsidiaries zu untersuchen. Im Mittelpunkt der Untersuchung stehen die Country-of-Origin-Effekte deutscher MNUs beim Ausbildungss- und Entgeltsystem und bei der Arbeitnehmermitbestimmung in deutschen Host-Country-Subsidiaries in Südkorea. Man stellt sich die Frage, welche HRM-Politik die in Korea tätigen Host-Country-Subsidiaries der deutschen MNUs betreiben. Passt sich die HRM-Politik der Host-Country-Subsidiary dem Standard des Host-Country (Korea) an oder werden die Country-of-Origin-Praktiken des deutschen MNUs grenzüberschreitend transferiert? Als empirische Untersuchungsmethode wurde hinsichtlich der Untersuchung des Country-of-Origin-Effektes die qualitative Methode gewählt. Qualitative Interviews haben sich als sehr fruchtbar erwiesen, um organisationale Prozesse in ihrem Verlauf zu untersuchen.
Das Intranet als Forum der innerbetrieblichen Kommunikation in wissenschaftlichen Bibliotheken
(2005)
Das Intranet als Kommunikationsmittel in wissenschaftlichen Bibliotheken wird hier hinsichtlich der Einsatzmöglichkeiten, der Vor- und Nachteile beleuchtet und aus der Sicht der Leitung und Führung bewertet. Als ein Anwendungsbeispiel wird das Intranet der Universitätsbibliothek Trier auf dem Stand November 2005 vorgestellt.
Seit Beginn der Wirtschaftsreformen hat sich in der Volksrepublik China ein tiefgreifender Wandel vollzogen, der alle Bereiche des gesellschaftlichen, wirtschaftlichen und politischen Lebens erfasst zu haben scheint. Infolgedessen ist der Staat - mittlerweile Mitglied der Welthandelsorganisation - zu einem global player geworden, dessen Entwicklung im Westen besonders aufgrund sprunghaft ansteigender Wachstumszahlen im wirtschaftlichen Bereich mit großem Interesse verfolgt wird. Daraus resultierend wird die Volksrepublik in den ausländischen Medien zunehmend - und nicht nur in ökonomischer Hinsicht - als ein Land der Superlative dargestellt. Mit großer Euphorie wird auch das Wachstum des chinesischen Internetsektors beobachtet. Dies gilt insbesondere für den rasanten Anstieg der Nutzerzahlen und die damit verbundenen steigenden Einnahmen nationaler Internetunternehmen. So liest man einerseits häufig von einem Telekommunikations- und Internet-Boom in der Volksrepublik. Andererseits wird die westliche Metadebatte seit Beginn der privaten Internetnutzung in China vom Thema der staatlichen Zensur und Kontrolle des Mediums dominiert. Aufgrund der Dominanz dieser beiden Themenblöcke wird in gewisser Weise der Eindruck vermittelt, die Besonderheiten des Internet in China seien auf enorme Wachstumszahlen und staatliche Restriktion reduzierbar. So widmet sich auch ein Großteil der bisher erschienenen wissenschaftlichen Arbeiten zum Thema "Internet und China" schwerpunktmäßig diesen beiden Aspekten. Unter Berücksichtigung der gesellschaftlichen und institutionellen Realitäten, in deren direktem Zusammenhang Internetnutzung und -angebot in der Volksrepublik stehen, scheint diese eingeschränkte Sichtweise jedoch äußerst fragwürdig. Ziel dieser Arbeit ist es daher, unter Berücksichtigung einer ganzheitlichen Perspektive der Frage nachzugehen, wie sich regionale Ausprägung oder "Chineseness" im chinesischen Internet abzeichnet. Hauptfragestellungen: (1) Was ist unter regionaler Ausprägung des Internet in der Volksrepublik China zu verstehen? (2) Wie und auf welchen Ebenen kann regionale Ausprägung untersucht und bewertet werden? Schlagwörter: China, Internet, Telekommunikation, Reformpolitik, Metadebatte, Chineseness, Jugendkultur, Portale, Zensur, Sprache, Online-Games, Sina, Sohu, Netease, Internetnutzer
Im August und September 2019 wurde unter allen Lehrenden im Fach Gesellschaftslehre (GL) an rheinland-pfälzischen Integrierten Gesamtschulen (IGS) eine Fragebogenstudie durchgeführt. Sie ermöglicht differenzierte Einblicke in die Selbstwahrnehmung der Lehrenden und in ihre Betrachtung der Schul- und Unterrichtspraxis. Die Ergebnisse zeigen Stärken und Schwächen des Integrationsfachs auf und eröffnen didaktische wie bildungspolitische Entwicklungsperspektiven. Die Erhebung erfolgte im Rahmen des von der Nikolaus Koch Stiftung und dem Ministerium für Bildung des Landes Rheinland-Pfalz geförderten Projekts „pe:GL – Praxis- und Entwicklungsforschung: Gesellschaftslehre“ an der Universität Trier.
Die auf einem Plenarvortrag zur Jahrestagung der Deutschen Gesellschaft zur Erforschung des 18. Jahrhunderts zum Thema "Das Erdbeben von Lissabon und der Katastropendiskurs im 18. Jahrhundert (Göttingen 2005) aufsetzende Untersuchung analysiert die Behandlung des Erdbebens von Lissabon im Jahr 1755 in illustrierten Ausgaben von Voltaires erstmals 1759 erschienenem Roman "Candide".
This work deals with the current support landscape for Social Entrepreneurship (SE) in the DACH region. It provides answers to the questions of which actors support SE, how and why they do so, and which social ventures are supported. In addition, there is a focus on the motives for supporting SE as well as the decision-making process while selecting social ventures. In both cases, it is examined whether certain characteristics of the decision-maker and the organization influence the weighting of motives and decision-making criteria. More precise, the gender of the decision-maker as well as the kind of support by the organization is analyzed. The concrete examples of foundations and venture philanthropy organizations (VPOs) will give a deeper look at the SE support motives and decision-making behavior. In a quantitative empirical data collection, by means of an online survey, decision-makers from SE supporting organizations in the DACH region were asked to participate in a conjoint experiment and to fill in a questionnaire. The results illustrate a positive development of the SE support landscape in the German-speaking area as well as the heterogeneity of the organizational types, the financial and non-financial support instruments and the supported social ventures. Regarding the motives for SE-support, a general endeavor to change and to create an impact has proven to be particularly important at the organizational and the individual level. At the individual level female and male decision-makers have subtle differences in their motives to promote SE. Robustness checks by analyzing certain subsamples provide information about that. Individuals from foundations and VPOs, on the other hand, hardly differ from each other, even though here individuals with a rather social background face individuals with a business background. At the organizational level crucial differences can be identified for the motives, depending on the nature of the organization's support, and again comparing foundations with VPOs. Especially for the motives 'financial interests', 'reputation' and 'employee development' there are big differences between the considered groups. Eventually, by means of cluster analysis and still with respect to the support motives, two types of decision-makers could be determined on both the individual and the organizational level.
In terms of the decision-making behavior, and the weighting of certain decision-making criteria respectively, it has emerged that it is worthwhile having a closer look: The 'importance of the social problem' and the 'authenticity of the start-up team' are consistently the two most important criteria when it comes to selecting social ventures for supporting them. However, comparing male and female decision-makers, foundations and VPOs, as well as the two groups of financially and non-financially supporting organizations, there are certain specifics which are highly relevant for SE practice. Here as well a cluster analysis uncovered patterns of criteria weighting by identifying three different types of decision-makers.
Die Evangelische Kirche in Deutschland (EKD) ist eine der größten Nonprofit-Organisationen in Deutschland. Sie ist ein sehr heterogenes Gebilde aus (zum Zeitpunkt der Untersuchung) 22 Landeskirchen unterschiedlichen Bekenntnisses mit jeweils eigenen Organisationsstatuten und rechtlichen Regelungen. Lokale Anlaufpunkte für ihre 23,9 Millionen Mitglieder (Stand Ende 2010) sind die Gemeinden. Sie verwalten sich weitgehend selbständig und werden von gewählten und berufenen Ehrenamtlichen sowie dem oder den Geistlichen der Gemeinde geleitet. Ein Mitglieder- und Einnahmerückgang bewirkt steigende Anforderungen an die Gemeindeleitung und die Notwendigkeit umfassender organisatorischer Veränderungen, die einen groß angelegten Reformprozess in der EKD angestoßen hat. Dies führt u.a. zu Zusammenlegungen von Landeskirchen und Kirchengemeinden, Pfarrstellenkürzungen und einer Reduzierung kirchlicher Gebäude. Auch hiervon sind die Gemeinden und ihre Leitungsgremien betroffen. Ziel der Arbeit ist, vor diesem Hintergrund die Gemeindeleitung (mit Fokus auf den ehrenamtlichen Gemeindeleitern) und die Entscheidungsprozesse in den Leitungsgremien explorativ zu beleuchten. Die Betrachtung erfolgt aus einer verfügungsrechtlichen Perspektive und rückt damit die Handlungsspielräume, die Einstellungen und das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter in den Fokus. Zunächst werden die aktuellen Herausforderungen für die Gemeinden sowie die Themen und unterschiedlichen Ansätze in der Reformdebatte betrachtet. Es folgt eine Darlegung der Einflussmöglichkeiten der Gemeindeleiter auf die Situation ihrer Gemeinde. Hierzu werden die für die Dienstleistungsproduktion von Gemeinden relevanten Entscheidungsfelder, wichtige Kenngrößen für die Gemeindearbeit und die von den Gemeindeleitern beeinflussbaren Entscheidungsvariablen ermittelt. Es folgt eine Analyse der verfügungsrechtlichen Arrangements der 22 Landeskirchen der EKD für die Gemeindeleitung. Für den angestrebten Organisationsvergleich sind Regelungsaspekte von Interesse, deren Ausgestaltung in einzelnen Landeskirchen stark voneinander abweicht. Für die empirische Untersuchung werden konkret die drei Aspekte 'Grad der Selbständigkeit des Gemeindeleitungsgremiums', 'Einflussverteilung zwischen Pfarrern und Ehrenamtlichen im Gremium' sowie 'Haftungsregelungen für die ehrenamtlichen Gemeindeleiter' ausgewählt. Zu den Auswirkungen der unterschiedlichen Ausgestaltung dieser drei Regelungsaspekte werden Hypothesen aufgestellt, die anhand von Fallstudien überprüft werden sollen. Hierfür wurden mit der Evangelischen Kirche in Hessen und Nassau, der Evangelischen Kirche von Kurhessen-Waldeck und der Evangelisch-reformierten Kirche drei Landeskirchen selektiert, die in den genannten Bereichen sehr unterschiedliche Regelungen aufweisen. Den Kern der Arbeit bildet eine explorative vergleichende Untersuchung der unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den ausgewählten Landeskirchen und ihrer Auswirkung auf das Entscheidungsverhalten der ehrenamtlichen Gemeindeleiter. Auf der Basis von Interviews mit rechtlich versierten Vertretern der drei Landeskirchen werden die historischen Hintergründe für die unterschiedliche rechtliche Ausgestaltung sowie die praktische Relevanz und Anwendbarkeit der einzelnen Regelungen analysiert. Zusätzlich werden für die gemeindlichen Fallstudien wichtige Veränderungs- / Entscheidungsprozesse mit aktuell großer Bedeutung für die Gemeinden ermittelt. Dies sind konkret der Gemeindezusammenschluss, die Pfarrstellenbesetzung und die Durchführung einer großen Baumaßnahme. Für die gemeindliche Untersuchung wurden für jede der drei Landeskirchen drei bis vier Gemeinden (insgesamt 11) ausgewählt, die mindestens einen der drei genannten Prozesse gerade durchliefen oder abgeschlossen hatten. Für jeden ausgewählten Prozess wird damit in jeder Landeskirche mindestens ein Fall betrachtet. An die ehrenamtlichen Gemeindeleiter der selektierten Gemeinden adressierte Fragebögen geben Aufschluss zu ihren Motivstrukturen. Mittels eine Clusteranalyse werden dabei sechs unterschiedliche Gemeindeleitertypen mit verschiedenen Motiven und Schwerpunkten ermittelt und vorgestellt. Anhand von mit den ehrenamtlichen Vorsitzenden der Gemeinden geführten Interviews werden schließlich die durchlaufenen Entscheidungsprozesse beleuchtet. Auf Basis der Erkenntnisse aus den Interviews und den Fragebögen wird analysiert, wie sich die unterschiedlichen verfügungsrechtlichen Rahmenbedingungen in den drei Landeskirchen auf das Entscheidungsverhalten verschiedener Gemeindeleitertypen und damit auf die Entscheidungsprozesse und -ergebnisse in den Gemeinden auswirken. Dabei werden die zuvor aufgestellten Hypothesen anhand der vornehmlich qualitativen Auswertungen überprüft. Abschließend werden die gewonnenen Erkenntnisse in die Reformdebatte eingeordnet und konkrete organisatorische Gestaltungsvorschläge abgeleitet.
Das DIAMANT-Modell wurde im Rahmen des BMBF-geförderten Projekts „Prozessorientierte Entwicklung von Managementinstrumenten für Forschungsdaten im Lebenszyklus“ (PODMAN) entwickelt. Das grundsätzliche Ziel des Modells besteht darin, Hochschulen und außeruniversitäre Forschungseinrichtungen zu befähigen, eine integrierte Informationsarchitektur für die optimierte Bereitstellung und Weiterentwicklung von Forschungsdatenmanagement (FDM)-Technologien und -services aufzubauen und zu pflegen, sodass die Forschenden ihre Forschungsdatensätze zu „hochkarätigen Diamanten“ schleifen können. Das DIAMANTModell besteht zum einen aus dem FDM-Referenzprozess, der – angelehnt an die ARIS-Prozessmodellierung – den gesamten FDM-Prozess und die zugehörigen Akteur*innen darstellt und ihren Grad der Beteiligung / Verantwortung an einem FDM-Service benennt. Der FDM-Referenzprozess sieht die Etablierung einer zentralen FDM-Steuerungseinheit vor, die den Informationsfluss zwischen allen am FDM beteiligten Organisationseinheiten steuert. Ein weiterer Bestandteil des DIAMANT-Modells ist die FDM-Kompetenzmatrix, die sich aus dem FDM-Referenzprozess ableitet. Sie dient der IST- / SOLL-Analyse, um den Referenzprozess auf die eigene Institution übertragen zu können. Abgeleitet wurde auch ein Beschreibungsmodell für FDMServices, um einen FDM-Service- /-Anforderungskatalog zu entwickeln und institutsspezifisch fortzuschreiben. Letzter Teil des DIAMANT-Modells sind Empfehlungen, welche Aspekte hinsichtlich der Personalführung und des Organisationsmanagements bei der Implementierung der FDM-Servicelandschaft berücksichtigt werden sollten.
Thema dieser Dissertation ist das deutsche Selbstbildnis im 17. Jahrhundert. Ziel der Arbeit war es, das deutsche Selbstbildnis als eigene Gattung zu etablieren. Hierzu wurden die Selbstbildnisse deutscher Maler des 17. Jahrhunderts ausgewählt, gilt doch diese Zeit noch immer als ‚totes Jahrhundert‘. Grundlage der Untersuchung war eine Sammlung von 148 Objekten, die einer grundlegenden Analyse unterzogen wurden. Das früheste Selbstbildnis in dieser Sammlung stammt von 1600, das späteste wurde um 1700 angefertigt. Künstler aus dem gesamten Alten Reich, ob aus Schlesien und Böhmen, Nord-oder Süddeutschland oder aus den österreichischen wie schweizerischen Landen sind hier vertreten. Die Selbstbildnisse stammen von Malern in der gesamten breite ihrer Karriere. So sind gleichermaßen Selbstbildnisse von Gesellen wie Meistern, von Hofmalern bis hin zu Freimeistern vertreten. Besonders wichtig war es, nicht nur Selbstbildnisse im Gemälde oder Kupferstich in die Untersuchung aufzunehmen, sondern auch Stammbucheinträge.
Die ausführliche Betrachtung und Gegenüberstellung der deutschen Selbstbildnisse mit denen ihrer europäischen Kollegen hat gezeigt, dass auch deutsche Maler den gängigen Darstellungstypen wie etwa dem virtuoso folgten. Aber die deutschen Maler imitierten nicht nur, sondern experimentierten und gingen mit ihren Vorbildern spielerisch um. Daneben folgten sie natürlich auch den Trends der Selbstinszenierung. Sie drückten in ihren Selbstbildnissen ihren Wunsch nach sozialer und gesellschaftlicher Emanzipation des gesamten Berufsstandes aus. So war das deutsche Selbstbildnis eigenständiger Ausdruck des Aufbruches deutscher Künstler in eine neue Zeit.
Im März 196 v. Chr. erließ eine in Memphis versammelte Synode von Priestern aus den Tempeln Ägyptens ein Ehrendekret in drei verschiedenen Sprachen für den amtierenden Herrscher Ptolemaios V. Epiphanes: Der klassischen Sprache des pharaonischen Ägypten, geschrieben in altägyptischen Hieroglyphen, dem Demotischen, der damals gesprochenen Sprachstufe des Altägyptischen und dem hellenistischen Griechisch des 2 Jh.. Von dieser Textsorte sind bisher insgesamt nur vier relativ vollständig erhaltene Beispiele auf uns gekommen. Diese folgen sämtlich in ihrem Formular in hohem Maße der im griechischen Bereich ubiquitären Psephismata und setzen alle im jeweiligen Beschlussteil Ehrungen fest, die die Rolle des ptolemäisch-hellenistischen Herrschers im Kontext der altägyptischen Kulte betreffen. Die vorliegende Arbeit will zum einen in ihrem Kommentarteil eine Grundlage für die weitere Beschäftigung mit allen drei Sprachfassungen des Dekrets von Memphis durch die ptolemaistisch-althistorische Forschung leisten. Zum anderen möchte sie auf Grundlage des Textes die Rolle des Herrschers aus Sicht der beschließenden Priesterschaft beleuchten. Es kann gezeigt werden, dass das Dekret - anders als bisher angenommen - nicht zur eigentlichen Thronbesteigung, sondern anlässlich eines späteren Thronjubiläums erlassen wurde und gleichwohl die Fiktion eines innenpolitischen Neuanfangs (vermutlich im Sinne des Hofes) angesichts erster, bescheidener Erfolge gegen innere Aufstände der indigenen Bevölkerung in Unter- und Oberägypten inszeniert. Die kultische Herrscherverehrung hellenischer Provenienz erscheint in diesem Text ggü. den früheren Dekreten von Kanobos und Raphia relativ vollständig in den altägyptischen religiösen Kontext übersetzt, sodass hier durchaus von einem "ägyptischen Herrscherkult" gesprochen werden kann. Dabei wird der sehr junge fünfte Ptolemäerkönig sehr auffällig mit Kindformen des Gottes Horus (Harendotes, Harsiese) gleichgesetzt, was zum einen die legitime Machtübernahme durch den Sohn des verstorbenen Herrschers von einer im ägyptischen Kontext religiös definierten Sieghaftigkeit gegen die "Götterfeinde" abhängig erscheinen lässt, zum anderen den König in den Kontext der spätzeitlichen Verehrung von Kindgottheiten und Götterttriaden setzt. Alles in allem scheint die ägyptische Priesterschaft mittels einer für die eigenen Bedürfnisse flexibel adaptierten ursprünglich griechischen Textform den eigenen Anspruch auf Definition religiös legitimierter Königsmacht erhoben und im Diskurs um Privilegien und Unterstützung im ptolemäischen Ägypten kommuniziert zu haben.
Gegenstand der Dissertation ist das von einem anonymen Autor stammende Bellum Africum, das als Teil des Corpus Caesarianum Caesars Feldzug in Afrika (Dezember 47 bis Juli 46 v.Chr.) umfasst. Hauptteil ist ein Zeilenkommentar der Kapitel 1 bis 47 (S.80-323), in dem der Text sowohl historisch als auch philologisch erfasst und bearbeitet wird. Daraus ergeben sich eine Reihe neuer Erkenntnisse verschiedenster Art in Detailfragen. Daneben treten eine Übersetzung der entsprechenden Kapitel ins Deutsche (S.55-78) sowie weitere Untersuchungen, in denen Einzelprobleme, die sich aus der Arbeit am Kommentar ergaben, bearbeitet werden. Thema dieser Untersuchungen sind in der Einleitung (S.33-54) Sprache und Stil (S.33-39), die Verfasserfrage (S.39-46) und die Chronologie der ersten Tage des Feldzuges (S.47-54). Zwei weitere Untersuchungen im Anschluss an den Kommentar befassen sich mit Caesars Legionen im Afrikanischen Krieg (S.324-342) und der Darstellung von Caesarianern und Pompeianern im Bellum Africum (S.343-382). Eine Prosopographie zum Bellum Africum (S.390-407), ein Index zu den benutzten antiken Quellen (S.408-421) und ein Literaturverzeichnis (S.10-32) vervollständigen die Arbeit.
Das israelische Religionsrecht ist gegenwärtig trotz des jüdischen Charakters des Staates Israel grundsätzlich als System der Trennung von Staat und Religion bei gleichzeitiger Kooperation des Staates mit den Religionen beziehungsweise Religionsgemeinschaften zu charakterisieren. Mit Blick auf den aktuellen Verfassungsentwurf des israelischen Parlaments stellt sich die Frage, welche Konsequenzen seine Annahme für das Religionsrecht haben würde: Würde Israel Züge eines religiösen Staates annehmen, oder bildet das Regelungswerk lediglich den Ist-Zustand ab? Die Beantwortung dieser Frage hängt zum einen von dem Charakter der neuen Regelungen ab, die der Entwurf enthält, und zum anderen davon, ob die bestehende Rechtssubstanz durch die Transponierung in eine formelle Verfassung ihr Wesen verändern würde.
Kompetenzeinbußen und Abhängigkeit im Alter können durch die soziale Umwelt mitbedingt werden. Altersstereotypbasierte Negativerwartungen bezüglich mangelnder Kompetenzen alter Menschen beeinflussen das Kommunikationsverhalten jüngerer gegenüber älteren Personen (z.B. Ryan, Giles, Bartolucci & Henwood, 1986) sowie das Interaktionsverhalten im Pflegekontext (Baltes, M. M., 1996). Margret Baltes (1996) zeigte in Beobachtungsstudien, dass die Interaktionen zwischen alten Menschen und ihren Pflegepersonen durch ein spezifisches Muster gekennzeichnet sind: Unselbständiges Verhalten der alten Menschen wird durch vermehrte Hilfe unterstützt, selbständiges Verhalten ignoriert. Die vorliegende Arbeit geht der Frage nach, ob es sich bei diesem Abhängigkeitsunterstützungsskript im Pflegesetting um einen Effekt mit universellem Geltungsbereich handelt, oder ob es situative und personale Moderatoren gibt, welche die Reaktionen der Pflegepersonen auf selbständiges bzw. unselbständiges Verhalten der von ihnen betreuten Menschen beeinflussen. Mithilfe einer experimentellen Methode - unter Verwendung von Text-Vignetten - wurde an einer Stichprobe von Studierenden (Studie 1; N=172) sowie professionellen Pflegekräften aus Altenheimen bzw. einem Krankenhaus (Studie 2; N=214) die Hypothese überprüft, dass Pflegekräfte vor allem in solchen Situationen skriptkonform handeln, in denen sie unter Zeitdruck stehen. Des Weiteren wurde untersucht, ob es sich um einen spezifischen Effekt im Umgang mit alten Menschen handelt, oder ob der Befund vielmehr auf bestimmte Rollenerwartungen im Pflegesetting (Altenheim bzw. Krankenhaus) unabhängig vom Alter der gepflegten Person zurückzuführen ist. Als Persönlichkeitsvariablen wurden Geduld, Direktivität und die individuelle Ausprägung des Altersstereotyps erhoben. Die Ergebnisse sprechen für ein relativ hohes Maß an aktivierenden, die Selbständigkeit fördernden Pflegeabsichten. Diese sind vermindert bei hohem Zeitdruck und mangelnder Geduld der Pflegeperson. Die Hypothese, das Abhängigkeitsunterstützungsskript zeige sich vor allem in der Interaktion mit alten Menschen bzw. werde durch ein individuell stark ausgeprägtes negatives Altersstereotyp verstärkt, fand keine eindeutige Bestätigung. Es zeigten sich aber Unterschiede zwischen den Pflegesettings: Im Altenheim wurden mehr selbständigkeitsunterstützende Pflegeabsichten geäußert als bei alten Patienten im Krankenhaus.
Die Dissertation mit dem Thema "Cross-Border-Leasing als Instrument der Kommunalfinanzierung " Eine finanzwirtschaftliche Analyse unter besonderer Berücksichtigung der Risiken - befasst sich am Beispiel des primär steuerinduzierten, grenzüberschreitenden Cross-Border-Leasings (CBL) mit einem innovativen, strukturierten Finanzierungsinstrument, das sich im Spannungsfeld von Rechtsstaatlichkeit und privatwirtschaftlichem Management öffentlicher Akteure befindet. Dazu werden bereits finanzierte und sich im Betrieb befindliche Assets in Variationen von langfristigen Leasingverträge eingebracht. Durch die geschickte Ausnutzung steuerlicher Zurechnungskriterien werden unter Einbindung mehrerer Jurisdiktionen Gewinnverschiebungsmöglichkeiten und Steueroptimierungspotenziale geschaffen, wobei die generierten Zusatzerträge unter den Akteuren aufgeteilt werden. Die Untersuchung orientiert sich an einem umfassenden forschungsleitenden Fragenkatalog, der sehr vielschichtig und zudem interdisziplinär die komplexen Aspekte des CBLs theoretisch sowie praktisch an einem Fallbeispiel untersucht. Zunächst erfolgt die Einbettung des CBLs in den kommunalen Hintergrund. Daran schliesst sich eine Darstellung des Untersuchungsgegenstands im Hinblick auf seine elementare Grundstruktur, Zahlungsströme, Vertragsparteien und deren bilateralen Verpflechtungen an. Daneben erfolgt eine Analyse der öffentlich-rechtlichen Implikationen des CBLs sowie der regulatorischen kommunalaufsichtsrechtlichen Anforderungen. Im zentralen empirischen Teil der Dissertation wird eine idealtypische CBL-Transaktion einer bundesdeutschen Metropole als Fallstudie analysiert: im Rahmen einer erstmaligen wissenschaftlichen Analyse einer Orginaldokumentation werden zunächst die strukturellen Rahmenparameter untersucht, um dann den Finanzierungsvorteil der Transaktion zu ermitteln. Eine Klassifikation erfolgt dabei in diejenigen Risken, die sich unmittelbar im Einflussbereich der Kommune befinden und somit direkt, d.h. durch aktives eigenes Handeln, minimiert oder vermieden werden können und in solche, die aus ihrer Sicht extern sind. Abgerundet wird die Risikoanalyse durch eine Abschätzung der maximalen Risikoposition in Form der Schadensersatzzahlungen, die die Kommune in vertraglich vereinbarten Fällen leisten muss. Dabei ermittelt die Verfasserin den Break-Even der Transaktion und setzt Szenarien sowie mathematische Modelle ein, um die inhärenten Risiken aufgrund ihrer Kostenfolgen sorgfältig gegenüber dem vereinnahmten kurzfristigen Vorteil abzuwägen. Die Untersuchung bedient sich dem anerkannten mathematisch-statistischen Value-at-Risk-Verfahren (VaR), das unter Verwendung von Ansätzen der Wahrscheinlichkeitsverteilung das Marktpreisrisiko zu quantifizieren vermag. Um zu validen Ergebnissen zu gelangen, werden zur Ermittlung des VaRs die beiden bekanntesten (nicht-parametrischen) Tools des VaR-Ansatzes angewendet, um die potenziellen Performanceschwankungen des Depotwertes unter Zugrundelegung bestimmter Wahrscheinlichkeiten abschätzen zu können. Dies ist das Verfahren der Historischen Simulation sowie die als mathematisch sehr anspruchsvoll eingestufte Monte-Carlo-Simulation. Als Weiterentwicklung des VaR-Modells wird zudem der Conditional VaR berechnet, der Aussagen über das Ausmaß der erwarteten Verluste zulässt. Anhand dieser Ergebnisse wird die maximale finanzielle Risikoposition der Kommune, bezogen auf das Kapitaldepot, abgeleitet. Darüber hinaus wird das CBL im Rahmen eines mathematischen Modells insgesamt beurteilt, indem eine Gegenüberstellung von vereinnahmtem Finanzierungsvorteil und den mit Eintrittswahrscheinlichkeiten gewichteten Ausfallrisiken, unter Berücksichtigung des jeweiligen Eintrittszeitpunktes, durchgeführt wird. Diese Vorgehensweise führt zu einer Symbiose aus Finanzierungsvorteil und den Risikomaßzahlen VaR, Expected Shortfall und Expected Loss. Die ermittelten finanzwirtschaftlichen Risikomaßzahlen führen zu überraschenden Ergebnissen, die die propagierte Risikolosigkeit und das vermeintlich attraktive Renditepotenzial derartiger Transaktionen eindeutig verneinen. Aus den gewonnenen Erkenntnissen leitet die Verfasserin praktische Handlungsempfehlungen und Absicherungsmöglichkeiten für kommunale Entscheidungsträger ab. Die sich aufgrund der US-Steuerrechtsänderung vom Februar 2005 ergebenden Auswirkungen auf bestehende Transaktionen wie auch auf Neugeschäfte werden im Ausblick dargelegt.
Der Vortrag stellt die Arbeit der vom Referenten geleiteten Regierungskommission "Corporate Governance" und ihre Empfehlungen dar, erörtert den Inhalt des inzwischen verabschiedeten "Corporate Governance-Kodex" für börsennotierte Unternehmen und geht auf einige damit verbundene Rechtsfragen ein. Den Abschluss bildet ein Ausblick auf geplante Reformvorhaben im Bereich des Aktienrechts.
In der Reaktion auf die Ausbreitung der Covid-19-Pandemie kam es weltweit für viele Menschen zum Bruch sozialer und räumlicher Routinen. In Deutschland haben die Landesregierungen die führende Rolle beim Versuch übernommen, durch Verfügungen und Verordnungen die weitere Ausbreitung der Pandemie einzudämmen. In diesem Kontext hat die Art und Weise wie Gesetze und Regeln Alltagsräume durchdringen für viele Menschen eine neue (unmittelbar erlebbare) Dimension angenommen. Ziel dieses Beitrags ist es, mit einem Fokus auf die getroffenen Maßnahmen der saarländischen Landesregierung diesbezüglich eine lokale Perspektive zu entwickeln. Durch die qualitative Methode der Autofotographie werden dabei individuelle Sichtweisen auf das zugrundeliegende Wechselspiel von Recht, Raum und Gesellschaft in den Vordergrund der Analyse gestellt. Durch den Blick auf sozialräumliche Zusammenhänge werden so die Auswirkungen der getroffenen Maßnahmen hinterfragt.
Im Mittelpunkt der Arbeit steht die Frage nach der Darstellung Chinas in ausgewählten Geographieschulbüchern (Lehrbücher, Zusatzmaterialien und Schulatlanten) der Bundesrepublik Deutschland, der Deutschen Demokratischen Republik und der Republik Österreich. Ziel dieser Schulbuchanalyse ist es, die Chinadarstellungen zu erfassen und auf ihre inhaltliche Qualität und Gegenwartsbezogenheit zu überprüfen. Alle Schulbücher werden auf ihre sachliche Richtigkeit, Vollständigkeit und Angemessenheit, sowie nach Vorurteilen und Stereotypen untersucht. Dabei werden bestimmte Vorurteilsstrukturen (Pittoresken, Exotismen) und stereotype Deutungs- und Darstellungsmuster aufgedeckt, nationale Sichtweisen hervorgehoben und im Hinblick auf das Postulat der Völkerverständigung interpretiert. Der Hauptteil der Arbeit besteht aus einer zweistufigen Schulbuchanalyse, die sich in eine differenzierte quantitative und qualitative Inhaltsanalyse gliedert. Ein detailliertes Kategoriensystem bildet die Grundlage der Analyse. Anhand der thematischen Kategorien erhält der Leser die Möglichkeit, bestimmte Aussagen und Ergebnisse der Analyse nachzuprüfen und nachzuvollziehen und sich zudem wissenschaftlich fundierte Erkenntnisse über die einzelnen Themengebiete zu erschließen. Die Vernachlässigung bestimmter Themen zeigt sich in mehreren Schulbüchern, wobei insbesondere ein qualitativer Wandel in der Behandlung physisch- und anthropogeographischer Themen zu beobachten ist.
Der Planungsorientierten Stadtklimatologie und der Stadtökologie stehen eine Vielzahl von Einzelmethoden zur Erfassung und Bewertung der Belastungsfaktoren Klima, Luft oder Lärm zur Verfügung. Es fehlen derzeit Möglichkeiten zur Gesamtbeurteilung des aktuellen Umweltzustandes oder von bestimmten Planungsvarianten. Um die Strukturen der Gesamtbelastung städtischer Gebiete durch Klima, Luft und Lärm zu bewerten, wird der Ansatz über die Indexbildung untersucht. Dabei werden die Einzelbelastungen durch die städtische Überwärmung, die Belastung mit Kfz-bedingten Luftschadstoffen und die Verkehrslärmbelastung zu einer einzigen Bewertungsgröße integrierend zusammengefasst. Das "Indikatorensystem Klima - Luft - Lärm" kurz: "K-L-L-Index" knüpft im weiteren Sinne an die Nachhaltigkeitsindikatoren an. Die Ermittlung des K-L-L-Indexes erfolgt schrittweise, wobei die berechneten oder gemesse-nen Einzelgrößen zunächst einer vereinheitlichten Klassifizierung unterzogen werden. Mit dieser Vorgehensweise werden die Einzelgrößenbelastungen entsprechend ihrer Ausprägung bzw. Intensität eingestuft und erhalten jeweils einen Indikatorenwert. Die eigentliche Berechnung des K-L-L-Indexes erfolgt über die Verknüpfung der einzelnen Indikatorenwerte zu einem ge-meinsamen Indikatorensystem. Die Einstufung des K-L-L-Indexes wird entsprechend einer definierten Bewertungsskala durch arithmetische Mittelwertbildung der Indikatorwerte zwi-schen den Stufen 0 "kaum belastet" bis Stufe 4 "extrem belastet" ermittelt. Die kumulative Wirkung der drei Größen auf die menschliche Gesundheit wird insoweit berücksichtigt, dass die Fälle von drei gleich stark belasteten Einzelgrößen in der Gesamtbelastung der nächst höhe-ren Belastungsstufe zugeordnet werden. Die Berechnung und Darstellung des K-L-L-Indexes wird unter Verwendung digitaler Informa-tionen in einem Geographischen Informationssystem (GIS) durchgeführt. Hier können die zahl-reichen räumlichen Informationen entsprechend den Vorgaben miteinander verarbeitet werden und die Ergebnisse für die Untersuchungsgebiete direkt flächenhaft dargestellt werden. Da-durch weist der K-L-L-Index hinsichtlich des räumlichen Bezugs deutliche Vorteile gegenüber anderen Nachhaltigkeitsindikatoren auf. Die Anwendbarkeit und Flexibilität des vorgestellten K-L-L-Indexes wird anhand von zwei ausgewählten Untersuchungsgebieten in Trier und Lud-wigshafen überprüft. Der K-L-L-Index bietet zahlreiche Einsatzmöglichkeiten in der Straßen- und Verkehrsplanung (Verkehrsszenarien, Trassenvarianten), Stadtentwicklungsplanung und Bauleitplanung (Ausweisung von Flächen, Baugenehmigungen, Rahmenpläne) oder in der Lärmminderungsplanung. Neben der Erfassung der Ist-Belastungssituation kann der K-L-L-Index insbesondere in Bezug auf geplante Nutzungsänderungen oder Planungsalternativen Detailinformationen hin-sichtlich der Umweltbelastungen liefern und somit einen wichtigen Beitrag zur vorsorgenden Umweltplanung leisten. Als weiteren Forschungsbedarf wird die Anpassung des K-L-L-Indexes an aktuelle Entwicklungen im Bereich des Immissionsschutzes (Einbeziehung von PM10 und des LDEN) und der Einsatz im Zuge von Aktionsplänen nach -§ 47 Bundesimmissionsschutzgesetz zur Vermeidung von Grenzwertüberschreitungen nach der 22. BImSchV angesehen. Der K-L-L- Index ist somit als ein erster Schritt zur Gesamtbewertung hin zu sehen, weitere Schritte müssen folgen.
α2-adrenerge Rezeptoren sind entscheidende Strukturen für den Ablauf einer physiologischen Stressreaktion. Verschiedene Ursachen sind bekannt, welche die Funktionalität/Effektivität der vorwiegend inhibitorischen α2-adrenergen Wirkung einschränken. Darunter fallen frühe und lebenszeitliche Stressbelastung, genetische Faktoren sowie pharmakologische Einflüsse. Ziel der vorliegenden Dissertation war die Identifikation und Charakterisierung von kognitiven und zentralnervös gesteuerten kardiovaskulären Parametern, welche durch α2-adrenerge Rezeptoren in besonderem Maße beeinflusst werden. Weiterhin sollte anhand pharmakologischer Modelle eine Methode entwickelt werden, um diese Beeinflussbarkeit quantitativ zu beschreiben. In einem komplexen pharmakologischen Versuchsplan wurde die Aktivität der α2-adrenergen Rezeptoren durch jeweils fünf Dosisstufen Dexmedetomidin (α2-adrenerger Agonist) und Yohimbin (α2-adrenerger Antagonist) manipuliert. In einem placebokontrollierten einfach-blinden Design wurde die Konzentrations-Wirkungs-Beziehung bzw. die Dosis-Wirkungs-Beziehung zwischen der Medikation und kognitiven sowie zentralnervös gesteuerten kardiovaskulären Parametern ermittelt. Zudem wurden die Effekte von α2-adrenergem Agonismus und Antagonismus auf die akustische Startlereaktion sowie auf die Plasmakonzentration von Noradrenalin (NA) und DHPG erfasst. Mittels linearer pharmakodynamischer Modellierung sollte anschließend die maximale Spannweite der α2-adrenerg vermittelten Effekte vorhergesagt werden, um so Aussagen über die pharmakologische Beeinflussbarkeit der Rezeptoren treffen zu können. Es zeigten sich deutliche Effekte von α2-adrenergem Agonismus und Antagonismus auf einfache Reaktionszeiten und kardiovaskuläre Parameter. Insbesondere sympathisch vermittelte Funktionen waren durch die pharmakologische Manipulation beeinflusst, ebenso wie die Magnitude der Blinzelreaktion auf einen akustischen Schreckreiz. Die Substanzen hatten zudem deutliche Einflüsse auf die Plasmakonzentration von NA und DHPG. Der besondere Erfolg dieser Arbeit liegt in der systematischen Quantifizierung der pharmakologischen Beeinflussung zentralnervöser Parameter durch α2-adrenergen Agonismus und Antagonismus. Es konnte gezeigt werden, dass die pharmakodynamische Modellierbarkeit zentralnervöser Parameter Aufschluss über potenzielle Gruppen-unterschiede in der Funktionalität/Effektivität α2-adrenerger Mechanismen geben kann.
Die Beobachtung und Bewertung von Wäldern ist eins der zentralen Themen der Fernerkundung. Wälder sind auf der Erde die größten Speicher von Biomasse und damit, neben den Ozeanen, die größte Senke für Kohlendioxid. Eine genaue Kenntnis über Zusammensetzung, Zustand und Entwicklung der Wälder ist wegen ihrer vielfältigen Funktionen und ihres großen Anteils an der Landesfläche von großem wissenschaftlichem und gesellschaftlichem Wert. Eine flächen-deckende detaillierte Beobachtung ist nur mit fernerkundlichen Mitteln möglich. Eine vielversprechende moderne Technik für hochauflösende Waldfernerkundung ist luftgestütztes Laser-¬scanning. Für die Arbeit stand ein Laserscanner-Datensatz aus dem Idarwald bei Morbach in Einzelpunkten und als Wellenformdatensatz zur Verfügung, der zur Ableitung von strukturellen Waldparametern genutzt wurde. Als wichtigster Bestandsstrukturparameter wurde die Baumhöhe sowohl aus Einzelpunktdaten als auch aus gerasterten Bilddaten flächendeckend mit hoher Genauigkeit abgeleitet. Die Kronenuntergrenzen konnten anhand der Wellenformdaten identifiziert werden und stimmten ebenfalls in hoher Genauigkeit mit Geländemessungen überein. Aus Baumhöhen und Höhe der Kronenuntergrenzen konnte die jeweilige Kronenlänge bestimmt werden. Eine größere Herausforderung ist die Bestimmung der Anzahl der Bäume pro Hektar. Während die einzelnen Kronen älterer Nadelbäume gut erkennbar sind, lassen sich Laubbäume und jüngere Nadelbäume nur schwer identifizieren. Trotzdem konnte mit Hilfe eines adaptiven Moving-Window-Ansatzes eine hohe Übereinstimmung mit im Gelände bestimmten Stammzahlen erzielt werden. Aus dem Anteil der Laserstrahlen, die im Bestand den Boden erreichen, können der Kronenschlussgrad und der Blattflächenindex bestimmt werden. Beide Größen sind für den Strahlungstransfer im Bestand und für ökologische Fragestellungen von Bedeutung und konnten ebenfalls flächendeckend und mit hoher Genauigkeit gemessen werden. Eng verknüpft mit dem Blattflächenindex sind die Biomasse und der Holzvorrat. Der Holzvorrat kann zwar nicht direkt aus den Laser-¬scannerdaten abgeleitet werden, da aber enge Beziehungen zu Baumhöhe und Stammzahl bestehen, kann er aus diesen statistisch abgeleitet werden. Auch die Biomasse wurde indirekt bestimmt: aus den Baumhöhen und dem Bedeckungsgrad. Die detaillierteste Charakterisierung von Waldbeständen kann durch Kombination unterschiedlicher Datensätze erreicht werden. Neben dem Laserscanningdatensatz stand auch ein hyperspektrales Bild des Untersuchungsgebiets zur Verfügung. Um diese zu kombinieren, wurde aus den Wellenformen die jeweils über der Fläche eines Hyperspektralpixels zurückgestreute Laserenergie in Höhenschritten von 0.5 m berechnet. Diese Höhenprofile zeigen die Position und Dichte der Baumkronen. Der kombinierte Datensatz wurde für eine Klassifikation zwischen Fichten und Douglasien in jeweils mehreren Altersstufen verwendet und konnte gegenüber dem Hyperspektralbild alleine eine deutliche Verbesserung der Klassifikationsgenauigkeit erzielen. Als weitere Methode, die Vorteile von hyperspektraler Fernerkundung mit denen von Laser-scanning zu verbinden, wurden Methoden zur Verwendung von Laserscanning für die Invertierung von zwei Reflexionsmodellen entwickelt und getestet. Da mit Laserscanning Größen bestimmt werden können, die aus einem Reflexionsspektrum nicht eindeutig ableitbar sind, können die Daten verwendet werden, um den Parameterraum bei der Invertierung zu verkleinern und damit die Invertierung zuverlässiger zu machen.
Die polare Kryosphäre stellt einen Schlüsselfaktor für die Erforschung des Klimawandels dar. Insbesondere das Meereis und seine Schneebedeckung, die sich durch eine äußerst hohe und Zeitskalen-übergreifende Sensitivität gegenüber atmosphärischen Einflüssen auszeichnen, können als diagnostische Parameter für die Abschätzung von Veränderungen im Klimasystem herangezogen werden. Die komplexen Rückkopplungsmechanismen, durch die das Meereis mit der globalen Zirkulation der Atmosphäre und des Ozeans in Wechselwirkung steht, werden durch eine zusätzliche Schneeauflage deutlich verstärkt. Insofern tragen die saisonalen Veränderungen der physikalischen Eigenschaften des Schnees, und insbesondere der Beginn der Schneeschmelze, massgeblich zur lokalen und regionalen Energiebilanz sowie zur Meereismassenbilanz bei. In dieser Arbeit wird nun erstmals auf der Basis langjähriger Daten der satellitengestützten Mikrowellenfernerkundung, in Kombination mit Feldmessungen aus dem Weddellmeer während des Sommers 2004/2005, die Charakteristik der sommerlichen Schmelzperiode auf antarktischem Meereis untersucht. Die sommertypischen Prozesse zeichnen sich hier durch deutliche Unterschiede im Vergleich zu arktischem Meereis aus. Wie die Messungen vor Ort zeigen, kommt es während des antarktischen Sommers nicht zu einem kompletten Abschmelzen des Schnees. Vielmehr dominieren ausgeprägte Schmelz-Gefrier-Zyklen im Tagesgang, die eine Abrundung und Vergrösserung der Schneekristalle sowie die Bildung interner Eisschichten verursachen. Dies führt radiometrisch zu Mikrowellensignalen, deren Erfassung im Vergleich zu bestehenden Schmelzerkennungs-Methoden neue Ansätze erfordert. Durch den Vergleich von zeitlich hoch aufgelösten in-situ Messungen der physikalischen Schneeeigenschaften mit parallel dazu erfassten Satellitendaten, sowie durch eine Modellierung der mikrowellenradiometrischen Eigenschaften der Schneeauflage, konnte ein neuer Indikator entwickelt werden, über den das Einsetzen der typischen sommerlichen Schmelzperiode auf antarktischem Meereis identifiziert werden kann. Der DTBA-Indikator beschreibt die Tagesschwankung der radiometrischen Eigenschaften des Schnees und zeichnet sich durch ein Werteverhalten aus, das eine eindeutige Hervorhebung der Sommerphase innerhalb eines saisonalen Zyklus erkennen lässt. Der Indikator wurde verwendet, um mittels des neu entwickelten Schwellwertalgorithmus MeDeA das Einsetzen der sommerlichen Schmelzperiode für das gesamte antarktische Meereisgebiet zu bestimmen. Durch die Anwendung der neuen Methode auf die langjährigen Reihen der Satellitenmessungen konnte ein umfassender Datensatz erstellt werden, der für den Zeitraum von 1988 bis 2006 die räumliche und zeitliche Variabilität des Einsetzens der sommerlichen Schmelzperiode auf antarktischem Meereis beinhaltet. Die Ergebnisse zeigen, dass im Untersuchungszeitraum keine signifikanten Trends im Beginn des Schmelzens der Schneeauflage festzustellen sind, und dass das Schmelzen im Vergleich zur Arktis deutlich schwächer ausgeprägt ist. Eine Untersuchung der atmosphärischen Antriebe durch die Auswertung meteorologischer Reanalysen zeigt den grundlegenden Einfluss der zirkumpolaren Strömungsmuster auf die interannualen Schwankungen des Einsetzens und der Stärke der sommerlichen Schneeschmelze.
In der vorliegenden Arbeit wurden die Einsatzmöglichkeiten von Carbon Footprints in Großküchen untersucht. Dabei wurden sowohl methodische Aspekte und Herausforderungen ihrer Erhebung untersucht als auch mögliche Kennzeichnungsformate (Label) evaluiert.
Zunächst wurde am Beispiel Hochschulgastronomie eine vollständige Carbon Footprint Studie nach DIN 14067 für sechs exemplarische Gerichte (PCF) sowie angelehnt an DIN 14064 für den Mensabetrieb (CCF) durchgeführt. Es zeigte sich, dass die gewichteten durchschnittlichen Emissionen pro Teller, unter Einbezug der verwendeten Rohstoffe und des Energiebedarfs, 1,8 kg CO2eq pro Teller betragen (Mgew=1,78 kg CO2eq; [0,22-3,36]). Zur Vereinfachung des Erhebungsprozesses wurden anknüpfend an diese Ergebnisse Pauschalisierungsansätze zur vereinfachten Emissionsallokation im Gastrosektor evaluiert und in Form eines appgestützten Berechnungstools umgesetzt. Es konnte verifiziert werden, dass der Energiebedarf und die daraus resultierenden Emissionen unabhängig von der Beschaffenheit der Gerichte auf die Anzahl produzierter Gerichte alloziert werden können und die Ausgabewerte dennoch hinreichend belastbar sind (Abweichung <10 %).
In dieser Studie konnte gezeigt werden, dass am untersuchten Standort Skaleneffekte hinsichtlich der Anzahl produzierter Gerichte und Strombedarf pro Gericht auftreten. Beide Faktoren korrelieren stark negativ miteinander (r=-.78; p<.05). Zur Verifikation der Ergebnisse wurde eine Datenabfrage unter allen deutschen Studierendenwerken (N=57) hinsichtlich des Energiebedarfs und der Produktionsmengen in Hochschulmensen durchgeführt. Aus den Daten von 42 Standorten konnten für das Jahr 2018 prognostizierte Gesamtemissionen in Höhe von 174.275 Tonnen CO2eq, verursacht durch etwa 98 Millionen verkaufte Gerichte, ermittelt werden. Im Gegensatz zur durchgeführten Standort-Studie konnten die Skaleneffekte, d.h. sinkender Strombedarf pro Teller bei steigender Produktionszahl, bei der deutschlandweiten Datenerhebung statistisch nicht nachgewiesen werden
(r=-.29; p=.074).
Im Anschluss wurden mögliche Label-Formate für Carbon Footprints evaluiert, indem vier vorbereitete Label unterschiedlicher Beschaffenheit (absolute Zahlen, einordnend, vergleichend und wertend) in sechs Fokusgruppen mit insgesamt 17 Teilnehmer:innen im Alter zwischen 20 und 31 Jahren (M=25,12; SD=3,31) diskutiert wurden. Im Ergebnis zeigte sich, dass bei den Teilnehmer:innen ein breiter Wunsch nach der Ausweisung absoluter Zahlen bestand. Zur besseren Einordnung sollte ein Label zudem einordnende Elemente enthalten. Wertende Label in Form von Ampelsymbolen oder Smileys mit unterschiedlichen Emotionen wurden überwiegend abgelehnt. Ableitend aus den Erkenntnissen konnten zwei synthetisierende Label-Vorschläge entwickelt werden.
Caenorhabditis elegans Modelsysteme für Freiland und Labor Caenorhabditis elegans ist eines der am intensivsten untersuchten Tiermodelle, dabei weisen die nur unzureichenden Informationen über sein ursprüngliches Habitat eine Vielzahl offener Fragen auf. Deshalb beschäftigt sich der erste Teil vorliegender Arbeit mit einer Überprüfung der Freilandökologie und Biogeographie des Taxons. Nach den Untersuchungen spricht vieles dafür, dass die Ursprungsart der C. elegans Gruppe ein Begleiter von Gastropoden war, welche auch für ihre Ausbreitung häufig verantwortlich sind. Als Folge der Verschleppung durch Wirtstiere (u.a. die Weinbergschnecke Helix aspersa) erreichte sie ihr heutiges Areal, in allen Kontinenten. Ein nicht weniger wichtiges Ziel der vorliegenden Arbeit war die Etablierung von C. elegans als Biotest-System für die Indikation von Chemikalien-Wirkungen. In dieser Arbeit wurden ein ökotoxikologisches Testsystem entwickelt mit den C. elegans als Modellorganismus, das durch Messung von umweltbedingten intrazellulär gebildeten ROS im Gesamtorganismus eine Einschätzung der biologischen Aktivität von Chemikalien und Umweltmedien ermöglichen sollte. Als grundlegender biochemischer Parameter ist eine, die Kapazität der antioxidativen Schutzmechanismen übersteigende, ROS-Bildung ursächlich für oxidative Schädigungen der Zelle verantwortlich und damit Basis für zahlreiche pathologische Effekte. Aus den Resultaten als Bewertungsgrundlage lässt sich folgern, dass sich das erarbeitete Biotestsystem als adäquates Verfahren zur Messung von oxidativem Stress, als Folge exogener Belastung, einsetzen lässt. Damit leistet es einen Beitrag zur Beurteilung des Toxizitätspotentials von Chemikalien und Umweltproben. Zur Eignung des Einsatzes von C. elegans für Toxizitätstest wurden weitere Untersuchungen mit verschiedenen Chemikalien durchgeführt. Dabei ergibt sich bezogen auf molare Einheiten eine immer gleich bleibende Reihenfolge der Sensitivitäten gegenüber BaP > Cu2+ > AcL, ein Ergebnis welches mit Testergebnissen von anderen Versuchsorganismen zu vergleichen war. Die Wirkung von Atrazin auf die Entwicklung von C. elegans wurde auch untersucht. Es wurde festgestellt, dass Atrazin auf Wachstum und Reproduktion von C. elegans konzentrationsabhängig toxisch wirkt. Die bisherigen Ergebnisse zeigen jedoch, dass das Testsystem C. elegans hervorragend geeignet ist, um Chemikalienwirkungen frühzeitig sichtbar zu machen.
Die Dissertation beschäftigt sich mit dem Denkmalkult in der aufstrebenden deutschen Indsutrieregion des Kaiserreichs (1871 - 1918). Denkmalprojekte dienten als Plattform für die Bezeugung und Selbstvergewisserung von Werten wie nationale Gesinnung und Bürgerlichkeit unter Nutzung nationaler, indstrieller und lokaler Symbole. Der zweite Teil enthält ein Verzeichnis der zwischen 1871 und 1918 errichteten kommunalen Denkmäler im Ruhrgebiet.
In jedem demokratischen Staat besteht ein Dilemma zwischen Freiheit und Sicherheit. Zwar ist Sicherheit die Voraussetzung für Freiheit, doch insbesondere Sicherheit vor Kriminalität kann nur gewährleistet werden durch Maßnahmen, die auch in Freiheitsrechte der Bürger eingreifen. Diesem Dilemma muß durch ständigen Ausgleich zwischen beiden Bedürfnissen Rechnung getragen werden. Gerade im Zuge einer erhöhten öffentlichen Wahrnehmung der organisierten Kriminalität und neuerdings des Terrorismus stellt sich die Frage nach der Ausgewogenheit zwischen Sicherheit und Freiheit verstärkt. So hat beispielsweise die Gesetzgebung zur Terrorismusbekämpfung eine nicht unerhebliche Verschärfung polizeilicher und strafprozessualer Eingriffsbefugnisse mit sich gebracht. Der Verfasser geht in seinem Beitrag, ausgehend von der Entstehung des individuellen Menschenrechtsschutzes, der Frage nach, ob die Abwendung vom Individualrechtsschutz hin zur wirksameren Verbrechenskontrolle durch eine neue, verschärfte Sachlage gerechtfertigt ist und untersucht unter anderem das Vorhandensein absoluter Eingriffsgrenzen und die Begründungserfordernisse für vorgenommene Einschränkungen.
Bürgerfernsehen
(2003)
Die vorliegende Studie befaßt sich zunächst mit der theoretischen Reflexion von Aufgaben und Potentialen Offener Kanäle. Dabei wird gezielt auf ihre Funktion für eine demokratische politische Kultur abgestellt. Die anschließende Betrachtung der deutschen Fernsehordnung als Rahmen für den Betrieb Offener Kanäle verdeutlicht zum einen die Differenzen in der immanenten Logik ihrer beiden Teilsysteme. Zum anderen wird die zunehmende Regionalisierung der Fernsehangebote beschrieben und ihr Einfluß auf die Entwicklung Offener Kanäle aufgezeigt. Die empirische Auseinandersetzung mit dem Bürgerfernsehen selbst beginnt mit einer kurzen Aufarbeitung seiner Geschichte im In- und Ausland, an die sich Überlegungen zur Gestaltbarkeit von Offenen Kanälen und zu ihrer politischen Steuerbarkeit anschließen. Nach einer Bestandsaufnahme des gegenwärtigen wissenschaftlichen Kenntnisstandes über die Bürgersender wird auf der Grundlage einer Typologie ihrer möglichen Ausprägungen das Spannungsverhältnis zwischen den Zielen des Zuschauerbezugs und des freien und gleichberechtigten Zugangs zu den Sendeplätzen thesenartig formuliert. Diese "Verhärtungsthese" bildet den Hintergrund für die beschreibende Analyse der Offenen Kanäle in Rheimland-Pfalz, die auf den Ebenen der Produzenten, der Inhalte und der Zuschauer erfolgt. Dabei wird insbesondere auf den Zielkonflikt von gleichberechtigtem Zugang und zuschauergerechter Programmgestaltung eingegangen und der Einfluß kommerzieller Interessen auf den Offenen Kanal untersucht.