Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (492) (entfernen)
Sprache
- Deutsch (492) (entfernen)
Volltext vorhanden
- ja (492) (entfernen)
Schlagworte
- Deutschland (24)
- Stress (13)
- n.a. (10)
- Bodenerosion (9)
- Tourismus (8)
- Fernerkundung (7)
- Geschichte (7)
- Modellierung (7)
- Motivation (6)
- Nachhaltigkeit (6)
Institut
- Psychologie (117)
- Raum- und Umweltwissenschaften (97)
- Wirtschaftswissenschaften (34)
- Geschichte, mittlere und neuere (28)
- Germanistik (25)
- Kunstgeschichte (21)
- Mathematik (18)
- Politikwissenschaft (15)
- Soziologie (15)
- Fachbereich 1 (11)
Improving market opportunities for local public transportation requires marketing strategies which put the customer in the centre of business considerations. The customer is the "source of wealth", for he or she provides for turnover, income and market dynamics. This context is the crucial market-strategy approach in the public transport sector. Therefore the most important element in the strategic marketing approach of customer orientation in public transportation is not only to design a self-contained system of marketing measures for convincing potential customers of the advantages of the product, but also to create "product quality" in order to gain "customer confidence". The key point of the concept of a customer-oriented "public transport/ation supply structure" is to develop a simplified method of estimating the market potential in order to confirm or verify sufficient demand effects that are predominantly based on traffic corridors burdened with heavy car traffic. Correspondingly, a public transport/ation supply structure is developed which will offer the customer extensive and therefore attractive access to public transport. Applying this attractive public transport/ation system enables the use of "economic potentials" for financing public transport outside urban agglomerations, which is only made possible by a consistent strategic marketing concept of customer orientation.
In Deutschland wurden von 1979 bis heute 14 Biosphärenreservate sowohl national von der jeweiligen Landesregierung im Rahmen des Landesnaturschutzgesetzes als auch von der UNESCO international anerkannt. Damit unterliegen diese Großschutzgebiete einer einheitlichen und weltweit anerkannten Zielstellung. In der internationalen Naturschutzpolitik gilt Deutschland als Vorbild, da eine aus Biosphärenreservatsleitern bestehende Arbeitsgruppe 1996 Ausschluss- und Bewertungskriterien für die Anerkennung und Überprüfung von Biosphärenreservaten (kurz: BR-Kriterien) definiert hat, nach denen Biosphärenreservate ausgewiesen bzw. evaluiert werden können. Biosphärenreservate stellen Modelllandschaften dar, in der beispielhaft Konflikte ausgetragen, nach Lösungswegen gesucht und Alternativen angeboten werden sollen. Daher ist es wichtig, vorprogrammierte Dauerkonflikte durch ein gut funktionierendes Monitoring rechtzeitig zu erkennen und zu lösen. Mit Hilfe von regelmäßigen Evaluierungen von Biosphärenreservaten lassen sich die Schutzvorhaben für die einzelnen Großschutzgebiete zielstrebig verwirklichen. Die Entwicklung, Festsetzung und regelmäßige Durchführung von Evaluierungen der Biosphärenreservate ist unbedingt erforderlich, um Erfolge zu bestätigen sowie Defizite und Fehlentwicklungen aufzuzeigen. Die BR-Kriterien und auch die "Internationalen Leitlinien für das Weltnetz der Biosphärenreservate" verlangen nach spätestens zehn Jahren eine Evaluierung der Biosphärenreservate. Elf (von 14) Biosphärenreservate sind bereits älter als zehn Jahre und hätten dem Generalsekretariat der UNESCO in Paris eine Evaluierung vorlegen müssen. Die von der Autorin geleisteten Untersuchungen zeigen die Notwendigkeit einer einheitlichen und von unabhängiger Seite praktizierten Evaluierung aller Biosphärenreservate in Deutschland auf. Die im Rahmen dieser Dissertation durchgeführten Evaluierungen der deutschen Biosphärenreservate beleuchten, wie sich die einzelnen Biosphärenreservate in den Jahren seit ihrer Anerkennung entwickelt haben. Dabei sind drei verschiedene Evaluierungsvorgaben berücksichtigt und miteinander verglichen worden. 1. Die deutschen Biosphärenreservate erzielen vorbildliche Ergebnisse bei der UNESCO-Evaluierung. Bei deskriptiven Verfahren kann es allerdings zu Verzerrungen in der Abbildung von Realitäten kommen. Defizite werden nicht zwangsläufig hervorgehoben. 2. Die Anwendung der BR-Kriterien gestaltet sich schwierig, da sie keine Rechtsgültigkeit besitzen. Außerdem ist der Qualitätsanspruch so hoch, dass keines der Biosphärenreservate alle Ausschlusskriterien erfüllt. 3. Das neu entwickelte Bewertungsverfahren greift diese Aspekte auf und ergänzt sie durch zusätzliche, übergeordnete Evaluierungserfahrungen und Qualitätskriterien. Der besondere Ansatz dieser Arbeit liegt darüber hinaus in der Überprüfung von Evaluierungserfahrungen der Biosphärenreservate im Ausland. Hierzu werden internationale Vergleiche mit evaluierten Biosphärenreservaten gezogen (z. B. Großbritannien, Norwegen, USA, Schweiz, Argentinien, Polen, Ägypten), um positive Erkenntnisgewinne zu vermitteln. Des Weiteren werden potentielle Biosphärenreservate in Deutschland berücksichtigt (z. B. Drömling, Karstlandschaft Südharz, Bliesgau, PLENUM-Modellprojekte), um zu überprüfen, welche Voraussetzungen diese erfüllen, bevor es zur nationalen und internationalen Anerkennung kommt. Die Dissertation stellt somit ein einheitliches, praxisnahes und umfassendes Evaluierungskonzept für die deutschen Biosphärenreservate vor. Die Methodik selbst basiert auf guter Anwendbarkeit, zweifacher Absicherung aller inhaltlich relevanten Fragestellungen, Bewahrung der Objektivität, unabhängigen und neutralen Beurteilungen. Die Ergebnisse sind vergleichbar, und positive Aspekte können übertragen werden. Damit leistet die Dissertation einen Beitrag, die bestehenden Biosphärenreservate in Deutschland für die Zukunft zu erhalten bzw. die Schaffung neuer Biosphärenreservate zu fördern, um die artenreichen Naturlandschaften mit ihrer genetischen Vielfalt dauerhaft zu schützen, die historisch gewachsenen sowie gestalteten Kulturlandschaften nachhaltig zu entwickeln und neue Perspektiven für die lokale Bevölkerung zu geben. Es wird auch zukünftig erforderlich sein, Konzepte zu erarbeiten, welche die Anpassung an neue Gegebenheiten gewährleisten. Die Evaluierungen sind in regelmäßigen Abständen durchzuführen, um Entwicklungsfortschritte und "tendenzen beurteilen zu können. Das ist mit der vorliegenden Arbeit klar herausgearbeitet worden.
Die Studie Writing (Against) Postmodernism: The Urban Experience in Contemporary North American Fiction- stützt sich auf drei Hauptthesen. Zunächst wird dargelegt, dass sich postmoderne theoretische Positionen hinsichtlich des Verlusts menschlicher Handlungsfähigkeit und der Unzuverlässigkeit der Sprache trotz ihrer Umstrittenheit dazu eignen, ein Zeitgeistphänomen der nordamerikanischen urbanen Mittel- und Oberklasse um die Jahrtausendwende zu beschreiben. Wie Writing (Against) Postmodernism zeigt, korrespondieren die Leben der Figuren in den untersuchten Romanen "- The Savage Girl- (Alex Shakar, 2001),- Look At Me- (Jennifer Egan, 2001),- Noise- (Russell Smith, 1998),- Glamorama- (Bret Easton Ellis, 1998),- Ditch (Hal Niedzviecki, 2001),- Manhattan Loverboy, and- Suicide Casanova- (Arthur Nersesian, 2000, 2002) " mit Ideen, wie sie von zeitgenössischen Theoretikern wie Frederic Jameson, Paul de Man, Jean Baudrillard oder Jacques Derrida vertreten oder hergeleitet werden. Die Studie nimmt zudem ausführlich zu theoretischen Debatten rund um die Postmoderne Stellung. Sie zeigt die argumentativen Unzulänglichkeiten postmoderner Positionen und ihrer Anwendungen auf und arbeitet Argumente für einen maßvollen Realismusbegriff sowie gegen die Tendenz heraus, "that extra edge of consciousness" (Raymond Williams), welches Menschen zum selbstbestimmten Handeln befähigt, allzu schnell zu verwerfen. In einem weiteren Schritt argumentiert die vorliegende Studie, dass die oben genannten Texte und ihre Figuren nicht nur Unzufriedenheit mit dem postmodernen Leben und dem postmodernen Text beschreiben, sondern dass sie einen Weg aus postmodernen Aporien andeuten, die anfangs als gegebene Realität erscheinen. In der Bewegung weg von postmodernen theoretischen Positionen und deren praktischen Konsequenzen können die Bücher als Reflex eines 'post-postmodernen' Diskurses in der kulturellen Produktion Nordamerikas gelesen werden.
In Europa haben sich im Laufe der vergangenen Jahrhunderte zahlreiche Kriege und Auseinandersetzungen Art abgespielt, die die Menschen und Nationen, ihre Ideologien und Ansichten stark geprägt haben. Gerade im SaarLorLux-Raum, einer grenzüberschreitenden Region im Gebiet von Deutschland, Frankreich, Luxemburg und Belgien, wurden die Grenzen von den Siegermächten immer neu gezogen und verschoben. Heute leben hier Menschen mit sehr verschiedenen kulturellen Hintergründen in einer multikulturellen Gesellschaft zusammen, die aber oftmals stark von einem Nebeneinander und von Unterschieden geprägt ist. Für die Grenzräume haben sich mit dem Konzept "Europa der Regionen", das kleineren räumlichen Einheiten ein Mitwirken bei Entscheidungsprozessen ermöglicht, große Kooperationschancen eröffnet. Von politischer Seite wird der SaarLorLux-Raum oft als "Mitte Europas" (BRÜCHER, QUASTEN, REITEL 1982, S. 13) oder "einzige europäische Kernregion" bezeichnet, in die "besonders hohe Erwartungen gesetzt" (SANTER 1997) werden. Wie aber sieht das Leben jenseits der Politik auf der ganz alltäglichen Ebene aus? Welche Möglichkeiten bieten sich den Menschen, die kulturelle Vielfalt, die Andersartigkeit der Nachbarländer sowie die Vor- und Nachteile hautnah in Alltagssituationen zu erleben? Die Dissertation untersucht, inwieweit die Grenzen in den Köpfen der Menschen auch nach ihrer Öffnung durch das Schengener Abkommen verankert bleiben und ob die Bewohner einer Grenzregion diesen besonderen Lebensraum in ihrem Alltag nutzen und zu grenzüberschreitend agierenden Europäern werden. Dazu werden wahrnehmungsgeographische Forschungsmethoden (mental maps) genutzt und auf das konkrete Beispiel des SaarLorLux-Raumes angewendet. In drei Studien (2000, 2002 und 2006) wurden insgesamt 5865 Schüler und Bewohner in 20 Orten in den vier Ländern zu ihren Vorstellungen vom SaarLorLux-Raum, zu ihrem aktionsräumlichen Verhalten und zu ihrer Abgrenzung der Region befragt. Dabei wurden bewusst grenznahe und grenzferne Standorte ausgewählt wurden, um Unterschiede im Verhalten herauszuarbeiten. Ziel der Analyse ist es, das Leben in der Großregion über den Zeitraum von sechs Jahren zu untersuchen und mit dieser Langzeitstudie Veränderungen beziehungsweise Gemeinsamkeiten im Verhalten der Bewohner herauszuarbeiten. Die Wahrnehmung des Lebens im SaarLorLux-Raum aus der Sicht seiner Bewohner wird herausgearbeitet und -ausgehend von den Ergebnissen- werden Potentiale und Defizite im grenzüberschreitenden Zusammenleben abzuleiten. Die politische und ökonomische Liberalisierung ist seit mehr als einem halben Jahrhundert Realität in Westeuropa. Ob allerdings die sich daraus ergebenden Chancen von den Bewohnern der grenznahen Räume erkannt, erwünscht und erlebt werden, ist Gegenstand der Untersuchungen. Durch die Fokussierung auf die Befragung von Schülern, also den jungen Menschen, die die Zukunft darstellen, wird die Frage beantwortet, ob sich traditionelle und eventuell auch eingefahrene Sichtweisen von Generation zu Generation übertragen und somit das aktionsräumliche Verhalten beeinflussen und erstarren lassen. Einen Beitrag zu einer funktionierenden Zusammenarbeit leistet die kulturelle und regionale Identität, die dazu beiträgt, dass sich die Menschen über die Grenzen hinaus als Bewohner der gleichen Region definieren. Dabei sollen nicht die Unterschiede, die zwischen den Bewohnern mit unterschiedlichen Nationalitäten bestehen, geleugnet oder verwischt werden. Abschließend werden, losgelöst vom regionalen Beispiel, Möglichkeiten aufgezeigt, wie durch unterschiedliche Initiativen vor allem auf schulischer Ebene zur Stärkung einer gemeinsamen europäischen Identität bei der jungen Bevölkerung beigetragen werden kann. Die Dissertation endet "ausgerichtet auf die Hauptzielgruppe bei den Befragungen- mit dem Entwurf einer Unterrichteinheit zur Stärkung eines grenzüberschreitenden Wir-Gefühls. Der Schulunterricht kann einen Beitrag dazu leisten, dass die zukünftigen Generationen ein tieferes Bewusstsein für das Zusammenleben im Grenzraum und in Europa erhalten.
For the period 1927 to 1935 this research work focuses on the ideologies and propaganda organisations aiming at the global propagation of their specific view on fascism. The book is meant as a contribution to the history of Fascist ideology as well as to the history of Fascist organisations. Corresponding to the ideological indefiniteness of Mussolini's regime and its institutional experimentation those approaches interpreting Fascism as a universal phenomenon and striving for its dissemination beyond the Italian borders were themselves polymorphic and diffuse. They merely shared imperialistic ambitions either in terms of imperialismo spirituale or with regard to the conquest of foreign territories. The first part of the book conceived as a history of ideologies studies the diverse approaches to Fascist universalism against the background of the evolvement of a Fascist cultura. In the second part non-governmental organisations directed towards Fascist propaganda abroad and their development in interdependence with the formation of a national propaganda system are analysed.
Vor dem Hintergrund mehrerer Jahrhunderthochwasser im letzten Jahrzehnt werden Aspekte des präventiven (dezentralen) Hochwasserschutzes diskutiert. Dabei wird die gegenwärtige Intensität der Landnutzung mit einem verringerten Retentionsvermögen der Landschaft in Verbindung gebracht; in Extensivierungsmaßnahmen wird ein entsprechendes Potenzial zur Vermeidung von Hochwasserrisiken gesehen. Dabei ist zu beachten, dass einerseits hydrologische Simulationsmodelle zur Bewertung möglicher Landnutzungsszenarien eingesetzt werden, andererseits aber auf wissenschaftlicher Seite Defizite beim grundlegenden Erkenntnisstand über die Abflussbildung zu konstatieren sind. Der Fokus der vorliegenden Arbeit lag auf der grundlegenden Prozessforschung zur Abflussbildung in der Mikroskale und griff methodisch die Forderung nach mehr Erkenntnissen aus Geländeuntersuchungen auf. Hierzu wurden Beregnungsversuche und bodenkundliche Untersuchungen in zwei unterschiedlichen Einzugsgebieten der Trier-Bitburger Mulde durchgeführt, wodurch die substratbedingten dominanten Abflussbildungsprozesse identifiziert werden konnten. Bei dem schluffig-sandigen Substrat war die hohe texturbedingte Grobporosität für die Tiefensickerung entscheidend. Für das lehmig-tonige Substrat hingegen waren laterale Fließprozesse entlang von Regenwurmröhren über dichten Unterböden charakteristisch. Die Landnutzung führte zur Modifikation des substratspezifischen Abflussprozesses, indem sie vor allem Einfluss auf die Infiltrationseigenschaften der Bodenoberfläche nahm. Die hohe Verschlämmungsneigung des schluffig-sandigen Substrates führte zu Oberflächenabfluss unter Ackernutzung. Auf extensiv genutzten Grünlandstandorten hatte ein dichtes Geflecht von Feinwurzeln, abgestorbener Blattbiomasse und Moosen eine deutliche Reduktion der Infiltration zur Folge, so dass Oberflächenabfluss als dominanter Prozess auftrat. Auch Wälder verfügen nicht unweigerlich über ein großes Retentionsvermögen, wenn sie auf Ungunststandorten verbreitet sind. Auf dem untersuchten lehmig-tonigen Substrat wiesen die flachgründigen Waldstandorte die höchsten Abflusskoeffizienten an Subsurface Flow auf. Um die Abflussprozesse eines Landschaftsausschnittes zu charakterisieren, wurden quantifizierbare Kriterien zur flächendistributiven Ausweisung dominanter Einflussfaktoren auf die Abflussprozessbildung in einem Entscheidungsbaum zusammengefasst. Hierdurch können räumlich homogene Einheiten von hydrologischen Prozessen oder Komponenten des Wasserhaushaltes ausgewiesen werden. Die Identifikation von Abflussprozessen am Ort ihrer Entstehung ermöglicht die Planung flächenbezogener Maßnahmen des dezentralen Hochwasserschutzes
Religiosität der Gegenwart ist geprägt durch Vielfalt und Individualisierung. Wie kann man sie systematisch beschreiben? Was sind ihre Ausdrucksformen? Welche Lebensbedeutungen werden mit den verschiedenen Religiositäten verknüpft? Mit impliziter Religiosität wird ein weit gefasstes Religiositätskonstrukt vorgestellt, das verborgene Formen der Religiosität zu identifizieren vermag. Grundlage ist die Entwicklung einer interdisziplinären Theorie, die drei universalreligiöse Komponenten postuliert: Mythos, Rituale und Transzendierungserlebnisse. Die Komponenten werden mit Blick auf ihre Deutungsgeschichte, ihre Aktualität und psychologische Bedeutung dargestellt und als Ausdrucksformen von Sinnstiftung untersucht. Im Rahmen einer qualitativen Erhebung werden sie empirisch mit Inhalten und subjektiven Bedeutungen angereichert. Anhand der Inhalte erfolgt eine phänomenologische Darstellung impliziter Religiosität(en), deren Grundgerüst aus einer statistischen Datenanalyse abgeleitet wird. Die in der Erhebung identifizierten Lebensbedeutungen werden psychometrisch erfassbar gemacht und der resultierende Fragebogen zu Lebensbedeutungen (LeBe) ausführlich dargestellt. Er erlaubt die reliable und valide Erfassung einer breiten Palette von Lebensbedeutungen sowie der subjektiv erlebten Sinnerfüllung. Von besonderem Interesse sind nicht zuletzt die Beziehungen zwischen Sinnerfüllung, Lebensbedeutungen und Persönlichkeit. Ergebnisse einer Fragebogenstudie weisen darauf hin, dass Persönlichkeitseigenschaften nur moderat mit dem Ausmaß der Sinnerfüllung korrelieren, dass aber enge Zusammenhänge zu den verwirklichten Lebensbedeutungen bestehen. Das vorliegende Werk stellt theoretische wie auch praktische Ansätze vor, die eine systematische Erhellung der Religiosität der Gegenwart ermöglichen. Obwohl diese bisher vor allem als idiosynkratisch und beliebig angesehen wurde, kann gezeigt werden, dass auch neue Formen der Religiosität sich in Denk-, Verhaltens- und Erlebensmustern ausdrücken, die als typisch für traditionelle, explizite Religiosität gelten. Weit entfernt davon, reiner Modetrend zu sein, dient implizite Religiosität dem Ausleben und Ausdruck persönlich relevanter Lebensbedeutungen. Auch wenn Blickwinkel und Methodik des Buches vorwiegend psychologisch geprägt sind, können doch auch Leser mit soziologischem, theologischem oder kulturwissenschaftlichem Interesse von den Erkenntnissen profitieren.
The thesis deals with online publication on the internet, particularly from a media science specific point of view. Based on a reflexion of both advantages and disadvantages of electronic publication for the World Wide Web (WWW), it makes a fresh attempt at finding solutions for information storing as well as for user-adaptive, hypertextual information presentation. These solutions and techniques should not depend on the final screen design. Rather, the focus is on how to use the WWW-specific means of communication for the access on digital information. The goal is to generate dynamic web documents, based on structured hypertext units and using technology like XML-related markup languages and metadata. A central issue is the modelling of the man-machine-dialogue: How can simple man-machine-interaction within information systems be developed so that any reader becomes an active communicator? How can individual user characteristica be determined and processed for user-adaptive online-representation? Areas of application are online reference books, journals, documentations, information systems and e-learning systems. The thesis refers on the grammatical information system GRAMMIS, located at the Institute for German Language in Mannheim. In this way, practical questions and solutions can be directly evaluated on a real-world system.
In dieser Arbeit präsentieren wir einen systematischen Ansatz zur Multithread Implementierung von Divide und Conquer sowie inkrementellen Algorithmen. Wir stellen für beide Kategorien von Algorithmen ein Framework vor. Beide Frameworks sollen die Behandlung von Threads erleichtern, die Implementierung von parallelen Algorithmen beschleunigen und die Rechenzeit verringern. Mit Hilfe der Frameworks parallelisieren wir beispielhaft zahlreiche Algorithmen insbesondere aus dem Bereich Computational Geometry, unter anderem: Sortieralgorithmen, konvexe Hülle Algorithmen und Triangulierungen. Der Programmcode zu diese Arbeit ist in C++ unter Verwendung templatisierter Klassen implementiert und basiert auf der LEDA Bibliothek.
Im querschnittlichen Vergleich zwischen 10- bis 18-jährigen Mädchen mit Major Depression und gleichaltrigen gesunden Probandinnen wiesen die depressiven Mädchen mehr Probleme, mehr körperliche und psychische Stresssymptome, erhöhte Cortisolsekretion sowie eine ungünstigere Stressverarbeitung auf. Im Längsschnitt zeigte sich die Bedeutsamkeit von psychischer Stressbelastung und der Einfluss von Bewältigungsstrategien auf den Verlauf der Depression.
Diese Dissertationsschrift befasst sich mit der Erforschung des motorischen Gedächtnisses. Wir gehen der Frage nach, ob sich dort Analogien zu im deklarativen Gedächtnis bekannten kontextuellen und inhibitorischen Effekten finden lassen.
Der erste von drei peer reviewed Artikeln setzt sich mit der generellen Bedeutung von externen Kontextmerkmalen für einen motorischen Gedächtnisabruf auseinander. Wir veränderten zwei verschiedene Sätze motorischer Sequenzen entlang einer hohen Zahl entsprechender Merkmale. Signifikant unterschiedliche Erinnerungsleistungen wiesen auf eine Kontextabhängigkeit motorischer Inhalte hin. Die Erinnerungsleistung variierte entlang der seriellen Output-Position. Bei einem Kontextwechsel blieb die Erinnerungsleistung über den Abrufverlauf nahezu stabil, bei Kontextbeibehaltung fiel diese schnell signifikant ab.
Beide weiteren peer reviewed Artikel wenden sich dann der Inhibition motorischer Sequenzen zu. Im zweiten Artikel begutachten wir drei Sätze motorischer Sequenzen, die wir mit verschiedenen Händen ausführen ließen, auf ein selektives gerichtetes Vergessen. Die Vergessen-Gruppe zeigte dies nur, wenn für Satz Zwei und Drei dieselbe Hand benutzt wurde und somit ein hohes Interferenzpotenzial zwischen diesen Listen bestand. War dieses im Vergleich niedrig, indem beide Sätze mit verschiedenen Händen auszuführen waren, trat kein selektives gerichtetes Vergessen auf. Das deutet auf kognitive Inhibition als wirkursächlichen Prozess.
Im dritten Artikel schließlich untersuchen wir Effekte willentlicher kognitiver Unterdrückung sowohl des Gedächtnisabrufs als auch des Ausführens in einer motorischen Adaptation des TNT (think/no-think) – Paradigmas (Anderson & Green, 2001). Waren die Sequenzen in Experiment 1 anfänglich stärker trainiert worden, so zeigten willentlich unterdrückte (no-think) motorische Repräsentationen eine deutliche Verlangsamung in deren Zugänglichkeit und tendenziell auch in der Ausführung, - im Vergleich zu Basisraten-Sequenzen. Waren die Sequenzen in Experiment 2 dagegen nur moderat trainiert, wurden diese auch schlechter erinnert und deutlich verlangsamt ausgeführt. Willentliche kognitive Unterdrückung kann motorische Gedächtnisrepräsentation und deren Ausführung beeinflussen.
Unsere drei Artikel bestätigen motorische Analogien bekannter Kontext- und Inhibitionseffekte im deklarativen Gedächtnis. Wir führen ein selektives gerichtetes Vergessen motorischer Inhalte eindeutig auf Inhibition zurück und bestätigen darüber hinaus Effekte der willentlichen Unterdrückung motorischer Gedächtnisrepräsentation.
Das 19. Jahrhundert ist besonders im Rheinland durch eine außergewöhnliche Produktivität im Bereich des Kirchenbaues gekennzeichnet. Der starke wirtschaftliche Aufschwung und ein damit einhergehendes Bevölkerungswachstum veranlasste viele Gemeinden, ihre Kirchen zu erweitern oder aber die zum Teil baufälligen mittelalterlichen Pfarrkirchen durch Neubauten zu ersetzen. Diese umfangreichen Baumaßnahmen im Bereich der Sakralarchitektur stellte die wissenschaftliche Aufarbeitung und die Denkmalpflege aufgrund der Anzahl der zu bearbeitenden Objekte vor eine schwierige Aufgabe. Da viele Kirchenbauten des 19. Jahrhunderts das Aussehen der wachsenden Ortschaften mitbestimmt haben, ist ihre baugeschichtliche Dokumentation eine wichtige Voraussetzung für das Verständnis und die Erhaltung dieser, die Pfarrgemeinden prägenden Zeitdokumente. Durch die Erstellung eines Werkkatalogs der Kirchenbauten der Architekten Carl Rüdell und Richard Odenthal, wird ein Baustein zur Inventarisierung und Aufarbeitung in diesem Bereich geliefert. Zum ersten Mal liegt ein solcher nun sowohl für die Erweiterungsbauten als auch für die Neubauten im Bereich der Sakralarchitektur des bislang vor allem als Kölner Maler bekannten Carl Rüdell (1855 " 1939) in der Architektengemeinschaft mit dem weithin unbekannten Richard Odenthal (1855 " 1919?) vor. Das Duo arbeitet im letzten Drittel des 19. bis in das erste Jahrzehnt des 20. Jahrhunderts. Die vorliegende Arbeit analysiert die stilistischen Merkmale im Oeuvre der beiden Architekten, beleuchtet im werkimmanente Vergleich die Zusammenhänge zwischen den einzelnen Kirchenbauprojekten, klärt Fragen zur Baukonstruktion und Materialästhetik und bewertet die historische Bedeutung von Rüdell und Odenthal für den Kirchenbau ihrer Zeit. Dass Hinzuziehen von architektonischen Vorbildern bereichert die Analyse der Kirchbauten. Der Werkkatalog und die genau kunsthistorische Betrachtung wird ergänzt um Kapitel zur Wirtschafts- und Firmengeschichte des Büros Rüdell&Odenthal. Die Dissertation schließt somit an die intensive Forschungsdiskussion zur sakralen architektonischen Hinterlassenschaft des 19. Jahrhunderts an.
Das Ziel dynamischer Mikrosimulationen ist es, die Entwicklung von Systemen über das Verhalten der einzelnen enthaltenen Bestandteile zu simulieren, um umfassende szenariobasierte Analysen zu ermöglichen. Im Bereich der Wirtschafts- und Sozialwissenschaften wird der Fokus üblicherweise auf Populationen bestehend aus Personen und Haushalten gelegt. Da politische und wirtschaftliche Entscheidungsprozesse meist auf lokaler Ebene getroffen werden, bedarf es zudem kleinräumiger Informationen, um gezielte Handlungsempfehlungen ableiten zu können. Das stellt Forschende wiederum vor große Herausforderungen im Erstellungsprozess regionalisierter Simulationsmodelle. Dieser Prozess reicht von der Generierung geeigneter Ausgangsdatensätze über die Erfassung und Umsetzung der dynamischen Komponenten bis hin zur Auswertung der Ergebnisse und Quantifizierung von Unsicherheiten. Im Rahmen dieser Arbeit werden ausgewählte Komponenten, die für regionalisierte Mikrosimulationen von besonderer Relevanz sind, beschrieben und systematisch analysiert.
Zunächst werden in Kapitel 2 theoretische und methodische Aspekte von Mikrosimulationen vorgestellt, um einen umfassenden Überblick über verschiedene Arten und Möglichkeiten der Umsetzung dynamischer Modellierungen zu geben. Im Fokus stehen dabei die Grundlagen der Erfassung und Simulation von Zuständen und Zustandsänderungen sowie die damit verbundenen strukturellen Aspekte im Simulationsprozess.
Sowohl für die Simulation von Zustandsänderungen als auch für die Erweiterung der Datenbasis werden primär logistische Regressionsmodelle zur Erfassung und anschließenden wahrscheinlichkeitsbasierten Vorhersage der Bevölkerungsstrukturen auf Mikroebene herangezogen. Die Schätzung beruht insbesondere auf Stichprobendaten, die in der Regel neben einem eingeschränktem Stichprobenumfang keine oder nur unzureichende regionale Differenzierungen zulassen. Daher können bei der Vorhersage von Wahrscheinlichkeiten erhebliche Differenzen zu bekannten Totalwerten entstehen. Um eine Harmonisierung mit den Totalwerten zu erhalten, lassen sich Methoden zur Anpassung von Wahrscheinlichkeiten – sogenannte Alignmentmethoden – anwenden. In der Literatur werden zwar unterschiedliche Möglichkeiten beschrieben, über die Auswirkungen dieser Verfahren auf die Güte der Modelle ist jedoch kaum etwas bekannt. Zur Beurteilung verschiedener Techniken werden diese im Rahmen von Kapitel 3 in umfassenden Simulationsstudien unter verschiedenen Szenarien umgesetzt. Hierbei kann gezeigt werden, dass durch die Einbindung zusätzlicher Informationen im Modellierungsprozess deutliche Verbesserungen sowohl bei der Schätzung der Parameter als auch bei der Vorhersage der Wahrscheinlichkeiten erzielt werden können. Zudem lassen sich dadurch auch bei fehlenden regionalen Identifikatoren in den Modellierungsdaten kleinräumige Wahrscheinlichkeiten erzeugen. Insbesondere die Maximierung der Likelihood des zugrundeliegenden Regressionsmodells unter der Nebenbedingung, dass die bekannten Totalwerte eingehalten werden, weist in allen Simulationsstudien überaus gute Ergebnisse auf.
Als eine der einflussreichsten Komponenten in regionalisierten Mikrosimulationen erweist sich die Umsetzung regionaler Mobilität. Gleichzeitig finden Wanderungen in vielen Mikrosimulationsmodellen keine oder nur unzureichende Beachtung. Durch den unmittelbaren Einfluss auf die gesamte Bevölkerungsstruktur führt ein Ignorieren jedoch bereits bei einem kurzen Simulationshorizont zu starken Verzerrungen. Während für globale Modelle die Integration von Wanderungsbewegungen über Landesgrenzen ausreicht, müssen in regionalisierten Modellen auch Binnenwanderungsbewegungen möglichst umfassend nachgebildet werden. Zu diesem Zweck werden in Kapitel 4 Konzepte für Wanderungsmodule erstellt, die zum einen eine unabhängige Simulation auf regionalen Subpopulationen und zum anderen eine umfassende Nachbildung von Wanderungsbewegungen innerhalb der gesamten Population zulassen. Um eine Berücksichtigung von Haushaltsstrukturen zu ermöglichen und die Plausibilität der Daten zu gewährleisten, wird ein Algorithmus zur Kalibrierung von Haushaltswahrscheinlichkeiten vorgeschlagen, der die Einhaltung von Benchmarks auf Individualebene ermöglicht. Über die retrospektive Evaluation der simulierten Migrationsbewegungen wird die Funktionalität der Wanderdungskonzepte verdeutlicht. Darüber hinaus werden über die Fortschreibung der Population in zukünftige Perioden divergente Entwicklungen der Einwohnerzahlen durch verschiedene Konzepte der Wanderungen analysiert.
Eine besondere Herausforderung in dynamischen Mikrosimulationen stellt die Erfassung von Unsicherheiten dar. Durch die Komplexität der gesamten Struktur und die Heterogenität der Komponenten ist die Anwendung klassischer Methoden zur Messung von Unsicherheiten oft nicht mehr möglich. Zur Quantifizierung verschiedener Einflussfaktoren werden in Kapitel 5 varianzbasierte Sensitivitätsanalysen vorgeschlagen, die aufgrund ihrer enormen Flexibilität auch direkte Vergleiche zwischen unterschiedlichsten Komponenten ermöglichen. Dabei erweisen sich Sensitivitätsanalysen nicht nur für die Erfassung von Unsicherheiten, sondern auch für die direkte Analyse verschiedener Szenarien, insbesondere zur Evaluation gemeinsamer Effekte, als überaus geeignet. In Simulationsstudien wird die Anwendung im konkreten Kontext dynamischer Modelle veranschaulicht. Dadurch wird deutlich, dass zum einen große Unterschiede hinsichtlich verschiedener Zielwerte und Simulationsperioden auftreten, zum anderen aber auch immer der Grad an regionaler Differenzierung berücksichtigt werden muss.
Kapitel 6 fasst die Erkenntnisse der vorliegenden Arbeit zusammen und gibt einen Ausblick auf zukünftige Forschungspotentiale.
Virtuelle Umgebungen erfreuen sich in den letzten Jahren einer großen Beliebtheit und können kontinuierlich wachsende Nutzerzahlen vorweisen. Deshalb wird erwartet, dass die ohnehin große Nutzergemeinde weiterhin wächst. Dieses Wachstum stellt jedoch die Entwickler und die Betreiber von virtuellen Umgebungen vor eine Herausforderung. Die meisten heutzutage erfolgreichen virtuellen Umgebungen basieren auf einer Client-Server-Infrastruktur, in der der Server für die Verwaltung der gesamten Umgebung zuständig ist. Bei einer gleichzeitigen Inanspruchnahme durch viele Nutzer werden die serverbasierten Umgebungen jedoch massiven Skalierbarkeits- und Lastverteilungsproblemen ausgesetzt. Diese Probleme führen beispielsweise dazu, dass Nutzer Wartezeiten beim Einloggen in Kauf nehmen müssen bzw. selbst im Falle eines erfolgreichen Logins die "überfüllten" virtuellen Regionen nicht betreten dürfen. Deshalb wird in dieser Arbeit untersucht, ob eine Verbesserung der Skalierbarkeit und der Lastverteilung in virtuellen Umgebungen durch die Verwendung alternativer Infrastrukturansätze erreicht werden kann. Außerdem werden Maßnahmen zur weiteren Entlastung der Basis-Infrastruktur entwickelt. Diese Verbesserung soll zum einen dadurch erzielt werden, dass anstelle eines Servers ein Server-Verbund (Peer-to-Peer-System) als eine Art Management-Schicht agieren soll, in der jeder Knoten nur einen bestimmten Teil der virtuellen Umgebung verwaltet. Dabei wird die gewünschte Lastverteilung durch die Aufteilung der Verantwortungsbereiche auf die Knoten der Management-Schicht erreicht. Gleichzeitig entsteht aber ein Mehraufwand für die Konstruktion bzw. Erhaltung einer solchen Management-Schicht. Deshalb werden in dieser Arbeit die Vor- und Nachteile eines Infrastrukturwechsels hin zu dezentralisierten Infrastruktur-Ansätzen untersucht. Zum anderen wird eine spürbare Entlastung der Management-Schicht und somit eine Verbesserung der Skalierbarkeit und der Lastverteilung durch die Übertragung einiger Verwaltungsaufgaben an die Clients angestrebt. Zu diesen Verwaltungsaufgaben zählen die Gruppenkommunikation und das Konsistenz-Handling. Dazu wird in dieser Arbeit erforscht, inwiefern die Clients, die sich innerhalb derselben virtuellen Region befinden, selbst die Gruppenkommunikation über eine Multicast-Infrastruktur regeln können bzw. in die Wahrung der Konsistenz eines gemeinsamen Zustandes und der gemeinsam genutzten Objekte involviert werden können. Bei dem clientbasierten Konsistenz-Handling sollte vor allem auf die besonderen Interaktivitäts- und Konsistenzanforderungen, die Nutzer an die virtuellen Umgebungen stellen, geachtet werden. Dazu wird ein neues Konsistenzmodell definiert, welches die Einhaltung der strengen Interaktivitätsanforderungen erzwingt und die Konsistenz mit einer bestimmten Wahrscheinlichkeit garantieren kann.
Anlass dieser vorliegenden Arbeit ist die genannte Reformierung der Lehrerausbildung in Deutschland im Zusammenhang mit der europäischen Bologna-Reform an den Universitäten und pädagogischen Hochschulen während der letzten zehn Jahre. Nach einer Auseinandersetzung mit den Zielen und den daraus resultierenden Reformbestrebungen wird der Fokus der Forschungsarbeit auf das Bundesland Rheinland-Pfalz gerichtet, um dort das Duale Studien- und Ausbildungskonzept für angehende Lehrerinnen und Lehrer genauer zu beleuchten. Die Vorgehensweise der Forschungsarbeit gliedert sich in drei Bereiche. Auf der einen Seite wird durch die Arbeit die strukturelle Umsetzung der Lehrerausbildungsreform an den vier Universitäten in Rheinland-Pfalz (Kaiserslautern, Koblenz-Landau, Mainz und Trier) transparent gemacht. Dieser Schritt ist erforderlich, um zunächst den Ist-Stand der Ausbildung im Fach Geographie zu erfassen und damit sowohl die Gemeinsamkeiten als auch die spezifischen Merkmale der einzelnen Studienstandorte abbilden zu können. Eine sich anschließende Befragung der Studierenden liefert als Ergänzung zur ermittelten deskriptiven Grundlage zur Studiensituation weitere Erkenntnisse aus den Bereichen der Modularisierung des Studiums, der fachlichen und fachdidaktischen Grundlagenvermittlung, den praktischen Studienanteilen und der eigenen Kompetenzeinschätzung. Die Rückmeldungen der Experten, die das Reformkonzept an den Standorten landesweit umsetzen, geben im Rahmen dieser Arbeit weitere ergänzende Impulse. Gerade im Hinblick auf die Diskussion um die Stärken und Schwächen der bisher umgesetzten Reformziele und die Einschätzung zu den Entwicklungsmöglichkeiten können direkte Rückmeldungen der Akteure aus der ersten und zweiten Phase der Ausbildung wichtige Ergänzungen liefern. Dazu werden einige Ergebnisse der Experteninterviews zusammenfassend dargestellt. Abschließend werden wesentliche Schlussfolgerungen der gesamten Forschungsarbeit, insbesondere Empfehlungen für zukünftige Entwicklungsperspektiven und Forschungsfelder dargelegt.
Ziel der vorliegenden Forschungsarbeit war es, den Einfluss des dispositionellen Bedürfnisses nach kognitiver Geschlossenheit (NCC) auf Entscheidungen unter Unsicherheit zu untersuchen. Es wurde vorhergesagt, dass NCC Entscheidungsphänomene moderiert, die sich durch unterschiedliche Ausmaße an Unsicherheit kennzeichnen. Um diese Annahme zu testen, wurden im Rahmen dreier Studien klassische Entscheidungsprobleme vorgegeben, die eine Wahl zwischen Entscheidungsalternativen mit unterschiedlichen Ausmaßen an Unsicherheit, aber gleichem Erwartungswert erforderten. Studien 1 bis 3 untersuchten den Einfluss des NCC auf den fundamentalen Ambiguitätsaversionseffekt im Ellsberg-Paradigma (Ellsberg, 1961). Hierzu wurde eine Adaption des klassischen Zwei-Farben-Urnenproblems vorgegeben, in dem eine Wahl zwischen einer Urne mit bekanntem Risiko und einer ambiguen Urne getroffen werden musste. Hypothesenkonform erwies sich NCC als signifikanter Prädiktor der Urnenwahl. Einzelanalysen zeigten, dass der Ambiguitätsaversionseffekt, der als Präferenz der bekannten (versus der ambiguen) Urne definiert ist, nur in der Gruppe mit hohem NCC auftrat. In der Gruppe mit niedrigem NCC zeigte sich keine systematische Präferenz. Dieser Effekt konnte in allen drei Studien nachgewiesen werden und erwies sich somit als besonders robust und reliabel. Zudem wurde in der dritten Studie der Einfluss des NCC auf Risikoframingeffekte im Asian-Disease-Paradigma untersucht. Hierbei mussten sich die Teilnehmer und Teilnehmerinnen zwischen einer sicheren und einer riskanten Option entscheiden, die in zwei kontextuellen Bedingungen dargeboten wurden: einem Gewinnframe und einem Verlustframe. Die Ergebnisse dieser Studie zeigten, dass sich Individuen mit einem hohen und einem niedrigen NCC in ihren Präferenzen in Abhängigkeit vom jeweiligen Problemframe unterschieden. In der Gruppe mit einem hohen NCC zeigte sich unter Gewinnframing eine starke Präferenz der sicheren Alternative (Risikovermeidung), wohingegen unter Verlustframing keine Option bevorzugt wurde. Individuen mit einem niedrigen NCC wiesen hingegen unter Gewinnframing keine systematische Präferenz auf, wohingegen sie unter Verlustframing stark die riskante Option bevorzugten. Zudem zeigte eine Betrachtung des Verhaltens über die untersuchten Entscheidungsprobleme hinweg, dass Individuen mit einer starken Ausprägung auf dieser Variablen dazu neigten, sich über die untersuchten Entscheidungssituationen hinweg konsistent zu verhalten. Insgesamt unterstützen die Ergebnisse die Annahme, dass NCC eine Persönlichkeitsvariable darstellt, die Entscheidungsverhalten unter Unsicherheit bedeutsam beeinflusst. Implikationen und Konsequenzen dieser Ergebnisse werden diskutiert.
Gewährleistung 4.0
(2021)
Ist das bestehende Rechtssystem auf technischen Fortschritt vorbereitet?
Gunnar Schilling untersucht diese Frage mit Blick auf die automatisierte Abwicklung von Gewährleistungsrechten. Er nimmt eine Analyse des geltenden Rechtsrahmens vor und schlägt schließlich ein separates Regelungsregime
für automatisierte Kaufverträge vor.
Es zählt zu den Gemeinplätzen der sozialwissenschaftlichen Forschung, dass politische Wirklichkeit sozial konstruiert ist. Wenig wissen wir hingegen darüber, wie politische Wirklichkeit entsteht, insbesondere wie Sprache bewirkt, dass etwas zu einer allgemein akzeptierten politischen Wirklichkeit wird. In Anknüpfung an die bisherige konstruktivistische Forschung rekonstruiert der Band auf methodisch innovative Weise den Gebrauch von Sprachbildern und Metaphern im deutschen Diskurs über den EU-Verfassungsvertrag. Durch die quantitative und qualitative Extrapolation des metaphorischen Sprechens in der Europadebatte lassen sich nicht nur signifikante Veränderungen in den Diskursen der bundesdeutschen Parteien offenlegen, sondern die Einzelmetaphern lassen sich auch zu machtvollen handlungsleitenden Narrativen verdichten. Dass die europäische Verfassungsfrage vor allem eine Frage der demokratischen Legitimation und europäischen Identität, des politischen Gestaltungswillens und der Finalität Europas ist, scheint dabei wenig überraschend. Dass die Frage der Konstitutionalisierung Europas aber auch und gerade ein Diskurs über neue Grenzziehungen und die partielle Schließung "offener Staatlichkeit" ist, kann hingegen als das eigentlich "Neue" in der deutschen Europapolitik angesehen werden.
Aufgrund oftmals erhöhter Arsen- und Schwermetallgehalte in den Oberböden von Auen ist eine Verwertung von Auenböden, zum Beispiel im Rahmen von Renaturierungsmaßnahmen, oftmals schwierig, da keine auenspezifische Bewertungsgrundlage für dieser Stoffgehalte vorliegt.
Am Beispiel der Lippeaue erfolgte auf Grundlage abgeleiteter Haupteinflussfaktoren für die Konzentration von Arsen- und Schwermetallen in den Oberböden die Ableitung von Hintergrundgehalten. Die Metall- und Schwermetallgehalte in den Oberböden der Lippeaue lagen i. d. R. erwartungsgemäß oberhalb der in der Praxis verwendeten Einstufungswerte (z. B. Vorsorgewerte der BBodSchV, Hintergrundwerte von NRW), die sich allerdings auf Standorte außerhalb der Aue beziehen.
Anhand von gewonnen Daten aus Projektarbeiten im Zuge der Umsetzung der EU-Wasserrahmenrichtlinie (z. B. bodenkundliche und ingenieurgeologische Profilaufnahme, bodenmechanische Laborversuche) und ergänzend durchgeführter Untersuchungen, wie z. B. Bodentypenkartierung und mineralogische Untersuchungen, erfolgte eine detaillierte Standortcharakterisierung der Böden in der Lippeaue.
Auf Basis der abgeleiteten Hintergrundgehalte wurden unter Berücksichtigung der ermittelten Bodenkennwerte und Einflussgrößen auenspezifische Einbauregeln abgeleitet. Mit dem Ziel einer praktikablen Anwendbarkeit wurde eine auf die wesentlichen Kenngrößen reduzierte Bewertungsmatrix erarbeitet. Bei geplanten baulichen Eingriffen in den Boden kann nun mit den lippeauenspezifischen Einbauwerten für Arsen und Schwermetalle anhand konventioneller Parameter für jeden Standort ermittelt werden, ob besonders günstige oder ungünstige Bedingungen für einen potenziellen Wiedereinbau vorliegen. Die abgeleiteten Hintergrundgehalte und Einbauwerte verstehen sich dabei als – auf Basis der aktuellen Datenlage abgeleitete – Handlungsempfehlung und Orientierung zur Bewertung von Böden im Hinblick auf einen gebietsübergreifenden Wiedereinbau in der Lippeaue.
Diese Arbeit stellt eine Methodik zur Analyse kundenbezogener Arbeitsanforderungen personenbezogener Dienstleistungen am Beispiel der Verkäufertätigkeit im Einzelhandel vor. Eine Besonderheit der Arbeit ist die Einbeziehung des Kunden als Arbeitsanalytiker. Sie umfasst drei aufeinander aufbauende Studien. In der ersten Studie wurden mit Hilfe von Critical-Incident-Technique-Interviews mit Vorgesetzten (N = 35) und Verkäufern (N = 39) von drei Einzelhandelsvertriebsformen (Warenhaus, SB-Warenhaus, Supermarkt) sowie Kunden (N = 29) erfolgsrelevanten Verhaltensweisen von Verkäufern im Kontakt mit Kunden ermittelt. Darauf aufbauend wurde KAVEK V_VG/VK/K - ein Instrument zur Analyse kundenbezogener Arbeitsanforderungen und -aufgaben von Verkäufern im Einzelhandel " konzipiert und im Rahmen der zweiten Studie in den Stichproben der Vorgesetzten (N = 52), der Verkäufer (N = 157) und der Kunden (N= 511) der genannten Einzelhandelsvertriebsformen erprobt und validiert. Schließlich untersucht die dritte Studie Antezedenten kundenbezogener Arbeitsanforderungen sowie deren Effekte auf die arbeitsbezogenen Einstellungen und Befinden von Verkäufern (N = 155). Die Diskussion der Implikationen der Ergebnisse für die Forschung und Praxis schließt die Arbeit ab.
Die Studie beschäftigt sich mit der kommunalen Armenfürsorge in Galway und Gort,im Westen Irlands und ihrem Einfluss auf die Entwicklung der lokalen Verwaltung. Der zeitliche Rahmen wird von der Einführung der irischen Armengesetzgebung 1838 und der Unabhängigkeit Irlands 1921 bestimmt. Im Mittelpunkt der Arbeit steht die Frage,welche Bedeutung der Armenverwaltung bei der generellen Ausbildung staatlicher Administration in Irland zukam. Im ersten Teil werden zunächst die sozioökonomischen Rahmenbedingungen in Galway und Gort vorgestellt. Die Lage und Größe,aber auch die wirtschaftliche Situation des Untersuchungsgebietes beeinflusste die Arbeitsweise der lokalen Aufsichtsgremien der Armenverwaltung. Von zentraler Bedeutung ist der rechtliche Rahmen,innerhalb dessen die Aufsichtsgremien der Armenverwaltung operierten. Um die "spezifische Ausprägung" der irischen Institutionen der Armenverwaltung zu analysieren,wird der Vergleich zur englischen und schottischen Armengesetzgebung gezogen. Die Studie untersucht jedoch nicht nur die normative Ebene der Armengesetzgebung zwischen 1838 und 1921,sondern beschäftigt sich vor allem mit der alltäglichen Praxis der Verwaltung vor Ort. Im Mittelpunkt stehen dabei die Akteure auf der lokalen und zentralen Ebene: die Board of Guardians und die Poor Law Commission bzw das Local Government Board. Andere lokale Verwaltungseinrichtungen,wie die Grand Juries oder die Town Commissioners,werden in die Betrachtung einbezogen,soweit sie mit den Aufsichtsgremien der Armenverwaltung in Berührung kamen. Dabei werden besonders parallele und/oder konkurrierende Zuständigkeitsbereiche in den Blick genommen. Diese Analyse der Akteure ermöglicht die Untersuchung von Ausdifferenzierungs- und Veränderungsprozessen in der lokalen Verwaltung in Irland. Der zweite Teil der Arbeit untersucht detailliert die Aufsichtsgremien der Armenverwaltung von Galway und Gort in vergleichender Perspektive. Durch den Stadt-Land Vergleich sollen Unterschiede und Gemeinsamkeiten in der personellen Zusammensetzung und der Arbeitsweise der lokalen Aufsichtsgremien der Armenverwaltung herauspräpariert werden. Dabei werden zunächst die (Armen-)Steuerzahler analysiert. Sie wählten einen Teil der Mitglieder der lokalen Armenverwaltung und beeinflussten so die Zusammensetzung der Aufsichtsgremien. Ein Kapitel im zweiten Teil der Arbeit untersucht die Mitglieder der Aufsichtsgremien der Armenadministration. Sozioökonomische, familiäre, religiöse und berufliche Hintergründe sowie Angaben zu anderen Ämtern dienen dazu, deren Auswirkungen auf die Arbeitsweise der Personen in der lokalen Armenadministration zu untersuchen. Wie regelmäßig nahmen die einzelnen Mitglieder an den Sitzungen teil? In diesem Kapitel können nicht alle der erfassten Mitglieder behandelt werden, so dass besonders die Vorsitzenden und ihre Stellvertreter analysiert werden. Weiterhin werden Mitglieder, die einflussreiche politische Funktionsträger waren, untersucht. Ein weiteres Kapitel widmet sich der Professionalisierung der Aufsichtsgremien der Armenadministration in der zeitlichen Entwicklung nach 1838. Es wird der Frage nachgegangen, ob mit der Aufgabenakkumulation über die eigentliche Armenadministration hinaus auch eine Zunahme des Einflusses der Aufsichtsgremien der Armenverwaltungen im Hinblick auf ihr Verhältnis zur Dienststelle in Dublin einherging. Der Kontakt zur zentralen Behörde war sehr ausgeprägt und regelmäßig, so dass die Kommunikation mit der übergeordneten Verwaltungsebene als sehr wichtig angesehen werden kann. Wie wirkten sich die umfassenden Kontroll- und Weisungsbefugnisse auf die Arbeitsweise der lokalen Armenadministration aus und welchen Einfluß hatten diese Befugnisse auf das Kommunikationsverhältnis? Gelang es den Mitgliedern der Armenverwaltung ihren Handlungsspielraum zu erweitern, etwa durch die Nutzung alternativer Kommunikationswege oder in ihrer Aufgabe als politische Funktionsträger? Wie häufig war die Kommunikation mit anderen irischen lokalen Aufsichtsgremien der Armenverwaltung und gab es Kooperationen? Ein weiteres Kapitel im zweiten Teil der Arbeit untersucht den Stellenwert von politischen Themen in den Diskussionen der Aufsichtsgremien der Armenverwaltungen, wobei insbesondere das Spektrum der Diskussionen innerhalb des Board of Guardians analysiert wird. Wie wirkten sich die Auseinandersetzungen um die Landfrage oder die Forderung nach Selbstverwaltung aus? Kam es zu personellen Veränderungen in den Aufsichtsgremien oder veränderten Arbeitsweisen der örtlichen Armenverwaltung? Ein Paragraph dieser Studie geht der Frage nach, ob und inwieweit die Board of Guardians mit anderen lokalen Apparaten vernetzt waren, anhand des Beispiels der Verflechtungen von Medizin und Armenadministration.
Welche Ziele verfolgen Forscher/innen in interdisziplinären Kooperationen mit welchen Handlungen und unter welchen Bedingungen? Ausgehend von dieser Frage ergänzt diese Arbeit die Wissenschaftsforschung zur Interdisziplinarität und die psychologische Forschung zur handlungsleitenden Wissensbasis langfristiger Vorhaben. Mentale Modell von Handlungsstrategien werden aufbauend auf kognitiven und handlungstheoretischen Ansätzen als kognitiv-motivationale Aggregate von Ziel-, Handlungs- und Bedingungswissen konzipiert. Derartige Handlungsstrategien können als Wissensrepräsentationen zur Planung, Regulation und Bewertung des Handelns genutzt werden. Zur theoriegeleiteten Erhebung von Handlungsstrategien wird die Struktur-Lege-Technik Action Strategy Mapping (ASM) neu entwickelt und empirisch validiert. Die ASM-Technik erweist sich als sehr praktikabel, gut erlernbar sowie qualitativ reliable und valide zur Repräsentation handlungsleitenden Wissens im Rahmen eines teilstrukturierten Interviews. Die Analysen der in drei Sonderforschungsbereichen bei 57 Wissenschaftler/innen erhobenen Handlungsstrategien interdisziplinärer Forschungskooperation belegen empirisch sehr heterogene aufgabenbezogene, koorientierte und persönliche Ziele. Der kommunikative Austausch bestätigt sich als zentrale und besonders häufige Handlung interdisziplinärer Kooperation. Die Interdependenz der Handlungsstrategien hängt zudem mit der Projektinterdependenz der Forscher/innen zusammen. Ein Vergleich der Handlungsstrategien von Forscher/innen mit hoher, mittlerer und niedriger Projektinterdependenz zeigt mehrere Zusammenhänge: Bei mittlerer Interdependenz korrelieren inhaltliche und strukturelle Merkmale der Handlungsstrategien positiv mit dem selbst berichteten Erfolg. Bei hoher und niedriger Projektinterpendenz zeigen sich aber negative Zusammenhänge mit dem Erfolg. Die Ergebnisse werden diskutiert im Hinblick auf den Einsatz der ASM-Technik als Diagnose- und Reflexionsmethode sowie inhaltlich auf ihre Bedeutung für das Management interdisziplinärer Forschungskooperation in Sonderforschungsbereichen, insbesondere einer zweckmäßigen Kommunikation und Interdependenz der Wissenschaftler/innen.
The increase in recreational leisure during the last century and the increase in the individual mobility since the sixties have induced growing travel activities as well as a growing demand for recreation in a natural environment. Politically the demand for recreational leisure is regarded as a fundamental part of human life and is legally embedded as inherent goal of nature resorts besides nature conservation. Following new pedagogic principles man should get familiar with the environment in order protect nature in the long-run. Taking the bicycle concept of the nature resort Saar-Hunsrück with special emphasis on the St. Wendel country as an example the bicycle tourism which fulfils the principles of sustainability is analysed with regard to the acceptance by the tourists. Scenic and historical attractions of the area are deliberately taken into account in the design of the bicycle routes. By analysing the results of a survey it is the objective to work out applicable results for the design of routes and systems of orientation. Moreover it is the objective of a special survey on mountain bikers to answer the question on how this extreme type of biking could be incorporated in the supply of recreational activities of the nature resort and whether it can contribute to a growing environmental sensitivity.
Gegenstand dieser Studien ist die elektronische Version der Erstausgabe der Deutschen Wörterbuchs von Jacob Grimm und Wilhelm Grimm (=DWB). Auf verschiedenen Ebenen werden dabei die Möglichkeiten einer solchen elektronischen Wörterbuchversion für eine Reihe metalexikographischer Fragestellungen genutzt, und es wir gezeigt, dass vorher unmögliche oder nur mit unvertretbarem Aufwand durchführbare Untersuchungen nun durchführbar werden. Weiterhin wird gezeigt, dass die in der Metalexikographie bisher üblichen Schätzungen und Untersuchungen kleiner Teilabschnitte eines Wörterbuchs, die in der Regel zu Extrapolationen über die Gesamtinhalte von Wörterbüchern dienten, durch die Verfügbarkeit elektronischer Wörterbücher nun durch exaktere Untersuchungen und Ergebnisse ersetzt werden können. Zunächst wird die exakte Anzahl der im DWB aufgenommenen Stichwörter ermittelt - darüber liegen bisher lediglich Schätzungen vor. In einem zweiten Schritt wird der Umfang jedes einzelnen Artikels ds DWB ermittelt. Dies ermöglicht nicht nur Aussagen über die Beschaffenheit von Wörterbüchern und den darin enthaltenen Artikeln, die über einen Vergleich mit anderen Wörterbüchern zu einer ausgewogeneren Darstellung des Wortschatzes in zukünftigen Wörterbüchern führen könnten, sondern ermöglicht auch den gezielten Zugang zu einer bestimmten Gruppe von DWB-Artikeln, die im folgenden Gegenstand der Untersuchung sind - den kurzen Artikeln im DWB. Die systematische metalexikographische Untersuchung einer großen Anzahl von kurzen DWB-Artikeln zeigt schließlich, dass die vielerorts beschworene Heterogenität des DWB zumindest in der Hinsicht zu relativieren ist, indem kurze Artikel größtenteils bestimmten Aufbauprinzipien folgen - und das unabhängig vom Entstehungszeitupunkt des Artikels (Entstehungszeitraum des DWB: über 100 Jahre) - diese Aufbauprinzipien des DWB-Wörterbuchartikels spiegeln sich auch in den umfangreicheren Artikeln, und sie belegen eine Konstante lexikographischer Tätigkeit, die angesichts der immer wieder beschworenen Heterogenität gerade dieses Wörterbuchs (und auch in der gedruckten Version nicht mit vertretbarem Aufwand ermittelbar) bisher nicht wahr genommen worden ist. Den Abschluss der Untersuchungen bildet eine Untersuchung der Gliederungsprinzipien umfangreicher DWB-Artikel. Dabei werden die verschiedenen Bearbeitungsgrundsätze der am DWB beteiligten Lexikographen bei der Artikelgliederung durch Gliederungsmarken offenbar. Die Untersuchungen sollen insgesamt exemplarisch darstellen, welche Möglichkeiten metalexikographischer Untersuchungen sich durch die Verfügbarkeit elektronischer (digitalisierter) Wörterbücher eröffnen.
Ausgehend von der zentralen Fragestellung nach den grenzüberschreitenden Beeinflussungsformen der Aachener Frühindustrialisierung kann in den untersuchten Bereichen der Eisenindustrie und des Maschinenbaus ein umfangreiches Beziehungsgeflecht zwischen dem Lütticher und dem Aachener Raum aufgezeigt werden. Neben wallonischen Unternehmern, die im Aachener Raum alleine oder mit rheinischen Kollegen Betriebe gründeten, kann eine Reihe von wallonischen Ingenieuren, Mechanikern, Hüttentechnikern, Arbeiterhandwerkern und Facharbeitern nachgewiesen werden, deren Bedeutung für den Technologietransfer der Frühindustrialisierung des Aachener Raumes nicht hoch genug eingeschätzt werden kann. Neben den personellen Beeinflussungsformen zeigt sich vor allem in der Eisenindustrie, die bereits in der frühindustriellen Phase durch einen großen Kapitalbedarf gekennzeichnet war, eine führende Rolle belgischer Kapitalisten bei der Finanzierung von Neugründungen und der Erweiterung bestehender Produktionsanlagen in der Betriebsform der Aktiengesellschaft. Insgesamt bewirkte die belgische Beeinflussung der Frühindustrialisierung eine wirtschaftliche Durchlöcherung der staatspolitischen Grenze von 1815. Dabei wurden privatwirtschaftliche Initiativen auf beiden Seiten der Grenze durch zoll- und wirtschaftspolitische Maßnahmen unterstützt.
Nach innen gerichtetes Marketing kann im Rahmen des Destinationsmanagements einen hohen Stellenwert einnehmen, der in der Tourismusliteratur jedoch noch nicht explizit ausgewiesen ist. Mit den beiden Komponenten "internes Marketing" und "Binnenmarketing" bestehen zwei Managementbereiche, die einen großen Einfluss auf die Leistungsfähigkeit einer öffentlichen Tourismusorganisation und einer Destination als strategische Geschäftseinheit besitzen können. Dies bedingt, dass die Modelle begriffen, dann verinnerlicht, mitgetragen und gelebt werden. Doch dazu bedarf es auch bestimmter organisatorischer Voraussetzungen, um die Leistungsfähigkeit im nach innen gerichteten Marketing in einem guten Verhältnis und nach einem stringenten Muster umzusetzen. Damit wird die organisatorische Struktur einer Destination zum entscheidenden Indikator für ihre Wirkung nach innen und außen. Ein durch politische Vorgaben eingeengtes Destinationsmanagement, das sich vorwiegend an politischen Paradigmen orientiert, hat aus marktwirtschaftlichen Gesichtspunkten keine Möglichkeit sich am Markt durchzusetzen. Es wird immer unter seinen Möglichkeiten arbeiten (müssen). Die mittels des nach innen gerichteten Marketings angesetzte Kommunikation und Kooperation mit allen relevanten Anspruchsgruppen ist einer der wichtigsten Schlüssel, um eine destinationsweite Leistungsverbesserung umzusetzen. Fehlen jedoch die Instrumente, die Zeit, die Arbeitskräfte und das Know-how seitens der touristischen Organisationen, wird sich langfristig keine Verbesserung der Leistungsfähigkeit der Destination erreichen lassen. Da die Politik in den Gebietskörperschaften maßgeblichen Einfluss auf die Arbeit der Tourismusorganisationen ausübt und teilweise auch ihre eigenen Organisationen trotz offensichtlich ineffizienter Arbeitsweise protegiert, liegt im Umsetzen eines Strukturwandels ein maßgebliches Problem. Der Wille zur Reform der touristischen Struktur in Deutschland allgemein und in Rheinland- Pfalz speziell ist nur schwach ausgeprägt, weil durch eine Reform des vorhandenen Systems politische Macht auf allen Ebenen verloren gehen würde. Hierbei sind vor allem die zahlenmäßig am stärksten vertretenen Gebietskörperschaften, die Kommunen, angesprochen. Das Beharrungsvermögen wird durch viele kommunale Touristiker sogar noch verstärkt, da jede grundlegende Änderung auch eine - meist nicht gewünschte - Veränderung des Arbeitsplatzes und auch der Arbeitsplatzsicherheit mit sich bringt. Anhand der vorliegenden empirischen Untersuchung zeigen sich viele Schwachstellen im System. Eine Umstrukturierung ist die notwendige Voraussetzung einer grundlegenden Leistungsverbesserung. Hier ist es deshalb die Aufgabe der übergeordneten Organisationen (z.B. DTV, Landesverbände, Regionalagenturen) den Umstrukturierungsprozess voranzutreiben. Dabei muss vor allem auf höchster administrativer Ebene in den Ländern für einen Wandel geworben werden. Ein zielgerichtetes nach innen gerichtetes Marketing, das mittels strategischer Einheiten über ein einheitliches landesweites System implementiert wird, kann wichtige Grundlagen für eine geordnete Umstrukturierung geben. Veränderungen kommen nicht von selbst. Mit Hilfe der Tourismusorganisationen des Untersuchungsgebietes Rheinland-Pfalz lassen sich sukzessive solche Möglichkeiten herbeiführen, die erste Schritte einleiten können. Um relativ schnell einen Wandel einleiten zu können, sollte ein Modellprojekt für ein touristisches interkommunales Verbundsystem in einer rheinland-pfälzischen Region vom Wirtschaftsministerium unterstützt werden. Im Rahmen dieses Modellprojektes können wichtige Informationen gewonnen werden, die sukzessive auch auf andere Regionen übertragen werden können. Die Arbeitsphasenmodelle des internen Marketings und Binnenmarketings können für einen Strukturwandel entscheidende Hilfestellungen geben. Mit dem strikten Anwenden der Modelle werden Schwachstellen in Organisation und Destination aufgedeckt. Damit können effektive Instrumente für ein Change-Management gefunden und bei objektiver Betrachtung der Sachlage zielgerichtet für eine Verbesserung der jeweiligen Situation eingesetzt werden. Das Bilden "Strategischer Einheiten" bietet hierfür eine geeignete Basis. Ohne dass ein genereller Wandel im Denken herbeigeführt wird, werden die meisten öffentlichen Tourismusorganisationen immer unter ihren Möglichkeiten bleiben. Destinationsmanagement muss deshalb als Bewusstseinsmanagement begriffen werden. Der finanzielle Mitteleinsatz und die daraus induzierten Leistungen lassen sich bei genauer Betrachtung nicht mehr rechtfertigen, vor allem mit Hinblick auf die immer schlechter werdende Kassenlage der Gebietskörperschaften. Eine Professionalisierung im öffentlich geförderten Tourismus impliziert auch die Notwendigkeit des Umdenkens bei der Personalstruktur in den touristischen Organisationen. Gefragt sind Persönlichkeiten, die ausgestattet sind mit explizitem Fachwissen, hoher sozialer Kompetenz und ausgeprägter Management- und Entscheidungskompetenz. Für die zukünftige Arbeitsmarktsituation bedeutet dies die Notwendigkeit der Ausbildung von Destinationsmanagern an Universitäten, Fachhochschulen und Berufsfachschulen mit touristischer Ausrichtung, die sich sehr nah an der Praxis orientieren. Hier wäre die Gründung eines touristischen Kompetenz-Zentrums mit Schwerpunkt Destinationsmanagement ein Schritt in die richtige Richtung. Die Zukunftsfähigkeit der öffentlich geförderten Tourismusorganisationen wird entscheidend von eigenen Kompetenzen, ihrer Effizienz und den künftigen Rahmenbedingungen abhängen. Gewinner werden diejenigen Destinationen und deren Organisationen sein, die ihre Struktur durch Reformen so optimieren, dass sie durch ihre Arbeit nach innen und außen ein Höchstmaß an Effizienz und damit an Beachtung und Akzeptanz erreichen. Ein in den Tourismusorganisationen konsequent angewendetes, gezieltes und effizient eingesetztes nach innen gerichtetes Marketing wird hierfür einen entscheidenden Beitrag leisten können.
Auf der Grundlage von bodenphysikalischen Standortdaten wurden mit dem physikalisch basierten Modell CATFLOW Bodenwassergehalte und Abflussprozesse von verschiedenen Standorten im Mesozoikum der Trierer Bucht auf der Plotskale simuliert. Die Standorte unterscheiden sich durch das Ausgangssubstrat der Bodenbildung (lehmig-tonig, schluffig-sandig) und die Landnutzung (Acker, Grünland, Wald). Für die Modellvalidierung standen wöchentliche Bodenwassergehaltsmessungen, monatliche Sickerwassersummen aus Lysimetermessungen und Oberflächen- und Zwischenabflusskurven von Beregnungsversuchen zur Verfügung. Ziel der Arbeit ist es zu untersuchen, inwieweit Retentionseigenschaften, Abflussprozesse und Abflussmengen aus Standortdaten ohne eine weitere Kalibrierung des Modells abgeleitet werden können. Besonderer Wert wird dabei auf die Parametrisierung des Bodens gelegt. Das Modell simuliert den Wassertransport in der Bodenmatrix über die zweidimensionale Richardsgleichung und den schnellen Wassertransport in Makroporen über ein einfaches Bulk-Modell. Daneben werden Oberflächenrauhigkeit, Durchwurzelungstiefe und Vegetationsbedeckung im Jahresgang berücksichtigt. Um den Einfluss von unterschiedlichen Parametrisierungen des Bodens aufzuzeigen, werden verschiedene Parametrisierungsvarianten untersucht. Die van Genuchten/Mualem-Parameter, welche die Retentions- und Leitfähigkeitseigenschaften der einzelnen Bodenhorizonte beschreiben, wurden zum einen über die Bodenart und Trockenrohdichte bestimmt und zum anderen über die Anpassung von Retentionskurven an im Labor bestimmte Punkte der Wasserspannungskurve ermittelt. Die Ergebnisse der Simulationen für die Standorte mit Bodenfeuchtemessung zeigen, dass mit dem Modell der Jahresgang der Bodenfeuchte prinzipiell nachvollzogen werden kann. Jedoch führt keine der drei Parametrisierungsvarianten zu einer eindeutigen Überlegenheit bei der Simulationsgüte. Um neben den üblichen Gütemaßen ein weiteres Kriterium für den Erfolg oder Misserfolg einer Standortsimulation zu gewinnen, wurden die Simulationsergebnisse mit den Messwerten der anderen Standorte verglichen. An vier von zehn Standorten führt der Vergleich der Messwerte mit den Simulationen von anderen Standorten zu einer deutlich besseren Übereinstimmung als die Simulation für diesen Standort. Die Ergebnisse der Simulationen der Lysimeterstandorte zeigen, dass mit dem Makroporenansatz ein schneller Wasserfluss im Sommer nicht simuliert werden kann, da das "Anspringen" der Makroporen im Modellkonzept an den Bodenwassergehalt geknüpft ist. Auch hier wurden die Simulationsergebnisse mit den Messwerten der anderen Standorte verglichen. Für fünf von acht Standorten konnte mit den simulierten Sickerwassermengen von anderen Standorten eine bessere Übereinstimmung erzielt werden. Die Simulation der Sickerwassermenge aus Lysimetern scheint daher auf Grundlage der vorliegenden Datenbasis den jeweiligen Standort nicht in seiner Einzigartigkeit charakterisieren zu können. Die mit den Beregnungsversuchen bestimmten Abflussprozesse konnten für die Mehrheit der 18 Standorte mit dem Modell abgebildet werden. Der Oberflächenabfluss konnte für Standorte, die nicht zur Verschlämmung neigen, unter Berücksichtigung von Infiltrationsdaten sehr gut nachgezeichnet werden. Zwischenabfluss wird zwar simuliert, bleibt aber auf der Plotskale in Dynamik und Abflussmenge hinter dem Realsystem zurück. Mit der Untersuchung konnte gezeigt werden, dass sich sowohl die zeitliche Entwicklung des Bodenwassergehaltes, als auch die gemessenen Abflussprozesse allein über die Standortdaten, ohne eine weitere Kalibrierung des Modells, abbilden lassen. Die Trennschärfe der Modellierung ist bei Standorten mit relativ ähnlicher bodenphysikalischer Ausstattung begrenzt. Andererseits müssen aber auch Messungenauigkeiten, besonders bei der thermogravimetrischen Bestimmung des Bodenwassergehaltes, berücksichtigt werden. Eine standortbezogene Aussage über Retentions- und Abflussverhalten ist über eine Simulation möglich, jedoch bleibt die quantitative Aussagekraft begrenzt.
Ausgangspunkt ist der demographische Wandel und die damit einhergehende älter werdende Erwerbsbevölkerung. Es wird davon ausgegangen, dass aufgrund dieser Entwicklung einige Unternehmen senioritätsorientierte Entgeltstrukturen grundlegend verändern bzw. abschaffen müssen. Es gibt bisher einige wenige theoretische Überlegungen, wie diese veränderten Entgeltstrukturen aussehen könnten. Jedoch wird hierbei nicht berücksichtigt, wie ältere Beschäftigte auf eine derartige Veränderung reagieren könnten. Dieser Frage wird im Rahmen der Dissertation nachgegangen. Ein gesondertes Augenmerk, wird zudem auf die möglichen Reaktionen älterer Arbeitnehmer auf eine Anhebung des Renteneintrittsalters auf 67 Jahre gelegt. Zu diesem Zweck werden aus verschiedenen theoretischen Perspektiven mögliche Verhaltensreaktionen älterer Arbeitnehmer abgeleitet. Grund für die breitangelegte Betrachtung des Sachverhaltes ist die mehrdeutige Bedeutung von Einkommen. Die Höhe der Entlohnung ist nicht nur als Gegenleistung der erbrachten Arbeitsleistung zu sehen, sondern immer auch als Ausdruck von Macht, Prestige, sozialen Status etc. Berücksichtigung finden klassische ökonomische Theorien, Motivationstheorien, Wertwandeltheorien, Theorien zur Arbeitszufriedenheit und Machttheorien. Bei der Behandlung der verschiedenen Theorien wurde des Weiteren der Frage nach alternativen Anreizen zu monetären Anreizen nachgegangen, welche eine spezifische Wirkung auf ältere Arbeitnehmer entwickeln können. Durch eine weiterentwickelte Typologie drei verschiedener Typen der Arbeitsorientierung werden als Ergebnis mögliche Verhaltensreaktionen näher erläutert und auf mögliche alternative Anreize eingegangen.
Diese Untersuchung geht der Frage einer möglichen strukturellen und individuellen Prädisposition des Handwerks für die Umsetzung des Konzepts einer "nachhaltigen Entwicklung" ("sustainable development") nach. Hierzu werden, ausgehend vom globalen Nachhaltigkeitskonzept, Leitlinien für eine Umsetzung auf einer regionalen Ebene abgeleitet. Anhand der betrieblichen Wertschöpfungskette wird überdies die Frage beantwortet, welche Anforderungen eine "nachhaltige Unternehmensentwicklung" an Unternehmen stellt und welche Leitlinien, Ziele und Kriterien in diesem Entwicklungsprozess den Unternehmen als Orientierungsmarken dienen können. Eine umfassende juristische, betriebswirtschaftliche und soziologische Definition des Handwerksbegriffs grenzt den Untersuchungsgegenstand Handwerk insbesondere für die nachfolgende empirische Erhebung bei Entscheidungsträgern in Handwerk und Industrie ab. Zudem werden dabei besondere Merkmale des Handwerks für die nachfolgende Analyse einer möglichen "strukturellen Nachhaltigkeit" des Handwerks herausgearbeitet. Der empirische Hauptteil der Arbeit geht erstens der Frage nach, inwieweit der handwerkliche Produktionstyp Merkmale einer "strukturellen Nachhaltigkeit" aufweist. Nachhaltigkeit in Unternehmen setzt überdies jedoch ein hohes Maß an Engagementbereitschaft für eine nachhaltige Unternehmensentwicklung bei den Entscheidungsträgern in den Unternehmen voraus. Daher wird zweitens in einer quantitativen empirischen Untersuchung an Entscheidungsträgern in Handwerk und Industrie (N=196) aufgezeigt, welche psychologischen, organisationalen und strukturellen Faktoren die Handlungsbereitschaft für eine nachhaltige Unternehmensentwicklung steuern. Hierzu wird ein in der Umweltpsychologie entwickeltes Erklärungsmodell für den betrieblichen Kontext modifiziert, spezifiziert und einer empirischen Prüfung unterzogen. Mit Hilfe multivariater Analysemethoden wird das theoretische Modell der Nachhaltigkeitsbereitschaft statistisch überprüft um die Frage zu beantworten, was die Barrieren und treibenden Faktoren für die Nachhaltigkeitsbereitschaft der Unternehmer sind und ob Entscheidungsträgern in Handwerk und Industrie dabei im Ausmaß Ihrer Nachhaltigkeitsbereitschaft differieren. Wie die Untersuchungen zeigen, bieten Handwerksunternehmen günstige strukturelle Voraussetzungen für die Umsetzung einer nachhaltigen Unternehmensentwicklung. Zudem zeichnet die untersuchten Entscheidungsträger im Handwerk eine gegenüber den Entscheidungsträgern in der Industrie signifikant höhere Bereitschaft für eine nachhaltige Unternehmensentwicklung aus. Die Voraussetzungen für die Implementation einer nachhaltigen Entwicklung scheinen daher in Handwerksunternehmen besonders günstig zu sein. Handwerksunternehmen könnten daher als effizienter Ansatzpunkt zur Ausrichtung der Ökonomie auf das Ziel der Nachhaltigkeit dienen. Abschließend werden deshalb anhand zahlreicher Unternehmensbeispiele Empfehlungen zur Förderung einer nachhaltigen Unternehmensentwicklung im Handwerk ausgesprochen.
Auf der Grundlage großer Datensätze bereits behandelter Psychotherapiepatienten werden typische Veränderungsmuster identifiziert, die Therapeuten dabei unterstützen sollen, den beobachteten Verlauf ihrer Patienten besser einordnen und Erfolgswahrscheinlichkeiten ableiten zu können. Dabei werden Unterschiede und Gemeinsamkeiten dieser Muster und deren Implikationen in Bezug auf Therapieerfolg und -länge für verschiedene Störungsbilder, Erhebungsinstrumente, Therapiephasen und Untersuchungsdesigns herausgearbeitet sowie rechenintensive Identifikationsmethoden mit einfacheren verglichen.
Diese Dissertation behandelt das Thema des Sprachkontakts zwischen der Maya-Sprache k'iche' und das Spanische in Guatemala. Der Sprachkontakt ist seit der Eroberung des Eroberung des K'iche'-Königreichs durch Don Pedro de Alvarado im 16. Jahrhundert von verschiedenen Faktoren geprägt worden: Diese sind ethnohistorischer, sprachpolitischer, religiöser und soziokultureller Natur. So waren die ersten, die sich mit den indigenen Sprachen in der Neuen Welt befassten, die katholischen Missionaren, die Katechismen und Gebetsbücher in einheimische Sprachen übersetzten. Die Renaissance der Erforschung dieser Sprachen wiederum verdankt man den modernen Missionaren, die in den 70er Jahren des vergangenen Jahrhunderts nach Guatemala kamen. Heute versteht man die Maya-Lingustik als Teil einer soziokulturellen Bewegung, die in den letzten 20 Jahren ganz Lateinamerika verändert hat: der sogenannte indigenismo. Das Spanische Guatemalas zeigt sich in der Gegenwart von der Jahrhunderte lange Koexistenz mit den Mayasprachen (hier vor allem der Mayasprache k'iche') geprägt. Diese Prägung ist, wie in dieser Arbeit dargelegt wird, auf phonologischer, morphologischer, morphosyntaktischer und pragmatischer Weise zu erkennen.
Das Konzept der proximalen Mehrschritt-Regularisierung (MSR) auf Folgen von Gittern bei der Lösung inkorrekter Variationsungleichungen wurde von Kaplan und Tichatschke im Jahre 1997 in ihrer Arbeit "Prox-regularization and solution of illposed elliptic variational inequalities" vorgeschlagen und theoretisch motiviert. In demselben Artikel betrachtet man ein allgemeines Problem der partiellen Regularisierung auf einem abgeschlossenen Unterraum. Als Gegenstand der Anwendung solcher Regularisierung können die schlecht gestellten Optimalsteuerprobleme heraustreten, wobei der Unterraum in dem ganzen Prozessraum durch Steuervariablen gebildet wird. Im ersten Kapitel der vorliegenden Dissertation betrachten wir ein abstraktes linear-quadratisches Kontrollproblem in allgemeinen Hilberträumen. Wir diskutieren Voraussetzungen und Bedingungen, unter denen das Kontrollproblem inkorrekt wird. Danach werden zwei allgemeine numerische Verfahren der partiellen Mehrschritt-Regularisierung formuliert. Im ersten Fall untersucht man das MSR-Verfahren, in dem die Zustandsgleichung in einen quadratischen Strafterm eingebettet wird, gemäß der entsprechenden Publikationen von Kaplan und Tichatschke. Im zweiten Fall werden die Ersatzprobleme des MSR-Verfahrens mit exakt erfüllter Zustandsgleichung entwickelt. Im Mittelpunkt sämtlicher Forschungen steht die Konvergenz der approximativen Lösungen von Ersatzproblemen des MSR-Verfahrens gegen ein Element aus der Optimalmenge des Ausgangsproblems. Es stellt sich die Frage: in welchem der genannten Fälle können schwächeren Konvergenzbedingungen für die inneren Approximationen angegeben werden? Um diese Frage aufzuklären, untersuchen wir zwei inkorrekten Kontrollproblme mit elliptischen Zustandsgleichungen und verteilter Steuerung. Das erste Problem kann auf das bekannte Fuller-Problem zurückgeführt werden, für welches eine analytische Lösung mit sogenanntem "chattering regime" existiert und welches ein Basisbeispiel für unsere Aufgaben liefert. Zur Lösung des Fuller-Problems formulieren wir einen MSR-Algorithmus, in dem man mit Fehlern des Strafverfahrens und der FEM-Approximationen rechnen muß. Als Hauptergebnis erhalten wir ein Konvergenzkriterium, das das asymptotische Verhalten von Regularisierungs-, Diskretisierungs- und Strafparametern des MSR-Algorithmus bestimmt. Im letzten Kapitel formulieren wir ein anderes schlecht gestelltes Optimalsteuerproblem mit verteilter Steuerung über dem Polygongebiet. Die Zustandsgleichung wird nun durch ein Poisson-Problem mit gemischten Randbedingungen erzeugt. Solche Aufgabenstellung liefert eine natürliche Erweiterung des auf einer gewöhnlichen Differentialgeichung beruhenden Fuller-Problems auf die Kontrollprobleme mit partiellen Differentialgleichungen. Wir formulieren neuerlich das MSR-Verfahren, in dem man neben dem Diskretisierungsfehler auch einen Berechnungsfehler berücksichtigt. Diesmal verzichten wir aber auf die Straftechniken und stellen die Ersatzprobleme mit exakt erfüllter Zustandsgleichung zusammen. Mit diesem alternativen Zugang und anhand der Falkschen Beweistechniken erhalten wir ein schwächeres und somit auch besseres Konvergenzkriterium für das MSR-Verfahren. Zum Abschluß präsentieren wir Ergebnisse der numerischen Tests, durchgeführt mit dem MSR-Verfahren für ein konkretes Optimalsteuerproblem, dessen Lösung ein zweidimensionales chattering regime aufweist.
Das Wissen über Distanzen zwischen Objekten in unserer Umwelt versetzt uns in die Lage, Wege wiederzufinden oder zu entscheiden, welcher von zwei verschiedenen Wegen schneller zum Ziel führt. Zur Frage, wie diese Informationen im Gedächtnis abgespeichert werden, gibt es unterschiedliche Modellvorstellungen. Ziel dieser Arbeit war es, diese Modelle auf experimentellem Wege gegeneinander zu testen. Die Versuchspersonen lernten Routen, indem sie durch virtuelle Umgebungen am Computermonitor navigierten. Anschließend sollten sie aus dem Gedächtnis Distanzen zwischen einzelnen Objekten in der gelernten Umgebung einschätzen. Der Zeitbedarf für diese Schätzungen wurde verwendet, um Rückschlüsse auf die zugrunde liegende Raumrepräsentation zu ziehen. In einem ersten Teil der Arbeit wurde untersucht, wie Distanzen entlang von Wegen repräsentiert sind. Die Ergebnisse stützen die Auffassung, daß diese Schätzungen durch mentales Absuchen einer kartenähnlichen Repräsentation zustande kommen. In einem zweiten Teil der Arbeit wurde untersucht, welche Repräsentationsform Menschen in die Lage versetzt, Luftliniendistanzen zwischen Orten zu schätzen. Die Reaktionszeiten deuten darauf hin, daß diese Distanzen nicht während der Schätzung aus den Weglängen rekonstruiert werden, sondern ebenfalls durch ein Absuchen kartenartiger Repräsentationen ermittelt werden. Die Ergebnisse widersprechen somit der Auffassung, daß die Wiedergabe räumlicher Relationen aus dem Gedächtnis durch eine Verknüpfung explizit kodierter Relationen geschieht, die beim räumlichen Lernen perzeptiv zugänglich sind. Vielmehr ist davon auszugehen, daß schon bei der Enkodierung ein hohes Maß an räumlicher Integration stattfindet.
Mit der Übernahme eines Ziels oder einer Aufgabe wird die Aufmerksamkeit auf ziel- bzw. aufgabenbezogene Informationen fokussiert. Bei dieser Fokussierung können zwei Komponenten unterschieden werden: (1) eine erhöhte kognitive Resonanz für relevante Informationen und (2) eine Blockierung der Verarbeitung irrelevanter Informationen. Die zielbezogene kognitive Fokussierung wird typischerweise wieder aufgehoben, wenn das Ziel erreicht bzw. die Aufgabe erfolgreich bearbeitet ist. Aber was geschieht mit der zielbezogenen Aufmerksamkeitseinstellung nach einem definitiven Scheitern der Zielverfolgung? In einer ersten Experimentalserie wurde die kognitive Resonanz für zielbezogene Information nach induziertem Mißerfolg untersucht. In der ersten Phase der Experimente erhielten die Untersuchungsteilnehmer positive oder negative Leistungsrückmeldung bei der Bearbeitung einer komplexen Labyrinthaufgabe (Experiment 1) bzw. mehrerer Synonymaufgaben (Experiment 2). In der zweiten Phase der Experimente wurden automatische Aufmerksamkeitsbindungen für Stimuli gemessen, die einen inhaltlichen Bezug zu den vorher bearbeiteten Labyrinth- bzw. Synonymaufgaben besitzen. Hierzu wurden die Stimuli als Distraktoren in einer Wort-Lese-Aufgabe dargeboten. In beiden Experimenten waren die Interferenzeffekte für die Distraktoren in der Mißerfolgsbedingung erhöht. In einer zweiten Experimentalserie wurde die Inhibition aufgabenirrelevanter Information nach Mißerfolg analysiert. In einer ersten Studie mußten die Teilnehmer ein lösbares oder unlösbares Labyrinth bearbeiten. Währenddessen wurden akustisch Distraktorwörter dargeboten (Experiment 3). Während der Bearbeitung der Labyrinthaufgabe wurde die Inhibition der irrelevanten Stimuli kontinuierlich erfaßt, indem die Distraktorwörter als Stimuli in einer simultan zu bearbeitenden Farbbenennaufgabe präsentiert wurden. Bei der unlösbaren Labyrinthaufgabe nahmen die Interferenzeffekte der Distraktoren während der Bearbeitung zu, nicht aber bei der Bearbeitung der lösbaren Aufgabe. In zwei weiteren Experimenten wurde untersucht, ob vormals ausgeblendete irrelevante Information nach einem Scheitern der Zielverfolgung disinhibiert wird (Experimente 4 und 5). Hierbei mußten die Teilnehmer eine Reihe von Konzeptidentifikationsaufgaben bearbeiten. Während der Aufgabenbearbeitung wurde die kognitive Zugänglichkeit der verschiedenen Objektmerkmale über Interferenzeffekte in einer zusätzlich zu bearbeitenden Farbbenennaufgabe gemessen. Die Zurückweisung eines Merkmals in der Konzeptidentifikationsaufgabe führte zu einer Inhibition des korrespondierenden Merkmalsbegriffs. Durch Einstreuen invalider Rückmeldungen konnte eine Situation hergestellt werden, in der alle möglichen Merkmale der Konzeptidentifikationsaufgabe widerlegt wurden. In dieser Situation war die globale Suchstrategie als Ganze gescheitert und die vorher inhibierten Merkmale wurden wieder zugänglich. Zusammengenommen stützen die Experimente die Hypothese, daß Mechanismen einer bevorzugten Verarbeitung relevanter Information und einer Ausblendung irrelevanter Information durch Mißerfolg unterschiedlich beeinflußt werden. Eine erhöhte kognitive Resonanz für zielbezogene Information persistiert auch nach einem definitiven Scheitern der Zielverfolgung. Diese Perseveranz der Sensitivität für zielbezogene Information garantiert, daß mögliche zukünftige Gelegenheiten für eine erfolgreiche Zielverfolgung nicht übersehen werden. Eine Inhibition irrelevanter Informationen wird angesichts eines Scheiterns der Zielverfolgung allerdings nicht aufrechterhalten. Die Erfahrung wiederholter erfolgloser Bemühungen der Zielerreichung induziert einen offenen, defokalisierten Modus der Informationsverarbeitung, der für eine Neuorientierung nach Mißerfolg funktional ist.
Die Geschichte verteilter Systeme und Anwendungen hat die unterschiedlichsten Technologien hervorgebracht: Client-Server-Architekturen, Peer-To-Peer-Netzwerke und Komponentensysteme sind nur einige Vertreter. Die vorliegende Arbeit ist im Bereich der Middleware-Architekturen angesiedelt, einem zur Zeit sehr stark beachteten Zweig der verteilten Anwendungen. Als Mittler zwischen den Anwendungen auf der einen Seite sowie Datenbanken, eMail-Systemen oder weiterer Servern auf der anderen Seite, schlägt sie die Brücke zu heterogenen IT-Landschaften. Sie verbirgt Details und Änderungen dieser IT-Umgebungen und schafft gleichzeitig einen transparenten Zugriff auf sie. Die Forschung hat viele Technologien im Middleware-Umfeld hervorgebracht und setzt bei den Zielen unterschiedliche Schwerpunkte. Eine Sicht auf die Middleware hat den Entwickler im Fokus und soll ihn bei der Erstellung von Anwendungen und Lösungen unterstützen. Aus diesem Grund stehen hier die Schnittstellen zum Server und zur Server-Infrastruktur sowie die Einbettung der Dienste in die Middleware im Vordergrund. Der interne Aufbau sowie die inneren Datenflüsse der Middleware dienen nur der Erfüllung dieser Ziele. Eine andere Sichtweise stellt den inneren Aufbau in den Fokus der Forschung. Hier ist das Ziel die Schaffung von flexiblen und erweiterbaren Server-Strukturen sowie die Effizienz von internen Abläufen und Datenflüssen. Damit ist eine einfache Anpassung an verschiedene Einsatzumgebungen sowie die Fähigkeit, auf die Leistungsmerkmale von Clients individuell eingehen zu können, möglich. Die im Rahmen dieser Arbeit entstandene Middleware-Architektur "Smart Data Server (SDS)" setzt Konzepte um, die beide Sichtweisen miteinander kombiniert. Ein Schwerpunkt neben der Entwicklung neuer Konzepte, liegt in der praktischen Anwendbarkeit der entwickelten Middleware. Die vorliegende Arbeit zeigt, dass der Smart Data Server die Praxistauglichkeit seiner Konzepte unter realen Bedingungen unter Beweis stellen kann und zeigt gleichzeitig, welche Konstrukte für den praktischen Einsatz tatsächlich notwendig sind. Ein zweiter Schwerpunkt liegt in der Entwicklung von Mechanismen zur Abarbeitung von streamingfähigen Anfragen. Üblicherweise folgt auf die Übermittlung von Anfragen an einen Server zunächst die Berechnung einer Antwort und anschließend deren Rücktransport. Bei Streaming-Anfragen ist neben der Übermittlung von Anfrageparametern ein kontinuierlicher und in seiner Dimension nicht beschränkter Datenstrom Bestandteil der Anfrage. Der Server startet seine Berechnungen wenn möglich schon vor dem Ende der Datenübermittlung und liefert schon bei Vorliegen von Teilergebnissen diese an den Client. Der benötigte Bedarf an Speicherplatz im Server kann so optimiert werden, da nur so viele Daten der Anfrage im Server vorgehalten werden müssen wie zur Berechnung tatsächlich notwendig sind und nicht etwa die gesamte Anfrage. Die Entwicklung eines Streaming-Mechanismuses muss entsprechende Möglichkeiten in der Anfragestruktur sowie in der Architektur der Middleware vorsehen. Der Smart Data Server schafft mit der Einführung einer streamingfähigen Anfragestruktur die Voraussetzung für die Verarbeitung solcher Anfragen. Zusätzlich muss eine Server-Architektur geschaffen werden, die das Abarbeiten von Streaming-basierten Anfragen unterstützt. Hier liegt der dritte Schwerpunkt der Arbeit: die Schaffung einer flexiblen und erweiterbaren Server-Struktur sowie die Effizienz von internen Abläufen und Datenflüssen unter Berücksichtigung der Anforderung einer streamingfähigen Anfragebearbeitung. Diese Anforderungen werden mit der neu entwickelten Technologie der inneren Workflow-Programme erfüllt. Innere Workflow-Programme repräsentieren Netzwerke von hochgradig unabhängigen Serverkomponenten. Durch die Umgestaltung dieser Netze sind neue Serverstrukturen möglich, um neuen Einsatzbedingungen angepasst werden zu können. Neben diesem statischen Netzwerk von Server-Komponenten kann zur Laufzeit eine Pipeline zur Abarbeitung von Datenströmen aufgebaut werden, mit der dann letztendlich die Streamingfähigkeit des Servers hergestellt wird.
Die vorliegende Dissertation beschäftigt sich mit der Konzeption, der Implementation und der Evaluation eines Kindertrainings für sechs- bis achtjährige Grundschüler, welches pro-soziale Verhaltensweisen, sozial-emotionale Kompetenzen und konstruktive Konfliktlösestrategien vermitteln und damit aggressivem Verhalten vorbeugen soll. Das verhaltens- und personenzentrierte Kindertraining wurde mit 92 Kindern an fünf Grundschulen der Stadt Trier von September 2003 bis Juli 2004 durchgeführt. Die Wirksamkeit des Trainings wurde im Vergleich zu einer unbehandelten Kontrollgruppe von 51 Kindern mittels Prä-, Post- und 4-Monats-Follow-up-Messungen überprüft, wobei kindliche Kompetenzen und Problemverhalten aus der Sicht der Eltern, der Klassenlehrerinnen und der Kinder mit Fragebögen bzw. Kinderinterviews erfasst wurden. Der erste Teil der Dissertation widmet sich dem theoretischen Hintergrund des IBC-Kindertrainings und beschäftigt sich mit den Phänomenen Konflikt, Aggression und prosoziales Verhalten sowie mit der Verflechtung dieser Phänomene untereinander. An eine Über-sicht zu den bestehenden Präventionsprogrammen zur Förderung von prosozialem Verhalten und zur Prophylaxe von aggressiven Verhaltensweisen bei Kindern im Grundschulalter schließt sich die detaillierte Darstellung des IBC-Trainingskonzeptes an. Vorzüge dieses Trainingsprogramms gegenüber anderen Kindertrainings werden aufgezeigt und begründet. Die methodische Vorgehensweise und die Ergebnisse der durchgeführten Trainingsevaluation werden im zweiten Teil der Arbeit vorgestellt. Es konnten positive Einflüsse des Trainings auf das Sozialverhalten der Erstklässler nachgewiesen werden. Die erzielten Trainingseffekte liegen im mittleren Bereich (.23 ≤ d ≤ .94). Insbesondere ließ sich eine signifikante Reduktion des oppositionell-aggressiven Verhaltens und der emotionalen Auffälligkeiten aufzeigen. Die wesentlichen Evaluationsbefunde zur Wirksamkeit des IBC-Kindertrainings werden im dritten Teil der Arbeit methodenkritisch diskutiert. Vor dem Hintergrund aktueller gesellschaftlicher Entwicklungen wird dabei aufgezeigt, dass das niederschwellige Angebot des evaluierten Kindertraining insbesondere in Zeiten knapper öffentlicher Mittel als eine wertvolle Chance zur Förderung kindlicher Kompetenzen und zur Vorbeugung negativer Entwicklungen genutzt werden sollte.
Der vorliegende Text ist als Mantelpapier im Rahmen einer kumulativen Dissertation an der Universität Trier angenommen worden. Er dient der Zusammenfassung, Reflexion und erweiterten theoretischen Betrachtung der empirischen Einzelbeiträge, die alle einen Einzelaspekt des Gesamtgeschehens „Innovationslabor zur Unterstützung unternehmerischen Lernens und der Entwicklung sozialer Dienstleistungsinnovationen“ behandeln. Dabei wird das Innovationslabor grundsätzlich als Personalentwicklungsmaßnahme aufgefasst. In einem gedanklichen Experiment werden die Ergebnisse auf Organisationen der Erwachsenen- und Weiterbildung übertragen.
Das Besondere dieses Rahmenpapiers ist die Verbindung eines relationalen Raumverständnisses mit der lerntheoretischen Untermauerung des Gegenstandes „Innovationslabor“ aus der Perspektive der Organisationspädagogik und Erwachsenenbildung. Die Ergebnisse zeigen den Lernraum Labor als abseits des Arbeitslebens, als semi-autonom angebundenen Raum, wo Lernprozesse auf unterschiedlichen Ebenen stattfinden und angestoßen werden. Das Labor wird als heterotoper (Lern-)Raum diskutiert. Neu ist auch der Einbezug einer kritischen Perspektive, die bislang im Diskurs um Innovationslabore fehlte: Das Labor wird als prekärer Lernraum charakterisiert. Somit liegt mit dieser Arbeit nun eine grundlegende Ausarbeitung des Labors als Lernraum vor, die zahlreiche weitere Anschlussmöglichkeiten für Forschung ermöglicht.
Die Kunstgewerbeschule Pforzheim nimmt innerhalb der Bildungsanstalten, die zur künstlerischen Förderung der Gewerbe im 19. Jahrhundert gegründet worden waren, eine Sonderstellung ein. Lehrplan und Ausbildungsgang orientierten sich vorrangig an den Bedürfnissen der in Pforzheim seit 1767 ansässigen Schmuckindustrie, die maßgeblich an der Gründung und Förderung der Kunstgewerbeschule beteiligt war. In der Dissertation werden die Rahmenbedingungen, die zur Gründung der Pforzheimer Kunstgewerbeschule im Jahr 1877 führten, sowie die Qualität und die Methoden der dort angebotenen künstlerisch-technischen Ausbildung unter Berücksichtigung zeitgenössischer Bildungsideale analysiert. Im Anschluss wird das Ansehen der Kunstgewerbeschule unter Zeitgenossen beurteilt sowie die Bedeutung dieser Institution für die Pforzheimer Schmuckindustrie herausgearbeitet. Der Betrachtungszeitraum erstreckt sich von 1877, dem Gründungsjahr der Kunstgewerbeschule, bis 1911, dem Todesjahr ihres ersten Direktors, Alfred Waag. Zeitgenössische Berichte und Archivmaterialien sowie der kontinuierlich erweiterte Lehrmittelbestand der Kunstgewerbeschule bilden die Grundlage für die Untersuchungen. Ein Großteil der Musterstücke, viele Bücher und Vorlagenwerke, die zur künstlerischen Ausbildung der Schüler angeschafft wurden, sind bis heute in Archiven und Museen erhalten und zeugen von der Qualität und der Fortschrittlichkeit der Ausbildungsstätte. Vor allem in den Bereichen Entwurf und Technik setzte man an der Kunstgewerbeschule Pforzheim Maßstäbe. Unter dem Einfluss der Schule entstanden Entwürfe für die lokale Schmuckindustrie, die speziell auf die serielle Fertigung zugeschnitten waren und damit beispielhaft für eine gelungene Allianz von Kunst, Technik und Wirtschaftlichkeit stehen. Die Zusammenarbeit der lokalen Schmuckhersteller mit Lehrern oder Absolventen der Kunstgewerbeschule ließ sich ebenso belegen wie die erfolgreiche Teilnahme verschiedener Schüler an überregionalen Wettbewerben für Schmuckentwürfe. Dank der quellengestützten Recherche konnten Beziehungen zwischen den als mustergültig empfundenen Vorbildern, der Entwurfsarbeit an der Schule und dem in Pforzheim industriell hergestellten Schmuck aufgezeigt werden. Der häufig geäußerte Vorwurf, Pforzheimer Firmen hätten vor allem fremde Schmuckentwürfe kopiert und durch maschinelle Fertigungstechniken billig produziert, verkennt den eigenen künstlerischen Anspruch einer Industrie, die zur ästhetisch-technischen Ausbildung ihrer Arbeiter und Lehrlinge eine Kunstgewerbeschule ins Leben rief, die bis heute unter dem Namen Hochschule Pforzheim - Gestaltung, Technik, Wirtschaft und Recht Bestand hat.
In vielen Branchen und vor allem in großen Unternehmen gehört eine Unterstützung von Geschäftsprozessen durch Workflow-Management-Systeme zum gelebten Alltag. Im Zentrum steht dabei die Steuerung kontrollflussorientierter Abläufe, während Prozesse mit einem Schwerpunkt auf Daten, Informationen und Wissen meist außen vor bleiben. Solche wissensintensive Prozesse (engl.: knowledge intensive processes) (KiPs) sind Untersuchungsgegenstand in vielen aktuellen Studien, welche ein derzeit aktives Forschungsgebiet formen.
Im Vordergrund solcher KiPs steht dabei das durch die mitwirkenden Personen eingebrachte Wissen, welches in einem wesentlichen Maß die Prozessausführung beeinflusst, hierdurch jedoch die Bearbeitung komplexer und meist hoch volatiler Prozesse ermöglicht. Hierbei handelt es sich zumeist um entscheidungsintensive Prozesse, Prozesse zur Wissensakquisition oder Prozesse, die zu einer Vielzahl unterschiedlicher Prozessabläufe führen können.
Im Rahmen dieser Arbeit wird ein Ansatz entwickelt und vorgestellt, der sich der Modellierung, Visualisierung und Ausführung wissensintensiver Prozesse unter Verwendung Semantischer Technologien widmet. Hierzu werden als die zentralen Anforderungen zur Ausführung von KiPs Flexibilität, Adaptivität und Zielorientierung definiert. Daran anknüpfend werden drei zentrale Grundprinzipien der Prozessmodellierung identifiziert, welche in der ersten Forschungsfrage aufgegriffen werden: „Können die drei Grundprinzipien in einem einheitlichen datenzentrierten, deklarativen, semantischen Ansatz (welcher mit ODD-BP bezeichnet wird) kombiniert werden und können damit die zentralen Anforderungen von KiPs erfüllt werden?”
Die Grundlage für ODD-BP bildet ein Metamodell, welches als Sprachkonstrukt fungiert und die Definition der angestrebten Prozessmodelle erlaubt. Darauf aufbauend wird mit Hilfe von Inferenzierungsregeln ein Verfahren entwickelt, welches das Schlussfolgern von Prozesszuständen ermöglicht und somit eine klassische Workflow-Engine überflüssig macht. Zudem wird eine Methodik eingeführt, die für jede in einem Prozess mitwirkende Person eine maßgeschneiderte, adaptive Prozessvisualisierung ermöglicht, um neben dem Freiheitsgrad der Flexibilität auch eine fundierte Prozessunterstützung bei der Ausführung von KiPs leisten zu können. All dies erfolgt innerhalb einer einheitlichen Wissensbasis, die zum einen die Grundlage für eine vollständige semantische Prozessmodellierung bildet und zum anderen die Möglichkeit zur Integration von Expertenwissen eröffnet. Dieses Expertenwissen kann einen expliziten Beitrag bei der Ausführung wissensintensiver Prozesse leisten und somit die Kollaboration von Mensch und Maschine durch Technologien der symbolischen KI ermöglichen. Die zweite Forschungsfrage greift diesen Aspekt auf: „Kann in dem ODD-BP Ansatz ontologisches Wissen so integriert werden, dass dieses in einer Prozessausführung einen Beitrag leistet?”
Das Metamodell sowie die entwickelten Methoden und Verfahren werden in einem prototypischen, generischen System realisiert, welches grundsätzlich für alle Anwendungsgebiete mit KiPs geeignet ist. Zur Validierung des ODD-BP Ansatzes erfolgt eine Ausrichtung auf den Anwendungsfall einer Notrufabfrage aus dem Leitstellenumfeld. Im Zuge der Evaluation wird gezeigt, wie dieser wissensintensive Ablauf von einer flexiblen, adaptiven und zielorientierten Prozessausführung profitiert. Darüber hinaus wird medizinisches Expertenwissen in den Prozessablauf integriert und es wird nachgewiesen, wie dieses zu verbesserten Prozessergebnissen beiträgt.
Wissensintensive Prozesse stellen Unternehmen und Organisationen in allen Branchen und Anwendungsfällen derzeit vor große Herausforderungen und die Wissenschaft und Forschung widmet sich der Suche nach praxistauglichen Lösungen. Diese Arbeit präsentiert mit ODD-BP einen vielversprechenden Ansatz, indem die Möglichkeiten Semantischer Technologien dazu genutzt werden, eine eng verzahnte Zusammenarbeit zwischen Mensch und Maschine bei der Ausführung von KiPs zu ermöglichen. Die zur Evaluation fokussierte Notrufabfrage innerhalb von Leitstellen stellt zudem einen höchst relevanten Anwendungsfall dar, da in einem akuten Notfall in kürzester Zeit Entscheidungen getroffen werden müssen, um weitreichenden Schaden abwenden und Leben retten zu können. Durch die Berücksichtigung umfassender Datenmengen und das Ausnutzen verfügbaren Expertenwissens kann so eine schnelle Lagebewertung mit Hilfe der maschinellen Unterstützung erreicht und der Mensch beim Treffen von richtigen Entscheidungen unterstützt werden.
Die Dissertation widmet sich der Eisenbahninfrastruktur des Raumes Saarland-Lothringen-Luxemburg mit ihrer hohen Netzdichte sowie der Frage, wie diese Bahnstrecken besser genutzt werden können. Möglichkeiten, wie diese Strecken durch innovative, insbesondere aber durch grenzüberschreitende Angebote im Schienen-¬verkehr besser genutzt werden können, werden aufgezeigt. Ziel ist es zu zeigen, welche Potenziale der Schienenverkehr auf Basis der vorhandenen Bahninfrastruktur als Alternative zum dominierenden Straßenverkehr bieten könnte. Der Grenzraum SaarLorLux wird dazu porträtiert, einschließlich einer historischen Genese des Bahnsystems. Dieser historische Rückblick ist kartographisch aufbereitet. Die wechselhafte politische und wirtschaftliche Geschichte des Grenzraumes, insbesondere seine Montanindustrie haben den Untersuchungsraum und die Entwicklung seiner Eisenbahnen entscheidend geprägt. Neben den neuen und schnellen Korridor-Verbindungen nach Paris und Frankfurt wird auch eine gegenläufige Entwicklung aufgezeigt, die zu einem Einbruch der Fernverkehrsqualität für SaarLorLux geführt hat. Auch beim Güterverkehr ist ein Niedergang zu beobachten, gerade im Bereich der Güter in der Montanindustrie. Die Analyse des Bestandsnetzes der gesamten Verkehrsinfrastruktur einschließlich Luftfahrt, Schifffahrt und Straßenverkehr im SaarLorLux-Raum zeigt auf, welche Standards und Verbindungsqualitäten hier vorhanden sind. Ein Schwerpunkt der Betrachtung ist der Frage gewidmet, wie durch angebotsorientierte, aber auch durch organisatorische Maßnahmen die grenzüberschreitende Zusammenarbeit im Schienenregionalverkehr optimiert werden kann. Am Beispiel eines Ringverkehrs Luxemburg-Metz-Saarbrücken-Trier-Luxemburg (Q_Intracity) zeigt der Autor, welche Chancen sich ergäben, wenn die grenzüberschreitende Kooperation ausgeweitet würde. Weitere Vorschläge betreffen die Reaktivierung von derzeit kaum genutzten oder stillgelegten Bahnstrecken sowie die Verlängerung des bestehenden Nahverkehrs über die Grenze hinweg. Für den Saar-Rossel-Raum im Eurodistrikt Saarbrücken-Forbach erläutert die Abhandlung beispielhaft, wie ein neues Stadtbahnangebot die grenzüberschreitende und umwelt-¬freundliche Mobilität stärken kann. Dabei spielt die Wiedernutzung stillgelegter Bahnstrecken der ehemaligen lothringischen Kohlebahn HBL und des Bahnnetzes links der Saar eine große Rolle. Die vorgelegte Arbeit skizziert auch Verbesserungen für den Fernverkehr: Die Abhandlung umreißt die technischen Möglichkeiten, um vorhandene Bahnstrecken zeitgemäß auszurüsten. Die Elektromobilität spielt hierbei eine besondere Rolle Das Schließen von Lücken bei der Elektrifizierung vermag die Kapazitäten der Bahnstrecken deutlich auszudehnen und gerade auch dem Güterverkehr neue und günstigere Wege zu erschließen. Die ermittelte Elektrifizierung von rund dreihundert Kilometern an bestehenden Strecken im Unter-¬suchungsraum ermöglichte beispielsweise, den regelmäßigen Dieselbetrieb auf einem Netz von fast 500 Kilometern durch elektrische Traktion zu ersetzen. Ausgehend von der Analyse der Organisationsstruktur im Schienenverkehr und mit Blick auf die heterogene Struktur der Aufgabenträger im Schienenpersonennahverkehr schlägt der Autor vor, eine grenzüberschreitend agierende Instanz mit Verantwortung für den regionalen Nahverkehr zu schaffen. Diese sollte sich an dem Rechtsrahmen eines Europäischen Verbundes für Territoriale Zusammenarbeit (EVTZ) ausrichten und dazu beitragen, dass Angebote im bestellten Schienen-¬personennahverkehr nicht mehr an den Grenzen der Zuständigkeitsbereiche von Aufgabenträgern enden. Ein weiterer Vorschlag umfasst die Schaffung einer Infrastruktur-Sicherungs- und Entwicklungs-¬gesellschaft für den Schienen-verkehr. Ihre Aufgabe sollte die akteursüber-¬greifende Initiative sein mit dem Ziel, vorhandene aber aus der Nutzung genommene Bahnstrecken vor dem Verfall zu retten und für eine spätere Nutzung aufzuwerten. Die Abhandlung beinhaltet eine erste Kostenschätzung und eine erste Priorisierung der vorgeschlagenen technischen, infrastrukturellen und administrativen Maßnahmen. Das Leitmotiv ist dabei Erhalt vor Neubau. Neubaustrecken sind nur in geringem Umfang von 32 Kilometern vorgesehen, wohingegen auf rund 165 Kilometern bestehender Trassen ein Personen-¬verkehrsangebot wieder aufgenommen werden sollte und mindestens 50 neue Bahnhöfe und Haltestellen zu errichten sind. Der Autor ermittelt einen Bedarf von rund 500 Kilometern, um Strecken mit moderner Leit- und Sicherungstechnik, Funkbetrieb und Gleiswechselbetrieb zu modernisieren. Die Dissertation versteht sich als ersten Beitrag, um für den SaarLorLux-Raum einen Masterplan Schiene zu verwirklichen. Die Abhandlung beinhaltet 147 überwiegend kartographische Abbildungen und 23 Tabellen. Im Anhang greift ein Kartendossier im Format DIN A 3 15 Karten aus der Abhandlung großformatig auf.
Die vorliegende Arbeit zur Gestaltung interaktiver Animationen definiert im theoretischen Teil zunächst zentrale Begriffe der Multimediaforschung und weist anschließend den pauschalen Vergleich verschiedener Codierungsformen wie Texte, Bilder und Animationen aufgrund versuchsplanerischer Mängel zurück. Anstelle dieser Gegenüberstellungen konzentrieren sich Theorien zu Multimedia vornehmlich darauf, wie multimediale Lernumgebungen möglichst lernförderlich zu gestalten sind. Hierbei werden die beiden derzeit dominierenden Theorien, die Cognitive Load Theorie und die kognitive Theorie multimedialen Lernens, eingehend erörtert ebenso wie vier weitere Modelle, die bisher eine nachrangige Bedeutung innerhalb der Multimediaforschung einnehmen. Im empirischen Teil der Arbeit werden zwei Untersuchungsserien mit insgesamt sieben durchgeführten Studien vorgestellt, welche ausgewählte Empfehlungen zur Gestaltung multimedialer Lernumgebungen prüfen. Die erste Experimentalserie befasst sich mit der Frage, ob die Anordnung von Ursache und Wirkung die Lernleistungen für Kausalzusammenhänge in interaktiven Animationen beeinflusst. Es zeigt sich, dass eine links platzierte Ursache und rechts positionierte Wirkung im Vergleich zu anderen Positionierungsmöglichkeiten bei Frauen, nicht jedoch bei Männern, den Lernerfolg erhöht. Signalisierungen, die auf die Anordnung des Kausalzusammenhanges hinweisen fördern dabei die Verständnisleistung der Lernenden. Neben dem Geschlecht moderieren auch Computererfahrung und räumliches Vorstellungsvermögen den Einfluss der Anordnung der Ursache-Wirkungs-Beziehung auf die Lernleistung. Je höher die Computererfahrung, desto besser fallen die Verständnisleistungen bei Einhaltung der Leserichtung von links nach rechts im Vergleich zu anderen Positionierungsmöglichkeiten aus. Probanden mittlerer bis hoher räumlicher Kompetenzen werden in ihrem Lernerfolg besonders von der Anordnung des Kausalzusammenhanges beeinflusst. Die zweite Untersuchungsserie beschäftigt sich mit ausgewählten interaktiven Elementen in Visualisierungen und deren Einfluss auf die Lernleistung von Benutzern. Hier fällt auf, dass viele Lernende sowohl nützliche als auch für den Lernerfolg irrelevante interaktive Elemente überhaupt nicht oder nur sehr selten benutzen. Im Vorfeld der Animation dargebotene Instruktionshinweise, die darum bitten, spezifische interaktive Elemente systematisch zu verwenden, steigern sowohl die Nutzungshäufigkeit dieser Elemente als auch die Verständnisleistungen der Benutzer. Neben der Diskussion um Einschränkungen und praktische Implikationen der gefundenen Ergebnisse wird ein Ausblick auf mögliche zukünftige Forschungsthemen geliefert.
Die Arbeit untersucht das Potential kleiner unbemannter Luftfahrtsysteme (UAS) in Landwirtschaft und Archäologie. Der Begriff UAS beinhaltet dabei: Fluggerät, Antriebsmechanismus, Sensorik, Bodenstation, Kommunikationsmittel zwischen Bodenstation und Fluggerät und weiteres Equipment. Aufgrund ihrer Flexibilität, fanden UAS seit der Jahrtausendwende eine blühende Entwicklung. Um die wachsende Weltbevölkerung zu ernähren, muss die landwirtschaftliche Produktion sensibel und nachhaltig intensiviert werden, um Nahrungssicherheit für alle zu gewährleisten und weitere Boden- und Landdegradation zu vermeiden. Präzisionslandwirtschaft umfasst technologische Verbesserungen hin zur effizienteren und weniger schädlichen landwirtschaftlichen Praxis. Hierbei ist die Verfügung über zeitnahe, leicht zugängliche hoch aufgelöste räumliche Daten eine Voraussetzung für die Nahrungsmittelproduktion. UAS schließen hier die Lücke zwischen Bodendaten und teuren bemannten Luftfahrtsysteme und selteneren Satellitenbildern. Die Vorteile der UAS-Daten liegen in der ad-hoc Akquisition großmaßstäbiger Fernerkundungsdaten, den geringeren Kosten gegenüber der bemannten Systeme und einer relativen Wetterunabhängigkeit, da auch unter Wolken geflogen werden kann. Den größten Anteil innerhalb der UAS stellen die Mini-UAS (Abfluggewicht von 5kg) und dabei vertikale Start- und Landesysteme. Diese können über Untersuchungsgebieten schweben, sind dadurch jedoch langsamer und eher geeignet für kleinere Flächen. Flugregularien und die Integration in den bemannten Luftraum werden derzeit europaweit harmonisiert und in den Mitgliedstaaten umgesetzt. Die Hauptziele dieser Arbeit lagen in der Evaluierung wie Schlüsselparametern landwirtschaftlicher Nutzpflanzen (Chlorophyll-, Stickstoffgehalt, Erntemenge, sonnendinduzierter Chlorophyll-Fluoreszenz) mittels UAS abgeleitet und wie UAS-Daten für archäologische Aufklärung genutzt werden können. Dazu wurde ein Quadrokopter (md4-1000, microdrones GmbH) mit einer digitalen Spiegelreflexkamera, einem Multispektralsensor (MiniMCA-6, Tetracam Inc.) und einer Thermalkamera (UCM, Zeiss) ausgestattet. Eine Sensitivitätsanalyse führte zur Ableitung geeigneter Wellenlängenbereiche und untersuchte bidirektionale und Flughöheneffekte auf das Multispektralsignal. Die Studie beschreibt außerdem die Vorgehensweise bei Bildaufnahme und Vorprozessierung mit besonderem Schwerpunkt auf die Multispektralkamera (530-900 nm). Die Vorprozessierung beinhaltet die Korrektur von Sensorfehlern (Linsenverzeichnung, Vignettierung, Kanalkalibrierung), die radiometrische Kalibrierung über eine empirische Korrektur mit Hilfe von Referenzspektren, Atmosphärenkorrektur und schließlich die geometrische Verarbeitung unter Verwendung von Structure from Motion Programme zur Generierung von Punktwolkenmodellen bis hin zum digitalen Orthophotomosaik und Höhenmodell in Zentimeterauflösung. In einer Weinbergsstudie (2011, 2012) wurden geeignete Beobachtungswinkel für die Untersuchung des Einflusses von Bodenbearbeitungsstrategien auf das Multispektralsignal evaluiert. Schrägichtaufnahmen von 45-° Beobachtungswinkel gegenüber Nadir waren am besten geeignet zur Ableitung pflanzenphysiolgischer Parameter und multispektraler Unterscheidung von Bodenbearbeitungstypen. So konnten Chlorophyll-Gehalte über Regressionsanalysen über mehrere saisonale Aufnahmen mit einem kreuzvalidierten R-² von 0.65, Stickstoffgehaltsindex von 0.76 (2012) und Ernte mit 0.84 (2011) und für verschiedene Zeitpunkte nach der Blüte (0.87) und während der Reifephase (0.73) ermittelt werden. Desweiteren wurde die (Fs) in einem Stickstoff-Düngung-Experiment bei Zuckerrüben von Multispektral-, Indizes und Thermaldaten untersucht (HyFlex-Kampagne 2012). Zuckerrübenvarietäten konnten spektral und thermal unterschieden werden, die Fluoreszenzindizes waren wetterbedingt, weniger erfolgreich. Außerdem konnte der Tagesgang der Fs trotz instabiler Einstrahlungsverhältnisse am Morgen abgeleitet werden. Die Werte waren jedoch gegenüber Bodenmessungen um ein Vielfaches erhöht. Archäologische Fernerkundung durch UAS wird bereits seit Jahren (z.B. mit Fesselballons) durchgeführt. Die Mustererkennung profitiert von der spektralen Ausdehnung vom menschlichen Auge hin zu multispektralen, neuerdings auch hyperspektralen Sensoren. Studien in Los Bañales, Spanien, zeigten die Möglichkeiten des Informationsgewinns durch Bildverarbeitung von UAS-Daten: vermutliche historische Siedlungsmuster konnten durch Landoberflächenklassifikation von Multispektraldaten mittels Support Vector Machines und Bestandsmusterdetektion beschrieben werden. Um qualitative hochwertige, hochaufgelöste UAS-Daten zu erhalten, sollten die Daten mit hoher Überlappung (80%) und auch Schrägsicht akquiriert und ggf. durch Referenzmessungen zur radiometrischen Kalibrierung und GPS-Messungen für geometrische Referenzierung ergänzt werden.
Als Möglichkeiten zur Steigerung der Nachhaltigkeit einer stationären Rehabilitation stehen aktuell vor allem zwei Varianten der Nachbehandlung im Mittelpunkt des wissenschaftlichen Interesses - einerseits wird eine solche Nachsorge häufig über persönliche (Telefon)Kontakte realisiert, andererseits werden auch immer öfter die Möglichkeiten des Einsatzes neuer Medien untersucht. Um eine vergleichende Betrachtung dieser beiden Nachsorgevarianten zu ermöglichen, wurde im Rahmen der vorliegenden Arbeit ein individuelles, indikationsübergreifendes und ortsunabhängiges Nachsorgeangebot entwickelt und parallel auf eben diese beiden Arten realisiert (persönlich-telefonisch vs. web-basiert), die Untersuchung der Effektivität erfolgte mittels einer randomisierten kontrollierten Mehrzeitpunktbefragung. Alle teilnehmenden Patientinnen und Patienten wurden noch während ihres Rehabilitationsaufenthalts zu einer von drei Gruppen randomisiert: eine Gruppe wurde persönlich-telefonisch nachbetreut, eine Gruppe erhielt Zugang zu einer für diesen Zweck erstellten Internet-Plattform, die dritte Gruppe erhielt keinerlei Nachsorge und diente als Kontrollgruppe. Zu insgesamt vier Messzeitpunkten (Aufnahme, Entlassung, 3-monats- und 12-monats Katamnese) wurde die berichtete Symptombelastung hinsichtlich Depressivität, psychosomatischer Beschwerden und gesundheitsbezogener Lebensqualität erfasst. Aufgrund der vorliegenden Ergebnisse scheint vornehmlich die minimale Intervention der automatisierten web-basierten Nachsorge einen statistisch abgesicherten positiven Effekt auf die Nachhaltigkeit der betrachteten Ergebnismaße nach einer stationären psychosomatischen Rehabilitation zu haben und kann folglich als der vielversprechendere Ansatz zur Verbesserung der Nachhaltigkeit von erzielten Rehabilitationseffekten gesehen werden.
Es wird die Existenz einer Potenzreihe vom Konvergenzradius 1 bewiesen, so dass die mit einer zweifach unendlichen Matrix A (deren komplexe Einträge drei Bedingungen erfüllen müssen) gebildeten A -Transformierten außerhalb des (einfach zusammenhängenden) Holomorphiegebietes der Potenzreihe überkonvergieren. Das Hauptergebnis der Arbeit ist ein Satz über die Existenz einer universellen Potenzreihe vom Konvergenzradius 1, so dass deren A "Transformierte stetige Funktionen auf kompakten, holomorphe Funktionen auf offenen Mengen (in beiden Fällen liegen die Mengen im Komplement des einfach zusammenhängenden Holomorphiegebietes der Potenzreihe) approximieren und sich zusätzlich zur fast-überall-Approximation messbarer Funktionen auf messbaren Mengen (im Komplement des Holomorphiegebietes der Potenzreihe gelegen) eignen. Als wichtige Konsequenz dieses Hauptergebnisses ergibt sich für den Fall, dass das Holomorphiegebietes der Potenzreihe der Einheitskreis ist, die Existenz einer universellen trigonometrischen Reihe, so dass deren A "Transformierte auf dem Rand des Einheitskreises stetige Funktionen approximieren und zusätzlich messbare Funktionen fast-überall auf [0,2π] approximieren
Mechanisch-biologisch behandelte Abfälle zeigen im Vergleich mit unbehandelten Siedlungsabfällen völlig veränderte geomechanische Eigenschaften auf. Das Emissionspotenzial ist weitgehend reduziert. Dies erforderte eine Anpassung der Deponietechnik bezüglich Materialeinbau und Deponiebetrieb. Um sowohl das Deponieverhalten der mechanisch-biologisch behandelten Abfälle sowie das verbleibende Emissionspotenzial beurteilen zu können, wurde in dieser Arbeit ein breit angelegtes Untersuchungsprogramm im Deponiefeld umgesetzt, welches zum Ziel hat, das Langzeitverhalten des mechanisch-biologisch behandelten Abfalls im Deponiefeld zu beschreiben. Hieraus wurden Empfehlungen für Deponiebetreiber abgeleitet, die eine langfristige Sicherung der gesetzlichen Anforderungen an das Ablagern von MBA-Material gewährleisten. Somit wird der Forderung nach einem nachhaltigen Schutz der Umwelt Rechnung getragen. Eine solche Sicherung ermöglicht einen langfristig ökonomisch und ökologisch tragbaren Deponiebetrieb und somit die nötige Planungssicherheit für Deponiebetreiber. rnDie bisherigen Erfahrungen haben gezeigt, dass MBA-Deponien unter den beschriebenen Bedingungen ohne größere Probleme betrieben werden können. Durch die mechanisch-biologische Behandlung wurde jedoch der gesamte Bereich der Ablagerung neu definiert. rnSchwerpunkt des Untersuchungsprogramms war die Untersuchung der Temperatur- und Feuchtigkeitsentwicklung im Deponiekörper, der daraus resultierenden Auswirkungen auf die Zusammensetzung und Menge des Deponiegases sowie die Beurteilung der geotechnischen Erfordernisse an das abzulagernde Material und das Deponiefeld. Hierbei stand die Untersuchung von Porenwasserdrücken im Vordergrund. Die Ergebnisse haben gezeigt, dass die Temperaturniveaus im Deponiekörper mit ca. 16-25-°C etwas unter den von DSR lagen. Die Deponiegaszusammensetzung weicht ebenfalls etwas von den Ergebnissen aus DSR ab. Die Deponiegasmenge liegt im erwarteten Bereich und lässt Rückschlüsse auf das Gasphasenmodell zu. An den Zuordnungskriterien konnten keine wesentlichen Veränderungen oder Abbauraten bezogen auf das Ursprungsmaterial beobachtet werden. Die Anforderungen an den Einbau von mechanisch-biologisch behandelten Abfällen sollten weiterhin unter der Maßgabe: verdichteter Dünnschichteinbau, Profilierung mit 5-10% Gefälle, Einbauwassergehalt 30-35 %, geringstmögliche Einbaufläche und einer arbeitstägigen Abdeckung des Deponiefeldes mit wasserundurchlässigem Material in regenintensiven Monaten und im Winter erfolgen. Ein Deponiebetrieb nach den Vorgaben des Anhanges 5, Nr. 6 der Deponieverord-nung, nach dem ein Deponiebetreiber den Anfall von Sickerwasser so gering zu halten hat, wie dies nach dem Stand der Technik möglich ist, ist somit umsetzbar. Aufgrund der geringen Sickerwassermengen und des verdichteten Materialeinbaus stellt der Deponiekörper mit MBA-Material kein umweltrelevantes Gefährdungspotenzial bezogen auf die Deponiegasemissionen dar, insofern nach Abschluss des Deponiekörpers eine Methanoxidationsschicht als Oberflächenabdichtung aufgebracht wird.
In der Dissertation "Kartographische Medien zur Entscheidungsunterstützung: empirische Untersuchungen georäumlicher Visualisierungen im Rahmen des Trierer Kommunalhaushalts" werden kartographische Medien im Hinblick auf die Funktion der Entscheidungsunterstützung bei der Aufstellung eines Kommunalhaushalts untersucht. Die Akteure der Haushaltsaufstellung können in drei Gruppen aufgeteilt werden: Bürger, Politiker und Verwaltungsmitarbeiter. Die grundlegende Fragestellung der Arbeit lautet: Wie muss ein räumliches Finanzauskunftssystem gestaltet sein, um die Beteiligten in verschiedenen Phasen des Entscheidungsprozesses bestmöglich zu unterstützen? Ziel ist dabei die modellhafte Entwicklung eines nutzerorientierten kommunalen Finanzauskunftssystems. Zur Erstellung der kartographischen Medien werden zunächst die Ausgaben des Trierer Kommunalhaushalts georeferenziert und mit Hilfe von Karten visualisiert. Die Georeferenzierung erfolgt dabei über die theoretische Herleitung der Raumwirkung einzelner Haushaltspositionen, die vom Grundsatz her sehr kleinräumig, gesamtstädtisch oder auch regional wirken können. Theoretisch lassen sich 79% der Ausgabepositionen des Finanzhaushalts und 45% der Ausgabepositionen des Ergebnishaushalts 2009 räumlich verorten. Einschränkungen der Georeferenzierungsquote ergeben sich aus der Datenverfügbarkeit der Stadtverwaltung Trier. Die erzeugten Kartendarstellungen unterscheiden sich im Hinblick auf die Komplexität der dargestellten Inhalte. Zum Einsatz kommen verschiedene kartographische Modellformen sowie unterschiedliche Darstellungsformen der Legende (verbal und numerisch). Der Studie besteht aus zwei empirischen Untersuchungsreihen: einer Online-Befragung und einem Bildschirmexperiment mit eye tracking und Logfile-Aufzeichnung. Diese haben gezeigt, dass die Unterschiede zwischen den drei Akteursgruppen nicht entscheidend sind. Die generelle Haltung der Probanden zur Relevanz des Raumbezugs ist vielmehr ausschlaggebend dafür, ob das Medium Karte positiv angenommen wird oder nicht. Während die Relevanz des Kriteriums "Raum" bei Entscheidungen nachgewiesen wurde, bleibt die Frage nach dessen Gewichtung innerhalb diverser Einflussgrößen kommunal-politischer Entscheidungen offen. Kartographische Medien können eine sinnvolle Unterstützung im Entscheidungsprozess darstellen, bedürfen jedoch je nach Art der Fragestellung und dementsprechend vom Nutzer durchzuführenden räumlichen Operationen einer Kombination mit Texten und/oder Tabellen. Der Bedarf an Nutzerunterstützung steigt mit der Komplexität der räumlichen Operationen: das Bilden von Mustern ist für die Nutzer mit erheblich mehr Blickaufwand verbunden als das Identifizieren von Werten in der Karte. Generell stellt die Komplexität des Informationsgehalts für die Probanden keinen Hinderungsgrund dar, mit kartographischen Medien zu arbeiten. Vielmehr müssen sich die dargestellten Inhalte an den Interessen der Akteure orientieren. Beim Betrachten der Kartendarstellungen spielen Erfahrungen im Georaum eine wesentliche Rolle. Die Untersuchung konnte zeigen, dass das Raumwissen der Probanden jedoch oft mangelhaft ist. Kartographische Medien können dabei helfen, das Raumwissen auch in Bezug auf die Verteilung von Merkmalen im Raum zu steigern. Die Probanden steuerten in der empirischen Erhebung viele Anregungen zur Gestaltung eines interaktiven Systems bei, die darauf hinweisen, dass eine nutzerorientierte Systemgestaltung zwingend erforderlich ist, wenn möglichst viele Akteure von einem kommunalen Finanzauskunftssystem profitieren sollen.
Das bauliche Erbe der Befestigungs- und Verteidigungssysteme im SaarLorLux-Raum vom 16. Jahrhundert bis zum Zweiten Weltkrieg. Möglichkeiten und Probleme seiner Inwertsetzung unter besonderer Berücksichtigung freizeit- und tourismusorientierter Nutzungsformen. Seit der Teilung des karolingischen Großreichs 843 entwickelten sich in der heutigen Europaregion SaarLorLux vielfältige territoriale Auseinandersetzungen und zahlreiche Grenzverschiebungen, die zu einer außergewöhnlichen Konzentration von Festungs- und Verteidigungsanlagen aus verschiedenen Epochen in diesem Raum führten. Dass dies als einzigartig anzusehen ist, machte der Metzer Geograph Francois Reitel deutlich, der die Region SaarLorLux als "das größte Freilichtmuseum der Welt, was die Fortifikation angeht" bezeichnete. Kaum eine andere Region kann auf ähnlich eindrucksvolle Weise räumlich konzentriert die neuzeitliche Evolution des Festungswesens aus fünf Jahrhunderten dokumentieren. Die ausgeprägte epochale Vielfalt der Festungen macht sie für einen abwechslungsreichen Be-sichtigungstourismus interessant. Im SaarLorLux-Raum sind daher Freizeit und Tourismus wichtige Zielsetzungen für die Konversion von Festungs- und Verteidigungsanlagen. Sie bieten ein großes Freiraumpotential und stellen nur teilverbaute, extensiv oder gar nicht genutzte Flächenreserven dar. Es besteht jedoch eine große Diskrepanz zwischen vielen bisher stark vernachlässigten und wenigen, zum Teil hervorragend inwertgesetzten Festungsbauwerken. Damit besitzen die Festungsanlagen des Saar-LorLux-Raumes eine große Relevanz für den Kulturtourismus, die noch weitgehend unerkannt ist. Untersuchungsgegenstand der Dissertation sind insgesamt 333 Bauwerke aus den drei neuzeitlichen, feuerwaffengeprägten Festungsbauepochen. Im Einzelnen handelt es sich dabei um die Epoche der bastionären Festungsanlagen (16.-18. Jh.), die Epoche der Forts und Großfestungsanlagen (19.Jh.) und um die Epoche der Territorialfestungen (20. Jh.). Ein grundlegendes Ziel war die Erfassung der festungsbaulichen Substanz des SaarLorLux-Raumes zur Dokumentation von Art, Umfang, Funktion und Besonderheiten der vorhandenen Objekte. Die in der Bestandsaufnahme erfassten Bauwerke wurden hinsichtlich ihrer Eignung für besucherorientierte Nutzungsmöglichkeiten beurteilt. Dadurch war es möglich 25 Einzelfestungen und Ensembles zu identifizieren, die bislang noch keine Konversion erfahren haben, aber herausragende Potentiale für eine zukünftige Nutzung im Freizeit- und Tourismusbereich darstellen. Bereits festungstouristisch genutzte Anlagen werden analysiert und bewertet. Dabei finden die Vereine als hauptsächliche Träger der Erschließung und Inwertsetzung besondere Berücksichtigung. Nach Abschätzung der Stärken und Schwächen der aktuellen touristischen Strukturen werden freizeit- und tourismusorientierte Nutzungsperspektiven für das festungsbauliche Erbe des SaarLorLux-Raumes entwickelt.
The importance of the hotel sector as part of the cultural environment has not been recognised yet, partly because of a missing awareness that hotels could actually be regarded as a national treasure. The hotel business is not only a service provider for tourism - supplying different options for overnight stays - but also representative of social and built environment. It works as a meeting place and communication point; it reflects former and current culture of living as well as buildings. Within a rapidly changing world there is an increasing requirement of protecting measures for ever more aspects of the environment as e.g. for national heritage and nature conversation. So far nobody thought that hotels and inns might qualify for this category and any initiatives taken so far were generally based on private effort. A public awareness does not exist, partly because the difference between culturally worthy objects/ensembles is solely depending on individual measures of value. A classification in categories, which strengthens awareness for the hotel environment and also allows an affiliation of giving cover, is missing. This work is dedicated to exactly that shortage. In the beginning it proves that hotels/inns are worthy being integrated into protective measures. They are important representatives of the built and social culture including the living culture where one lives history. The main part of the work concentrates on a two-part systematisation ï‚· An areal allocation seems essential to rate where exactly in a town protective measures are needed. In order to do so examples for the so called "town protection zones" (Stadtschutzzone) by JÄTZOLD are used. ï‚· Following the idea of the town protection zones an introduction of a historical categorisation will be introduced, which allows allocating objects and ensembles into the different eras. The history of hotels and concise examples will show the differences " relics of early tourism, time of hostels and inns, health resorts and grand hotels, recent developments as well as stylish hotels. Subsequent to this categorisation additional conceptual suggestions to be used in praxis are made, taking into account the decision-makers that should be involved. It results in a multidisciplinary approach, which integrates heritage, town planning, bearers of cultural awareness, policy makers, etc. Negative and positive examples are deployed to force the urgency of a sensible exposure with the treasure "hotel". To force the necessity a comparison between Germany and Great Britain is used where applicable. The author believes the cultural awareness in Great Britain, which also integrates the protection of the hotel sector, is much higher and better than in Germany.
Schlaf fördert die Gedächtnisbildung. Nach einem anerkannten Modell beruht der förderliche Effekt des Schlafs auf einer verdeckten Reaktivierung der initial im Hippokampus gespeicherten Gedächtnisspuren während des Tiefschlafs, die durch ihre Reaktivierung in neokortikale Hirnareale zur langfristigen Speicherung transferiert werden. Obwohl die Existenz von Gedächtnisreaktivierungen im Schlaf gut belegt ist, ist bislang ungeklärt, ob diese Reaktivierungen tatsächlich in einem kausalen Zusammenhang zu den Prozessen der Gedächtnisbildung im Schlaf stehen. Zur Klärung dieser Frage habe ich in der vorliegenden Arbeit den Effekt von experimentell induzierten Gedächtnisreaktivierungen im Schlaf auf die Gedächtnisbildung untersucht. Zur Reaktivierung von Gedächtnisinhalten im Schlaf wurde ein während der Lernphase mit den Lerninhalten assoziierter Geruch verwendet. Achtzehn gesunde Probanden lernten sowohl einen deklarativen, den Hippokampus involvierenden als auch einen prozeduralen, weniger hippokampalen Gedächtnistest am Abend unter der Präsenz einen Geruchs, der sich als Kontextstimulus mit den Lerninhalten verbinden sollte. In der darauf folgenden Nacht wurde ihnen während des Tiefschlafs entweder erneut der Geruch oder eine geruchslose Substanz präsentiert. Die Abfrage am nächsten Morgen erfolgte ohne Duftdarbietung. Nach der Nacht mit Duft war die Erinnerungsleistung in dem deklarativen Gedächtnistest signifikant erhöht, im Vergleich zu der Nacht ohne Duft. Der positive Effekt des Geruchs auf die Gedächtnisbildung trat nicht auf, wenn der Geruch während der Lernphase nicht dargeboten wurde, und zeigte sich ausschließlich im Tiefschlaf, nicht dagegen nach einer erneuten Darbietung des Dufts im rapid-eye movement (REM)-Schlaf oder Wachzustand. Die prozedurale Gedächtnisbildung im Schlaf wurde in keinem der Experimente von einer Geruchsdarbietung nach dem Lernen beeinflusst. Die geruchsinduzierten Gedächtnisreaktivierungen im Tiefschlaf hatten keine Effekte auf die mittels der Elektroenzephalographie (EEG) gemessenen Hirnaktivität im Schlaf. Dagegen konnten zusätzliche Experimente unter Verwendung der funktionellen Kernspintomographie (fMRT) zeigen, dass eine erneute Geruchsdarbietung im Tiefschlaf den linken Hippokampus aktiviert, vorausgesetzt der Duft war bereits während der Lernphase präsent. Die Befunde der verbesserten Erinnerungsleistung nach einer experimentell induzierten Reaktivierung der neu enkodierten, hippokampalen Gedächtnisinhalte liefern einen eindeutigen Beleg für den kausalen Zusammenhang zwischen hippokampalen Gedächtnisreaktivierungen im Tiefschlaf und den Prozessen der deklarativen Gedächtnisbildung. Damit bestätigen sie die Kernannahme des Modells der schlaf-abhängigen Gedächtnisbildung durch Reaktivierungen im Tiefschlaf. Zusätzlich liefern die Experimente einen neuen Ansatz zur Untersuchung und Manipulierbarkeit von Gedächtnisreaktivierungen im Schlaf, durch den möglicherweise auch im klinischen oder alltäglichen Kontext positive Ergebnisse auf die Gedächtnisbildung im Schlaf zu erzielen sind.
Die vorliegende Arbeit hat die zunehmende Bedeutung des Social Web und die daraus resultierenden Auswirkungen auf das Informations- und Reiseverhalten von Städtetouristen zum Thema. Hauptfragestellung ist, inwiefern sich die gestiegene Bedeutung des Social Web auf das Informationsverhalten von Reisenden und ihr Verhalten vor Ort, insbesondere hinsichtlich des Interesses an Nischenattraktionen, auswirkt. Große Städte, vor allem Metropolen, verfügen über eine fast unüberschaubare Zahl von touristischen Attraktionen und Angeboten. Dazu zählen auch jene, die abseits der Haupttouristenrouten in weniger touristisch geprägten Stadtteilen liegen. Trotz dieser Angebotsvielfalt ist die Mehrzahl der Städtetouristen meist auf der sogenannten "Straße der Ameisen" anzutreffen. Eine Ausnahme stellen jedoch die sogenannten neuen Städtetouristen dar, die weniger an klassischen Mainstream-Sehenswürdigkeiten, sondern mehr am Entdecken authentischer und einzigartiger Plätze abseits der Touristenpfade und am Erleben des Alltags der Einheimischen interessiert sind. Für die vorliegende Untersuchung der Fragestellung wurden insgesamt drei methodische Bausteine herangezogen: 1) Eine Inhaltsanalyse für den Vergleich von Social-Web-Anwendungen und klassischen Reisemedien hinsichtlich ihrer thematischen Schwerpunktsetzung; 2) eine Touristenbefragung mit dem Ziel, mehr über die Nutzung des Social Web als Reiseinformationsquelle und über das Verhalten der Social-Web-Nutzer im Allgemeinen, und ihr Interesse an Nischen und Orten abseits der Touristenpfade im Besonderen, zu erfahren. Schließlich sollten 3) Interviews mit städtetouristischen Nischenunternehmen weitere Erkenntnisse über die Nutzung sozialer Medien durch Anbieter im Städtetourismus liefern. Die Ergebnisse machen deutlich, dass die Auswirkungen des Social Web " sowohl durch die Nutzung als Reiseinformationsquelle durch die Nachfrager, als auch durch die Verwendung als Marketing- und Vertriebskanal von Seiten der Anbieter " bislang geringer sind als zunächst angenommen. Auch wenn Nischenangebote und Alltagskultur zum Teil in sozialen Medien stärker präsent sind als z. B. in Reiseführern, und einige kleine Nischenanbieter die Möglichkeiten, die ihnen das Social Web bietet, schon optimal nutzen, so hat eine verstärkte Social-Web-Nutzung bislang doch keine grundlegenden Verhaltensänderungen auf Seiten der Reisenden bewirkt. Die Straße der Ameisen ist trotz der gestiegenen Social-Web-Nutzung nach wie vor existent. Dass das Social Web als ein Filter fungiert, der Interessierte in Richtung der Long-Tail-Angebote "schickt", konnte im Rahmen der vorliegenden Dissertation nur zum Teil bestätigt werden. Neben der Informationsquelle Social Web üben doch auch viele andere Faktoren einen Einfluss auf das Interesse von Reisenden an Lokalkolorit, authentischen Erlebnissen und besonderen Nischenangeboten aus. Trotzdem dürfte gerade für den sogenannten neuen Touristen das Social Web neue Möglichkeiten der Informationsgewinnung über einzigartige Örtlichkeiten an den Reisezielen bereitstellen. So ist es heutzutage einfacher als je zuvor, an Hinweise und Tipps zu ganz spezifischen Reisezielen und -aktivitäten zu kommen, die zudem meist noch sehr persönlich und authentisch wirken, da sie größtenteils von anderen Nutzern stammen.
Edition und Kommentar von 27 Texten auf Papyrus aus den französisch-italienischen Grabungen in Tebtynis (Umm el-Breigât), Ägypten. Alle Texte stammen aus römischer Zeit und sind in Tebtynis gefunden worden. Sie werden hier erstmals mit Abschrift, Übersetzung und Kommentar herausgegeben und beleuchten diverse Aspekte des täglichen Lebens, so auf Verwaltung, Wirtschaft, Rechtsangelegenheiten, Bevölkerung, Religion, Steuerwesen, Arbeitsalltag, Vertragswesen, geschäftliche und erbrechtliche Angelegenheiten. Es handelt sich somit um Quellenmaterial für alle altertumswissenschaftlichen Nachbarsdisziplinen. Folgende Texte sind enthalten: 1. Rundschreiben des Praefectus Aegypti; 2. Monatsbericht der Sitologen von Kerkesis; 3. κατ'ἄνδρα-Bericht der Sitologen von Kerkesis (Verso von Nr. 2); 4. Fragment eines Amtlichen Schreibens; 5. Verhandlungsprotokoll; 6. Liste von Dörfern und Geldsummen; 7. Liturgie-Vorschlagsliste (?); 8. Personenliste; 9. Aufstellung über Naturalien; 10. Tempelabrechnung; 11. Zensusdeklaration; 12. Schluß einer Eingabe mit Namenliste; 13. Eingabe der Thenherakleia?; 14. Quittungsbogen für verschiedene Steuern; 15. Quittungen für Dammsteuer; 16. Fragment einer Lohnquittung für Arbeiten auf einem Kleros (?); 17. Fragment einer Lohnquittung; 18. Liste von Zahlungen in Weizen; 19. Abrechnung von Außenständen in Naturalien und Geld; 20. Agoranomischer Vertrag über ein Geld- und Getreidedarlehen; 21. Donatio mortis causa; 22. Geschäftsbrief: Heron an Heron; 23. Geschäftsbrief: Heron an Heron; 24. Geschäftsbrief: Heron an Sabinos; 25. Brief; 26. Brief; 27. Fragment mit Erwähnung von Dörfern und Immobilien (descr.)
Die Gemeine Fichte (Picea abies (L.) Karst.) zählt in Mitteleuropa zu den häufigsten und wirtschaftlich bedeutsamsten Baumarten. Aufgrund ihrer forstwirtschaftlichen Nutzbarkeit wird sie " insbesondere in Deutschland " weit über ihr natürliches Verbreitungsgebiet hinaus angebaut. Die Entwicklungsgeschichte der jeweiligen Populationen und die auf sie einwirkenden Standortfaktoren haben in Bezug auf ihre genetische Konstitution unterschiedlichen Einfluss ausgeübt. Wenn auch anhand morphologischer und isoenzymatischer Studien erste Kenntnisse zur Differenzierung der Fichte in ihrem europäischen Verbreitungsgebiet vorliegen, so muss vermutet werden, dass die bisher verwendeten Methoden nicht ausreichend in der Lage sind die genetische Variabilität der Fichte und die Differenzierung ihrer Populationen in ihrem deutschen Verbreitungsgebiet zu beschreiben. Ziel dieser Untersuchung war deshalb die Durchführung einer umfassenden populationsgenetischen Charakterisierung der Fichte in Deutschland auf Basis geeigneter molekulargenetischer Verfahren. Der Schwerpunkt lag insbesondere auf der Überprüfung möglicher genetischer Differenzierungen von Populationen und in der Darstellung ihrer genetischen Variabilität. Dazu wurden insgesamt vier PCR-gestützte Techniken eingesetzt: RAPD (random amplified polymorphic DNA), ISSR (inter simple sequence repeats), SSR (simple sequence repeats) und EST (expressed sequence tags). Die populationsgenetischen Analysen erfolgten an sieben Fichtenbeständen, deren Auswahl sowohl die gesamte Nord-Süd-Ausdehnung Deutschlands als auch die wesentlichen Höhenstufen berücksichtigte. Von jeder Fläche wurden 30 Individuen beprobt, morphologisch-biometrisch charakterisiert und populationsgenetisch analysiert. Als Probenmaterial für die genetische Analyse wurden Nadeln einjähriger Triebe verwendet. Die morphologisch-biometrische Analyse ergab bezüglich der Parameter Stammumfang, Baumhöhe, Trieblänge und -gewicht einjähriger Triebe sowie einiger daraus errechneter Relationen große Differenzierungen zwischen den untersuchten Populationen. Während sich die Bestände in den Höhenlagen durch niedrigen aber kräftigen Wuchs sowie vergleichsweise kurze und kompakt erscheinende Triebe auszeichneten, zeigten die Bäume der Niederungen eher ein verhältnismäßig schlankes Erscheinungsbild und lange Triebe bei niedrigen Triebgewichten. Die übrigen Bestände waren einem intermediären Typ zuzuordnen. Im Rahmen der populationsgenetischen Analyse wurden zahlreiche deskriptive und populationsgenetische Parameter zur Charakterisierung der Populationen verwendet. Während mit den dominanten Verfahren mit 14 (RAPD) bzw. 4 (ISSR) Primern 234 bzw. 36 Marker amplifiziert wurden, konnten mit Hilfe der jeweils 3 verwendeten SSR- bzw. EST-Primer 34 bzw. 9 Produkte nachgewiesen werden. Es konnte deutlich gemacht werden, dass die Detailbetrachtung der je nach Markersystem ermittelten populationsgenetischen Parameter zum Teil gegensätzliche Ergebnisse erbrachte. Während im Rahmen der ISSR-Analyse eine deutliche Differenzierung der Populationen innerhalb des natürlichen Verbreitungsgebietes gegenüber der Gruppe der künstlichen Bestände erbracht werden konnte, war dies mit den übrigen Markersystemen nicht nachvollziehbar. In der Gesamtbetrachtung aller Ergebnisse sind jedoch drei Schwerpunkte über alle verwendeten Methoden herauszuarbeiten: (1) zwischen den untersuchten Populationen bestehen lediglich geringe Differenzierungen, (2) die untersuchten Populationen zeichnen sich durch eine hohe bis sehr hohe genetische Variabilität aus, (3) die Variation der Grundgesamtheit ist durch die Variation innerhalb der Populationen begründet. Mit diesen Ergebnissen konnte auf Basis von DNA-Analysen die aus theoretischen Überlegungen sowie aus isoenzymatischen Untersuchungen stammenden Vermutungen hoher genetischer Variabilität von Fichtenpopulationen belegt werden. Darüber hinaus konnte deutlich gemacht werden, dass mit den verwendeten Markersystemen trotz großer morphologisch-biometrischer Differenzierung der untersuchten Bestände kein Zusammenhang zwischen Morphologie und Genetik nachweisbar ist. Erst die Entwicklung spezifischer EST-Marker wird die zur Zeit noch bestehende Lücke des funktionalen Zusammenhangs schließen können.
Ein Privileg für wenige
(2001)
Between 1933 and 1945 the right to asylum did not exist. The decisive factor for a successful escape from the National Socialism was finding a country offering refuge. Although Canada had a long history of immigration from German-speaking regions to look back on, it generally kept its doors closed to these refugees. This thesis focuses on the German-speaking refugees who did find refuge in Canada; some Jews, about 1000 Social Democrats from the Sudetenland and those refugees deported from Britain in 1940. Annette Puckhaber addresses the question of the circumstances under which they came and settled in Canada. Three biographical accounts illustrate the experience of the flight from a subjective viewpoint. As a contrast, the author discusses the reasons for the Canadian immigration policies which led to the admittance of the refugees: They extend from economical considerations to protection of its international reputation. In summary, for the refugees, acceptance into the country was a matter of survival. The government in Ottawa however considered immigration to Canada - regardless of its circumstances - as a privilege in itself: a privilege extended to the few.
Öffentlichkeitsarbeit ist in der politischen Arbeit unabdingbar geworden, die Wirkungen von Kommunikationsmaßnahmen in die Bevölkerung sind Gegenstand zahlreicher Untersuchungen. Die Wirkungen auf die Durchführenden selber, also auf die Politik und die Verwaltung, sind hingegen noch nicht untersucht worden. Hier setzt diese Arbeit an. Im Zentrum der Untersuchung steht dementsprechend die "interne" Wirkung (auf Verwaltung, Politik) einer Kommunikationsmaßnahme, weniger die "externe" (in die Bevölkerung). Zentrale These ist, dass eine an die Öffentlichkeit gerichtete Maßnahme eine interne Wirkung entfaltet, die die politischen, gesellschaftlichen und verwaltungstechnischen Rahmenbedingungen wesentlich zugunsten des beworbenen Themas verändert. Am Beispiel des Radverkehrs wird diese These überprüft. Als Untersuchungsrahmen dient die "Kopf-an" Kampagne des Bundesumweltministeriums, welche, durchgeführt in neun Kommunen Deutschlands, die Förderung des Alltagsradverkehrs zum Ziel hatte. Mittels einer vergleichenden Untersuchung von Hemmnissen und Erfolgsfaktoren kommunaler Radverkehrspolitik werden Erfolgsfaktoren für den kommunalen Radverkehr extrahiert, die die Kernthesen der Untersuchung bilden. Inwieweit diese Erfolgsfaktoren durch die "Kopf an" Kampagne positiv beeinflusst werden konnten, wird mittels Experteninterviews untersucht. Es wird gezeigt, dass eine Reihe von Faktoren positiv beeinflusst wurde und sich so aufgrund der Kampagne ein positiveres Klima für den Radverkehr in Politik und Verwaltung entwickelt hat.
Grundlage der Arbeit stellten zwei Arbeitshypothesen dar, die es zu überprüfen galt. Die beiden Arbeitshypothesen wurden aufgrund einer Beobachtung eines Phänomens im Freiland formuliert, da bei scheinbar unterschiedlich starkem Reblausbesatzes im Boden kein direkter Zusammenhang zu einer schädigenden Wirkung dieses Stressphänomens (Reblausbefall) hergestellt werden konnte. Im Gegenteil traten die schädigenden Wirkungen des Reblausbefalls in Form von Rückgangserscheinungen eher in Rebflächen auf, die einer mangelhaften Bewirtschaftung oder Bestandsführung unterlagen. Zur Klärung dieses Phänomens wurden daher die beiden (A., B.) folgenden Hypothesen aufgestellt, die es zu überprüfen galt:
A.: Die in mit Unterlagsrebsorten der Kreuzung V. berlandieri x V. riparia zu beobachtenden Rückgangserscheinungen in Rebanlagen mit Reblausvorkommen werden nicht allein durch die Saugtätigkeit der Reblaus an den Rebwurzeln verursacht; eine direkte Korrelation zwischen Reblausdichte und Ausmaß der Rückgangserscheinungen an infizierten Reben besteht nicht. B.: Das Ausmaß möglicher Rückgangserscheinungen ist abhängig von der Bewirtschaftung des Rebbestands, wobei der Bodenbewirtschaftung eine maßgebliche Rolle zukommt.
Um diese Hypothesen zu überprüfen wurde ableitend von den Zielen der Arbeit ein Reblausbonitursystem zur Erfassung der Reblausabudanz im Freiland im Boden erarbeitet. Die besonderen Schwierigkeiten bei der Erfassung des Reblausbefalls im Boden aufgrund des stark variierenden Wurzelsystems der Rebe und dem ebenfalls stark schwankenden Reblausbefalls an der Wurzel der Rebe wurde mit dem Reblausbonitursystem (Grabungen) Rechnung getragen, sodass ein valides System zur Beurteilung des Reblausbefalls auch im jahreszeitlichen Verlauf erstellt worden konnte. Damit wurde ein Reblausbonitursystem geschaffen, das auch in praktischer Anwendung durchführbar ist und somit mit seiner höheren möglichen Replikationsrate bei der Probenentnahme dem stark variierenden Charakter des Reblausbefalls im Boden Rechnung trägt.
Um Rückgangserscheinungen in einem Weinberg nachhaltig analysieren zu können, wurde ein Wuchsbonitursystem evaluiert. Dieses System beurteilt alle Reben einer Rebfläche innerhalb eines einfachen für den Menschen kognitiv sehr gut verarbeitenden Bewertungssystem zum Wuchs der Reben. Damit ist eine Erfassung einer sehr großen Datenmenge zur Beurteilung des Wuchses auf einem Rebfeld möglich. Die Korrelation des mit dem System ermittelten Wuchses zu vielen Leistungsparametern der Rebe und den Gegebenheiten auf den Versuchsflächen zeigt die hohe Validität des Wuchsbonitursystems auf. Auch konnten Wuchsunterschiede in sehr differierenden Versuchsfeldern mit dieser Methode deutlich belegt werden. Damit wurde deutlich, dass mit dieser Wuchsboniturmethode die Rückgangserscheinungen in einer Rebfläche erkannt und analysiert werden konnten. Somit konnten mit den beiden Instrumenten der Wuchs- und Reblausbonitur die beiden Arbeitshypothesen dahingehend belegt werden, dass unter Verwendung der Unterlagensorten der Kreuzungskombination V. berlandieri x V. riparia kein Zusammenhang zwischen der Reblausdichte im Boden und Rückgangserscheinungen der Rebe vorliegen. Darüber hinaus konnte belegt werden, dass in Erweiterung dieser Erkenntnis das Ausmaß der Rückganserscheinungen bei Reben maßgeblich von der Art der Bewirtschaftung abhängt und somit deutlich abzutrennen ist vom Einfluss des Reblausbefalls. Vor allem konnte durch die vorliegende Arbeit unter Einbeziehung des Wuchsbonitursystems eine Methode erarbeitet werden, die in Zukunft bei der Beurteilung von Fernerkundungsdaten ein nützliches Instrument darstellt, um die wirklichen Gegebenheiten hinsichtlich des Wuchses der Reben auf Weinbergsflächen mit den berechneten Werten zu Wuchsindizes zu korrelieren.
Epistemologische Überzeugungen sind Annahmen über die Struktur und Richtigkeit von Wissen sowie den Prozess des Wissenserwerbs. Der Autor stellt diesbezüglich Zusammenhänge von psychologischen und philosophischen Konzepten her und argumentiert dabei vom Standpunkt des kritischen Realismus. Außerdem werden, aufgrund empirisch gewonnener Hinweise, die Variabilität wissenschaftstheoretischer und epistemologischer Überzeugungen sowie deren Zusammenhänge zu Leistungsmotivation, Lernzielen und Lernstrategien bei Studenten beschrieben.
Die Breite und Tiefe der zu bewältigenden Aufgaben der Unternehmensführung, der Grad und die Geschwindigkeit der Veränderung der Umwelt der Unternehmung, die Interdependenz von Entscheidungen und ein schier unüberschaubares Netzwerk von Wechselbeziehungen mit den, von den Aktivitäten der Unternehmung betroffenen Individuen und Gruppen resultieren in sich laufend verändernden Ausgangslagen für die Unternehmung und verleihen der Notwendigkeit eines Gestaltungs-, Lenkungs- und Entwicklungsrahmens für das erforderliche Wechselspiel von Stabilisierung und Wandel der Unternehmung ihre Aktualität und Bedeutung. Die Hauptaufgabe der Unternehmensführung im Spannungsfeld komplexer systeminterner und systemexterner Beziehungsgeflechte ist der Umgang und die Bewältigung der sich aus diesen Beziehungsgeflechten bzw. deren Wandel ergebenden Komplexität. Der Paradigmenwechsel von einem reduktionistischen Unternehmensführungsverständnis, welches sich auf die Lenkung der Unternehmung auf Basis monistischer Zielvorstellungen versteht hin zu einem systemisch-evolutorischen Unternehmensführungsverständnis, welches sich auf die Gestaltung und Entwicklung der Unternehmung aufgrund von pluralistischen Zielsystemen und multiplen Kausalitätsbeziehungen versteht, ist noch nicht vollzogen. Auch sieht sich die Unternehmensführung den, im Wettbewerb stehenden Prämissen der opportunistischen Management-Philosophie des Shareholder-Value-Ansatzes und der verpflichteten Management-Philosophie des Stakeholder-Value-Ansatzes gegenüber. Diese Transitionsphase in Wissenschaft und Praxis sieht ein "Ringen zweier Paradigmen um ihre Durchsetzung", wobei diese Entwicklungsdynamik vom Spannungsverhältnis zwischen Bewahrung und Proliferation geprägt ist. Das vorgelegte systemisch-koevolutionäre Modell der strategischen Unternehmensführung stellt einen solchen Beitrag zum Paradigmenwechsel in der Unternehmensführung hin zu einem systemisch-evolutorischen Unternehmensführungsverständnisses auf Basis einer verpflichteten Management-Philosophie dar. Das, auf den dargelegten erkenntnistheoretischen Grundannahmen, Beschreibung von Wirkungszusammenhängen und Handlungsheuristiken der betrachteten Fallstudie aufbauende Modell für die langfristig erfolgreiche Unternehmensführung wird als ein Erklärungsmodell einerseits, welches die Wirkungszusammenhänge erfassen und verstehen helfen soll, und ein Gestaltungsmodell andererseits, welches den Entscheidungsprozess unterstützen soll, verstanden. Die strategische Unternehmensführung - als Prozess der Orientierung und Animation verstanden - soll in diesem Zusammenhang die nachhaltige Sicherung und den Aufbau von Erfolgspositionen, sowie die Aufrechterhaltung der bestehenden Koalitionen bzw. Schaffung der Voraussetzungen für die Bildung zukünftiger, nutzenstiftender Koalitionen zur Sicherung der sinnvollen langfristigen Lebensfähigkeit der Unternehmung, ermöglichen. Die Strategieentwicklung im "10-Stufen-Strategiemodell" wird durch die Komplementarität von marktorientierten und ressourcen- bzw. fähigkeitenorientierten Prozessen und Ansätzen geprägt, um die Wettbewerbsfähigkeit der Unternehmung im Zeitalter der "Hypercompetition" und Streben nach dynamischen und differenzierenden Fähigkeiten zu entwickeln und nachhaltig zu sichern. Dieser Strategieentwicklungsprozess erhält seinen Rahmen durch ein übergelagertes Stakeholdermanagementsystem, welches die Anspruchsbefriedigung und Nutzenoptimierung aller relevanten Stakeholdergruppen zur nutzenstiftenden Verankerung der Unternehmung in seiner Stakeholderumwelt zum Ziel hat. Das so genannte "Strategic Corporate Social Performance Modell" gibt diesem Stakeholdermanagementsystem Namen, Orientierung, Prozesse und Kontrollinstrumente und soll die gegenseitige Anerkennung der Ansprüche der so unterschiedlichen Stakeholdergruppen ermöglichen und zur Sicherung der wirtschaftlichen Basis, zur Wertsteigerung der Unternehmung und der Steigerung der Nutzenbefriedigung aller relevanter Stakeholder führen.
Die zukünftige Landwirtschaft steht vor großen Herausforderungen: Zum einen sollen mit knapper werdenden Ressource wie Wasser und Boden mehr Menschen ernährt, die Wirtschaftlichkeit gesteigert und Pflanzen zur Energiegewinnung sowie für die Industrie erzeugt werden. Zum anderen sollen Umweltbelastungen deutlich verringert werden, damit die Landwirtschaft nicht ihre eigene Grundlage zerstört und Anpassungsstrategien für das zukünftige Klima gefunden werden. Die Erstellung eines Modells, mit deren Hilfe die Auswirkungen von Klimavariabilität, Standortbedingung, verschiedenartiger Kultivierung, Umwelteinflüsse und nachhaltigem Wirtschaften auf das Pflanzenwachstum simuliert werden können, also eine ökonomisch-ökologischen Bewertung vorgenommen werden kann, ist daher das Hauptziel vorliegender Dissertation. Zur Erlangung dieses Ziels sollte ein ökologisches (STICS) und ein ökonomische Modell (Produktionsfunktion) miteinander gekoppelt werden. Eine Sensitivitätsanalyse des Pflanzenwachstumsmodells STICS verdeutlicht, dass dieses Modell geeignet ist den Einfluss unterschiedlicher Bewirtschaftungsmethoden und Klimakenngrößen auf das Pflanzenwachstum bzw. den Ertrag sowie die Bodenfruchtbarkeit, z.B. über die Nitratauswaschung, realitätsnah abzubilden. Die Voraussetzung dafür ergibt sich auch aus dem Verwenden des statistischen Klimamodells WETTREG 2010, welches hochaufgelöste Klimadaten, die in Anzahl der Klimaelemente und zeitlicher Auflösung der Messreihen von Klimastationen gleichen, liefert. Die natürliche Variabilität des Klimas wird damit gut widergeben und Aussagen über zukünftiges Wachstum und Pflanzenentwicklung sowie Auswirkungen von Extremwetterlagen berechenbar. Die Ergebnisse des Pflanzenwachstumsmodells dienen als Grundlage einer Produktionsfunktion des Cobb-Douglas-Typs. Der graphische Zusammenhang, die Verteilung der Produktionsfaktoren und die Regressionsergebnisse zeigen allerdings, dass eine einfache lineare Regression zur Bestimmung der Funktion auf Mittel- und Summenwertbasis zu schlechten Ergebnissen, insbesondere hinsichtlich der Anpassung an Extremereignisse, führt. Die Klimafaktoren Niederschlag bzw. Wasser und Temperatur, aber auch die Nachhaltigkeit im Sinne der Erhaltung der Bodenfruchtbarkeit können in der Funktion nicht eindeutig bestimmt werden. Anhand von Simulationen mit künstlichen Klimadaten, d.h. stetig steigenden Temperaturen und immer gleicher Verteilung des Niederschlags (gute und schlechte Verteilung), konnten die Fehlerquellen herauskristallisiert und die fehlenden Faktoren in der Produktionsfunktion gefunden werden. Ein Lösungsansatz ist das Einbeziehen von Stressindizes für Wasser- und Stickstoffmangel, welche die zeitliche Verteilung von Niederschlag und Temperatur bzw. deren Auswirkungen auf das Pflanzenwachstum darstellen. Zudem ist über den Stickstoffstress die Verfügbarkeit von Nitrat für die Pflanze ableitbar und kann in der Produktionsfunktion miteinbezogen werden. Die Ergebnisse der Regression mit Berücksichtigung der Wasser- und Stickstoffstressindizes zeigen deutlich bessere Ergebnisse. Die Variabilität kann deutlich erhöht und die zeitliche Verteilung von Niederschlag und Temperatur sowie die Bodenfruchtbarkeit berücksichtigt werden. Allerdings ist die Anpassung gerade in den extremen Bereichen (überdurchschnittlich niedrige oder hohe Ernten) zu systematisch. Das Pflanzenwachstumsmodell wird demnach nicht durch eine einfache Produktionsfunktion ersetzbar, da es wichtige Informationen zu Ertrag, Einfluss der Klimavariabilität auf den Ertrag, Umwelteinflüssen, wie Stickstoffaustrag, oder Stressindizes liefert. Vielmehr wird erst durch Verwendung des Pflanzenwachstumsmodells die direkte Abhängigkeit zwischen Bewirtschaftung, Ertrag und Nachhaltigkeit im Sinne der Erhaltung der Bodenfruchtbarkeit bzw. der Vermeidung hoher Nitratauswaschung deutlich. Eine nicht angepasste Bewirtschaftung, z.B. Überdüngung und/oder hohe Bewässerung, führt sowohl zu mehr Nitrataustrag als auch zu niedrigerem Ertrag sowie höheren Kosten. Deutlich wird die Unersetzbarkeit des Pflanzenwachstumsmodells durch eine einfache Kostenanalyse. Hierbei konnte die Unrentabilität sehr intensiver Bewirtschaftung und Rentabilität einer zusätzlichen Bewässerung nur unter Berücksichtigung der Nitratauswaschung und klimatischer Gegebenheiten herausgestellt werden. Erst durch das Zusammenspiel von ökologischem und ökonomischem Modell werden die Auswirkungen von Klimavariabilität, Standortbedingung, verschiedenartiger Kultivierung und nachhaltigem Wirtschaften auf das Pflanzenwachstum berechenbar. Eine ökologisch-ökonomische Bewertung, wie die Beurteilung von Auswirkungen bestimmter Klimaelemente (Wasser, Temperatur) auf Pflanzenwachstum und Ertrag, Adaptionsstrategien, effizienter und ressourcenschonender Bewirtschaftung, Rentabilität, Umweltbelastung oder Nachhaltigkeit wird damit letztendlich möglich.
Die Dissertation untersucht am Beispiel mikrohistorischer Fallstudien die Forschung des remigrierten Instituts für Sozialforschung in Frankfurt am Main unter der Leitung Max Horkheimers und Theodor W. Adornos. Deren empirische Sozialforschung war in Institutionen der frühen Bundesrepublik gefragt, weil die Forscher durch die Studien zur Autoritären Persönlichkeit den Ruf als Experten der Demokratie erworben hatten. Die Forschungsdisziplinen, in denen das Frankfurter Institut seine Expertise entfaltete, reichten von den Feldern der Militärsoziologie über die Sozialpsychologie, über dass Feld der Politischen Bildung bis hin zur Industrie- und Betriebssoziologie. Für das Amt Blank, das Bundesverteidigungsministerium, das Bundesministerium für Arbeit, die Bundeszentrale für Heimatdienst und den Mannesmannkonzern untersuchte das Frankfurter Institut die Akzeptanz demokratischer Institutionen und das demokratische Bewusstsein der Deutschen. Dabei konnte es an Studien der alliierten Besatzungsorgane anschließen, entwickelte aber deren Untersuchungsmethoden durch die Etablierung qualitativer Erhebungsverfahren wie das Gruppendiskussionsverfahren entscheidend weiter. Die Dissertation kommt zum Ergebnis, dass kritische Sozialforschung in der frühen Bundesrepublik nachgefragt wurde, dass aber durch vielfältige Konflikte und Widerstände von etablierten Wissenschaftlern, deren Karrieren zu einem guten Teil im Nationalsozialismus begonnen hatte, aber auch mit den untersuchten Eliten, Verbänden und im industriellen Großkonzern eine breiteren Rezeption verhindert wurde.
Theoretischer Hintergrund: Essstörungen sind schwere psychische Störungen, welche aufgrund ihrer Komplexität, der hohen Mortalitätsrate sowie häufiger Chronifizierungen zu den Herausforderungen für Therapie und Forschung zählen. Die Herzratenvariabilität, als Indikator autonomer Regulation, scheint insbesondere bei Anorexie-Patientinnen zu Gunsten einer höheren parasympathischen Aktivität verschoben. Dieser Befund lässt sich anhand des Model Of Neurovisceral Integration erklären: Gemäß dieses Modells stellt eine erhöhte Herzratenvariabilität einen Hinweis für erfolgreiche Selbstregulation dar. Letztere scheint für restriktives Essverhalten essentiell, während sie bei impulsiven Verhaltensweisen wie Essanfälle und Erb-rechen reduziert sein sollte. Die bisherige Studienlage zur Herzratenvariabilität bei Essstörungen ist aufgrund der begrenzten Anzahl der Studien, der geringen Stichprobengrößen und Nicht- Berücksichtigung sinnvoller Drittvariablen jedoch noch inkonsistent und oftmals widersprüchlich. Neben der physiologischen Komponente werden in der Essstörungssymptomatik Veränderungen im kognitiven und emotionalen Erleben beschrieben. Zur Untersuchung beider Konstrukte erweisen sich Methoden des Ecological Momentary Assessment als aufschlussreich, da hierbei das Verhalten im Alltag der Patienten erhoben wird. Die bisherige Literatur zeigte bislang eine gute Anwendbarkeit der Methodik bei Essstörungspatienten, wobei die Anzahl der Studien gering ist. So fehlen bislang Studien, welche Emotionen und Kognitionen in Bezug zu Mahlzeiten und Sättigungsempfindungen setzen, obgleich solche Zusammenhänge in der kognitiven Verhaltenstherapie als zentral angesehen werden. Methode: Zu Beginn einer stationären psychosomatischen Behandlung wurden bei N=51 Probandinnen (Anorexia Nervosa: 19, Bulimia Nervosa: 15, gesunde Kontrollgruppe: 17) zeit- und frequenzanalytische Parameter der Herzratenvariabilität unter Berücksichtigung des Alters und des BMI in einer standardisierten fünfminütigen Laboruntersuchung untersucht. Am selben Tag fand außerdem eine stündliche Erhebung von Essverhalten, essstörungsspezifischen Kognitionen und negativen Emotionen mittels Smartphone statt. Am Ende der Behandlung wurde die Untersuchung wiederholt. Allgemein lineare Modelle wurden ebenso wie Mehrebenenmodelle zur statistischen Überprüfung der Hypothesen eingesetzt. Ergebnisse: Anorexie-Patientinnen zeigten tendenziell eine höhere parasympathische Aktivität als gesunde Probandinnen. Im Vergleich zu den beiden anderen Gruppen wiesen Bulimie-Patientinnen die niedrigste HRV auf. Antidepressiva führten zu einer Verringerung der HRV, genauso wie bei Anorexie-Patientinnen die Krankheitsdauer. Zusammenhänge mit erlebten Essanfällen konnten nicht festgestellt werden. Im Therapieverlauf zeigte sich, dass sich bei Anorexie-Patientinnen die HRV nach erfolgreicher Gewichtszunahme signifikant verringerte. Des Weiteren zeigten Essstörungspatientinnen höhere Ausprägungen in essstörungsspezifischen Kognitionen und negativen Emotionen während des Messtages. Mahlzeiten führten zu einer Verschlechterung der Stimmung, insbesondere bei restriktiven Anorexie-Patientinnen. Das Sättigungsempfinden einer Mahlzeit hatte einen signifikanten Einfluss auf die Bewertung dieser bei der klinischen Stichprobe, nicht jedoch bei gesunden Probandinnen. Am Ende der psychosomatischen Behandlung zeigte sich eine deutliche Verbesserung der essstörungsspezifischen Kognitionen und Mahlzeit-Bewertungen. Mahlzeiten hatten überdies einen geringeren Einfluss auf die Stimmung als zu Behandlungsbeginn. Diskussion: Die Auffälligkeiten im psychischen und physiologischen Bereich bei Essstörungspatientinnen sind Ausdruck eines vielschichtigen Krankheitsbildes, welches jedoch durch intensive Therapieangebote veränderbar ist. Das Hinzuziehen sinnvoller Drittvariablen erscheint bei Untersuchungen zur Herzratenvariabilität bei Essstörungspatienten essentiell. Darüber hin-aus zeigt die vorliegende Studie erstmals Zusammenhänge zwischen Mahlzeiten, Sättigungsempfinden und Essstörungssymptomatik mittels Ecological Momentary Assessment. Diese Methodik bietet einen inkrementellen Nutzen in der Erhebung verhaltensnaher Therapieerfolge. Resultierende Therapieansätze und Implikationen der Studie werden aufgezeigt.
α2-adrenerge Rezeptoren sind entscheidende Strukturen für den Ablauf einer physiologischen Stressreaktion. Verschiedene Ursachen sind bekannt, welche die Funktionalität/Effektivität der vorwiegend inhibitorischen α2-adrenergen Wirkung einschränken. Darunter fallen frühe und lebenszeitliche Stressbelastung, genetische Faktoren sowie pharmakologische Einflüsse. Ziel der vorliegenden Dissertation war die Identifikation und Charakterisierung von kognitiven und zentralnervös gesteuerten kardiovaskulären Parametern, welche durch α2-adrenerge Rezeptoren in besonderem Maße beeinflusst werden. Weiterhin sollte anhand pharmakologischer Modelle eine Methode entwickelt werden, um diese Beeinflussbarkeit quantitativ zu beschreiben. In einem komplexen pharmakologischen Versuchsplan wurde die Aktivität der α2-adrenergen Rezeptoren durch jeweils fünf Dosisstufen Dexmedetomidin (α2-adrenerger Agonist) und Yohimbin (α2-adrenerger Antagonist) manipuliert. In einem placebokontrollierten einfach-blinden Design wurde die Konzentrations-Wirkungs-Beziehung bzw. die Dosis-Wirkungs-Beziehung zwischen der Medikation und kognitiven sowie zentralnervös gesteuerten kardiovaskulären Parametern ermittelt. Zudem wurden die Effekte von α2-adrenergem Agonismus und Antagonismus auf die akustische Startlereaktion sowie auf die Plasmakonzentration von Noradrenalin (NA) und DHPG erfasst. Mittels linearer pharmakodynamischer Modellierung sollte anschließend die maximale Spannweite der α2-adrenerg vermittelten Effekte vorhergesagt werden, um so Aussagen über die pharmakologische Beeinflussbarkeit der Rezeptoren treffen zu können. Es zeigten sich deutliche Effekte von α2-adrenergem Agonismus und Antagonismus auf einfache Reaktionszeiten und kardiovaskuläre Parameter. Insbesondere sympathisch vermittelte Funktionen waren durch die pharmakologische Manipulation beeinflusst, ebenso wie die Magnitude der Blinzelreaktion auf einen akustischen Schreckreiz. Die Substanzen hatten zudem deutliche Einflüsse auf die Plasmakonzentration von NA und DHPG. Der besondere Erfolg dieser Arbeit liegt in der systematischen Quantifizierung der pharmakologischen Beeinflussung zentralnervöser Parameter durch α2-adrenergen Agonismus und Antagonismus. Es konnte gezeigt werden, dass die pharmakodynamische Modellierbarkeit zentralnervöser Parameter Aufschluss über potenzielle Gruppen-unterschiede in der Funktionalität/Effektivität α2-adrenerger Mechanismen geben kann.
Zehn Jahre nach dem Beginn des Eurosystems haben die beteiligten Euro-Zentralbank den Umfang ihrer Gold- und Devisenreserven in der Summe nahezu beibehalten. Hingegen wurde vor der Euro-Einführung erwartet, dass die Europäische Währungsunion einen substanziellen Abbau des Reservevolumens begünstigt. Vor diesem Hintergrund hat die Arbeit das Ziel,die Haltung von Währungsreserven im Eurosystem zu analysieren, deren Höhe, Struktur und Management zu prüfen und strategische Optionen für eine Optimierung aufzuzeigen. Im Ergebnis lässt sich ein signifikanter Abbau von Währungsreserven sowie eine Neuausrichtung im Management der Reservebestände hinsichtlich deren Struktur und Verwaltung begründen. Exemplarisch für das Notenbanksystem der Eurozone werden hierzu die Reservepolitiken der Europäischen Zentralbank und der Deutschen Bundesbank als Fallstudien ausführlich untersucht und Vorschläge für eine Optimierung dieser volkswirtschaftlichen Vermögensbestände aufgezeigt.
Einen literarischen Text entlang eines figürlichen Körperleibs zu lesen und zu deuten, lenkt die Lektüre zwangsläufig auf unwiderrufliche und unabänderliche Grunddispositionen des menschlichen Daseins wie Sterblichkeit, Verletzlichkeit, Verwundbarkeit, Bedürftigkeit und wechselseitige Angewiesenheit. Eine der korporalen Entsprechungen für die eigene Bedürftigkeit äußert sich in den Stücken der deutschsprachgigen Gegenwartsdramatik häufig als Suche nach oder Bitte um Beistand. Die eigene Schwäche bedarf der fremden Kraft, um aufgefangen zu werden. In der Korrespondenzfigur des fallenden und haltenden Körpers wird das Phänomen der Fürsorge entfaltet. Die Verweigerung von Fürsorge wird in der Zweifachfigur eines abwehrenden und eines zurückgewiesenen Körpers zugespitzt. Mit der leiblichen Präsenz der Figuren wird ein solidarisches Potenzial angeboten. Die Rücknahme des eigenen Körperleibs aus dem Blickfeld des Anderen suspendiert jedoch die Möglichkeit, dass die potenziell vorhandene Solidaritätsfähigkeit tatsächlich in Anspruch genommen werden kann. Im Rückzug der Figuren deutet sich meist die Entscheidung an, den eigenen Körperleib nicht als möglichen Halt oder Anhaltspunkt für den Anderen zu erkennen zu geben.
Hauptziel dieser Untersuchung war die Ermittlung von Faktoren, die auf das Erleben von akkulturativem Stress Einfluss nehmen. Hundertsiebenundachtig in Athen lebenden Immigranten aus 25 Ländern wurden nach ihren demographischen Charakteristika, ihren Akkulturationsorientierungen, ihren bikulturellen sozialen Kontakten, ihren stereotypischen Wahrnehmungen den Einheimischen gegenüber, ihren Kompetenz- und Kontrollüberzeugungen, der wahrgenommenen kulturellen Distanz sowie ihrer (subjektiven) Beschwerdenbelastung befragt. In Anlehnung an das Modell von Berry war der Frage nachgegangen, welche Prädiktorenkombination zur Vorhersage des akkulturativen Stresses am besten beitrug. Der akkulturative Stress wurde anhand des SCL-90-Rs erfasst und somit wurden verschiedene Prädiktorenkombinationen je nach SCL-90-R-Skala aufgezeigt. Im Allgemeinen stellte sich heraus, dass die Akkulturationsstrategie der Integration, das Vorhandensein von internalen Kompetenz- und Kontrollüberzeugungen, von positiven Stereotypen und bikulturellen sozialen Kontakten sowie die Wahrnehmung von erhöhter Ähnlichkeit zwischen dem Herkunfts- und dem Aufnahmeland von hoher Bedeutung für das psychische Wohlbefinden der Immigranten sind. Erwartungsgemäß stehen Separation und Marginalisierung mit erhöhter Beschwerdenbelastung in Verbindung. Entgegen der Annahme dieser Studie zeigte sich, dass jüngeres Alter mit höherer Beschwerdenbelastung einhergeht. Im Rahmen der Konstruierung einer griechischen Adaption des Fragebogens zu Kompetenz- und Kontrollüberzeugungen wurden 200 griechischen Studierenden eine griechische Version des FKK (welche mit der Methode der Rückübersetzung erstellt wurde) verteilt. Die psychometrische Absicherung der griechischen Version dieses Instrumentes erlaubte seinen Einsatz bei den ausländischen Probanden, die die Sprachen, in denen der FKK bereits vorliegt, nicht beherrschten. Auf zusätzliche Befunde in Hinsicht auf die Beziehungen unter den untersuchten Variablen sowie auf praktische Implikationen wird in der Arbeit eingegangen. Alle Instrumente sind im entsprechenden Anhang zu finden.
320 Probandinnen bekamen Portraitfotos von Männern und Frauen, kombiniert mit geschlechterstereotypkongruenten, -inkongruenten und -neutralen Eigenschaften unter verschiedenen Instruktions- und Rahmenbedingungen vorgelegt. Anschließend erfolgten, für Items und Assoziationen, explizite Gedächtnistests. Die Ergebnisse belegen einen wiederholten assoziativen Inkongruenzvorteil, stereotypkongruente Rateverzerrungen, ein moderierendes individuelles Stereotypizitätsniveau, Ausbleiben stereotypkongruenten Einflusses nach intentionaler Instruktion, die Interaktion von Gedächtnisleistung und instruktionsvermittelnder Fokussierung, einen Erinnerungsvorteil für assoziative im Vergleich zu Iteminformationen sowie Leistungsminderung bei paralleler Aufmerksamkeitsbelastung. In der zeitunbegrenzten Testphase bwz. der Erfassung der probandeneigenen Reaktionszeiten wird eine wichtige Aufklärungsquelle vermutet.
Das übergeordnete Ziel dieser Dissertation ist die Untersuchung der aktuellen Geomorphodynamik in den Gullyeinzugsgebieten der Souss-Ebene, Südmarokko. Eine Sonderstellung nehmen besonders in der Taroudant-Region die durch land-levelling Maßnahmen beeinflussten Flächen ein. Anhand von experimentellen Feldmethoden werden verschiedene Prozesse der Bodenerosion aufgenommen und bewertet. Mittels Luftbildmonitoring mit einer Drohne erfolgt eine Analyse des Gullywachstums. Durch eine Zusammenführung der Methodenkombination kann ein Gesamtbild der aktuellen geomorphologischen Prozessdynamik im Souss erstellt werden. Mit Zerfall der Zuckerindustrie Ende des 17. Jahrhunderts setzt im Souss Becken aufgrund der nahezu vollständigen Abholzung der Arganwälder die lineare Bodenerosion ein. Mit der Transformation von traditioneller Landwirtschaft zu modernen Zitrusfrucht- und Gemüseplantagen, beginnt Anfang der 1960er Jahre ein sehr dynamischer Landnutzungswandel. Die Expansion der Anbauflächen, die von Wadi- und Gullysystemen tief zerschnittenen sind, wird durch Planierungsmaßnahmen vorangetrieben. Auf den planierten Flächen entwickeln sich durch die Verdichtung des Bodens, das Entfernen von Vegetationsbedeckung sowie Krustenbildung auf dem schluffig-lehmigen Substrat bei Starkniederschlagsereignissen zumeist erneut Gullys. Die rasche lineare Zerschneidung bedroht weitere Anbauflächen. Eine nachhaltige Entwicklung auf diesen Flächen ist daher fraglich. Durch starke Verschlämmung nach Niederschlägen bilden sich auf den planierten Flächen sehr schnell physikalische Bodenkrusten aus. Ihre Mikromorphologie ist aufgrund der Belastungen mit schwerem Gerät sowie mehrfacher Erosions- und Akkumulationszyklen durch Plattenstruktur und Vesikel geprägt, wodurch die Infiltrationskapazität des Bodens verringert wird. Diese Auswirkungen können durch Messungen mit dem Einringinfiltrometer bestätigt werden. Sie zeigen auf ungestörten Flächen durchschnittlich eine 2,6-fach höhere Infiltrationsrate als auf planierten Flächen. Durch eine Inventarisierung der Bodeneigenschaften und Oberflächencharakteristika kann ihre signifikante Veränderung nach Planierungsmaßnahmen identifiziert werden. So zeigen planierte Flächen hohe Anteile an Bodenverkrustung und wenig Vegetationsbedeckung auf. Ungestörte Flächen sind dagegen weniger verkrustet und stärker mit Vegetation bedeckt. Zudem kann eine Kompaktion der oberen Bodenschicht nachgewiesen werden. Diese Faktoren wirken auf die Oberflächenabflussbildung und den Sedimentabtrag ein. Die Ergebnisse von 122 Niederschlagssimulationen mit einer Kleinberegnungsanlage zeigen einen signifikanten Anstieg der mittleren Oberflächenabflüsse und Sedimentfrachten (1,4-, bzw. 3,5-mal höher) auf planierten im Gegensatz zu ungestörten Testflächen. Mithilfe des Gullymonitorings wird die Entwicklung eines kompletten Gullys durch Starkniederschlagsereignisse auf einer planierten Fläche detektiert. Dabei wird in einem 3,5 ha großen Einzugsgebiet etwa 1080 t Bodenmaterial erodiert. Hier wurde errechnet, dass Gullyerosion für 91 % des gesamten Bodenverlustes im Einzugsgebiet verantwortlich ist. Die Fläche dient nur als Lieferant des Erosionsagens Wasser. Das Verfüllen des ursprünglichen Gullysystems mit Material der umliegenden Hänge führt zu einer Erniedrigung der Geländehöhe von durchschnittlich über 5 cm. Auf ungestörten Flächen wird dagegen nur ein geringes Gullywachstum verzeichnet. Die vorgestellte Methodenkombination lässt eine gezielte Beschreibung der aktuellen Geomorphodynamik in den Einzugsgebieten der Souss-Ebene zu. Durch die land-levelling Maßnahmen wird die Prozessdynamik signifikant erhöht. Eine Verminderung der Vegetationsbedeckung, schnelle Krustenbildung sowie Bodenkompaktion unterstützen hohe Oberflächenabflussbildung und Sedimentabtrag. Durch lineare Konzentration des Abflusses wird rapide Gullyerosion gefördert. Ganze Gullysysteme können sich auf Planierungsflächen durch nur ein einziges Starkniederschlagsereignis ausbilden. Dadurch sind Anbauflächen, Gebäude und Infrastruktur gefährdet.
Zum wechselseitigen Einfluss epistemologischer Überzeugungen und Förderung von Informationskompetenz
(2015)
Die Dissertation zielt darauf ab, den wechselseitigen Zusammenhang zwischen epistemologischen Überzeugungen und der Förderung von Informationskompetenz im Hochschulbereich zu untersuchen. Hinsichtlich der aktuellen Literatur zu epistemologischen Überzeugungen wird dabei zunächst ein Mangel an Fragebogen-Verfahren zur Erfassung epistemologischer Überzeugungen bei Hochschulstudierenden identifiziert. Demnach unterscheiden bisher verfügbare Fragebögen lediglich zwischen absoluten und nicht-absoluten Überzeugungen, nicht aber zwischen undifferenzierten und differenzierten multiplistischen Überzeugungen. Die Arbeit ist daher in zwei Teile untergliedert. Im ersten Teil wird ein epistemologischer Fragebogen, bestehend aus Items mit absoluten und multiplistischen Aussagen entwickelt (vier Studien, Gesamt-N = 416). Im zweiten Teil werden mittels dieses Fragebogens und eines Informationskompetenz-Wissenstests der Einfluss absoluter und multiplistischer Überzeugungen auf den Lerngewinn in einem Blended-Learning Training zur Förderung von Informationskompetenz Psychologie-Studierender (N = 67) sowie die kurzzeitigen Veränderungen dieser Überzeugungen infolge der Trainingsteilnahme untersucht. Faktorenanalysen zeigen, dass Items mit absoluten und multiplistischen Aussagen auf unterschiedlichen Faktoren laden. Die finale Faktoren-Lösung umfasst k = 23 (von ursprünglich k = 35) Items mit zwei Faktoren, wobei Items mit absoluten Aussagen hauptsächlich auf dem ersten und Items mit multiplistischen Aussagen hauptsächlich auf dem zweiten Faktor laden. Die daraus abgeleiteten Skalen zeigen eine zufriedenstellende interne Konsistenz. Die konvergente Validität der Skalen wird durch signifikante Korrelationen mit den beiden Skalen des Fragebogens "Connotative Aspects of Epistemological Beliefs" (CAEB) und der Skala "Need for Cognitive Closure" (NCC) belegt. Querschnittsanalysen zeigen signifikant niedrigere Mittelwerte der multiplistischen Skala bei zunehmendem Studienfortschritt, wohingegen sich auf der absoluten Skala keine signifikanten Unterschiede zeigen. Multiple Regressionsanalysen zeigen, dass höhere Werte auf der multiplistischen Skala mit einem signifikant geringeren Lernerfolg im Informationskompetenz-Training einhergehen. Hinsichtlich der absoluten Skala zeigt sich demgegenüber kein signifikanter Zusammenhang. Abhängig von der Teilnahme am Informationskompetenz-Training lässt sich eine signifikante Zunahme absoluter Überzeugungen nachweisen. Multiplistische Überzeugungen hingegen verändern sich nicht in Abhängigkeit der Trainingsteilnahme. Ausgehend von den Ergebnissen wird diskutiert, dass durch die messtheoretische Differenzierung zwischen absoluten und multiplistischen Überzeugungen zusätzliche Informationen (z.B. über die Entwicklung epistemologischer Überzeugungen) gewonnen werden können, die mit herkömmlichen Fragebögen nicht abgebildet werden. Die Ergebnisse stützen überdies die Annahme eines wechselseitigen Zusammenhangs zwischen epistemologischen Überzeugungen und Informationskompetenz. Es wird vermutet, dass dieser wechselseitige Zusammenhang auf einen tendenziell absoluten Charakter von Lerninhalten zur Informationskompetenz zurückführbar ist.
Die patienten-fokussierte Psychotherapieforschung hat das Ziel, den Erfolg von Psychotherapie durch die kontinuierliche Messung und Rückmeldung von Prozessvariablen zu verbessern. Es konnte bereits gezeigt werden, dass nicht nur Patienten-spezifische Charakterisitika, wie die Symptomreduktion, sondern auch dyadische Merkmale, wie die therapeutische Beziehung, indikativ sind. Ein vielversprechender neuer Ansatz bzgl. der Messung dyadischer Charakteristika ist nonverbale Synchronie, die definiert ist als Bewegungskoordination zwischen Interaktionspartnern. Nonverbale Synchronie kann inzwischen objektiv und automatisch in Therapievidoes gemessen werden, was die Methodik frei von Biases wie selektiver Wahrnehmung oder sozialer Erwünschtheit macht. Frühe Studien aus der Sozial- und Entwicklungspsychologie konnten Zusammenhänge mit sozialer Bindung und Sympathie finden. Erste Studien aus der Psychotherapieforschung weisen auf Zusammenhänge zwischen nonverbaler Synchronie und der Therapiebeziehung sowie dem Therapieerfolg hin und geben erste Hinweise darauf, dass nonverbale Synchronie eine zusätzliche Informationsquelle für dyadische Aspekte sein kann, mit der man zukünftig frühzeitig Therapieerfolge vorhersagen könnte. Die vorliegende Arbeit beinhaltet drei Studien zu nonverbaler Synchronie in der ambulanten Psychotherapie und Zusammenhängen mit therapeutischen Prozessen. In Studie 1 wurde nonverbale Synchronie in einer diagnose-heterogenen Stichprobe von N=143 Patienten zu Therapiebeginn gemessen. Mittels Mehrebenenanalysen konnte die Validität der Messmethodik bestätigt werden. Des weiteren wurden Zusammenhänge mit bestimmten Artes des Therapieerfolgs gefunden: Patienten, die unverändert die Therapie abbrachen zeigten das niedrigste Level an Synchronie, während Patienten, die unverändert die Therapie zu Ende führten das höchste Level hatte und Patienten mit einer reliablen Symptomreduktion ein mittleres Level an nonverbaler Synchrony aufwiesen (auch unter Kontrolle der Therapiebeziehung). In Studie 2 wurden nonverbale Synchronie und die Bewegungsmenge zu Therapiebeginn und zum Therapieende erfasst und in zwei Stichproben von Patienten mit Depression (N=68) und Patienten mit Angststörungen (N=25) verglichen. Mehrebenenanalysen zeigten weniger Bewegungsmenge und Synchronie bei Dyaden mit depressiven Patienten, wobei sich beide Gruppen zum Therapieende nicht mehr in der nonverbalen Synchronie unterschieden. In Studie 3 wurde nonverbale Synchronie in einer Stichprobe von N=111 Patienten mit Sozialer Phobie zu vier Zeitpunkten im Therapieverlauf gemessen (N=346 Videos). Mehrebenenanalysen zeigten einen kontinuierlich sinkenden Verlauf der Synchronie und einen Moderationseffekt auf den Zusammenhang zwischen frühen Verbesserungen und dem Therapieerfolg.
Die Arbeit analysiert Bedeutungen von Körperlichkeit im Straßenprotest. Ausgehend von den Selbstwahrnehmungen von Aktivist_innen wird dabei der Frage nachgegangen, wie Erfahrungen den reflexiven Umgang mit Verletzlichkeit und Verletzungsmacht prägen. Zunächst wird dafür eine theoretische Konzeption einer leibkörperlich gebundenen Reflexivität entwickelt. Pierre Bourdieus Theorie der Praxis, die sich der Verkörperung von Wissen widmet, wird ergänzt durch den Rückbezug auf Maurice Merlau-Ponty, der konsequenter herausstellt, dass jegliche Wahrnehmung immer nur körperlich-leiblich möglich ist. Während Merleau-Pontys Fokus auf dem wahrnehmenden Leib liegt, wird mit der philosophischen Anthropologie Helmuth Plessners die Verschränkung von wahrnehmendem Leib und wahrgenommenem Körper, bzw. wie Wahrgenommenes reflexiv auf das Spüren und Erleben zurückwirkt, nachvollziehbar. Aufbauend auf Plessner hat Heinrich Popitz eine Phänomenologie der Macht entwickelt, in deren Zentrum die anthropologischen Grundkonstanten von menschlicher Verletzungsoffenheit und Verletzungsmacht stehen. Diese Konzeption, verbunden mit Ergebnissen aus verschiedenen Vorstudien zur vorliegenden Arbeit, leitet die empirische Analyse von zehn leitfadengestützten Interviews, in denen Aktivist_innen mit teilweise langjähriger Straßenprotestbiographie zu ihren Erfahrungen und Praktiken in Straßenprotesten befragt werden. Die Arbeit ist an der Schnittstelle der drei Teildisziplinen Politische Soziologie, Körpersoziologie und Wissenssoziologie angesiedelt. Innerhalb der Politischen Soziologie liegen die Anknüpfungspunkte insbesondere in der sozial- und kulturwissenschaftlichen Protestforschung. Hier ist der Körper nach wie vor weitgehend marginalisiert und es existieren bisher in Anbetracht des insgesamt kaum noch überschaubaren Umfangs der Protestforschung vergleichsweise wenige Studien. Hinsichtlich der Körpersoziologie zielt die Arbeit - insbesondere mit der Bezugnahme auf Plessners philosophische Anthropologie - auf einen Erkenntnisgewinn hinsichtlich der Verbindung von Körpersoziologie und politischer Soziologie. Es lässt sich vor allem in den letzten Jahren eine deutliche Renaissance Plessners innerhalb der allerdings fast ausschließlich deutschsprachigen Körpersoziologie feststellen. Die körpersoziologischen Arbeiten sind bisher jedoch kaum im Rahmen einer politischen Soziologie aufgegriffen worden. Eine solche Brücke möchte die vorliegende Arbeit insbesondere via Popitz (und z.T. Michel Foucault) schlagen. Wissenssoziologisch folgt die Arbeit dem Verständnis eines verkörperten Wissens, wie es vor allem in Bezug auf Bourdieu konzeptionalisiert wird. Es werden Überlegungen aufgegriffen, die sich u.a. auch Analysen und Konzepten der Dance Studies oder der Sportsoziologie hinsichtlich körperlicher Reflexion verdanken. Im Anschluss an die phänomenologisch orientierten Arbeiten Bourdieus und Merleau-Pontys sowie an Plessners philosophische Anthropologie werden dabei sogenanntes kognitives und körperliches Wissen integriert und die unmittelbare Verschränkung beider Wissensformen aufgezeigt.
Der Handlungsspielraum der deutschen Außen- und Sicherheitspolitik hat sich mit dem Wegfall der systemischen Zwänge des Kalten Krieges und der letzten formalen Souveränitätsbeschränkungen nach 1990 erhöht. Zugleich bewahrheitete sich die von einigen neorealistischen Beobachtern vertretene Befürchtung nicht, Deutschland könne nun seine Bindungen im Rahmen der euro-atlantischen Sicherheitsinstitutionen aufgeben und fortan einen unilateraleren sicherheitspolitischen Kurs einschlagen. Stattdessen unterstrichen alle Bundesregierungen die weiterhin zentrale Bedeutung der NATO für die deutsche Sicherheitspolitik. Auf der Grundlage dieser beiden Beobachtungen " dem erweiterten Handlungsspielraum und dem fortdauernden deutschen Bekenntnis zur NATO " kann die Erwartung formuliert werden, dass Deutschland den zu Beginn der 1990er Jahre neu einsetzenden Transformationsprozess der Allianz aktiv und mit eigenen Impulsen begleitet hat und entsprechende Initiativen unternahm. Ein erster Blick auf die sicherheitspolitische Praxis enttäuscht diese Erwartungen jedoch. Lediglich im Zusammenhang mit der ersten Osterweiterung wurde der deutschen Bundesregierung (und insbesondere dem früheren Verteidigungsminister Volker Rühe) eine gestaltende Funktion zuerkannt, während sie im Bereich des militärischen Krisenmanagements in der Regel als Bremser qualifiziert wurde. Auch im Zusammenhang mit der globaleren Ausrichtung der NATO nach dem 11. September 2001 scheint die Bundesrepublik Deutschland sich über weite Strecken eher den Vorgaben des amerikanischen Bündnispartners angepasst zu haben, als dass sie den Prozess aktiv mitgestaltete. Die vorliegende Arbeit untersucht vor diesem Hintergrund den Gestaltungswillen der deutschen NATO-Politik von 1991 bis 2005 in den zentralen Bereichen der NATO-Osterweiterungen, des militärischen Krisenmanagements und der Antiterrorpolitik nach dem 11. September 2001. Trifft das Urteil weitreichender deutscher Passivität zu oder lassen sich differenziertere Handlungsmuster identifizieren? Wie lassen sich diese Handlungsmuster erklären? Zur Bearbeitung der Fragestellung wird ein Analyserahmen entwickelt, dem das spezifische deutsche Funktionsverständnis gegenüber der NATO als Institution zugrunde liegt. Die institutionalistische Theorie in den Internationalen Beziehungen hat ein Spektrum allgemeiner und spezifischer Funktionen entwickelt, welche die europäischen Sicherheitsinstitutionen aus Sicht ihrer Mitgliedstaaten erfüllen sollen. An dem einen Ende dieses Spektrums steht die allgemeine und primär nach innen gerichtete Funktion. Sie zielt auf die kooperative Sicherheit im Sinne der gegenseitigen Beeinflussung und Einbindung der Mitgliedstaaten ab. Dagegen handelt es sich bei der militärischen Interventionsfähigkeit um eine in erster Linie nach außen gerichtete, die militärische Handlungsfähigkeit der NATO betreffende spezifische Funktion. Zwar umfasst dieses Spektrum nicht ausschließlich Entweder-Oder-Kategorien. Allerdings stehen allgemeine und spezifische Funktionen vor dem Hintergrund begrenzter finanzieller Ressourcen sowie unterschiedlicher Anforderungen an die NATO-Strukturen (beispielsweise im Sinne der Exklusivität vs. Inklusivität) in einem Spannungsverhältnis. Somit werden die Mitgliedstaaten der Allianz die verschiedenen Funktionen der NATO unterschiedlich gewichten. Auch der deutschen Politik liegt ein spezifisches Funktionsverständnis zugrunde, welches durch innenpolitische, z.T. kulturell und historisch geprägte, Faktoren bestimmt wird. Das Ziel der Arbeit ist es, den Gestaltungswillen der deutschen Politik im NATO-Transformationsprozess nach dem Ende des Kalten Krieges nachzuzeichnen und das dieser Politik zugrunde liegende Funktionsverständnis von institutioneller Kooperation zu analysieren. Dem erkennbaren Bestreben der Bundesregierungen auch nach 1990, die Institution NATO zu erhalten, zu stärken und schließlich auch um neue Mitglieder zu erweitern steht dabei eine zögerliche Haltung gegenüber dem militärischen Krisenmanagement und der Schaffung der militärischen Voraussetzungen zur Umsetzung der gemeinsamen Ziele gegenüber (Verteidigungshaushalt, Bundeswehrreform). Die Arbeit kommt zu dem Schluss, dass sich dieser scheinbare Widerspruch mit dem deutschen Funktionsverständnis erklären lässt, welches der kooperativen Sicherheit einen deutlich höheren Stellenwert einräumt als der militärischen Interventionsfähigkeit.
Die Dissertation zum Thema -»Interkulturalität - Erzählformen im Werk von Sten Nadolny-« behandelt ausgewählte Romanwerke von Sten Nadolny, nämlich "Die Entdeckung der Langsamkeit" (1983) und "Selim oder Die Gabe der Rede" (1990). In ihr werden die Ambivalenz des Verhältnisses von Eigenem und Fremdem und die dazu in den Texten praktizierten Modelle des Austauschs zwischen diesen beiden Instanzen untersucht. Die in den Romanen angesprochenen Problemfelder der 'Langsamkeit' und der 'Rede' erscheinen als zwei Merkmale randständiger Identität, die in Opposition und wechselseitigem Dialog mit den herrschenden Wahrnehmungen und Verständnissen der Umgebung stehen. Die Thematik der Interkulturalität als Wechselwirkung von Fremdem und Eigenem und ihre erzähltechnische Verwirklichung in den Romanen umfassen Aspekte des Inhalts und der Form. Ihre Betrachtung in der vorliegenden Arbeit ist durch die eigene fremdkulturelle Sicht der untersuchenden Instanz geprägt. Damit aber wird eine Infragestellung herkömmlicher Methoden der Analyse möglich. Das Ziel ist, eine neue (fremdkulturelle) Perspektive bei der Behandlung von interkulturell bezogenen Werken einzubeziehen. Dazu dient insbesondere die Betrachtung der Wechselwirkung zwischen alternativen erzähltechnischen Ausdrucksmöglichkeiten und alternierenden Erzählinhalten in Nadolnys erzählerischem Konzept. Die Auseinandersetzung der Literaturkritik mit dem Thema des Fremden und Eigenen wird durch das Verständnis der Verfasserin aus fremder Sicht kritisch kommentiert. Die vorliegende Arbeit umfasst fünf Kapitel. Auf das Konzept des Erzählers Sten Nadolny, sein Verständnis des Erzählens und seine Erzähltechnik wird auch im Rahmen der Diskussion um die ›Postmoderne‹ eingegangen. Hierbei soll besonders auf sein Arbeitsverfahren aufmerksam gemacht werden, das sich den ästhetischen Möglichkeiten des "fremden Blicks" widmet. Kapitel II und III gehen auf die Konstruktion der Lebensgeschichten und anschließend auf den Wechsel der Erzählformen ein. In Kapitel IV legen Schlussfolgerungen aus dieser Auseinandersetzung mit Werk und Erzähler Position und Rolle Sten Nadolnys in der deutschen Gegenwartsliteratur fest. Die Arbeit endet mit einem Kapitel zur Literatur über Sten Nadolny und sein Werk, Erzählen, Interkulturalität und Postmoderne.
Transformation of the Organisation of African Unity (OAU): A New Vision for the 21st Century, or Political Rhetoric? The formation of the OAU had three key objectives apart from the fundamental objective of decolonization - Unity, Security, and Development. In none of these objectives did the regional body lived up to expectation. The challenges ushered in by the end of the Cold War compelled African leaders to transform the OAU via the injection of new institutional spirit, which finally led to the creation of the African Union (AU). In the 1990s the institutional engineering resulted in key blueprints such as the Abuja Treaty Establishing the African Economic Community (June 1991), the Mechanism for Conflict Prevention, Management and Resolution (1993), the Constitutive Act of the African Union (CAAU, July 2000), and the New Partnership for African Development (NEPAD, October 2001), among others. This contribution argues that the OAU has been inefficient since its formative years in the early 1960s, especially in crisis intervention as exemplified by the case studies in Chad and Rwanda. The subregional organisations on which it is anchored are also saddled with capacity and functional constraints that make the realization of their objectives difficult. The AU despite its institutional finesse is also devoid of a legal framework that would help ensure coordination, efficiency, and predictability. But at the heart of the matter is that in the past African leaders have engaged the outside world (and even cooperate among themselves) without taking full cognizance of risks and perils there from. Indeed, there is more to lack of political will as a basic reason for assessing the failure of regionalism in Africa. Building on the works of others the contribution constructs a model for Integrated Political Risk Analysis as a tool for understanding the place and role of the regional body in a rapidly changing world of globalization.
Die Dissertation ‚Konzepte von Geschlecht im Porno-Rap. Eine korpus- und genderlinguistische Frame-Analyse‘ befasst sich mit sprachlichen Realisierungen, die Konzepte von Geschlecht (‚Mann‘ und ‚Frau‘) in deutschsprachigen Rapmusik-Texten des sog. ‚Porno-Rap‘ – im Zuge des sog. ‚Gangsta-Rap‘ – herstellen. Grundlegend dabei ist, dass die sprachlichen Realisierungen von Konzepten, die einer linguistischen Analyse zugänglich sind, untrennbar mit kognitiven Konzepten verbunden sind. Aus der Zentralität bestimmter Ausdrücke sowie der ihnen zugeordneten Werte sind analytische Zugänge möglich, die einen Zusammenhang – im Sinne eines Potentials – von sprachlichen und kognitiven Konzepten herstellen. Sprache bildet demnach einerseits Konzepte ab, gestaltet sie jedoch auch grundlegend mit, was auch die Möglichkeit begründet, sie linguistisch zu untersuchen.
Mit Frames können Wissensordnungen identifiziert, analysiert und deren Funktion in Verstehensprozessen sowie interpretativen Vorgängen bestimmt werden. Linguistische Ansätze beziehen sich dabei auf kognitionswissenschaftliche Erkenntnisse. Die Erfassung und Beschreibung der Frames und ihrer Wissenselemente von ‚Frau‘ und ‚Mann‘ bieten hierfür zahlreiche detaillierte und differenzierende Vergleichsmöglichkeiten der Geschlechtskonzeptionen. Auf Grundlage der vorhandenen Sprachbasis ist die Frage wesentlich, welcher Art und Strukturiertheit die im Diskurs enthaltenen Werte als Bestandteil der Konzepte für ‚Frau‘ und ‚Mann‘ als sprachliche Realisierung sind, um die Gestalt der Konzepte zu identifizieren, zu deskribieren und damit Aussagen über deren kognitives Potential treffen zu können. Die Konzepte von Geschlecht im untersuchten Rap-Diskurs sind durch die qualitativ-hermeneutische und quantitativ-korpuslinguistische Frame-Analyse offengelegt.
Vor diesem Hintergrund werden 236 Texte weiblicher Porno-Rapperinnen und männlicher Porno-Rapper analysiert und damit der Fokus durch die jeweilige Bestimmung eines Selbst- und Fremdbildes bzgl. ‚Mann‘ und ‚Frau‘, als Konzepte für Geschlecht im Diskurs auf den Untersuchungsgegenstand gerichtet. Die Untersuchung der Konzepte von ‚Frau‘ und ‚Mann‘ offenbart drei wesentliche Erkenntnisse: Es besteht erstens eine Struktur der Binarität, die zweitens als ungleichwertige identifiziert ist und drittens konstituierende Wechselbezüge zwischen ‚Mann‘ und ‚Frau‘ belegt. Sprachliche Gewalt und deren Prozesse, die immanenter Teil des ‚Porno-Rap'-Diskurses und in rekurrenter Form nachgewiesen sind (bspw. die Wissenselemente Verletzungsmacht / Verletzungsoffenheit sowie Triebdominanz / Triebgewalt), können potentiell als Gewalt über diesen Kontext hinaus wirken und sich zugleich in das Soziale eines Individuums und/oder eines Kollektivs einschreiben.
Ein Bewusstsein über die in dem Diskurs vermittelten Werte (Instanzen im frame-semantischen Sinn) ermöglicht, bestimmten Einstellungen, Denkprozessen und Handlungen kritisch reflexiv zu begegnen – insbesondere im Hinblick auf Konstatierungen linguistischer Sprachkritik, gemäß derer eine Sprachwahl konstitutiv (eine) ‚Wirklichkeit‘ schafft und nicht belanglos ist.
Im Zentrum dieser Arbeit stehen die Darstellung und Analyse der Leitbilder und Konzeptionen für tugendhaftes Verhalten, bürgerliche Werte und Normen, wie sie in den niederländischen Moralischen Wochenschriften über beinahe die gesamte Dauer des 18. Jahrhunderts diskutiert wurden. Die Moralischen Wochenschriften richteten sich an den "Bürger" und "Mitmenschen", den sie zu einem "nützlichen" Mitglied der Gesellschaft zu bilden gedachten. Dem an Orientierung interessierten Leser konnten sie dabei mehr und anderes bieten als das bis dahin gängige Schrifttum. In regelmäßiger Folge und in unterhaltsamer fiktionaler Form behandelten sie Fragen der Religion und der Ethik, sowie aus der Lebenspraxis des Alltags. Aus diesem nur scheinbar unpolitischen Blickwinkel heraus berührten die Moralischen Wochenschriften einige der zentralen Aspekte der politischen Philosophie: die Frage nach dem Verhältnis zwischen dem individuellen Glück des Menschen und dem Zustand der Gesellschaft, die Aporien der Freiheit und der Gleichheit, die Frage nach dem Verhältnis der Geschlechter und der Generationen, die Thematik von Geschichte und Fortschritt sowie Aspekte der Zeitkritik und Polemik. Ausgehend von ihrer klassisch-republikanisch inspirierten Staats- und Gesellschaftsauffassung nach der die gesamte Einwohnerschaft eines "guten" Gemeinwesens in ihrer gemeinsamen sittlichen Aufgabe, das Gemeinwohl zu verwirklichen, unlöslich miteinander verbunden war, entwickelten die Wochenschriftenschreiber ein ganz auf die Bedürfnisse eines modernen kommerziellen Gemeinwesens wie den nördlichen Niederlanden ausgerichtetes Ideal "guter" Bürgerschaft. Die Grundlage einer freien, auf Handel und Gewerbe beruhenden Republik wie der Niederländischen, so lautete die Kernbotschaft, beruhe auf dem offenen und zivilisierten Austausch zwischen verantwortungsbewussten und gebildeten Einwohnern. Von tugendhaften Bürgern erwarteten die Wochenschriftenschreiber, dass sie bei der Verfolgung ihrer individuellen Interessen in allen Lebensbereichen immer auch zugleich auf das Wohl und das Interesse des Gemeinwesens als Ganzem - der res publica - im Blick behielten und stets so handelten, dass die Maximen ihres eigenen Tuns auch Prinzip für das Wollen und Tun anderer sein könnten. Das für die Autoren der Moralischen Wochenschriften offenbar reizvolle an diesem Konzept bürgerlicher Tugend war, dass es ermöglichte, an die Verantwortlichkeit aller Mitglieder des Gemeinwesens zu appellieren, ohne die bestehende politisch-soziale Ordnung in Frage stellen zu müssen. Die - bei aller Kritik an den bestehenden Zuständen - im Kern stets konservative Tugendbotschaft der Moralischen Wochenschriften verlor erst seit den frühen 1780er Jahren an Glaubwürdigkeit, als die bestehende aristokratische Verfassung der niederländischen Republik unter dem Eindruck innenpolitischer Unruhen sowie revolutionärer Vorgänge in Amerika und in den benachbarten Ländern ihren paradigmatischen Wert als bestmögliche freiheitliche Ordnung zusehends einbüßte. So lag es nicht nur an der gegen Ende des 18. Jahrhunderts altmodisch gewordenen literarischen Form, dass die Moralische Wochenschrift in den 1790er Jahren als Gattung vom niederländischen Zeitschriftenmarkt verschwand, sondern auch an ihrer durch die revolutionären Umbrüche überholten politisch-sozialen Botschaft.
Die Vertrauens-Trias erlaubt salutogentische Aussagen über personale Ressourcen. Die kulturvergleichende Anwendung der Vertrauens-Trias wurde bei Jugendlichen in drei Ländern (Deutschland, Luxemburg, Spanien) überprüft. Dabei wurde die Konstruktvalidität der Vertrauens-Trias als auch Zusammenhänge zu symptomatischen Belastungen insgesamt bestätigt. Vergleiche zwischen den Kulturen zeigen keine Unterschiede zwischen deutschen und luxemburgischen Schülern, jedoch zwischen deutschen und spanischen Schülern.
Im Mittelpunkt der Arbeit steht die Frage nach der Darstellung Chinas in ausgewählten Geographieschulbüchern (Lehrbücher, Zusatzmaterialien und Schulatlanten) der Bundesrepublik Deutschland, der Deutschen Demokratischen Republik und der Republik Österreich. Ziel dieser Schulbuchanalyse ist es, die Chinadarstellungen zu erfassen und auf ihre inhaltliche Qualität und Gegenwartsbezogenheit zu überprüfen. Alle Schulbücher werden auf ihre sachliche Richtigkeit, Vollständigkeit und Angemessenheit, sowie nach Vorurteilen und Stereotypen untersucht. Dabei werden bestimmte Vorurteilsstrukturen (Pittoresken, Exotismen) und stereotype Deutungs- und Darstellungsmuster aufgedeckt, nationale Sichtweisen hervorgehoben und im Hinblick auf das Postulat der Völkerverständigung interpretiert. Der Hauptteil der Arbeit besteht aus einer zweistufigen Schulbuchanalyse, die sich in eine differenzierte quantitative und qualitative Inhaltsanalyse gliedert. Ein detailliertes Kategoriensystem bildet die Grundlage der Analyse. Anhand der thematischen Kategorien erhält der Leser die Möglichkeit, bestimmte Aussagen und Ergebnisse der Analyse nachzuprüfen und nachzuvollziehen und sich zudem wissenschaftlich fundierte Erkenntnisse über die einzelnen Themengebiete zu erschließen. Die Vernachlässigung bestimmter Themen zeigt sich in mehreren Schulbüchern, wobei insbesondere ein qualitativer Wandel in der Behandlung physisch- und anthropogeographischer Themen zu beobachten ist.
Der 1581 erstmals erschienene Recueil de l'origine de la langue et poesie françoise von Claude Fauchet (1530-1602) kann als die erste systematische Darstellung altfranzösischer Literatur betrachtet werden. Im zweiten, wissenschaftlich besonders relevanten Teil des Recueil werden viele der Werke ausschnittweise zitiert, kommentiert und auch bereits unterschiedlichen Gattungen zugeordnet. Diese Vorgehensweise war im 16. Jahrhundert außergewöhnlich, nach heutigen Maßstäben wird sie beinahe als wissenschaftlich modern angesehen. Der erste Teil des Recueil ist dagegen völlig anders gestaltet und entspricht weit mehr den Interessen der Leserschaft des 16. Jahrhunderts. Hier werden Fragestellungen zur Sprach-geschichte und Sprache im Allgemeinen sowie des Französischen im Besonderen behandelt. Fauchets Betrachtungen zeigen bereits sprachwissenschaftliche Zusammenhänge auf, die auch aus heutiger Sicht wichtige Aspekte für die Entwicklung von Sprachen darstellen. Die in dieser Arbeit vorgelegte kommentierte Übersetzung des Recueil ermöglicht nicht nur eine leichtere Zugänglichkeit zu diesem Werk, sondern auch, da es sich um eine weitgehend wörtlich angelegte Übersetzung handelt, Fauchets Ausdrucksweise und Gedankengänge weit-gehend originalgetreu nachzuvollziehen. Die angeführten Kommentare erlauben erstmals einen systematischen Überblick über die Literatur, die Fauchet im Recueil verwenden konnte und die zum Teil in der zweiten Hälfte des 16. Jahrhunderts in Fauchets Umfeld rezipiert wurde. Diese neue Ausgabe ermöglicht es, den Recueil anhand der Kommentare in einen aktuellen literaturgeschichtlichen Kontext zu stellen und somit seinen hohen Stellenwert für die französische Literaturwissenschaft aus einer aktuellen Perspektive neu zu erkennen.
Die Arbeit behandelt den Zusammenhang von Zinsniveau und Wirtschaftswachstum Ein zusätzlicher Aspekt ist die Wirkung von Geldpolitik auf Wirtschaftswachstum. Im Zentrum steht die Fragestellung, welches Zinsniveau neutral für das Wirtschaftswachstum ist, d.h. welches Zinsniveau sich bei Wirtschaftswachstum in Höhe des Potentialwachstums ergeben würde, bzw. welches Zinsniveau die Zentralbank für den von ihr gesteuerten Geldmarktzins anstreben sollte, um Potentialwachstum zu ermöglichen. Ausgangspunkt sind die theoretischen Zusammenhänge zwischen Zinsniveau und Wirtschaftswachstum in den makroökonomischen Theorien der Klassik-Neoklassik, Keynesianismus und Post-Keynesianismus. Auf dieser theoretischen Basis wird das Konzept des wachstumsneutralen Zinses abgeleitet. Empirische Ergebnisse werden für die Bundesrepublik Deutschland sowie in geringem Umfang für Großbritannien vorgelegt. Für die Bundesrepublik Deutschland scheint demnach der nominale Geldmarktzins dominierend für die realwirtschaftliche Entwicklung zu sein. Der neoklassische Gleichlauf von realem Kapitalmarktzins und Wirtschaftswachstum, für die siebziger Jahre erkennbar, scheint sich seit Mitte der achtziger Jahre aufgelöst zu haben. Die Höhe des neutralen Zinses hängt von der Untersuchungsperiode ab. Zudem wirken nicht-lineare Effekte der Höhe der Inflationsrate auf den Zusammenhang von Zins und Wirtschaftswachstum. Für Großbritannien lassen sich keine erkennbaren Ergebnisse erschließen. Als Ergebnis seiner Arbeit plädiert der Verfasser für eine realwirtschaftliche Orientierung der Geldpolitik, die der Unterstützung durch eine stabilitätsorientierte Lohn- und Fiskalpolitik bedarf, um das Ziel der Preisniveaustabilität nicht zu gefährden.
Eine ganze Funktion φ heißt T-universell bezüglich einer gegebenen Folge b:={b_{n}\}_{n \in ℕ komplexer Zahlen mit b_{n} \to \infty$, falls eine geeignete Folge φ(z+b_{n_{k}})\}$ additiver Translationen von φ lokal gleichmäßig in ℂ gegen jede vorgegebene ganze Funktion konvergiert. Ferner nennen wir eine ganze Funktion φ, für welche eine geeignete Folge φ{(n_k)}\}$ ihrer Ableitungen lokal gleichmäßig in ℂ gegen jede vorgegebene ganze Funktion konvergiert, ableitungsuniversell. Die Existenz solcher Funktionen wurde von Birkhoff (1929) und MacLane (1952) bzw. Verallgemeinerungen ihrer Ergebnisse gesichert. In dieser Arbeit wird die Konstruktion solcher Funktionen, die zusätzlich auf jeder Geraden beschränkt sind oder Nullstellen an bestimmten vorgegebenen Punkten besitzen, studiert. Im Besonderen stellte sich hierbei heraus, dass die Menge aller bezüglich einer gegebenen Folge b - welche einer gewissen Bedingung genügt - T-universellen Funktionen, die überdies auf jeder Geraden beschränkt sind, zwar dicht, aber nicht residual im Raum aller ganzen Funktionen versehen mit der lokal-gleichmäßigen Topologie ist. Ebenso überraschend ist die Konstruktion von T-universellen Funktionen, welche eine "regelmäßige Nullstellenasymptotik" besitzen.
Im Zentrum der Dissertation steht der in Augsburg geborene Maler Joseph Heintz d.J. (1600-1678), der Anfang der 1620er Jahre nach Venedig auswanderte, wo er über fünfzig Jahre bis zu seinem Tod lebte und arbeitete, und zum Hauptvertreter der venezianischen Festmalerei des 17. Jahrhunderts avancierte. Der erste Teil widmet sich der Rekonstruktion der bisher nahezu unbekannten Biographie Joseph Heintz' d.J., sowie seines Kunden- und Auftraggeberkreises, und somit der sozialen Verortung des Künstlers in Venedig. Im zweiten Teil erfolgt die Analyse der Festmalerei Joseph Heintz' d.J. unter besonderer Berücksichtigung der venezianischen Festkultur als Manifestation der Staatsidentität. Heintz d.J. stellte in seinen Gemälden festliche Prozessionen und die Investiturzeremonien des Dogen ebenso dar wie weltliche Spektakel und volkstümliche Wettkämpfe. Durch die quellenbasierte Recherche, sowie die Kontextualisierung der Festgemälde, konnte eine Neubewertung Joseph Heintz" d.J. als bedeutender, gut vernetzter Künstler erfolgen, dessen Werke einen nicht zu unterschätzenden Einfluss auf die venezianischen Vedutisten des 18. Jahrhunderts hatten.
In der vorliegenden Dissertation werden die Ergebnisse einer empirischer Untersuchung zur Diagnostik und Differentialdiagnostik der Borderline-Persönlichkeitsstörung (BPS) vorgestellt. Diese Untersuchung umfaßt die Überprüfung der internen Struktur der BPS gemäß dem DSM-IV (APA, 1994). Eine dimensionale Ordnung der neun Borderline-Kriterien wird mittels Faktorenanalyse erstellt und in eine Störungskonzeption eingebunden. Darüber hinaus wird die diagnostische Effizienz der einzelnen Borderline-Kriterien ermittelt. Die Kriterien der BPS werden gemäß ihrer Bedeutung für die Diagnosenstellung in eine Rangreihe gebracht. Dabei werden die Merkmale der diagnostischen Effizienz (u.a. Spezifität, Sensitivität, Kappa, Overall Classification Rate etc.) für jedes einzelne Kriterium dargestellt. Weiterhin wird die Borderline-Symptomatik außerhalb der Kriterienebene des DSM-IV untersucht. Die durch Fragebögen erhobenen klinischen Merkmale werden auf ihre Zusammenhänge und ihre Bedeutung für die Diagnostik der BPS überprüft. Dabei erlangen insbesondere die interpersonalen Probleme und emotionsbezogenen Symptome einen hohen Stellenwert. Daher wurde ein Schwerpunkt der Untersuchung auf die interpersonalen Probleme der Borderline-Patienten gelegt, deren Struktur und Zusammenhänge zu anderen Symptomen erläutert werden. Auf der Grundlage der interpersonalen Probleme werden vier Subgruppen von Borderline-Patienten ermittelt. Diese unterscheiden sich insbesondere in den Verhaltensdimensionen Kontaktbereitschaft und Kontaktgestaltung. Für die vier Subgruppen werden therapeutische Strategien als Hypothesen abgeleitet. Ebenso werden Veränderungsvorschläge für eine differenzierte Diagnostik dargelegt. Die Untersuchung dient zudem dem Vergleich der BPS und anderen psychiatrischen Störungen. Die Ergebnisse belegen erhebliche Unterschiede zwischen den Borderline-Patienten und Nicht-Borderline-Patienten. Daneben werden weitere Subgruppen von Borderline-Patienten (u.a. anhand von Komorbiditäten, demographischen Variablen und Settingfaktoren der Behandlung) untersucht. Auch hier werden Zusammenhänge zwischen den Kriterien der BPS und klinisch-psychologischen Merkmalen exploriert und erläutert. Schlußfolgerungen für die Diagnostik und Therapie der Störung werden diskutiert.
Quadratische Optimierungsprobleme (QP) haben ein breites Anwendungsgebiet, wie beispielsweise kombinatorische Probleme einschließlich des maximalen Cliquenroblems. Motzkin und Straus [25] zeigten die Äquivalenz zwischen dem maximalen Cliquenproblem und dem standard quadratischen Problem. Auch mathematische Statistik ist ein weiteres Anwendungsgebiet von (QP), sowie eine Vielzahl von ökonomischen Modellen basieren auf (QP), z.B. das quadratische Rucksackproblem. In [5] Bomze et al. haben das standard quadratische Optimierungsproblem (StQP) in ein Copositive-Problem umformuliert. Im Folgenden wurden Algorithmen zur Lösung dieses copositiviten Problems von Bomze und de Klerk in [6] und Dür und Bundfuss in [9] entwickelt. Während die Implementierung dieser Algorithmen einige vielversprechende numerische Ergebnisse hervorbrachten, konnten die Autoren nur die copositive Neuformulierung des (StQP)s lösen. In [11] präsentierte Burer eine vollständig positive Umformulierung für allgemeine (QP)s, sogar mit binären Nebenbedingungen. Leider konnte er keine Methode zur Lösung für ein solches vollständig positives Problem präsentieren, noch wurde eine copositive Formulierung vorgeschlagen, auf die man die oben erwähnten Algorithmen modifizieren und anwenden könnte, um diese zu lösen. Diese Arbeit wird einen neuen endlichen Algorithmus zur Lösung eines standard quadratischen Optimierungsproblems aufstellen. Desweiteren werden in dieser Thesis copositve Darstellungen für ungleichungsbeschränkte sowie gleichungsbeschränkte quadratische Optimierungsprobleme vorgestellt. Für den ersten Ansatz wurde eine vollständig positive Umformulierung des (QP) entwickelt. Die copositive Umformulierung konnte durch Betrachtung des dualen Problems des vollständig positiven Problems erhalten werden. Ein direkterer Ansatz wurde gemacht, indem das Lagrange-Duale eines äquivalenten quadratischen Optimierungsproblems betrachtet wurde, das durch eine semidefinite quadratische Nebenbedingung beschränkt wurde. In diesem Zusammenhang werden Bedingungen für starke Dualität vorgeschlagen.
Die primäre Fragestellung der Arbeit war, inwiefern durch naturnah gestaltete Feuchtgebiete die teilweise erhebliche Restbelastung biologisch gereinigter Abwässer mit Nähr- und Schadstoffen sowie Indikatorkeimen verringert werden kann. Außerdem wurden u. a. das mögliche Risikopotential und der Biotopwert der Flächen betrachtet. Untersucht wurden drei Nachbehandlungsflächen (1,1 m-²/E, 1,3 m-²/E, 5,2 m-²/E), die jeweils einer Pflanzenkläranlage nachgeschaltet sind und aus flachen, bewachsenen Mulden, Ablaufgräben sowie oberflächlich und unterirdisch durchflossenem Grünland bestehen. In den Flächen wurde eine prinzipielle Sauerstoffanreicherung und eine bedeutende Verringerung von Nährstoffen festgestellt. Im Vergleich zum Kläranlagenablauf verringerte sich die NH4-N-Konzentration des gereinigten Abwassers in den Flächen um 72-92%, Nmin um durchschnittlich 23-64% und Nges um 17-59%. Die Verringerung der PO4-P-Konzentration betrug 23-79%, die von Pges 21-85%. Durch die Nachbehandlung ergab sich z.B. für eine Kläranlage eine Steigerung der Reinigungsleistung von 49% auf 95% für NH4-N, von 38% auf 68% für Nges und von 47% auf 90% für Pges. Die Flächen waren in der Lage, Belastungsspitzen zu kappen und die ohnehin geringen Ablaufbelastungen mit Indikatorkeimen weiter zu verringern. Die Risiken einer Grundwasserverschmutzung, einer Anreicherung persistenter toxischer Stoffe im Boden und einer Verbreitung pathogener Keime waren gering. Vor allem die durch die Nachbehandlung entstandenen Kleingewässer steigerten den Biotopwert der Flächen. Naturnahe Nachbehandlungsflächen stellen einen ökologisch wie ökonomisch sinnvollen Beitrag zur Effizienzsteigerung der Abwasserbehandlung dar. Sie eignen sich auch zur Aufbereitung belasteter Wässer, die Dränagen, Entwässerungsgräben oder Regenüberläufen der Mischwasserkanalisation entstammen.
Die Ménage-Polynome (engl.: ménage hit polynomials) ergeben sich in natürlicher Weise aus den in der Kombinatorik auftretenden Ménage-Zahlen. Eine Verbindung zu einer gewissen Klasse hypergeometrischer Polynome führt auf die Untersuchung spezieller Folgen von Polynomen vom Typ 3-F-1. Unter Verwendung einer Modifikation der komplexen Laplace-Methode zur gleichmäßigen asymptotischen Auswertung von Parameterintegralen sowie einiger Hilfsmittel aus der Potentialtheorie der komplexen Ebene werden starke und schwache Asymptotiken für die in Rede stehenden Polynomfolgen hergeleitet.
Die Bezeichnung "Sozialpädagogik" steht heute nicht nur für eine Vielfalt an professionellen Praktiken, die es in unterschiedlicher Weise mit Personenveränderung zu tun haben, sondern auch für einen akademisch institutionalisierten Kommunikationszusammenhang, der sich über ein heterogenes und diskontinuierliches Spektrum an Themen, Wissensbeständen und Forschungsaufgaben definiert. Die wissenschaftliche Diskussion um die So-zialpädagogik ist vor diesem Hintergrund seit einigen Jahren deutlich geprägt von der Erfahrung, dass eine umfassende Theorie ihres Gegenstandsbereichs nicht mehr möglich sei. Die Dissertation verortet sich in dieser Diskussion, begreift jedoch die Frage nach der Möglichkeit einer Theorie der Sozialpädagogik nicht als ein Problem des Gegenstandes, sondern als ein Problem seiner Beobachtung. Dabei geht es jedoch keineswegs nur um eine Kritik der Voraussetzungen sozialpädagogischer Erkenntnis, vielmehr wird zugleich ein neuartiger Weg innerhalb der sozialpädagogischen Theoriediskussion eingeschla-gen: Eine Theorie der "Sozialpädagogik" kann nur als eine nicht-sozialpädagogische Theorie formuliert werden. Die daran anschließende methodologische Auseinandersetzung rückt einen theoretisch informierten Modus der Beobachtung ins Zentrum, der seine postontologische Lektion bereits gelernt hat und gerade unter Verzicht auf Vorstellungen von der je besonderen Bestimmtheit seines Objektes objekttheoretische Aussagen anstrebt: Pierre Bourdieus Theorie der Felder.
Vier Untersuchungen anhand eines modifizierten Ersparnisparadigmas zeigten, dass Eigenschaften spontan aus Verhalten erschlossen werden. In zwei der vier Untersuchungen offenbarte sich ein impliziter Einfluss des Altersstereotyps: Es förderte das spontane Erschließen stereotypkongruenter Eigenschaften. Dagegen wurde ein expliziter Einfluss des Altersstereotyps nicht eindeutig aufgezeigt; es ergaben sich jedoch Hinweise auf einen Reproduktionsvorteil zugunsten stereotypkongruenter Eigenschaften. Des Weiteren legten einige Befunde nahe, dass Mitglieder der "in-group" einfacher zu differenzieren sind als Mitglieder der "out-group". Nicht eindeutig geklärt werden konnte, ob die Aktivierung eines relevanten Stereotyps oder der Kontext, in den eine stereotype Information eingebettet ist, das Ausmaß der Stereotypisierung beeinflusst. Das Alter der Versuchspersonen (jüngere studentische Versuchspersonen in den Untersuchungen 1 bis 3 vs. ältere Versuchspersonen (M = 68.30) in der Untersuchung 4) beeinflusste zwar die Reproduktionsleistungen, nicht aber das spontane Erschließen von Eigenschaften oder das Ausmaß der impliziten bzw. expliziten Stereotypisierung.
Soil and water conservation are cross-sectional assignments. The respective objectives of the individual interest groups cause conflicts of use and lead to different assessments of the soil's potential. Necessary decisions and the practical implementation of soil and water conservation measures require the use of data. These data, which are both spatial and temporal, characterise past, present and, in the case of predictions, also future environmental conditions. The multitude of relevant data necessitates the use of geographic information systems as an instrument for successful resource management. With the use of problem-oriented case studies, it was possible to show that an improved understanding of the system is necessary for both optimisation of the site-specific resource management within the framework of Precision Farming and for the assessment of local to regional conflicts of use with regard to land usage and soil and water conservation. By changing the method, sufficient respective measures regarding documentation, prevention and risk assessment were able to be introduced and implemented. With the objective of practical implementation of a sustainable resource management, the possibilities of short- to long-term initiation of self-organised systems through the networking of available (geo-)information as well as the respective interest groups involved in the conflict of use formed the focal point of this investigation. The creation of networks linking agriculture, water extractors and nature conservation promotes necessary synergies and emergences, due to increased communication. Not the conveyance of knowledge alone, but rather new forms of understanding cause the interest groups involved to change their behaviour, thus facilitating efficient resource management for the interests of soil and water conservation.
Der Titel der Dissertation enthält bereits die inhaltlichen Vorgaben, die zu Grund gelegt werden. Wie nämlich gelingt es Eckhart insbesondere in seinen deutschen Predigten, den Erfahrungsbereich Gott zu verbalisieren? Bei der Untersuchung der Frage, wie Gott - dem eine eigene, den Menschen nur bedingt erfahrbare Wirklichkeit zugrunde liegt - wie er also zur Sprache gebracht werden kann, ist es erforderlich, sich über die Wirklichkeit und ihre Beziehungen zu Gott und den Menschen klar zu werden. Mir geht es darum, die Problematik des Verhältnisses von Mensch und Gott in Beziehung zum Glaubensleben in einer tiefen geistig-geistlichen Durchdringung transparent zu machen. Konkreter: Bei der Textuntersuchung geht es um die Interpretation sprachlicher Äußerungen im Hinblick auf die darin zur Sprache gebrachte Erfahrung der Wirklichkeit Gottes. Bereits in dieser groben Skizzierung wird deutlich, dass sich die Untersuchung nicht alleine auf eine wissenschaftliche Disziplin beschränkt, sondern in ihrem interdisziplinären Charakter Fragen der Germanistik, der Philosophie und Theologie gleichermaßen berührt. Die Aufgabenstellung der Dissertation an sich und der Versuch, sich Meister Eckhart und seiner Gedankenwelt in seinen deutschen Predigten zu nähern, implizierte bereits die dann zugrunde gelegte methodische Vorgehensweise. Im Mittelpunkt der Untersuchung stand zwangsläufig Eckharts deutsches Predigtkorpus. Als textliche Grundlage habe ich mich für die Largier-Ausgabe entschieden, weil sie m. E. die am besten handhabbare Ausgabe war. Wichtig war für mich, Eckhart so oft als möglich selbst zu Wort kommen zu lassen. Das bedeutete eine dezidiert intensive Auseinandersetzung mit seinen Predigten einerseits und andererseits einer kritischen Würdigung der Sekundärliteratur. Den Gedankengang dieser weiter zu verfolgen und neue Deutungsebenen zu erschließen, gehörten ebenso zum methodischen Procedere. Zuerst war aber das geistig-geistliche Umfeld ME-´s in den Blick zu nehmen. Grundsätzlich ist zum Gesamtverständnis seines Werkes wichtig, ihn als Dominikaner zu begreifen. Zum Selbstverständnis dieses Bettelordens gehört seine intellektuelle Ausrichtung, die für Eckharts Erkenntnislehre fundamental ist: Demnach ist das Erkennen die Grundlage von Gottes Sein und steht sogar höher als das Sein. Wort und Intellekt haben Vorrang vor dem Sein. Gott ist das Sein dadurch, weil er denkt. Alles Sein ist abgeleitet vom Intellekt. Die Auseinandersetzung mit den theologisch-philosophischen Strömungen seiner Zeit war maßgebend für das weitere Verständnis von Eckharts Gedankenwelt. So wurden zunächst Fragen geklärt, wie Eckhart in seiner Zeit, nämlich der Schwelle zum 14. Jahrhundert, zu verorten ist. Ebenso wurden die Denker in ihrer Beziehung und Rezeption Eckharts vorgestellt: Plotin, Dionysius Areopagita, auf theologischer Seite insbesondere Augustinus und Albertus Magnus. Gleiches gilt für die weiblichen Vordenkerinnen Margarete Porete, Mechthild von Magdeburg und Schwester Hadewijch von Antwerpen. Wie sich Eckharts Christologie und theologische Anthropologie in seinen Predigten niederschlägt, welche Bedeutung er des Menschen Durchbruch und Sprung in Gottes Sphäre zubilligt, wie sich Gottesgeburt im Menschen ereignet und damit neue Wirklichkeiten konstituiert, wurden weiterhin dargelegt. ME ist nicht leicht zu fassen und festzulegen. Er, der selbst kein eigenes Lehrsystem und keine Dogmen entwickelt hat, lässt sich in keine Schablone pressen. Am ehesten greifbar ist Eckhart, wenn man erkennt, dass für ihn Sprache mehr ist als ein Vehikel, um göttliche Botschaften in Alltägliche zu transformieren. Bei Eckhart transzendiert Sprache selbst: Sprache beschreibt eine Wirklichkeit, die selbst wiederum Teil der Wirklichkeit ist. Gott kommuniziert nicht nur informierend, sondern sich selbst, Kommunikation ist Beziehungstheologie im trinitarischen Sinne, die gleichzeitig neue Wirklichkeiten schafft.
Die Arbeit thematisiert die Weiterentwicklung des touristischen Angebots der Deutschen Bahn, das derzeit über den Reiseveranstaltervertrieb am Markt platziert wird. Kunden, die im Reisebüro oder Internet eine Städtereise über ihren Veranstalter buchen, erhalten mit dem RIT (Rail Inclusive Tours)-Angebot ein spezielles Kooperationsticket für ihre Zugfahrt. Im ersten Abschnitt der Arbeit wird zunächst auf die Besonderheiten des Dienstleistungsbereichs inklusive Auswirkungen auf die Angebotsgestaltung von Unternehmen eingegangen. In diesem Zusammenhang werden Hintergründe von Kundenzufriedenheit und Kundenbindung skizziert sowie deren Wechselwirkungen dargestellt. Über die Einordnung der Deutschen Bahn als Dienstleistungsunternehmen im Schienenpersonenfernverkehr wird deren Positionierung im zunehmenden Wettbewerbsmarkt in einer Umfeldanalyse erarbeitet und die Bedeutsamkeit für den Unternehmenserfolg aufgezeigt. Der praktische Teil der Arbeit befasst sich mit den Befragungsergebnissen von Bestandskunden in der fokussierten Zielgruppe der Städtereisenden. Neben der Analyse von Nutzerstruktur, Reisegewohnheiten und alternativer Verkehrsmittelwahl, werden Kundenzufriedenheiten und Wichtigkeiten einzelner Leistungsbestandteile der Bahnreise näher betrachtet. Durch die Identifizierung von Kundensegmenten lassen sich Ansatzpunkte für die Weiterentwicklung des Angebots ableiten, die eine Attraktivitätssteigerung der Bahnfahrt herbeiführen und die Kundenzufriedenheit nachhaltig erhöhen können. Einbindung von Essensgutscheinen, das Angebot von Kuriergepäck oder die Integration des City-Tickets sind denkbare, nutzensteigernde Maßnahmen für die Anreisealternative Bahnfahrt. Weiterer Forschungsbedarf für die betrachtete Zielgruppe besteht in der Erfassung von Hinderungsgründen für eine bevorzugte Bahnwahl in der Verkehrsmittelentscheidung. Darüber hinaus ist das Potenzial für eine Einbindung solcher Services zu erfassen, die sich auf Seiten der Reiseveranstalter in ein Leistungspaket integrieren lassen, um weitere Indikatoren zur Attraktivitätssteigerung der Bahnfahrt ableiten zu können. Zusammenfassend stellt die Arbeit eine Analyse der skizzierten Zielgruppe der Städtereisenden der Deutschen Bahn über den Veranstaltervertrieb dar und liefert einen Beitrag, der die Ableitung einiger relevanter Handlungsempfehlungen erlaubt. Denn nur durch attraktive Angebote und die Erzielung einer hohen Kundenzufriedenheit kann sich die Bahn als bevorzugtes Transportmittel behaupten und neue Kunden für die Zugfahrt begeistern.
Gegenstand der Dissertation ist das von einem anonymen Autor stammende Bellum Africum, das als Teil des Corpus Caesarianum Caesars Feldzug in Afrika (Dezember 47 bis Juli 46 v.Chr.) umfasst. Hauptteil ist ein Zeilenkommentar der Kapitel 1 bis 47 (S.80-323), in dem der Text sowohl historisch als auch philologisch erfasst und bearbeitet wird. Daraus ergeben sich eine Reihe neuer Erkenntnisse verschiedenster Art in Detailfragen. Daneben treten eine Übersetzung der entsprechenden Kapitel ins Deutsche (S.55-78) sowie weitere Untersuchungen, in denen Einzelprobleme, die sich aus der Arbeit am Kommentar ergaben, bearbeitet werden. Thema dieser Untersuchungen sind in der Einleitung (S.33-54) Sprache und Stil (S.33-39), die Verfasserfrage (S.39-46) und die Chronologie der ersten Tage des Feldzuges (S.47-54). Zwei weitere Untersuchungen im Anschluss an den Kommentar befassen sich mit Caesars Legionen im Afrikanischen Krieg (S.324-342) und der Darstellung von Caesarianern und Pompeianern im Bellum Africum (S.343-382). Eine Prosopographie zum Bellum Africum (S.390-407), ein Index zu den benutzten antiken Quellen (S.408-421) und ein Literaturverzeichnis (S.10-32) vervollständigen die Arbeit.
Didaktik der Menschenrechte
(2001)
Die Studie untersucht, wie in Deutschland und Frankreich die beiden Politikbereiche Entwicklungszusammenarbeit und Migrationspolitik miteinander verbunden werden. Hintergrund ist eine seit etwa fünfzehn Jahren laufende intensive internationale Debatte über Möglichkeiten einer kohärenten Verknüpfung der beiden Politikfelder. Dabei wurden Vorschläge gemacht, wie Migration so gestaltet werden kann, dass allen Beteiligten, d.h. Herkunftsländern, Aufnahmeländern und den Migranten selbst, möglichst große Vorteile daraus erwachsen (Schlagwort Triple-Win). Positive Effekte der Migration auf die Entwicklung der Herkunftsländer sollen verstärkt und negative minimiert werden. Bisher stand staatliches Handeln in diesem Zusammenhang selten im Fokus der Forschung. Dieser Mangel ist umso eklatanter, als die an der Debatte beteiligten Internationalen Organisation vielfach staatliches Handeln zu beeinflussen suchen. Musekamps Studie stellt daher die politische Verknüpfung von Migration und Entwicklung in den Mittelpunkt und zeigt anhand der zwei Länderfallstudien Deutschland und Frankreich, warum bestimmte Vorschläge zur politischen Verknüpfung von Migration und Entwicklung in staatliches Handeln umgesetzt worden sind, andere hingegen nicht. Zur Erklärung dient der politikwissenschaftliche Ansatz des Policy Transfer. Musekamp kommt in seiner Studie zu dem Ergebnis, dass es insbesondere politische Gründe sind, die eine Aufnahme von Vorschlägen in politisches Handeln bedingen. Diese sind etwa das Konfliktpotenzial der Vorschläge und ihre Kompatibilität mit dem Status quo. Sachlich-inhaltliche Gründe, auf die sich die bisherige Debatte und Forschung konzentrieren, sind weniger ausschlaggebend. Die Arbeit zeigt eindrücklich, dass ein Erreichen der erwarteten "Triple-Win-Situationen" wesentlich voraussetzungsreicher ist, als dies manche Beiträge der internationalen Debatte suggerieren. So stehen viele Vorhaben zur Zeit auf sehr niedrigem Umsetzungsniveau. Deutlich wird dies am deutschen Fall, bei dem bislang vor allem Pilotprojekte umgesetzt wurden, die sich weitgehend auf jene Bereiche beschränken, die die Entwicklungszusammenarbeit allein umsetzen kann. Auch in der französischen Fallstudie zeigt sich dies etwa daran, dass die Zahl staatlich unterstützter Kleinprojekte von Migrantenorganisationen stagniert. Zudem ist der dreiseitige Vorteil selbst dort, wo Migration und Entwicklung in politischem Handeln verknüpft werden, keineswegs sicher. So wurde in Frankreich Migrationspolitik zwar verstärkt in Kooperation mit den Herkunftsländern auf Basis umfassender Partnerschaftsverträge geregelt. Gerade hier zeigt sich aber weniger ein ausgewogener partnerschaftlicher Ansatz als vielmehr eine Instrumentalisierung der EZ und des Engagements von Migrantengruppen für Zwecke der Migrationssteuerung. Die Einzelergebnisse der Länderanalyse und deren systematischer Vergleich setzen neue Impulse für eine praktische Umsetzung von Politik im Schnittfeld von Migration und Entwicklung, die der Komplexität des Feldes angemessen ist.
Bauen und Wohnen sind Bereiche, aus denen ganz erhebliche Ressourcenbelastungen erwachsen. Daher sind Optimierungen in diesem Feld von großer gesellschaftlicher Bedeutung. Nach über 25 Jahren des Experimentierens und Forschens stehen genügend ausgereifte, finanzierbare Techniken und Maßnahmen zur Reduktion der Umweltbelastungen durch das Bauen und Wohnen zur Verfügung. Eine breite Umsetzung dieser Techniken und Maßnahmen beim Wohnungsneubau ist demgegenüber nicht auszumachen. Diese Arbeit beschäftigt sich mit der Erklärung dieser Kluft zwischen "Wissen und Handeln", am Beispiel des selbstgenutzten Wohnungsneubaus bei der Akteurgruppe der Architekten. Für die Erklärung dieser Lücke wird ein bereits vorhandenes individualpsychologisches Akteurmodell um Konstrukte aus der Ökonomie, der Planungswissenschaften und der Soziologie erweitert und spezifiziert bzw. für den speziellen Anwendungskontext modifiziert. Mit Hilfe von qualitativen Interviews (N = 25) werden die neuen und die angepassten Variablen und Itemsets auf ihre Verwendbarkeit bzw. Praktikabilität geprüft. Als Interviewpartner dienten Wissenschaftler, Architekten, Bauträger, Entscheider aus der Bauwirtschaft, Bauherren und Planer. Nach Abschluss dieser qualitativen Befragung wird ein Instrument für die quantitative Befragung, ein standardisierter Fragebogen für die Akteurgruppe Architekten, eingesetzt. Es werden 15 Konstrukte operationalisiert, der Fragebogen umfasst 192 Items. Für die Probandenakquise der Architekten stellte die Architektenkammer Rheinland-Pfalz die Adressen aller in der Kammer als Mitglieder eingetragenen Architekten der Regionen Trier, Westpfalz und Koblenz zur Verfügung. Insgesamt wurden 300 Fragebögen versandt und der Rücklauf bestand aus 220 verwertbaren Fragebögen. Die Auswertung der Erhebung erfolgt multivariat mit einer Koppelung von Faktorenanalyse, Korrelationsanalyse und Regressionsanalyse, A-priori werden verschiedene Hypothesen bezüglich der Ausprägung und Wirkungsweise der Variablen bzw. der Struktur des Modells getroffen. Allerdings herrscht keine Sicherheit über diese Beziehungszusammenhänge, dafür sind die eingesetzten Variablen zu unterschiedlich und auch zu zahlreich. Insofern sind sowohl strukturentdeckende, wie auch strukturprüfende Analysen nötig und daher wird ein mehrschrittiges Verfahren gewählt. Die Befunde widersprechen den Annahmen von Rational-Choice-Modellen, die in der Eigennutzorientierung im Sinne eines rationalen Kalküls das dominante oder gar einzige Motiv für umweltschützendes Verhalten erkennen. Bei Einsatz des gesamten erweiterten Modells, stellt sich heraus, dass eine grundsätzliche proökologische Werteinstellung ("Umweltschutz ist besonders wichtig") der stärkste Beweggrund für proökologisches Handeln von Architekten ist. Weitere wichtige Bedingungen sind die "Überlegenheit von Techniken und Maßnahmen" im Vergleich zum üblichen Standard, die "Empörung über zu wenig Umweltschutz", das Erkennen eigener Handlungsspielräume ("eigene Kontrolle") und die "technischen Risiken", die gering sein sollten. Ein ausgeprägter "Ärger über zu viel Umweltschutz" hat einen negativen Wirkungszusammenhang. Insgesamt kann festgestellt werden, dass das Handeln deutlich besser erklärt wird als die Handlungsabsichten. Außerdem ist die Menge der erklärenden Faktoren für das Handeln größer.
In der vorliegenden Arbeit wurden die regulatorischen Regionen der Gene für den Kaliumchloridtransporter 3 (KCC3, SLC12A6) und den Glukokortikoidrezeptor (NR3C1) untersucht. Hierbei handelt es sich um Gene, die bereits mit psychiatrischen Erkrankungen assoziiert worden sind. Die Promotorregionen beider Gene wurden in Abhängigkeit von bereits in der Literatur beschriebenen DNA-Polymorphismen und unter besonderer Berücksichtigung epigenetischer DNA-Modifikationen mittels bisulfitspezifischer Sequenzierung und Luciferase-Assay funktionell charakterisiert. Es konnte gezeigt werden, dass DNA-Polymorphismen und epigenetische Veränderungen der Erbinformation - letztere können in Abhängigkeit unterschiedlicher Lebenserfahrungen entstehen - funktionelle Relevanz für die Promotoraktivität der untersuchten Gene haben. Strukturelle und modifikatorische DNA-Variationen sowie Gen-Umwelt Wechselwirkungen beeinflussen somit die Genregulation und können unter bestimmten Bedingungen krankheitsrelevant werden.