Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (488) (entfernen)
Sprache
- Deutsch (488) (entfernen)
Schlagworte
- Deutschland (24)
- Stress (13)
- n.a. (10)
- Bodenerosion (9)
- Tourismus (8)
- Fernerkundung (7)
- Geschichte (7)
- Modellierung (7)
- Motivation (6)
- Nachhaltigkeit (6)
Institut
- Psychologie (117)
- Raum- und Umweltwissenschaften (98)
- Wirtschaftswissenschaften (34)
- Geschichte, mittlere und neuere (28)
- Germanistik (25)
- Kunstgeschichte (21)
- Mathematik (18)
- Politikwissenschaft (15)
- Soziologie (15)
- Fachbereich 1 (10)
Ziel der Dissertation ist es, den Hochwasserschutz und das Management extremer Hoch-wasser für das Einzugsgebiet der Isar zu verbessern mit Hinblick darauf, wie sich vorhandene und neu zu schaffende Retentionsräume mit optimaler Wirkung für das gesamte Flusssystem einsetzen lassen. Dafür sind Kenntnisse über extreme Ereignisse und deren Auswirkung auf die betrachteten Einzugsgebiete notwendig. Großskalige Niederschläge in Mitteleuropa werden überwiegend durch Vb-artige Zugbahnen ausgelöst. Die Relevanz für Bayern zeigt die Auswertung des neuesten Kataloges der Vb-Zugbahnen für den Zeitraum 1959 bis 2015. In den Monaten April bis Oktober haben Vb-Zugbahnen zu ca. 30 % der beobachten Hochwasser beigetragen. Im Sommer führt sogar jedes zweite Vb-Tief zu Hochwasser. Im Donaueinzugsgebiet können 50 % der 20 größten Hochwasser direkt auf Vb-Zugbahnen zurückgeführt werden, weitere 25 % durch ähnliche Zugbahnen oder auf eine Vb aktiven Phase. Über die Hälfe der größten Hochwasser traten dabei in Bezug zu einer Serie von Vb-Tiefs auf. 60 % der Vb-Zugbahnen sind Teil einer Serie von Vb-Tiefs. Aus wiederkehrenden Niederschlägen persistenter Zugbahnen resultieren mehrgipflige Hochwasserwellen, die insbesondere für Rückhalteräume betrachtet werden müssen (DIN 19700). Die Detailuntersuchung erfolgt unter besonderer Beachtung der Untersuchungen zu den Vb-Zugbahnen. Das Isareinzugsgebiet mit 8900 km-² besitzt mit den Seen im Voralpenland große natürliche Retentionsräume und mit dem Sylvensteinspeicher im alpinen Einzugsgebiet den größten staatlichen Speicher Bayerns. Für die Wirkungsanalyse von gekoppelten Hoch-wasserrückhalteräumen in komplexen Einzugsgebieten müssen Ganglinien mit einem Nie-derschlag-Abfluss-Modell generiert werden, die den Wellenablauf des Hochwassers im ge-samten Einzugsgebiet repräsentieren. Die Dissertation analysiert, wie sich der Einsatz ver-schiedener Verfahren zur Vorgabe der Eingangsniederschläge auswirkt. Dabei liegt der Schwerpunkt der Untersuchung auf dem Niederschlagsverlauf. Es wird ein Verfahren zur Ableitung von Ganglinien aus standardisierten beobachteten Niederschlagsverläufen entwi-ckelt. Die Hochwasserganglinien, generiert aus synthetischen Niederschlagsverläufen der Bemessung, werden am Beispiel des Sylvensteinspeichers mit den drei größten abgelaufe-nen Hochwasserereignissen verglichen und diskutiert, ob mit dem neuen Verfahren die Cha-rakteristik der beobachten Hochwasser besser wiedergeben wird. Der Fokus liegt dabei auf der Wellenüberlagerung. Es kann für das ganze Gebiet gezeigt werden, dass die mit der neuen Methode standardisierten beobachteten Niederschlagsverläufe besser geeignet sind, die Wellenüberlagerung wiederzugeben, da zeitliche Unterschiede durch die Staueffekte an den Alpen berücksichtigt werden, wie sie bei Vb-Zugbahn geprägten Niederschlägen entste-hen. Es kann daher bei ähnlichen Fragestellungen empfohlen werden, diese Methode in der Praxis als Variante hinzuzuziehen, um die natürlichen Prozesse repräsentativer zu beschrei-ben. Für die Simulation mit dem N-A-Modell LARSIM werden die Unsicherheiten durch Varianten-rechnungen gezeigt. Es hat sich herausgestellt, dass nicht nur der Niederschlagsverlauf und die Vorbedingungen des Ereignisses eine große Auswirkung auf die Kalibrierung der Ab-flussbeiwerte im N-A-Modell haben, sondern auch das gewählte Flood-Routing-Verfahren und die Gerinnerauheit. Schließlich wird die Bewertung der potenziellen Standorte durchgeführt. Es wird berechnet, wo das Hochwasser zurückgehalten werden muss, um sowohl eine lokale Reduktion des Hochwasserscheitels, als auch gleichzeitig eine möglichst große Schutzwirkung für das Ge-samtsystem zu ermöglichen. Priorisiert werden Rückhaltestandorte, die praktisch umsetzbar sind und den größten Nutzen haben. Die Untersuchung einer Doppelwelle, die durch eine Serie von Vb-Zugbahnen entstehen kann, zeigt, wie die Einschätzung potenzieller Standorte verändern kann. Der alpine und zum Teil der voralpine Raum reagieren mit kurzen steilen Ganglinien und sind gegenüber Doppelwellen weniger sensitiv, weil kaum Wellenüberlagerung entsteht. Für den Sylvensteinspeicher, der im alpinen Raum liegt, können daher kurze Niederschlagspausen für eine schnelle Entlastung des Speicherraumes genutzt werden. Un-terhalb von Seen mit einem großen Retentionsvermögen erzeugen Doppelwellen aufgrund der langen Retentionsäste durch die Wellenüberlagerung deutlich höhere Abflüsse als Ein-zelwellen. Rückhalt an der oberen Isar ist unter diesen Kriterien am optimalsten. Empfohlene Maßnahmen - ohne Bauaufwand - konnten bereits umgesetzt werden und verbessern den Hochwasserschutz und das Hochwassermanagement an der Isar. Die Auswertungen zeigen, dass in den Monaten April, Mai, September und Oktober die Hochwasserereignisse in Folge von Vb-Zugbahnen im Zuge der Klimaveränderung häufiger und in den Sommermonaten extremer werden könnten.
Die Arbeit untersucht den Zusammenhang zwischen dem sprachlichen Zeichen und den Begriffen. Das Lexikon mit seinen Bedeutungsdefinitionen ist der augenscheinlichste Schnittpunkt zwischen dem Sprach- und dem Begriffssystem. Die Bedeutungsdefinition wird dabei als ein empirisches Datum betrachtet, das formal beschrieben werden kann. Die Bedeutungsanalyse überführt die Bedeutungsdefinition in eine komplexe Ordnungsstruktur. Die Methode wurde aus verschiedenen Begriffstheorien entwickelt, hauptsächlich aus Raili Kauppis Begriffstheorie und der Formalen Begriffsanalyse. Im Ergebnis erhält man aus den Bedeutungen eines Lexikons ein komplexes System von ein- bis n-stelligen Begriffen. Dieses Begriffssystem unterscheidet sich von den bekannten Semantischen Netzen durch einen völligen Verzicht auf von außen auf das System projizierte Relationen, wie den sogenannten semantischen Relationen. Die einzigen Relationen in diesem System sind begrifflich.
In dieser Arbeit untersuchen wir das Optimierungsproblem der optimalen Materialausrichtung orthotroper Materialien in der Hülle von dreidimensionalen Schalenkonstruktionen. Ziel der Optimierung ist dabei die Minimierung der Gesamtnachgiebigkeit der Konstruktion, was der Suche nach einem möglichst steifen Design entspricht. Sowohl die mathematischen als auch die mechanischen Grundlagen werden in kompakter Form zusammengetragen und basierend darauf werden sowohl gradientenbasierte als auch auf mechanischen Prinzipien beruhende, neue Erweiterungen punktweise formulierter Optimierungsverfahren entwickelt und implementiert. Die vorgestellten Verfahren werden anhand des Beispiels des Modells einer Flugzeugtragfläche mit praxisrelevanter Problemgröße getestet und verglichen. Schließlich werden die untersuchten Methoden in ihrer Koppelung mit einem Verfahren zur Topologieoptimierung, basierend auf dem topologischen Gradienten untersucht.
In sechs Primar- und zwei Sekundarschulen wurde eine dreimonatige leistungsmotivationsbezogene Intervention mit Schülerinnen und Schülern in sieben Jahrgangsstufen durchgeführt. Die Intervention umfasste 25,5 Zeitstunden und basierte auf einem Training, welches neben didaktischen Impulsen für Lehrpersonen vor allem die Stärkung der Schülerinnen und Schüler im Hinblick auf Selbstwahrnehmung, Selbstwirksamkeitserwartungen, Kausalattribuierung von Erfolgen bzw. Misserfolgen, soziale Beziehungen und Zielsetzung intendierte. Die beiden zugrundeliegenden Hypothesen der Studie formulieren die Erwartungen, dass nach Abschluss der Intervention erstens die Leistungsmotivation und zweitens auch das Wohlbefinden (Flourishing) der Schülerinnen und Schüler nachhaltig ansteigt. Es fanden Erhebungen zu drei Messzeitpunkten (Pre- und Posttest, Follow-Up sechs Monate nach Beendigung der Intervention) statt. Beide Hypothesen wurden in der empirischen Evaluation (RM-ANOVA) nicht bestätigt. Ergänzende explorative Untersuchungen (t-Tests und Clusteranalysen) zeigten vereinzelte Tendenzen in Richtung der Hypothesen, sind jedoch nicht aussagekräftig. Aufgrund dieser Befunde wurde im Anschluss an die Studie eine qualitative Inhaltsanalyse des schriftlichen Feedbacks der beteiligten Lehrpersonen durchgeführt. Hierbei konnten fünf erfolgskritische Faktoren (Commitment der Lehrpersonen, Anstrengungsgrad, Rolle der Schülerinnen und Schüler, Projektorganisation, sowie Inhalt und Methodik der Intervention) identifiziert werden, deren Beachtung für das Gelingen von positiv-psychologischen Interventionen in Organisationen unerlässlich erscheinen. Die Befunde der qualitativen Inhaltsanalyse führen schließlich zu der Annahme, dass aufgrund fehlender Programmintegrität keine Aussage über die tatsächliche Wirksamkeit des Trainings getroffen werden kann. Die Arbeit endet mit Empfehlungen zur optimalen Gestaltung positiv-psychologischer Interventionen in Bildungsorganisationen.
Erschöpfung ist ein prominentes, unspezifisches Symptom mit vielfältigen Begleitsymptomen (z. B. Schmerzen, Schlafstörungen, Reizbarkeit, Niedergeschlagenheit). Gängige Konzepte erschöpfungsbezogener Erkrankungen und Syndrome werden häufig in Bezug auf ihre Differenzierungskraft oder Struktur kritisiert. Die Ursachen für die Entstehung von Erschöpfung sind vielfältig und die Behandlung kann nur mit gründlicher Differentialdiagnostik erfolgen. Anhand adaptionsbezogener Stressmodelle kann die Entstehung von Erschöpfung beschrieben und in drei Formen eingeteilt werden (I: reversibel, II: prädispositioniert und III: emotional-dysregulativ). Poststress-Symptome (z. B. "Wochenend-Migräne", "UrlaubsInfekte") stellen möglicherweise eine Erschöpfungsform dar, welche durch eine zentrale Entleerung der Noradrenalin-Spiegel bedingt ist. In der vorliegenden Arbeit wurden die Verlässlichkeit der Neuropattern-Erschöpfungsskala, sowie der Zusammenhang von Erschöpfung, Stress, dem Langzeit-Gesundheitsstatus und Poststress-Symptomen geprüft. Hierzu wurden Daten ambulanter und stationärer Patienten und Mitarbeitern verwendet, die an einer randomisierten klinischen Studie zur Neuropattern-Diagnostik teilnahmen. Zusätzlich wurden Daten von gesunden Personen zur Erhebung einer Normstichprobe verwendet. Die Neuropattern-Erschöpfungsskala zeigte sich als reliables und valides Maß. Sie war Indikator für direkte, indirekte und intangible Gesundheitskosten (z. B. erhöhte Arzt-, Therapeutenbesuche, Medikamenteneinnahme und Arbeitsunfähigkeit, reduziertes psychisches und physisches Wohlbefinden). Es zeigte sich, dass sowohl Stress, als auch Erschöpfung den Gesundheitszustand über den Verlauf von zwölf Monaten vorhersagt. Bemerkenswert ist, dass der Zusammenhang zwischen Stress und dem Langzeit-Gesundheitszustand vornehmlich durch Erschöpfung vermittelt wurde. Schließlich wurde die Prävalenz von Poststress-Symptomen bei gesunden Personen (2.9%), ambulanten (20%) und stationären Patienten (34,7%) bestimmt. Auch hier war nicht Stress der stärkste Prädiktor für das Auftreten von Poststress-Symptomen, sondern Erschöpfung. Modelle der psychophysiologischen Stressreaktion können die Entstehung von Erschöpfung erklären und die Diagnostik und Behandlung stressbezogener Gesundheitsstörungen verbessern. Die vorgestellte Neuropattern-Erschöpfungsskala ist dabei ein verlässliches und für die Praxis gut geeignetes Instrument, welches zur Indikation und Validierung präventiver und therapeutischer Maßnahmen eingesetzt werden kann. Je nach Erschöpfungsform bieten sich verschiedene Maßnahmen des regenerativen, instrumentellen oder kognitiven Stressmanagements, Nahrungsergänzungsmittel und Pharmakotherapie an.
Die Zielsetzung der vorliegenden Dissertation lag in der ausführlichen und systematischen Exploration, Deskription und Analyse von relational bedingten sozio-medialen Ungleichheiten zwischen jugendlichen Nutzern sozialer Netzwerkplattformen (WhatsApp, Facebook, Snapchat etc.). Im Rahmen der qualitativen Untersuchung wurden insgesamt sechs problemzentrierte Einzelinterviews und drei problemzentrierte Gruppendiskussionen mit Jugendlichen im Alter von 15 bis 20 Jahren sowie eine Gruppendiskussion mit pädagogischen Fachkräften durchgeführt und inhaltsanalytisch ausgewertet. Die vorliegende Arbeit konzentriert sich auf die Bedingungen und Wechselwirkungen zwischen den Individualmerkmalen von jugendlichen Nutzern (Interessen, Motive, Nutzungsweisen, Kompetenzen) und ihren relationalen Merkmalen (Beziehungen in sozialen Onlinenetzwerken) sowie den daraus resultierenden sozialen Ressourcen und Risiken. Die relationalen Merkmale sind laut den Ergebnissen der Dissertation gleich in zweifacher Hinsicht an der Reproduktion sozialer Ungleichheitsstrukturen beteiligt: Erstens nehmen sie Einfluss auf den Zugang zu und die Bewertung von medienvermittelten Informationen, da Informationen auf den Plattformen vorwiegend innerhalb des mediatisierten Beziehungsnetzwerkes kreisen. Zweitens bestimmen die relationalen Merkmale maßgeblich mit, welche Kompetenzen und Präferenzen Jugendliche im Umgang mit sozialen Netzwerkplattformen erwerben. Bezüglich der Mediennutzung und -wirkung können bei den Jugendlichen mit niedrigem Bildungsniveau folgende ungleichheitsrelevante Befunde konstatiert werden: verzögerte Adaption neuer Plattformen, intensivere Nutzung, geringere Nutzungskompetenzen, vermehrte Aufmerksamkeitserzeugung sowie eine primär unterhaltungsorientierte Nutzung. Zudem weisen sie überwiegend homogene Netzwerkstrukturen auf, was sich nachteilig auf ihren Zugang zu medienvermittelten Informationen und deren Bewertung auswirkt. Für Jugendliche mit hohem Bildungsniveau lassen sich hingegen deutlich positivere Verstärkungseffekte durch die Mediennutzung feststellen.
DNA methylation, through 5-methyl- and 5-hydroxymethylcytosine (5mC and 5hmC) is considered to be one of the principal interfaces between the genome and our environment and it helps explain phenotypic variations in human populations. Initial reports of large differences in methylation level in genomic regulatory regions, coupled with clear gene expression data in both imprinted genes and malignant diseases provided easily dissected molecular mechanisms for switching genes on or off. However, a more subtle process is becoming evident, where small (<10%) changes to intermediate methylation levels were associated with complex disease phenotypes. This has resulted in two clear methylation paradigms. The latter "subtle change" paradigm is rapidly becoming the epigenetic hallmark of complex disease phenotypes, although we were currently hampered by a lack of data addressing the true biological significance and meaning of these small differences. The initial expectation of rapidly identifying mechanisms linking environmental exposure to a disease phenotype led to numerous observational/association studies being performed. Although this expectation remains unmet, there is now a growing body of literature on specific genes, suggesting wide ranging transcriptional and translational consequences of such subtle methylation changes. Data from the glucocorticoid receptor (NR3C1) has shown that a complex interplay between DNA methylation, extensive 5"UTR splicing and microvariability gives rise to the overall level and relative distribution of total and N-terminal protein isoforms generated. Additionally, the presence of multiple AUG translation initiation codons throughout the complete, processed, mRNA enables translation variability, hereby enhancing the translational isoforms and the resulting protein isoform diversity; providing a clear link between small changes in DNA methylation and significant changes in protein isoforms and cellular locations. Methylation changes in the NR3C1 CpG island, alters the NR3C1 transcription and eventually protein isoforms in the tissues, resulting in subtle but visible physiological variability. Implying external environmental stimuli act through subtle methylation changes, with transcriptional microvariability as the underlying mechanism, to fine-tune the total NR3C1 protein levels. The ubiquitous distribution of genes with similar structure as NR3C1, combined with an increasing number of studies linking subtle methylation changes in specific genes with wide ranging transcriptional and translational consequences, suggested a more genome-wide spread of subtle DNA methylation changes and transcription variability. The subtle methylation paradigm and the biological relevance of such changes were supported by two epigenetic animal models, which linked small methylation changes to either psychopathological or immunological effects. The first model, rats subjected to maternal deprivation, showed long term behavioural and stress response changes. A second model, exposing mice to early life infection with H1N1, illustrated long-term immunological effects. Both models displayed subtle changes within the methylome. Suggesting/Indicating that early life adversity and early life viral infection "programmed" the CNS and innate immune response respectively, via subtle DNA methylation changes genome-wide. The research presented in this thesis investigated the ever-growing roles of DNA methylation; the physiological and functional relevance of subtle small DNA methylation changes genome-wide, in particular for the CNS (MD model) and the immune system (early life viral infection model) ; and the evidence available, particularly from the glucocorticoid of the cascade of events initiated by such subtle methylation changes, as well as addressing the underlying question as to what represents a genuine biologically significant difference in methylation.
Zeugen die ein Tatgeschehen nicht beobachtet, sondern nur auditiv wahrgenommen haben, werden als Ohrenzeugen bezeichnet. Im Rahmen des Strafverfahrens erhalten Ohrenzeugen die Aufgabe, die Täterstimme im Rahmen einer akustischen Wahlgegenüberstellung (Voice Line-up) wiederzuerkennen. Die forensische Praxis zeigt, dass Ohrenzeugen diese Aufgabe unterschiedlich gut bewältigen können, ohne dass sich ein klares Muster erkennen lässt. In der Ohrenzeugenforschung gibt es jedoch Hinweise, dass musikalische Ausbildung die Fähigkeit zur Sprechererkennung verbessert.
Ziel dieser Arbeit ist es zu prüfen, ob das Ausmaß musikalischer Wahrnehmungskompetenz eine Prognose der Sprechererkennungsleistung erlaubt.
Um dies zu prüfen, nahmen 60 Versuchspersonen sowohl an einem „Musikalitätstest“ in Form der Montreal Battery for the Evaluation of Amusia (MBEA) als auch an einem target present Voice Line-up teil. Mittels Regressionsmodellen konnte bestimmt werden, dass die Wahrscheinlichkeit für eine korrekte Sprechererkennung steigt, je höher das Testergebnis der MBEA ausfällt. Dieses Testergebnis ermöglicht eine signifikante Prognose der Sprechererkennungsleistung. Die ebenfalls mittels Fragebögen erhobene Dauer der musikalischen Ausbildung erlaubt hingegen keine signifikante Prognose. Das durchgeführte Experiment zeigt auch, dass die Dauer der musikalischen Ausbildung das Testergebnis im Musikalitätstest nur eingeschränkt erklärt.
Diese Beobachtungen führen zu dem Schluss, dass bei einer Bewertung von Ohrenzeugen ein direktes Testen von musikalischer Wahrnehmungsfähigkeit einer Inferenz auf der Basis musik-biografischer Angaben vorzuziehen ist.
Gegenstand der vorliegenden Arbeit ist die Untersuchung der Lexik der spätmittelalterlichen Luxemburger Rechnungsbücher unter der Prämisse der Urbanität. Da auf keine ausgearbeitete Methodik zurückgegriffen werden konnte, anhand derer eine Einteilung in für die Analyse relevante bzw. irrelevante Lexik vorgenommen werden konnte, wurde im Rahmen der Arbeit unter Rückgriff auf sprachwissenschaftliche und geschichtswissenschaftliche Konzepte eine eigene Methodik entwickelt. Auf deren Basis erfolgte die Anlage des Untersuchungskorpus' auf der Grundlage der von 1388-1500 fast lückenlos überlieferten Rechnungsbücher der Stadt Luxemburg mit dem Ziel der Analyse spezifisch urbaner Lexik. Bei der Analyse wurde schließlich eine dreifache Zielsetzung verfolgt: Einerseits die Untersuchung der Lexik mit Blick auf die Verteilung von types und tokens in als spezifisch urban definierten Domänen, andererseits die Anlage eines Glossars, das als textphilologisches Werkzeug als Hilfsmittel bei der Erschließung der Rechnungsbücher dienen soll. Daneben wurde ebenfalls auf die geschichtswissenschaftlichen Erkenntnisgewinne eingegangen, die durch die jeweilige Wortschatzanalyse realisiert werden konnten.
Die Arbeit geht von der These aus, dass zwischen Webers Konzept einer verstehenden Soziologie und der materialen Studie "Die Protestantische Ethik und der Geist des Kapitalismus" (PE) eine Differenz in Form einer Mehrleistung auf Seiten der PE besteht. Diese Annahme fußt auf der Beobachtung, dass die PE verschiedene Perspektiven auf die Entstehung sinnhafter Handlungsorientierungen offeriert und sich gleichsam Strategien zu deren Plausibilisierung identifizieren lassen. Derartige Zusammenhänge wurden von Weber in den methodologischen Schriften scheinbar nur am Rande thematisiert und die entsprechenden Passagen erwecken den Eindruck, dass die Frage nach der Geschichtlichkeit der sinnhaften Handlungsorientierungen lediglich als Prämisse bzw. als Begründung für die Notwendigkeit einer verstehenden Sinnerfassung Beachtung findet. Diese Beobachtung bestimmt den weiteren Gang der Untersuchung und führte zu einem argumentativen Aufbau, welcher sich als Dreischritt beschreiben lässt: a) Eine Diskussion des Erklärungsprofils von Webers Konzept einer verstehenden Soziologie sowie Beispiele für vermutete Mehrleistungen auf Seiten der PE dienen zunächst der genaueren Explikation der identifizierten Problemstellung (vgl. Abschnitt I). Hierauf aufbauend erweisen sich mit Blick auf den aktuellen Forschungsstand b) jene Argumentationszusammenhänge der materialen Forschung als problematisch bzw. in ihrer logischen Beziehung zur Methodologie Webers als weiterhin ungeklärt, welche in Abschnitt I zunächst auf eine Mehrleistung auf Seiten der PE hindeuten. Hierbei zeigt eine gegenüberstellende Untersuchung von Vertretern von Einheitsthesen (vgl. Prewo 1979, Schluchter 1998, Collins 1986a) sowie Vertretern von Differenzthesen (vgl. v. Schelting 1934, Bendix 1964, Kalberg 2001), dass der aktuelle Diskussionsstand weiterhin durch offene Fragen und Unstimmigkeiten charakterisiert ist (vgl. Abschnitt II). Implizite Antworten auf diese Probleme des aktuellen Diskussionsstands lassen sich über c) einen erneuten rekonstruierenden Blick auf die in der PE enthaltenen Zusammenhänge und Plausibilisierungsstrategien gewinnen. Hier ist die Strategie doppelseitig angelegt: Für einen Teil der identifizierten Probleme ist es von besonderer Bedeutung, einen systematischen Einblick in die in der PE enthaltenen Zusammenhänge zu gewinnen (vgl. Abschnitt III). Die hierbei gewonnenen Erträge dienen als Grundlage zur adäquaten Rekonstruktion der methodischen Umsetzung und ermöglichen ein Verständnis davon, wie Weber die in den Fokus der Forschung gestellten Phänomene zu erklären suchte (vgl. Abschnitt IV).
Die Kunstgewerbeschule Pforzheim nimmt innerhalb der Bildungsanstalten, die zur künstlerischen Förderung der Gewerbe im 19. Jahrhundert gegründet worden waren, eine Sonderstellung ein. Lehrplan und Ausbildungsgang orientierten sich vorrangig an den Bedürfnissen der in Pforzheim seit 1767 ansässigen Schmuckindustrie, die maßgeblich an der Gründung und Förderung der Kunstgewerbeschule beteiligt war. In der Dissertation werden die Rahmenbedingungen, die zur Gründung der Pforzheimer Kunstgewerbeschule im Jahr 1877 führten, sowie die Qualität und die Methoden der dort angebotenen künstlerisch-technischen Ausbildung unter Berücksichtigung zeitgenössischer Bildungsideale analysiert. Im Anschluss wird das Ansehen der Kunstgewerbeschule unter Zeitgenossen beurteilt sowie die Bedeutung dieser Institution für die Pforzheimer Schmuckindustrie herausgearbeitet. Der Betrachtungszeitraum erstreckt sich von 1877, dem Gründungsjahr der Kunstgewerbeschule, bis 1911, dem Todesjahr ihres ersten Direktors, Alfred Waag. Zeitgenössische Berichte und Archivmaterialien sowie der kontinuierlich erweiterte Lehrmittelbestand der Kunstgewerbeschule bilden die Grundlage für die Untersuchungen. Ein Großteil der Musterstücke, viele Bücher und Vorlagenwerke, die zur künstlerischen Ausbildung der Schüler angeschafft wurden, sind bis heute in Archiven und Museen erhalten und zeugen von der Qualität und der Fortschrittlichkeit der Ausbildungsstätte. Vor allem in den Bereichen Entwurf und Technik setzte man an der Kunstgewerbeschule Pforzheim Maßstäbe. Unter dem Einfluss der Schule entstanden Entwürfe für die lokale Schmuckindustrie, die speziell auf die serielle Fertigung zugeschnitten waren und damit beispielhaft für eine gelungene Allianz von Kunst, Technik und Wirtschaftlichkeit stehen. Die Zusammenarbeit der lokalen Schmuckhersteller mit Lehrern oder Absolventen der Kunstgewerbeschule ließ sich ebenso belegen wie die erfolgreiche Teilnahme verschiedener Schüler an überregionalen Wettbewerben für Schmuckentwürfe. Dank der quellengestützten Recherche konnten Beziehungen zwischen den als mustergültig empfundenen Vorbildern, der Entwurfsarbeit an der Schule und dem in Pforzheim industriell hergestellten Schmuck aufgezeigt werden. Der häufig geäußerte Vorwurf, Pforzheimer Firmen hätten vor allem fremde Schmuckentwürfe kopiert und durch maschinelle Fertigungstechniken billig produziert, verkennt den eigenen künstlerischen Anspruch einer Industrie, die zur ästhetisch-technischen Ausbildung ihrer Arbeiter und Lehrlinge eine Kunstgewerbeschule ins Leben rief, die bis heute unter dem Namen Hochschule Pforzheim - Gestaltung, Technik, Wirtschaft und Recht Bestand hat.
Pränatal, postnatal und aktuell auftretende chronische Stressbelastung sind bedeutsame Risikofaktoren für mentale und körperliche Beeinträchtigungen im Erwachsenenalter. Ziel dieser Dissertationsschrift ist es, den Einfluss von Stress im Lebenslauf (pränatale, postnatale, aktuelle Stressbelastung) auf verschiedene Erschöpfungsvariablen und Depressivität zu analysieren und mögliche Mediatoreffekte von aktuell auftretendem Stress auf Assoziationen zwischen pränatalem bzw. postnatalem Stress und Erschöpfung bzw. Depressivität zu bestimmen. Zur Prüfung dieser Fragestellung wurden Daten von chronisch gestressten Lehrpersonen (N = 186; 67,70% weiblich) ohne Diagnose für eine psychische Erkrankung sowie von Hausarzt- (N = 473; 59% weiblich) und Klinikpatienten (N = 284; 63,7% weiblich) mit mindestens einer stressbezogenen mentalen Gesundheitsstörung erhoben. Prä-postnataler Stress, subjektive Erschöpfung und Depressivität wurden in allen Stichproben erfasst, aktuelle Stressbelastung und Poststresssymptome in den Patientenstichproben. Zusätzlich wurden konzeptuelle Endophänotypen als psychobiologisches Erschöpfungsmaß in beiden Patientenstichproben sowie Übernachtaktivität des parasympathischen Nervensystems als Maß vagaler Erholung in der Hausarztstichprobe operationalisiert. Bei den Lehrpersonen wurde anhand univariater Varianzanalysen analysiert, ob Lehrkräfte mit frühkindlicher Belastung unterschiedliche Erschöpfungs- bzw. Depressionswerte aufwiesen im Vergleich zu Lehrkräften ohne frühkindliche Belastung. In den Patientenstichproben wurden multiple und binärlogistische Regressionsmodelle verwendet, um Assoziationen zwischen pränatalem, postnatalem sowie aktuellem Stress mit Erschöpfung, Depressivität, den konzeptuellen Endophänotypen der Neuropattern-Diagnostik sowie Übernachtaktivität des parasympathischen Nervensystems (nur bei Hausarztpatienten) zu prüfen. Mögliche Mediatoreffekte aktueller Stressbelastung auf Assoziationen zwischen pränatalem und postnatalem Stress mit Erschöpfung, Depressivität, der konzeptuellen Endophänotypen bzw. der Übernachtaktivität des parasympathischen Nervensystems (nur bei Hausarztpatienten) wurden bestimmt. Ad hoc wurde mittels zusätzlich ein möglicher Moderatoreffekt von pränatalem Stress auf die Assoziation zwischen aktuellem Stress und der Übernachtherzrate getestet. Pränataler Stress war bei sonst gesunden Lehrkräften mit einer stärker ausgeprägten Gratifikationskrise und höherer emotionaler Erschöpfung assoziiert. Postnataler Stress ging mit höheren Werten für Depressivität, Anstrengungs-Belohnungs-Ungleichgewicht, der MBI Gesamtskala, emotionaler Erschöpfung und vitaler Erschöpfung einher. Sowohl bei Hausarzt- als auch bei Klinikpatienten waren aktuelle psychosoziale Belastung und aktuelle Beeinträchtigung durch Lebensereignisse mit Depressivität, Erschöpfung und Poststress assoziiert. Bei Hausarztpatienten sagte aktuelle Stressbelastung eine erhöhte Odds Ratio der Noradrenalin-Hypoaktivität sowie Serotonin-Hyperreaktivität vorher; bei Klinikpatienten für Noradrenalin-Hypoaktivität. Des Weiteren zeigten Hausarztpatienten mit starker psychosozialer Belastung erhöhte parasympathische Aktivität über Nacht. Bei Hausarztpatienten ist hoher pränataler Stress assoziiert mit wahrgenommener psychosozialer Belastung, aktuellen Lebensereignissen und Poststresssymptomen. Pränataler Stress ging mit einer verringerten vagalen Aktivität einher. Weiter ist postnataler Stress assoziiert mit Depressivität, wahrgenommener psychosozialer Belastung, aktuellen Lebensereignissen, Erschöpfung und Poststresssymptomen sowie einem erhöhten Odds Ratio für die Noradrenalin-Hypoaktivität sowie mit CRH-Hyperaktivität. Die Assoziationen zwischen pränatalem bzw. postnatalem Stress und Poststress, Erschöpfung, Depressivität und Noradrenalin-Hypoaktivität wurden signifikant durch aktuelle Stressbelastung mediiert. Die Assoziation zwischen aktuellem Stress und parasympathischer Aktivität über Nacht wurde durch pränatalen Stress moderiert: Bei geringer bis mittlerer nicht aber bei hoher pränataler Belastung ging eine hohe psychosoziale Belastung mit erhöhter Übernachtaktivität des parasympathischen Nervensystems einher. Bei Klinikpatienten zeigten sich keine signifikanten Zusammenhänge zwischen pränatalem bzw. postnatalem Stress und Erschöpfung bzw. Depressivität. Pränataler Stress kann trophotrope Funktionen beeinträchtigen und damit die Vulnerabilität für Erschöpfung und Depressivität erhöhen. Fortgesetzte postnatale und aktuelle Stressbelastung erhöhen den kumulativen Stress im Lebenslauf einer Person und tragen zu psychobiologischen Dysfunktionen sowie Erschöpfung und Depressivität bei.
Die Untersuchung widmet sich dem Verhältnis von Kunst und Fernsehen in Deutschland seit den 1960er Jahren bis heute unter Berücksichtigung des gesellschaftlichen und künstlerischen Diskurses. In den 1960er Jahren begann die Zusammenarbeit von Künstlern und dem Fernsehen mit Projekten wie "Black Gate Cologne" oder Gerry Schums "Fernsehgalerie" äußerst vielversprechend. In enger Zusammenarbeit mit den Fernsehverantwortlichen wurden Sendungen speziell für die Ausstrahlung im Fernsehen produziert und auch als Fernsehkunst gesendet. Die Akzeptanz und Resonanz auf diese Projekte waren jedoch nach anfänglicher Euphorie bescheiden bis ablehnend. Allerdings führte dies nicht zu einem Scheitern und einer Rückverlagerung der Kunst in den Präsentationsort Museum oder Galerie, sondern zu einer Weiterentwicklung der Fernsehkunst bis in die heutige Zeit. Fernsehkunst hat sich ihrem Aufführungs- und Produktionskontext, aber auch bei der Wahl ihrer Themen der jeweiligen Epoche mit ihren technischen und kommunikativen Möglichkeiten sowie dem gesellschaftlichen Diskurs zu öffentlichkeitsrelevanten Themen anpasst. Fernsehkunst ist stets ein Spiegel der aktuellen Diskurse in Kunst und Gesellschaft. In der bisherigen Forschung wurde Fernsehkunst als gescheitert und damit als nicht mehr existent angesehen. Die Stigmatisierung des Fernsehens als reines Unterhaltungs- und Informationsmedium führte dazu, dass Fernsehkunst als Begriff und als Kunstgattung im öffentlichen und im wissenschaftlichen Diskurs nicht vorkam. Die typologische und inhaltliche Analyse hat jedoch gezeigt, dass Fernsehkunst in klarer Abgrenzung zur Videokunst auch gegenwärtig existiert.
Diese Arbeit konzentriert sich auf die Darstellung gemeinsamer Projekte von Hotelunternehmen und Hochschulen mit hotelspezifischen Studienangeboten. Infolge der demografischen Entwicklungen sowie des Wertewandels gewinnen Personalgewinnung und Mitarbeiterloyalisierung zunehmend an Bedeutung und werden zu einem Wettbewerbsparameter der Hotellerie. Für diese essentielle Herausforderung sind Hotelbetriebe mit engagierter Mitarbeiterförderung gefragt. Viele Hochschulen haben neue Studiengänge im Tourismus, Event- oder Hotelmanagementbereich praxisorientiert aufgelegt, um der Skepsis der Hotellerie entgegen zu wirken und um zugleich den Erwartungen der Studenten gerecht zu werden. Viele der Studenten wären potenzielle Auszubildende, die sich bei der Abwägung allerdings für die Studienoption entschieden haben. Daher ist es wichtig, in enger Kooperation mit den hierzu passenden Institutionen und Bildungsträgern, vor allem praxisnahe Studienmodelle für sich verändernde Erwartungen der Bewerber mit modernen Lehrinhalten zu entwickeln und erfolgreich am Markt zu platzieren. Daher verfolgt diese Arbeit den Ansatz, adäquate Kriterien und Faktoren für den Erfolg vertraglich vereinbarter Kooperationen zwischen Hotelketten und Hochschulen zu analysieren und daraus Handlungsempfehlungen abzuleiten. Die große Anzahl an Kooperationen macht deutlich, dass die Notwendigkeit für die Hotellerie, sich im Bereich der Mitarbeitergewinnung, -bindung und -entwicklung mit akademischen Partnern zusammen zu schließen, bei einer ansteigenden Zahl von Hotelgruppen nachvollzogen wird. Durch die zurückhaltende Vermarktung vieler Kooperationsmodelle ist deren Bekanntheit jedoch begrenzt und dadurch auch deren positive Auswirkungen auf das Image der Hotellerie. Gleichwohl sind in der Bildungslandschaft steigende Studentenzahlen und eine Vermehrung der Studiengänge bei gleichzeitig gravierender Abnahme der Zahl berufsfachlich Ausgebildeter erkennbar. Die Kooperationsmodelle sind daher ein sinnvolles Instrument, um auf diese Marktentwicklungen zu reagieren, wobei ihre Bedeutung primär von Unternehmen mit strategischer Personalpolitik erkannt wird. Daraus wurde die "Typologie privilegierter Bildungspartnerschaften" mit einer Bandbreite von zehn Kooperationstypen entwickelt. Damit werden unterschiedliche Intensitäten der partnerschaftlichen Bildungselemente ebenso deutlich wie ein individualisiertes "Faktoren-Phasenmodell", dass die Prozessstruktur der Kooperationsentwicklung abbildet. Je nach Enge der Zusammenarbeit, nach Unternehmens- und Hochschulphilosophie und entsprechend der Erfahrungen mit Kooperationen entstehen vor allem Verpflichtungen und Herausforderungen in der aktiven Gestaltung und verlässlichen Kommunikation in einem Kooperationsmodell. Eine Schlüsselrolle nimmt der persönlich verantwortliche Koordinator ein, der als Garant für eine effiziente Organisation und Professionalität angesehen wird. Daraus ableitend sind die Erfolgsfaktoren im ASP-Modell herausgefiltert worden: Attraktivität, Sicherheit und Persönlichkeit machen den Erfolg einer privilegierten Bildungspartnerschaft aus. Bestätigt wurde zudem, dass die Erfahrung der beiden Partner einer Kooperation zueinander passen muss und eine klare Zielvereinbarung mit Fixierung der Pflichten und Aufgaben erforderlich ist. Ein hoher Qualitätsanspruch, Transparenz und Prozesseffizienz ergänzen dies und machen deutlich, dass der Bildungsbereich als Teil der Personalpolitik eines Unternehmens sensibel und anspruchsvoll zugleich ist. Die Verankerung auf der Führungsebene eines Unternehmens ist entscheidend, um durch ein Signal nach innen und außen den Stellenwert einer Bildungsallianz zu verdeutlichen. Wenn aus Lernen und Wissen wirtschaftliche Vorteile erarbeitet werden können, wird Bildung noch mehr als Markenkern eines guten Arbeitgebers interpretiert. Auf dieser Grundlage wird der Gedanke der Personalentwicklung durch den Ansatz fortwährender Mitarbeiterbildung perfektioniert und der Lösungsansatz einer "privilegierten Bildungspartnerschaft" legt den Grundstein dafür. Nachwuchskräfteförderung wird zum strategischen Mittel der Mitarbeiterbindung und zur Vermeidung kostenintensiver Vakanzen, zudem sichern Netzwerke Fachwissen und stärken das Unternehmensimage. Mit privilegierten Bildungspartnerschaften werden geeignete Modelle vorgestellt, um einsatzfreudige Mitarbeiter zu halten und sie gleichzeitig auf den nächsten Karriereschritt vorzubereiten. Die vorliegende Ausarbeitung liefert einen Diskussionsbeitrag zum besseren gegenseitigen Verständnis einer Symbiose aus Hotelkette und Hochschule im Bildungsbereich sowie erfolgreiche Konzeptideen für vielfältige Netzwerkstrukturen.
Die organische Bodensubstanz (OBS) ist eine fundamentale Steuergröße aller biogeochemischen Prozesse und steht in engem Zusammenhang zu Kohlenstoffkreisläufen und globalem Klima. Die derzeitige Herausforderung der Ökosystemforschung ist die Identifizierung der für die Bodenqualität relevanten Bioindikatoren und deren Erfassung mit Methoden, die eine nachhaltige Nutzung der OBS in großem Maßstab überwachen und damit zu globalen Erderkundungsprogrammen beitragen können. Die fernerkundliche Technik der Vis-NIR Spektroskopie ist eine bewährte Methode für die Beurteilung und das Monitoring von Böden, wobei ihr Potential bezüglich der Erfassung biologischer und mikrobieller Bodenparameter bisher umstritten ist. Das Ziel der vorgestellten Arbeit war die quantitative und qualitative Untersuchung der OBS von Ackeroberböden mit unterschiedlichen Methoden und variierender raumzeitlicher Auflösung sowie die anschließende Bewertung des Potentials non-invasiver, spektroskopischer Methoden zur Erfassung ausgewählter Parameter dieser OBS. Dafür wurde zunächst eine umfassende lokale Datenbank aus chemischen, physikalischen und biologischen Bodenparametern und dazugehörigen Bodenspektren einer sehr heterogenen geologischen Region mit gemäßigten Klima im Südwesten Deutschlands erstellt. Auf dieser Grundlage wurde dann das Potential der Bodenspektroskopie zur Erfassung und Schätzung von Feld- und Geländedaten ausgewählter OBS Parameter untersucht. Zusätzlich wurde das Optimierungspotential der Vorhersagemodelle durch statistische Vorverarbeitung der spektralen Daten getestet. Die Güte der Vorhersagewahrscheinlichkeit gebräuchlicher fernerkundlicher Bodenparameter (OC, N) konnte für im Labor erhobene Hyperspektralmessungen durch statistische Optimierungstechniken wie Variablenselektion und Wavelet-Transformation verbessert werden. Ein zusätzliches Datenset mit mikrobiellen/labilen OBS Parametern und Felddaten wurde untersucht um zu beurteilen, ob Bodenspektren zur Vorhersage genutzt werden können. Hierzu wurden mikrobieller Kohlenstoff (MBC), gelöster organischer Kohlenstoff (DOC), heißwasserlöslicher Kohlenstoff (HWEC), Chlorophyll α (Chl α) und Phospholipid-Fettsäuren (PLFAs) herangezogen. Für MBC und DOC konnte abhängig von Tiefe und Jahreszeit eine mittlere Güte der Vorhersagewahrscheinlichkeit erreicht werden, wobei zwischen hohen und niedrigen Konzentration unterschieden werden konnte. Vorhersagen für OC und PLFAs (Gesamt-PLFA-Gehalt sowie die mikrobiellen Gruppen der Bakterien, Pilze und Algen) waren nicht möglich. Die beste Prognosewahrscheinlichkeit konnte für das Chlorophyll der Grünalgen an der Bodenoberfläche (0-1cm Bodentiefe) erzielt werden, welches durch Korrelation mit MBC vermutlich auch für dessen gute Vorhersagewahrscheinlichkeit verantwortlich war. Schätzungen des Gesamtgehaltes der OBS, abgeleitet durch OC, waren hingegen nicht möglich, was der hohen Dynamik der mikrobiellen OBS Parameter an der Bodenoberfläche zuzuschreiben ist. Das schränkt die Repräsentativität der spektralen Messung der Bodenoberfläche zeitlich ein. Die statistische Optimierungstechnik der Variablenselektion konnte für die Felddaten nur zu einer geringen Verbesserung der Vorhersagemodelle führen. Die Untersuchung zur Herkunft der organischen Bestandteile und ihrer Auswirkungen auf die Quantität und Qualität der OBS konnte die mikrobielle Nekromasse und die Gruppe der Bodenalgen als zwei mögliche weitere signifikante Quellen für die Entstehung und Beständigkeit der OBS identifizieren. Insgesamt wird der mikrobielle Beitrag zur OBS höher als gemeinhin angenommen eingestuft. Der Einfluss mikrobieller Bestandteile konnte für die OBS Menge, speziell in der mineralassoziierten Fraktion der OBS in Ackeroberböden, sowie für die OBS Qualität hinsichtlich der Korrelation von mikrobiellen Kohlenhydraten und OBS Stabilität gezeigt werden. Die genaue Quantifizierung dieser OBS Parameter und ihre Bedeutung für die OBS Dynamik sowie ihre Prognostizierbarkeit mittels spektroskopischer Methoden ist noch nicht vollständig geklärt. Für eine abschließende Beurteilung sind deshalb weitere Studien notwendig.
Erosion durch Regen und Wind schädigt fruchtbare Bodensubstanz irreversibel, verursacht weltweit riesige ökologische und sozio-ökonomische Schäden und ist eines der Hauptanliegen bezüglich Ökosystemdienstleistungen und Nahrungsmittelsicherheit. Die Quantifizierung von Abtragsraten ist immer noch höchst spekulativ, und fehlende empirische Daten führen zu großen Unsicherheiten von Risikoanalysemodellen. Als ein wesentlicher Grund für diese Unsicherheiten wird in dieser Arbeit die Prozesse der Beeinflussung von Wassererosion durch Wind und, im Speziellen, die Erosionsleistung von windbeeinflussten Regentropfen im Gegensatz zu windlosen Tropfen inklusive unterschiedlicher Oberflächenparameter beleuchtet. Der Forschungsansatz war experimentell-empirisch und beinhaltete die Entwicklung und Formulierung der Forschungshypothesen, die Konzeption und Durchführung von Experimenten mit einem mobilen Wind-Regenkanal, die Probenverarbeitung und Analyse sowie Interpretation der Daten. Die Arbeit gliedert sich in die Teile 1. "Bodenerosionsexperimente zu windbeeinflusstem Regen auf autochthonen und naturähnlichen Böden", 2. "Experimente zu Substratpartikeltransport durch windbeeinflussten Tropfenschlag" und 3. "Zusammenführung der Freiland- und Labortests". 1. Tests auf autochthonen degradierten Böden im semiariden Südspanien sowie auf kohäsionslosem sandigen Substrat wurden durchgeführt, um die relativen Auswirkungen von windbeeinflusstem Regen auf Oberflächenabflussbildung und Erosion zu untersuchen und zu quantifizieren. In der überwiegenden Anzahl der Versuche wurde klar eine Erhöhung der Erosionsraten festgestellt, was die Forschungshypothese, windbeeinflusster Regen sei erosiver als windloser Regen, deutlich bestätigte. Neben den stark erhöhten wurden auch niedrigere Abtragswerte gemessen, was zum einen die ausnehmende Relevanz der Oberflächenstrukturen und damit von in-situ- Experimenten belegte, zum anderen auf eine Erhöhung der Variabilität der Erosionsprozesse deutete. Diese Variabilität scheint zuzunehmen mit der Erhöhung der beteiligten Faktoren. 2. Ein sehr spezialisiertes Versuchsdesign wurde entwickelt und eingesetzt, um explizite Messungen der Tropfenschlagprozesse mit und ohne Windeinfluss durchzuführen. Getestet wurden die Erosionsagenzien Regen, Wind und windbeeinflusster Regen sowie drei Neigungen, drei Rauheiten und zwei Substrate. Alle Messergebnisse zeigten eine klare windinduzierte Erhöhung der Erosion um bis zu zwei Größenordnungen gegenüber windlosem Tropfenschlag und Wind. Windbeeinflusster Regen wird durch die gesteigerte Transportmenge und Weite als wesentlicher Erosionsfaktor bestätigt und ist damit ein Schlüsselparameter bei der Quantifizierung von globaler Bodenerosion, Erstellung von Sedimentbudgets und bei der Erforschung von Connectivity. Die Daten sind von hervorragender Qualität und sowohl für anspruchsvollere Analysemethoden (multivariate Statistik) als auch für Modellierungsansätze geeignet. 3. Eine Synthese aus Feld- und Laborversuchen (darunter auch ein bis dato unveröffentlichtes Versuchsset) inklusive einer statistischen Analyse bestätigt WDR als den herausragenden Faktor, der alle anderen Faktoren überlagert. Die Zusammenführung der beiden komplementären Experimentgruppen bringt die Forschungsreihe zu windbeeinflusstem Regen auf eine weiterführende Ebene, indem die Messergebnisse in einen ökologischen Zusammenhang gesetzt werden. Eine vorsichtige Projektion auf Landschaftsebene ermöglicht einen Einblick in die Risikobewertung von Bodenerosion durch windbeeinflussten Regen. Es wird deutlich, dass er sich gerade auch im Zusammenhang mit den durch den Klimawandel verstärkt auftretenden Regensturmereignissen katastrophal auf Bodenerosionsraten auszuwirken kann und dringend in die Bodenerosionsmodellierung integriert werden muss.
Die Dissertation ‚Konzepte von Geschlecht im Porno-Rap. Eine korpus- und genderlinguistische Frame-Analyse‘ befasst sich mit sprachlichen Realisierungen, die Konzepte von Geschlecht (‚Mann‘ und ‚Frau‘) in deutschsprachigen Rapmusik-Texten des sog. ‚Porno-Rap‘ – im Zuge des sog. ‚Gangsta-Rap‘ – herstellen. Grundlegend dabei ist, dass die sprachlichen Realisierungen von Konzepten, die einer linguistischen Analyse zugänglich sind, untrennbar mit kognitiven Konzepten verbunden sind. Aus der Zentralität bestimmter Ausdrücke sowie der ihnen zugeordneten Werte sind analytische Zugänge möglich, die einen Zusammenhang – im Sinne eines Potentials – von sprachlichen und kognitiven Konzepten herstellen. Sprache bildet demnach einerseits Konzepte ab, gestaltet sie jedoch auch grundlegend mit, was auch die Möglichkeit begründet, sie linguistisch zu untersuchen.
Mit Frames können Wissensordnungen identifiziert, analysiert und deren Funktion in Verstehensprozessen sowie interpretativen Vorgängen bestimmt werden. Linguistische Ansätze beziehen sich dabei auf kognitionswissenschaftliche Erkenntnisse. Die Erfassung und Beschreibung der Frames und ihrer Wissenselemente von ‚Frau‘ und ‚Mann‘ bieten hierfür zahlreiche detaillierte und differenzierende Vergleichsmöglichkeiten der Geschlechtskonzeptionen. Auf Grundlage der vorhandenen Sprachbasis ist die Frage wesentlich, welcher Art und Strukturiertheit die im Diskurs enthaltenen Werte als Bestandteil der Konzepte für ‚Frau‘ und ‚Mann‘ als sprachliche Realisierung sind, um die Gestalt der Konzepte zu identifizieren, zu deskribieren und damit Aussagen über deren kognitives Potential treffen zu können. Die Konzepte von Geschlecht im untersuchten Rap-Diskurs sind durch die qualitativ-hermeneutische und quantitativ-korpuslinguistische Frame-Analyse offengelegt.
Vor diesem Hintergrund werden 236 Texte weiblicher Porno-Rapperinnen und männlicher Porno-Rapper analysiert und damit der Fokus durch die jeweilige Bestimmung eines Selbst- und Fremdbildes bzgl. ‚Mann‘ und ‚Frau‘, als Konzepte für Geschlecht im Diskurs auf den Untersuchungsgegenstand gerichtet. Die Untersuchung der Konzepte von ‚Frau‘ und ‚Mann‘ offenbart drei wesentliche Erkenntnisse: Es besteht erstens eine Struktur der Binarität, die zweitens als ungleichwertige identifiziert ist und drittens konstituierende Wechselbezüge zwischen ‚Mann‘ und ‚Frau‘ belegt. Sprachliche Gewalt und deren Prozesse, die immanenter Teil des ‚Porno-Rap'-Diskurses und in rekurrenter Form nachgewiesen sind (bspw. die Wissenselemente Verletzungsmacht / Verletzungsoffenheit sowie Triebdominanz / Triebgewalt), können potentiell als Gewalt über diesen Kontext hinaus wirken und sich zugleich in das Soziale eines Individuums und/oder eines Kollektivs einschreiben.
Ein Bewusstsein über die in dem Diskurs vermittelten Werte (Instanzen im frame-semantischen Sinn) ermöglicht, bestimmten Einstellungen, Denkprozessen und Handlungen kritisch reflexiv zu begegnen – insbesondere im Hinblick auf Konstatierungen linguistischer Sprachkritik, gemäß derer eine Sprachwahl konstitutiv (eine) ‚Wirklichkeit‘ schafft und nicht belanglos ist.
Die Aufgabe der vorliegenden Arbeit lag darin, anhand der Quelle von Luthers Tischreden zu zeigen, welche Art von Kunstwerken Martin Luther erwähnt und welche Funktion diese in den Colloquia hatten. Sie untersucht das Corpus der über 7000 Tischreden systematisch auf Äußerungen, die im Zusammenhang mit Kunstwerken im weitesten Sinne stehen. Es erfolgte eine textkritische Bearbeitung der Tischreden. Der Anspruch der Arbeit war, diese Bildwerke zu identifizieren und in ihren historischen bzw. kunsthistorischen Kontext zu stellen. Da viele Parallelstellen gefunden und herangezogen werden konnten, ließen sich zahlreiche Irrtümer aufdecken und Fehldeutungen korrigieren. Der Fokus lag dabei nach der Auswertung und der anschließenden Beschäftigung mit den Stellen auf Luthers geradezu leitmotivisch auftretendem Thema der Superbia. Diesem Themenbereich der Todsünden wurde in der Lutherforschung bisher nur wenig Beachtung geschenkt, denn die sie galt für die Reformation als unwesentlich. Es konnte aber in dieser Arbeit dargelegt werden, wie wichtig die Todsünden und vor allem die Superbia in Luthers Tischreden und in seinem Gesamtwerk sind. Darüber hinaus hat sich die Arbeit mit der Performanz der Bilder in Luthers Werk beschäftigt. Sie leistet zudem einen Beitrag zu der Fragestellung, mit welcher Intention Luther seine eigenen Porträts in Auftrag gegeben hat. So wird dargelegt, wie Luther seine Bildstrategien verfolgt. Die Arbeit hat ferner gezeigt, wie wichtig für die effektive, interdisziplinär nutzbare Auswertung der Tischreden als Quelle eine digitale Ausgabe wäre, die mit Metadaten versehen ist und dadurch nach semantischen Kriterien durchsucht werden kann.
Die vorliegende Meta-Analyse zeigt eindeutig, dass von Familienmitgliedern geführte Familienunternehmen eine schlechtere Performance aufweisen als Unternehmen, die von Managern geleitet werden, die der Inhaberfamilie nicht angehören. Basierend auf uni- und multivariaten Analysen von 270 wissenschaftlichen Publikationen aus 42 verschiedenen Ländern, wurde die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen untersucht. Das erste robuste Ergebnis zeigt eindeutig, dass Familienunternehmen hinsichtlich der Performance Nicht-Familienunternehmen übertreffen. Dieses Ergebnis ist im Einklang mit den meisten Primärstudien und früheren Meta-Analysen. Das zweite Ergebnis dieser Arbeit kann dem "Finance"-Forschungszweig zugeordnet werden und basiert auf der Unterscheidung von Markt- und Accounting-Performance-Kennzahlen. Markt-Performance-Kennzahlen, welche durch Analysten errechnet werden, zeigen, dass Familienunternehmen Nicht-Familienunternehmen hinsichtlich der Performance unterlegen sind. Dieses Ergebnis steht im Gegensatz zu den Accounting-Performance-Kennzahlen, welche von den Familienunternehmen selbst in ihren von Wirtschaftsprüfern freigegebenen Bilanzen veröffentlicht wurden. Die dritte Forschungsfrage untersucht im Detail, ob die Zusammensetzung des Datensatzes in Primärstudien das Gesamtergebnis in eine bestimmte Richtung verzerrt. Das Ergebnis wird nicht durch Datensätzen mit Unternehmen, welche öffentlich gelistet, im produzieren Gewerbe tätig oder Technologie getriebene Unternehmen, sind getrieben. Kleine und Mittlere Unternehmen (KMU) veröffentlichen kleinere Kennzahlen und reduzieren somit die Höhe der abhängigen Variable. Das vierte Ergebnis gibt eine Übersicht über die Art und Weise der Beteiligung der Familie an der Aufsicht oder dem operativen Geschäft des Unternehmens. Dieses Ergebnis zeigt klar, dass Manager aus Familien einen signifikanten negativen Einfluss auf die Performance des Unternehmens haben. Dies kann auf die Erhaltung des Wohlstandes der Familienmitglieder zurückzuführen sein und somit spielen finanzielle Kennzahlen keine vordergründige Rolle. Die letzte Forschungsfrage untersucht, ob die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen auch durch institutionelle Faktoren beeinflusst wird. In Europa zeigen die Familienunternehmen im Vergleich zu Nordamerika eine geringere Performance hinsichtlich der Kennzahlen. Das ist darauf zurückzuführen, dass europäische Unternehmen im Vergleich zu nordamerikanischen unterbewertet sind (Caldwell, 07.06.2014). Darüber hinaus zeigen Familienunternehmen im Vergleich zu Nicht-Familienunternehmen eine bessere Performance in eher maskulin geprägten Kulturen. Maskulinität, ist nach Hofstede, gekennzeichnet durch höhere Wettbewerbsorientierung, Selbstbewusstsein, Streben nach Wohlstand und klar differenzierte Geschlechterrollen. Rechtsregime hingegen (Common- oder Civil-Law) spielen im Performance-Zusammenhang von Familienunternehmen keine Rolle. Die Durchsetzbarkeit der Gesetze hat jedoch einen signifikanten positiven Einfluss auf die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen. Dies ist damit zu begründen, dass die Kosten für Kredite in Länder mit einer sehr guten Durchsetzbarkeit von Gesetzen für Familienunternehmen geringer sind.
Unternehmen aus güterproduzierenden Industrien und Sektoren entdecken in immer stärkerem Maße das Differenzierungs- und Erlöspotenzial des Angebots ergänzender Dienstleistungen zur Erlangung von strategischen Wettbewerbsvorteilen. In vielen Branchen ist dies bereits ein notwendiger Bestandteil im Angebotsportfolios der Hersteller um sich zu positionieren und wettbewerbsfähig zu bleiben. Ein besonders prägnantes Beispiel stellt die Automobilbranche dar, die schon vor Jahren begonnen hat in ihr Geschäftsmodell um das Kernprodukt "Automobil" auch sog. produktbegleitende Dienstleistungen (wie beispielsweise Finanzierungsdienstleistungen) zu integrieren, um sich durch Erhöhung des Kundennutzens von den Angeboten der Mitbewerber zu differenzieren. Vor dem Hintergrund, dass Marketingkonstrukte, wie Marke, Reputation, Kundenloyalität, aber auch technische Spezifikationen wie Motorisierung, Ausstattung und Zubehör die Fahrzeugwahl beeinflussen, stellt sich die Autorin die Frage, inwiefern ein Zusatzangebot von reinen produktbegleitenden Dienstleistungen einen Einfluss auf die Marken- und Fahrzeugwahl beim Autokauf hat. In diesem Zusammenhang ist ein Forschungsziel der vorliegenden Untersuchung die Konzeption einer branchenunabhängigen Wertschöpfungskette für produktbegleitende Dienstleistungen, um eine Identifikation des strategischen Differenzierungspotenzials produktbegleitender Dienstleistungen zu ermöglichen. Den Bezugsrahmen der Forschungsarbeit wird dabei aus Perspektive des Endkonsumenten bei der Automobilkaufentscheidung konstruiert, um Aussagen zur Wahrnehmung existierender Angebote produktbegleitender Dienstleistungen den individuellen Phasen der Kaufentscheidung zuordnen zu können. Dies bildet das methodische Fundament dieses empirisch geprägten Forschungsbeitrags, um die folgende Frage der Untersuchung beantworten zu können: "Haben produktbegleitende Dienstleistungen einen Einfluss auf die Kaufwahrscheinlichkeit beim konsumentenseitigen Kaufentscheidungsprozess bei Automobilen im Segment des Privat-PKW?" Als Forschungsstrategie wird die Anwendung der Kausalanalyse gewählt, um anhand zwei aufeinander aufbauenden Primärerhebungen (quantitative Datenerhebung anhand eines Online-Fragebogens) potenzielle Autokäufer hinsichtlich ihres Wissens und ihrer Wahrnehmung bezüglich produktbegleitender Dienstleistungen der einzelnen Automobilherstellermarken zu untersuchen. Die Ergebnisse der Datenauswertung lassen die Schlussfolgerung zu, dass produktbegleitende Dienstleistungen zwar einen positiven Einfluss auf die Kaufentscheidung beim potentiellen Automobilkäufer ausüben, jedoch aufseiten der Automobilhersteller und -händler durchaus großes Verbesserungspotenzial bezüglich der Kommunikation von solchen Value-Added-Leistungen vorliegt. Die vorliegende Dissertationsschrift wurde am Lehrstuhl für Organisation und Strategisches Dienstleistungsmanagement verfasst und beim Fachbereich IV der Universität Trier eingereicht.
Ausgehend von einem multifaktoriellen biopsychosozialen Modell zur Entstehung und Aufrechterhaltung primärer Kopfschmerzen bei Kindern und Jugendlichen wurden n= 170 Mädchen im Alter von 12-17 Jahren hinsichtlich verschiedener stressbezogener Determinanten untersucht. Es wurde davon ausgegangen, dass sich Mädchen mit wiederkehrenden Kopfschmerzen sowohl in einem kontrollierten, messwiederholten Laborexperiment hinsichtlich ihrer physiologischen Reaktionen (Muskelspannung, Cortisolausschüttung) auf akuten Stress hin wie auch in der Cortisolaufwachreaktion im häuslichen Setting von einer gesunden Kontrollgruppe unterscheiden. Diese Annahmen konnten nach statistischer Auswertung der Studienergebnisse unter Kontrolle der familiären Schmerzbelastung und psychischen Stressbelastung jedoch nicht bestätigt werden. Somit kann nicht von einer dysregulierten Aktivität der Hypothalamus-Hypophysen-Nebennierenrinden-Achse ausgegangen werden, die eine zentrale Rolle in der biologischen Stressantwort spielt und auch die Schmerzverarbeitung mit beeinflusst. Ebenso wenig liegt bei Mädchen mit Kopfschmerzen eine erhöhte basale oder stressbedingte Muskelspannung im Kopf- und Schulterbereich vor. Lediglich auf subjektiver Ebene deutete sich ein tendenziell höheres Empfinden von Anspannung in Ruhephasen an. Auf psychologischer Ebene hingegen zeigte sich erwartungskonform eine höhere Stress-vulnerabilität bei den Mädchen mit Kopfschmerzen. Außerdem wurde bei ihnen der vermehrte Einsatz emotionsregulierender Stressbewältigungsstrategien, wie Ruhe und Entspannung, aber auch destruktiv-ärgerbezogenes Verhalten und Denken, bezogen auf soziale und leistungsbezogene Stresssituationen beobachtet. Auch unterschieden sie sich hinsichtlich der familiären Schmerzbelastung, körperlichen und psychischen Stress-symptomatik und Depressivität sowie Ängstlichkeit von der Kontrollgruppe. Sie zeigten durchweg höhere Ausprägungen auf diesen Variablen, die sich als signifikante Prädiktoren für Kopfschmerzen herausstellten. Die Verknüpfung von physiologischen Reaktionsmaßen mit der Stressverarbeitung zeigte, dass die Nutzung von konstruktiv-palliativer Emotionsregulation umso stärker ist, je höher der stressbedingte Anstieg der Cortisolausschüttung und der Muskelaktivität in der Frontalisregion ausfällt. Je stärker also die körperliche Reaktion auf Stress, umso mehr versuchen jugendliche Mädchen sich zu entspannen und auszuruhen.
Fehlende Werte und deren Kompensation über Imputation stellen eine große Herausforderung für die Varianzschätzung eines Punktschätzers dar. Dies gilt auch in der Amtlichen Statistik. Um eine unverzerrte Varianzschätzung zu gewährleisten, müssen alle Komponenten der Varianz berücksichtigt werden. Hierzu wird häufig eine Zerlegung der Gesamtvarianz durchgeführt mit dem Ziel, detaillierte Informationen über ihre Komponenten zu erhalten und diese vollständig zu erfassen. In dieser Arbeit stehen Resampling-Methoden im Vordergrund. Es wird ein Ansatz entwickelt, wie neuere Resampling-Methoden, welche alle Elemente der ursprünglichen Stichprobe berücksichtigen, hinsichtlich der Anwendung von Imputation übertragen werden können. Zum Vergleich verschiedener Varianzschätzer wird eine Monte-Carlo-Simulationsstudie durchgeführt. Mit Hilfe einer Monte-Carlo-Simulation findet zudem eine Zerlegung der Gesamtvarianz unter verschiedenen Parameterkonstellationen statt.
Psychotherapie hat sich in der Behandlung psychischer Störungen als wirksam erwiesen. Im Rahmen der klinisch-psychologischen Forschung und der Psychotherapieforschung sind die Erforschung von Ursachen und Mechanismen psychischer Störungen sowie die Identifikation von Wirkmechanismen von Psychotherapie von zentraler Bedeutung. Wichtiges Element in der Psychotherapie ist die Sprache, sodass die Betrachtung von Sprache bereits sehr früh Eingang in die Forschung fand. Beschäftigten sich frühe Forschungsarbeiten jedoch hauptsächlich mit der sehr zeitaufwendigen qualitativen Auswertung von Sprache, ermöglichen Entwicklungen im Bereich der Computer neue Ansätze wie beispielsweise die quantitative Sprachanalyse mittels Programmen wie dem Linguistic Inquiry and Word Count (LIWC). Dieses wörterbuchbasierte Auswertungsprogramm fand Anwendung in den unterschiedlichsten Bereichen wie beispielsweise der Erforschung von Motiven, Gruppenprozessen, Sprache in sozialen Netzwerken und ersten subklinischen Untersuchungen psychischer Störungen. Eine systematische Anwendung auf die Sprache von Patienten und Therapeuten im Rahmen vollständiger Therapiesitzung ist bislang jedoch nicht bekannt. Ziel der vorliegenden Arbeit war es deshalb in drei Projekten die Anwendbarkeit des Programmes in der klinisch-psychologischen Forschung und Psychotherapieforschung zu untersuchen. Das erste Projekt beschäftigte sich mit der Psychometrie von mittels LIWC ausgewerteter Sprache und fand, dass die Erkennungsraten des Wörterbuchs für die Sprache in Therapiesitzungen über den in der Literatur für das deutsche LIWC berichteten Erkennungsraten jedoch unter denen der aktuellsten englischen Versionen lag. Außerdem wurde angenommen, dass Sprache sowohl eine zeitlich stabile Komponente im Sinne eines Persönlichkeitsmerkmals als auch eine situative Komponente besitzt. Dies ist insbesondere vor dem Hintergrund relevant in der Psychotherapieforschung sowohl Patientenmerkmale als auch Veränderungen abbilden zu wollen. Die Arbeit ging davon aus, dass insbesondere Funktionsworte, also Worte, die Sprache strukturieren jedoch keine inhaltliche Bedeutung besitzen, eher individuell stabil sind, als Inhaltsworte. Entsprechend konnten für einige Wortkategorien ein Bifaktor-Modell mit einem Personen- sowie einem Zeitfaktor und adäquate Omega-Werte als Maß der Messgenauigkeit gefunden werden, für andere Kategorien zeigte sich dies nicht. Hypothesenkonform zeigten die Modelle bessere Passungen für Funktionsworte. Bezüglich der Frage nach der benötigten Länge von Sprachausschnitten aus Therapiesitzung erwies sich die Verwendung der gesamten Sitzung als beste Lösung. Im zweiten Projekt wurden Unterschiede in der Verwendung von Sprache zwischen depressiven Patienten, Patienten mit Angststörung und solchen mit beiden Störungsbildern untersucht. Es zeigten sich Unterschiede in Bezug auf Worte im Zusammenhang mit Traurigkeit und Worte im Zusammenhang mit Angst. Die Unterschiede zeigten sich derart, dass Depressive vermehrt mit Traurigkeit assoziierte Worte verwendeten, wohingegen Angstpatienten verstärkt Worte aus dem Bereich Angst verwendeten. Dies spricht für eine unterschiedliche inhaltliche Orientierung der beiden Störungsbilder. Darüber hinaus zeigten sich bei dimensionaler Betrachtung negative Zusammenhänge zwischen der Gesamtbelastung und Optimismus, positive Zusammenhänge Depression und Pronomengebrauch sowie negative Zusammenhänge zwischen Angst und unterschiedlichen Kategorien sozialer Worte. Im dritten Projekt wurden unterschiedliche weitere Fragestellungen der Psychotherapieforschung wie beispielsweise die Prädiktion von Therapieerfolgt mittels Sprache oder Zusammenhänge zwischen sprachlicher Synchronizität und der therapeutischen Beziehung untersucht. Es zeigten sich einzelne Zusammenhänge allerdings ergab sich kein einheitliches Muster. Die vorliegende Arbeit kommt zusammenfassend zu dem Schluss, dass quantitative Sprachanalyse eine Bereicherung der Psychotherapieforschung darstellt und Sprache als Datenquelle Berücksichtigung finden sollte. Allerdings bedarf es der Weiterentwicklung des LIWC sowie der Erprobung weiterer Verfahren und eine routinemäßige Erhebung von Sprache wird voraussichtlich erst im Zuge neuerer Entwicklungen im Bereich der automatischen Spracherkennung möglich werden.
Zu Beginn der Frühen Neuzeit stand die Verehrung der hl. Anna, der Anna Selbdritt und der Hl. Sippe in höchster Blüte; der Großmutter Christi wurden sogar die positiven Eigenschaften der Gottesmutter Maria zugeordnet. Meine Dissertation untersucht ca. dreitausend Artefakte unter interdisziplinären Aspekten und verschiedenen Ansätzen und erbringt so eine kulturelle Disposition der Zeit, auch unter Berüksichtigung einer breiten Quellenlage der damaligen Literatur. Die Kontinuität erweist sich bei Anna Selbdritt in erster Linie durch die angewandte Attributformation, was bis weit in den Barock hinein ein eindeutiges Identifizierungspotential für Anna Selbdritt darstellt; bei den traditionellen Kunstwerken mit der Hl. Sippe ist die Verwendung des Motives des Hortus conclusus obligat. Der Wandel erfolgte bereits um 1475, bei welchem eine horizontale Dreierstruktur an Stelle der vordem pyramidalen Anordnung nach Masaccio tritt; somit konnte in prägnanter Weise eine Gegenüberstellung der himmlischen, vertikalen Trias der Hl. Dreifaltigkeit und der irdischen, horizontal aufgefassten Trias der Anna Selbdritt erfolgen. Diese neue Konstellation mit Realitätsnähe durch Lebendigkeit verbreitete sich rasch im gesamten Alten Reich. Eine Zäsur als Indiz der Änderung der familiären Verhältnisse lässt sich bereits vorreformatorisch mit Kunstwerken von Cranach und Dürer belegen, die Verbreitung durch Kupferstiche erfuhren: Es lässt sich eine männliche Dominanz ausmachen. Daneben fällt aber ein überaus harmonisches Familiengefüge ins Auge, das die Relation der Personen durch Kommunikation und Interaktion visualisiert, womit die vordem additive Reihung nun durch eine Symbolik des psychologischen Verhaltens aufgehoben wird: Einheit durch Harmonie. Dies beruht nicht zuletzt auf der psychologischen Selbstdefinition des Menschen, der in der Frühen Neuzeit sein Selbstbewußtsein entdeckt und dieses durch Zugehörigkeit zu einem Kollektiv verstärkt. Durch zeitgenössische Aspekte und durch die Verwendung von Landschafts- und Architekturelementen werden die Artefakte nicht nur dem neuen kunsthistorischen Focus der Ästhetik gerecht, sondern wirken auch affektiv auf den Rezipienten, eine Forderung, die ebenso von der Musiktheorie gestellt wurde. Das Kultbild wird zum Andachtsbild, zum Kulturobjekt, zum Narrativ, zum Historienbild. In der Verkörperung von Vergangenheit, Gegenwart und Zukunft bieten Anna Selbdritt und die Hl. Sippe eine gegenwarts- und zukunftsorientierte soziologische wie soteriologische Perspektive an; sie bilden mithin ein mediales Spektrum ab, das interdisziplinär die Kultur des Spätmittelalters und der Frühen Neuzeit reflektiert und einen von Theologie und Gesellschaft determiniterten Handlungskanon in konventioneller wie innovativer Art bereitstellt.
Weltweit untersuchen viele Wissenschaftler die Ursachen für die Entstehung und Ausdehnung industrieller Cluster. Die Ergebnisse dieser Bemühungen sind in zahlreichen empirischen Studien dokumentiert worden. Die Mehrheit der Arbeiten legt ihren Fokus auf die Entwicklung einer präzisen Messmethodik für die Konzentrationsstärke. Hierzu ist ein breites Instrumentarium an Maßzahlen bereits verfügbar und lässt sich je nach Forschungsziel erkenntnisbringend einsetzen. Dennoch bleibt die Trennung zwischen unterschiedlichen geographischen Grundmustern unzureichend. Insbesondere trifft dies auf unterschiedliche Typen der Konzentration zu. Die vorliegende Arbeit bietet eine umfassende Konzentrationsanalyse des Wirtschaftsstandorts Deutschland auf unterschiedlichen regionalen und sektoralen Aggregationsebenen. Dabei verfolgt sie das Ziel, durch eine detaillierte Untersuchung der räumlichen Verteilungsmuster der wirtschaftlichen Aktivität einen Beitrag zur Erklärung der Ansiedlungsstrukturen der einzelnen Wirtschaftszweige zu leisten. Hierfür wird eine gänzlich neue Methodik entwickelt, die das Identifizieren einer breiteren Palette an geographischen Grundmustern sowohl statisch als auch dynamisch zulässt. Da die Unterscheidung zwischen verschiedenen Typen der Konzentration bisher kaum Gegenstand wissenschaftlicher Untersuchung war, stößt der hier verfolgte Ansatz auf ein relativ neues Forschungsfeld vor. Die Existenz unterschiedlicher Typen bzw. Formen der Konzentration beruht auf einer einfachen Überlegung: Neben städtisch konzentrierten Wirtschaftszweigen muss es zwangsläufig auch ländlich konzentrierte Wirtschaftszweige geben. Hiervon ausgehend werden sieben geographische Grundmuster identifiziert. Neben dem dispersen und dem zufälligen Grundmuster wird zwischen fünf verschiedenen Typen der Konzentration unterschieden. Die Identifikation der einzelnen Grundmuster erfolgt auf Basis des Rangkorrelationskoeffizienten von Goodman-Kruskal. Dem entwickelten Ansatz wird mithilfe bivariater Konfidenzregionen eine exakte und durch statistische Signifikanz fundierte Aussagekraft verliehen. Des Weiteren wird im Rahmen der Arbeit festgestellt, dass ein Vernachlässigen der unterschiedlichen geographischen Grundmuster in inhaltlich irreführenden und fragwürdigen Konzentrationsvergleichen münden kann. Parallel dazu werden acht Indizes zur Erfassung der Konzentrationsstärke behandelt. Sie werden hinsichtlich der Datenanforderungen in drei Gruppen unterteilt und im Hinblick auf ihre Verlässlichkeit und Aussagekraft ausführlich untersucht. Die empirische Konzentrationsanalyse belegt für alle drei Gruppen, dass die durchschnittliche Konzentration der deutschen Wirtschaftsgruppen von 1995 bis 2010 kontinuierlich gefallen ist. Darüber hinaus wird in der Arbeit gezeigt, dass die Wirtschaftszweige in Deutschland sehr unterschiedlichen Konzentrationstypen folgen und dass weder die traditionellen noch die komplexen, distanzbasierten Maßzahlen imstande sind, zwischen verschiedenen Typen der Konzentration zu unterscheiden.
Das Triple-X-Syndrom ist die häufigste Chromosomenstörung im weiblichen Geschlecht und dennoch wenig bekannt und erforscht. Um die wissenschaftliche Datenlage für die Betroffenen, werdenden Eltern und genetischen Berater zu verbessern wurde die vorliegende Studie durchgeführt. Ziel der Studie war es zu untersuchen, ob bei Mädchen und Frauen mit Triple-X-Karyotyp häufiger psychische Probleme und Verhaltensauffälligkeiten auftreten als bei Mädchen und Frauen mit einem regelrechten Chromosomensatz. Insgesamt konnten 72 Mädchen und Frauen mit Triple-X und 69 mit einem regelrechten Chromosomensatz in die Studie eingeschlossen werden. Durch drei in Altersgruppen aufgeteilte Kohorten konnte verglichen werden, ob mögliche Auffälligkeiten altersabhängig auftreten, wie sich der Entwicklungsverlauf vom Kind zur erwachsenen Frau darstellt und ob dabei Zusammenhänge erkennbar sind. Bei den Mädchen im Alter von vier bis sieben Jahren zeigten sich im Vergleich zur Kontrollgruppe bereits signifikante Unterschiede in Bezug auf schulische Kompetenzen, soziale Probleme und Aufmerksamkeitsprobleme. In der Altersgruppe der Mädchen von acht bis 17 Jahren haben sich diese Auffälligkeiten noch verstärkt und die Ergebnisse aus dem Fragebogen "Child Behavior Checklist" weisen über alle Skalen hinweg einen deutlichen Unterschied zwischen der Triple-X-Gruppe und der Kontrollgruppe auf. Dies betrifft insbesondere die Bereiche "Schulische Kompetenzen", "Internalisierende Auffälligkeiten", "Sozialer Rückzug", "Soziale Probleme" und "Aufmerksamkeits-probleme". In der Gesamtintensität der Auffälligkeiten haben die Triple-X-Mädchen im Mittel signifikant schlechtere Werte als die Mädchen der Kontrollgruppe. Auch ist der Anteil der Mädchen, die in den klinisch auffälligen Bereich fallen, in der Triple-X-Gruppe signifikant erhöht. Die Untersuchungen zum Selbstwertgefühl machen deutlich, dass Mädchen mit Triple-X-Karyotyp ein vermindertes Selbstwertgefühl im Vergleich zur Kontrollgruppe aufweisen. Auch unterscheiden sich Triple-X-Mädchen in Bezug auf ihr Emotionsregulationsverhalten. Sie haben eine Tendenz zu eher maladaptiven Bewältigungsstrategien und sie zeigen insbesondere beim "Problemorientierten Handeln" und auch in Bezug auf die Emotion "Angst" signifikante Unterschiede zur Kontrollgruppe. Für die Gruppe der Erwachsenen konnte nachgewiesen werden, dass sich Triple-X-Frauen in ihren Persönlichkeitsmerkmalen von Frauen mit einem regelrechten Chromosomensatz unterscheiden. Die Ergebnisse lassen darauf schließen, dass Triple-X-Frauen häufiger emotional labil und ängstlich reagieren und auch eher zurückhaltend und introvertiert und weniger leistungsorientiert sind. Sie haben eine geringere Lebenszufriedenheit und neigen dazu weniger sozial verantwortlich zu handeln. Triple-X-Frauen sind in ihrem täglichen Leben stärker durch körperliche und psychische Symptome beeinträchtigt, wenngleich diese Beeinträchtigungen nicht so stark sind, dass sie in den klinisch auffälligen Bereich fallen.
Epistemologische Überzeugungen sind Annahmen über die Struktur und Richtigkeit von Wissen sowie den Prozess des Wissenserwerbs. Der Autor stellt diesbezüglich Zusammenhänge von psychologischen und philosophischen Konzepten her und argumentiert dabei vom Standpunkt des kritischen Realismus. Außerdem werden, aufgrund empirisch gewonnener Hinweise, die Variabilität wissenschaftstheoretischer und epistemologischer Überzeugungen sowie deren Zusammenhänge zu Leistungsmotivation, Lernzielen und Lernstrategien bei Studenten beschrieben.
Aufgrund der enormen Menge an Informationen, die wir in jedem einzelnen Moment erleben, sind zuverlässige und funktionale Mechanismen, die uns durch die Informationsflut leiten, unerlässlich. Um effizient und sinnvoll einzelne Informationen für die weitere Verarbeitung auszuwählen, sollten die Aufmerksamkeit und kognitive Kapazitäten auf persönlich relevante Inhalte fokussieren. Eine dazu nötige, angemessene Definition von persönlicher Relevanz könnte auf einer stabilen Selbstrepräsentation beruhen, die zum einem spezifisch und zum anderen flexibel bei Veränderungen sein sollte. In Anbetracht einer Vielzahl von Forschungsergebnissen in Bezug auf die noch ungeklärte Frage, inwiefern Selbstrelevanz als allgemeiner Selektionsmechanismus begriffen werden kann, liefert die hier vorliegende Dissertation ein genaueres Verständnis von der Entstehung und Anpassung einer Selbstrepräsentation. Es werden fünf Artikel vorgestellt, die ein relativ neues Paradigma, das sogenannte Matching-Paradigma (Sui, He, & Humphreys, 2012) verwenden und die empirische Evidenz dafür liefern, wie Selbstrepräsentationen kognitive Prozesse beeinflussen. Genauer wird in einem ersten Artikel eine Zusammenschau von Experimenten geliefert, die die Tauglichkeit des Matching-Paradigmas zur Messung von Selbstrelevanzeffekten beurteilt (und bestätigt). In einem zweiten Artikel wird eine Studie vorgestellt, in der die Entstehung von Selbstrepräsentationen untersucht wurde, was zu einem genaueren Verständnis der an der Entstehung von Selbstrepräsentation beteiligten kognitiven Prozesse führt. An diese erste Beschreibung von Selbstrepräsentationen anknüpfend, beschreiben der dritte und vierte Artikel konkrete Charakteristika von Inhalten, die in die Selbstrepräsentation integriert werden können. Schließlich werden in dem fünften Artikel zwei Studien erläutert, in denen Effekte von Selbstrelevanz mit Effekten von negativer Valenz (die als genereller Selektionsmechanismus angesehen wird) verglichen werden, was zu einer Spezifikation des Einflusses von Selbstrelevanz auf Reizverarbeitung beiträgt. Insgesamt kann aufgrund der empirischen Befunde, die in der vorliegenden Dissertation erläutert werden, schlussgefolgert werden, dass das Selbst verstanden werden kann als ein spezifisches, komplexes Netzwerk von Assoziationen zwischen Konzepten und dass Selbstrelevanz die Integration von Inhalten begünstigt, nicht aber die Aufmerksamkeit automatisch lenkt.
Studien zeigen, dass sowohl die genetische Prädisposition als auch Umweltfaktoren zu häufigen Erkrankungen - wie Schmerzerkrankungen oder psychiatrischen Störungen - beitragen. Molekulargenetische Studien legen nahe, dass ein Teil der Erblichkeit in häufigen genetischen Varianten zu finden ist. Die Untersuchung des Zusammenwirkens dieser Faktoren kann das Verständnis der Ätiologie dieser Erkrankungen erweitern, und neue Präventions- und Behandlungsansätze hervorbringen. In der vorliegenden Arbeit werden vier Studien präsentiert, in denen Umwelt- und genetische Risikofaktoren für psychische Erkrankungen und Schmerz untersucht wurden: In der ersten Studie (Kapitel II) wurden mögliche Wirkmechanismen von etablierten Risikofaktoren für psychiatrische Störungen " das Aufwachsen und Leben in städtischer Umgebung " mit bildgebenden Verfahren untersucht. Einen möglichen Mechanismus stellt der erhöhte soziale Stress in städtischer Umgebung dar. In dieser Studie unterliefen zwei Stichproben von gesunden Probanden zwei verschiedene soziale Stressparadigmen für die Anwendung im fMRT, wovon eines im Rahmen dieser Doktorarbeit entwickelt wurde (ScanSTRESS). Hierbei zeigte sich eine erhöhte Amygdalaaktivität bei Probanden, welche aktuell in der Stadt lebten, während die Aktivität des perigenualen anterioren Cingulums mit dem Aufwachsen in der Stadt assoziiert war. Diese Befunde legen nahe, dass die akute Stressverarbeitung durch Umweltfaktoren in sensiblen Phasen der Entwicklung des Nervensystems beeinflusst wird. In der zweiten Studie (Kapitel III), wurde die Modulierung des Einflusses der städtischen Umwelt auf die Stressverarbeitung durch eine Einzelnukleotid-Polymorphismus (SNP; rs324981) im Gen, welches für den Neuropeptid S (NPS) Rezeptor kodiert (NPSR1), untersucht. In einer Stichprobe, welche das ScanSTRESS-Paradigma absolvierte, konnte gezeigt werden, dass rs324981 " in Interaktion mit städtischem Aufwachsen " die Aktivität der rechten Amygdala beeinflusste. Diese Resultate legen nahe, dass das NPS-System in der menschlichen Stressreaktion involviert ist, und diese in Interaktion mit Umweltfaktoren beeinflusst. In der dritten Studie (Kapitel IV), wurde der Effekt der genetischen Variation von NPSR1 auf die zentralnervöse und endokrine Stressverarbeitung weitergehend untersucht. Da sowohl die Stressregulation, als auch psychiatrische Störungen stark geschlechtsspezifische Ausprägungen aufweisen, wurde die Interaktion von genetischer Variation in NPSR1 mit dem Geschlecht berücksichtigt. Hierfür wurde eine Stichprobe von 277 Probanden mit dem Trierer Sozialen Stresstest (TSST) und eine Stichprobe von 65 Probanden mit dem ScanSTRESS-Paradigma untersucht. Die Analyse zeigte die geschlechtsspezifische Assoziation einer Allel-Kombination (Haplotyp) von drei funktionalen SNPs (rs2530547, rs324981 und rs727162) mit der Cortisolantwort auf den TSST, und einen geschlechtsspezifischen Effekt von rs324981 auf die zentralnervösen Aktivierungsmuster. Diese Ergebnisse legen nahe, dass das Geschlecht die Effekte von genetischer Variation im NPS-System auf die Stressregulation moduliert. In der vierten Studie (Kapitel V), wurde der Einfluss der genetischen Prädisposition und Umweltfaktoren auf chronischen Schmerz nach einer Amputation untersucht. Hierfür wurde eine Studie an 122 Individuen durchgeführt, bei welchen zwei Gliedmaßen amputiert wurden. Das Auftreten und die Intensität von sowohl Phantom- als auch Stumpfschmerzen zeigten einen starken Zusammenhang mit der Ausprägung des selben Schmerztyps zwischen den beiden amputierten Körpergliedern, es waren aber nur moderate Zusammenhänge zwischen den beiden Schmerzarten zu beobachten. Dieses Ergebnis legt den Einfluss von sowohl spezifischen, als auch gemeinsamen (potentiell genetischen) Risikofaktoren für beide Schmerztypen nahe.
Auf dem Friedhof der Kirche St. Matthias im Süden Triers befinden sich vier Kammern, die bis in jüngste Zeit als die Untergeschosse selbstständiger römischer Grabbauten angesprochen wurden. Bei dem Areal handelte es sich um einen Teil der südlichen Nekropole des römischen Triers, der vor allem mit Körperbestattungen belegt worden ist. Dieses Körpergräberfeld wird in der vorliegenden Arbeit zum ersten Mal anhand der archäologischen Funde und Befunde beschrieben.
Nach früheren, kleineren Untersuchungen fanden im Umfeld der Kammern 1931 umfangreiche Grabungen statt; weitere folgten in den 1960er Jahren. Die im Rahmen dieser Maßnahmen erstellten Unterlagen wurden vom Autor zusammengestellt und aufgearbeitet. Ergänzend kamen eigene Beobachtungen am noch sichtbaren Befund hinzu.
So ließ sich erschließen, dass die meisten Grabkammern nicht Reste eigenständiger Bauten waren, sondern Teile eines bisher nicht erkannten größeren Baukomplexes. Dieser bestand aus einem großen Rechteckbau, der das Untergeschoss eines älteren Grabbaus inkorporierte. Dieser bildete einen kellerartigen Raum, der mit einem Wasseranschluss versehen war. Innerhalb des Rechteckbaus konnten Reste eines festen Fußbodens zu ebener Erde, sowie farbige Wandmalerei beobachtet werden. Kurz nach seiner Errichtung wurde der Rechteckbau mit zwei unterirdischen Kammern versehen und im Osten durch drei Anbauten mit unterschied-lichen Grundrissen erweitert: Im Süden entstand so ein Apsidenbau mit einer großen unterirdischen Kammer, in der sich bis heute ein Reliefsarkophag befindet.
Die Befundauswertung ergab, dass der Baukomplex in konstantinischer Zeit errichtet worden ist und offenbar schon um die Mitte des 5.Jhs. n. Chr. aufgegeben wurde.
Zu diesem Baubefund ließ sich in den benachbarten römischen Provinzen keine direkte Parallele finden. Am ehesten vergleichbar scheint ein weiterer Baukomplex aus der nördlichen Nekropole Triers, der unter der Kirche St. Maximin aufgedeckt wurde. Er ist ab der Mitte des 4. Jhs. n. Chr. errichtet und von der christlichen Gemeinde genutzt worden. Dieser Bau ähnelt in seinem Grundriss dem Baukomplex von St. Matthias, unterschiedet sich aber in der Bestattungspraxis: Während zahlreiche Sarkophag-Bestattungen im Hauptbau und teilweise auch den Anbauten in den unbefestigten Boden eingelassen worden sind, fand sich bei St. Matthias sowohl im Hauptbau als auch den Anbauten ein fester Boden. Innerhalb dieses Baukomplexes kann nur der oben beschriebene Reliefsarkophag der Nutzungszeit zugeordnet werden. Demnach könnte hier die Schaffung separater Bestattungsräume bedeutsam gewesen sein – neben anderen Funktionen, wie der Bereitstellung von Wasser und überdachtem Raum zur Begehung der Totenfeiern. Die stärkere Berücksichtigung solch funktionaler Elemente scheint demnach eine wichtige Ergänzung zur weiterführenden Deutung römischer Sepulkralarchitektur zu sein.
Im Fokus der Ursachenanalyse der zunehmenden Homogenisierung von Biozönosen und des weltweiten Artenverlustes steht neben dem Flächennutzungs- und Klimawandel vorrangig auch die durch den Menschen verursachte Einbringung gebietsfremder, invasiver Arten. Aufgrund ihrer Charakteristika bilden diese Arten einen wichtigen Schnittpunkt von Ökologie, Ökonomie und Soziologie in Theorie und Praxis und erfahren folglich im Zuge der weltweit steigenden Anzahl von biologischen Invasionen zunehmend eine rechtliche Regulierung. Eine grundsätzliche Herausforderung in der Invasionsforschung liegt in der Identifikation von Faktoren, die Verbreitung, Dynamik und Erfolg der Arten erklären, um anhand dieses Wissens ihr Risiko für das Ökosystem als auch hinsichtlich ökonomischer und gesundheitlicher Aspekte abschätzen zu können. Eine Einschätzung der Invasivität der Art zur Ableitung von Handlungsstrategien und zur rechtlichen Einstufung erfolgt anhand von Risikoanalysen, deren kriterienbasierte Bewertung eine Reihe wissenschaftlicher Fakten voraussetzen. Um mögliche Ausbreitungswege- und barrieren zu identifiziert und Faktoren herauszustellen, welche die erfolgreiche Etablierung und Ausbreitung des Nordamerikanischen Waschbären in Deutschland und Europa erklären, wird in dieser Dissertation unter Verwendung populationsgenetischer Methoden die Ausbreitung der Art rekonstruiert. Darüberhinaus wird in dieser Arbeit die Bedeutung von Verbreitungsmodellen als Analyse- und Präventions-Instrument in der naturschutzfachlichen Risikoabschätzung verdeutlicht und zudem die Problematik einer Risikoabschätzung auf Grundlage einer lückenhaften Wissensbasis erläutert. Der rechtliche Schwerpunkt der Dissertation widmet sich der Regulierung der Haltung von IAS, die als ein aktiver und dominanter Einbringungsweg insbesonders für gebietsfremde Wirbeltierarten zählt und für die hier betrachtete Modellart nachweislich von hoher Bedeutung ist. Die gewonnenen Erkenntnisse geben Hilfestellung zur Einstufung der Invasivität der Art und zur Beurteilung eines Handlungsbedarfes.
Die Dissertation untersucht den Anteil der Armutsthematik an der Etablierung des Kinos in Deutschland. Der Untersuchungsschwerpunkt konzentriert sich auf die Jahre 1907 bis 1913, einer entscheidenden Zeitspanne für die Institutionalisierung des Kinos als Medium sui generis. Ziel der Untersuchung ist es, anhand von Filmanalysen wiederkehrende Muster medialer Praktiken der kinematographischen Artikulation der Sozialen Frage zu eruieren und ihre thematische Relevanz bzw. ihren Anteil für die Etablierung des Kinos in Deutschland zu bestimmen. Im Fokus stehen die Medienprodukte, ihre Motivgestaltung und Inszenierungspraktiken.
Stressinduzierte Veränderungen gastrointestinaler Peptidhormone könnten eine biologische Grundlage für Überessen und einen Faktor bei der Entstehung von Adipositas darstellen. Darum wurden die Veränderungen der Plasmakonzentrationen von Ghrelin und Peptid YY (PYY) durch akuten Stress bei 85 adipösen und normalgewichtigen Frauen untersucht. Im Vergleich zu normalgewichtigen Frauen hatten adipöse Frauen eine geringere pre- als auch postprandiale Ghrelin-Sekretion. Darüber hinaus fiel auch der postprandiale Ghrelin-Abfall bei den adipösen Frauen geringer aus als bei der normalgewichtigen Vergleichsgruppe. Akuter Stress inhibierte die PYY-Sekretion in beiden Gruppen. Außerdem wurde der Effekt von akutem Stress auf das Essverhalten erfasst. Stress inhibierte die Nahrungsaufnahme in beiden Gruppen.
Mittels Querschnittserhebungen ist es möglich Populationsparameter zu einem bestimmten Zeitpunkt zu schätzen. Jedoch ist meist die Veränderung von Populationsparametern von besonderem Interesse. So ist es zur Evaluation von politischen Zielvorgaben erforderlich die Veränderung von Indikatoren, wie Armutsmaßen, über die Zeit zu verfolgen. Um zu testen ob eine gemessene Veränderung sich signifikant von Null unterscheidet bedarf es einer Varianzschätzung für Veränderungen von Querschnitten. In diesem Zusammenhang ergeben sich oft zwei Probleme; Zum einen sind die relevanten Statistiken meist nicht-linear und zum anderen basieren die untersuchten Querschnittserhebungen auf Stichproben die nicht unabhängig voneinander gezogen wurden. Ziel der vorliegenden Dissertation ist es einen theoretischen Rahmen zur Herleitung und Schätzung der Varianz einer geschätzten Veränderung von nicht-linearen Statistiken zu geben. Hierzu werden die Eigenschaften von Stichprobendesigns erarbeitetet, die zur Koordination von Stichprobenziehungen in einer zeitlichen Abfolge verwendet werden. Insbesondere werden Ziehungsalgorithmen zur Koordination von Stichproben vorgestellt, erarbeitet und deren Eigenschaften beschrieben. Die Problematik der Varianzschätzung im Querschnitt für nicht-lineare Schätzer bei komplexen Stichprobendesigns wird ebenfalls behandelt. Schließlich wird ein allgemeiner Ansatz zur Schätzung von Veränderungen aufgezeigt und es werden Varianzschätzer für die Veränderung von Querschnittschätzern basierend auf koordinierten Querschnittstichproben untersucht. Insbesondere dem Fall einer sich über die Zeit verändernden Population wird eine besondere Bedeutung im Rahmen der Arbeit beigemessen, da diese im Anwendungsfall die Regel darstellen.
Zum Einfluss von Transformationen schiefer Verteilungen auf die Analyse mit imputierten Daten
(2015)
Die korrekte Behandlung fehlender Daten in empirischen Untersuchungen spielt zunehmend eine wichtige Rolle in der anwendungsorientierten, quantitativen Forschung. Als zentrales flexibles Instrument wurde von Rubin (1987) die multiple Imputation entwickelt, welche unter regulären Bedingungen eine korrekte Inferenz der eigentlichen Schätzungen ermöglicht. Eine Reihe von Imputationsmethoden beruht im Wesentlichen auf der Normalverteilungsannahme. In der Empirie wird diese Annahme normalverteilter Daten zunehmend kritisiert. So erweisen sich Variablen auf Grund ihrer sehr schiefen Verteilungen für die Imputation als besonders problematisch. In dieser Arbeit steht die korrekte Behandlung fehlender Werte mit der Intention einer validen Inferenz der eigentlichen Schätzung im Vordergrund. Ein Instrument ist die Transformation schiefer Verteilungen, um mit Hilfe der transformierten und approximativ normalverteilten Daten Imputationen unter regulären Bedingungen durchzuführen. In der Arbeit wird ein multivariater Ansatz eingeführt. Anschließend wird im Rahmen mehrerer Monte-Carlo-Simulationsstudien gezeigt, dass der neue Ansatz bereits bekannte Verfahren dominiert und sich die Transformation positiv auf die Analyse mit imputierten Daten auswirkt.
Die vorliegende empirische Untersuchung nimmt eine gezielte Betrachtung der Auswirkungen des Working Capital Managements als Ganzem sowie seiner Teilkomponenten für die operative Profitabilität und das Bonitätsrating (d.h. im Ergebnis über seine Bedeutung für die Innen- und die Außenfinanzierung) deutscher mittelständischer Unternehmen vor. Darüber hinaus wird untersucht, in wie weit größenspezifische Unterschiede bei der Wirkung der einzelnen Komponenten des Working Capital Managements auf die operative Profitabilität und das Bonitätsrating bestehen, ob also die Stärke der ggf. zu beobachtenden Effekte für kleinere Unternehmen anders ausgeprägt ist als für größere Unternehmen. Zudem wird untersucht, ob sich die Stärke der zu beobachtenden Effekte in unterschiedlichen konjunkturellen Rahmenbedingungen jeweils verändert, um Erkenntnisse darüber zu gewinnen, ob und in wie weit Working Capital Management zur Verbesserung der Krisenresistenz mittelständischer Unternehmen beitragen kann.
Mit fachlicher Informationskompetenz werden die Fähigkeiten bezeichnet, die notwendig sind, um effektiv Fachinformationen (z.B. Zeitschriftenartikel) finden und bewerten zu können. Informationskompetenz gilt als wichtige Voraussetzung für ein erfolgreiches Studium und Erfolg auf dem Arbeitsmarkt. Ziel dieser Arbeit ist es, Messinstrumente für fachliche Informationskompetenz bei Psychologiestudierenden zu entwickeln. Dabei wird davon ausgegangen, dass Informationskompetenz sowohl deklarative, als auch prozedurale Wissenskomponenten (Hintergrundwissen über Konzepte und die Beherrschung von Strategien und Vorgehensweisen) enthält. Um diese erfassen zu können, wurde ein Multiple-Choice-Test und Rechercheaufgaben entwickelt; beide Instrumente wurden zur Evaluation eines Trainings für Informationskompetenz eingesetzt. Mittlere Korrelationen zwischen den Instrumenten und die Ergebnisse einer Clusteranalyse zeigen, dass mit beiden Instrumenten unterschiedliche Wissenskomponenten erfasst werden.
Die Arbeit versucht einen Beitrag zum besseren Verständnis von Identitifikations- und Migrationsprozessen von Russlandddeutschen zu leisten. Dabei werden die folgenden zentralen Froschungsfragen behandelt:rnGibt es die Gruppe der Russlanddeutschen aus einer Binnenperspektive? Was führt dazu, dass sich jemand als Mitglied der Gemeinschaft der Russlanddeutschen fühlt? Welche Parameter üben entscheidenden Einfluss auf Migrationsprozesse aus? Welchen Einfluss üben Identitätskonstrukte auf soziale Handlungen, wie Migration aus?
Die vorliegende Arbeit teilt sich in die zwei titelgebenden Themengebiete. Inhalt des ersten Teils dieser Arbeit ist die Untersuchung der Proximität, also einer gewissen Messung der Nähe, von Binomial- und Poisson-Verteilungen. Speziell wird die uniforme Struktur des Totalvariationsabstandes auf der abgeschlossenen Menge aller Binomial- und Poisson-Verteilungen charakterisiert, und zwar mit Hilfe der die Verteilungen eindeutig bestimmenden zugehörigen Erwartungswerte und Varianzen. Insbesondere wird eine obere Abschätzung des Totalvariationsabstandes auf der Menge der Binomial- und Poisson-Verteilungen durch eine entsprechende Funktion der zugehörigen Erwartungswerte und Varianzen angegeben. Der zweite Teil der Arbeit widmet sich Konfidenzintervallen für Durchschnitte von Erfolgswahrscheinlichkeiten. Eine der ersten und bekanntesten Arbeiten zu Konfidenzintervallen von Erfolgswahrscheinlichkeiten ist die von Clopper und Pearson (1934). Im Binomialmodell werden hier bei bekanntem Stichprobenumfang und Konfidenzniveau Konfidenzintervalle für die unbekannte Erfolgswahrscheinlichkeit entwickelt. Betrachtet man bei festem Stichprobenumfang statt einer Binomialverteilung, also dem Bildmaß einer homogenen Bernoulli-Kette unter der Summationsabbildung, das entsprechende Bildmaß einer inhomogenen Bernoulli-Kette, so erhält man eine Bernoulli-Faltung mit den entsprechenden Erfolgswahrscheinlichkeiten. Für das Schätzen der durchschnittlichen Erfolgswahrscheinlichkeit im größeren Bernoulli-Faltungs-Modell sind z. B. die einseitigen Clopper-Pearson-Intervalle im Allgemeinen nicht gültig. Es werden hier optimale einseitige und gültige zweiseitige Konfidenzintervalle für die durchschnittliche Erfolgswahrscheinlichkeit im Bernoulli-Faltungs-Modell entwickelt. Die einseitigen Clopper-Pearson-Intervalle sind im Allgemeinen auch nicht gültig für das Schätzen der Erfolgswahrscheinlichkeit im hypergeometrischen Modell, das ein Teilmodell des Bernoulli-Faltungs-Modells ist. Für das hypergeometrische Modell mit festem Stichprobenumfang und bekannter Urnengröße sind die optimalen einseitigen Konfidenzintervalle bekannt. Bei festem Stichprobenumfang und unbekannter Urnengröße werden aus den im Bernoulli-Faltungs-Modell optimalen Konfidenzintervallen optimale Konfidenzintervalle für das hypergeometrische Modell entwickelt. Außerdem wird der Fall betrachtet, dass eine obere Schranke für die unbekannte Urnengröße gegeben ist.
Kooperationen sind in den unterschiedlichsten Industrien und Wirtschaftszweigen ein fester Bestandteil zur Entwicklung von Unternehmensstrategien und vielfach die Reaktion auf branchenspezifische wie auch -übergreifende Bedingungen des Unternehmensumfeldes. Durch das Eingehen von Kooperationen wird sich erhofft Zugang zu Ressourcen zu gewinnen, Marktbarrieren zu umgehen, Kostensenkungspotenziale durch Synergieeffekte zu realisieren, spezifisches Know-how zu erlangen, Informations- und Wissenstransfer zu ermöglichen oder integrativ Kompetenzen in einem technologisierten Umfeld aufzubauen. Angesichts seit Jahren steigender weltweiter Tourismusausgaben für Urlaubsreisen, einem zunehmendem Wettbewerbsdruck zwischen Reisezielen und touristischen Anbietern sowie branchenspezifisch hoher Krisenanfälligkeit sind Kooperationen auch in der Tourismuswirtschaft omnipräsent. Vor dem Hintergrund sich wandelnder Aufgaben traditioneller Tourismusorganisationen (Touristen Info) einerseits sowie der den Kooperationen inhärenten Spannung zwischen Zusammenarbeit und Wettbewerb der beteiligten Akteure (Leistungsträger, Stakeholder) andererseits, steht im Mittelpunkt dieser Untersuchung die Frage: "Kooperationen von Destinationen: zufällige Einzelphänomen oder Entscheidungen eines strategischen Destinationsmanagements?" Dabei beschränkt sich der Untersuchungsgegenstand nicht auf Kooperationen zwischen Leistungsträgern innerhalb einer Destination, sondern setzt jene Kooperationen in den Fokus, die sowohl zwischen konkurrierenden Touristenorganisationen als auch zwischen Touristenorganisationen und nicht-originär touristischen Unternehmen zu beobachten sind. Ziel der Arbeit ist die theorie- und empiriegeleitete Exploration von Zielsystemen und Erfolgsfaktoren, um so einen Beitrag zum effektiven Kooperationsmanagement von Tourismusorganisationen liefern zu können. Somit positioniert sich diese Arbeit im Kontext der wirtschaftswissenschaftlichen Kooperationsforschung im strategischen Dienstleistungs- sowie Tourismus- und Destinationsmanagement. Basierend auf einem kritisch-reflektierenden Literaturüberblick wird ein konzeptioneller Bezugsrahmen entwickelt und die verfolgte qualitative Forschungsstrategie einer Fallanalyse in ein konkretes empirisches Untersuchungsdesign umgesetzt: die im Rahmen der Datenerhebung geführten Experteninterviews mit Geschäftsführern ausgewählter Unternehmen wurden transkribiert und mittels einer strukturierenden Inhaltsanalyse untersucht. Neben der Konzeption einer Systematisierung zu Kooperationen im Destinationskontext dienen die zentralen empirischen Ergebnisse der Identifikation neun eigenständiger Zielkategorien sowie sieben Erfolgsfaktoren. Davon abgeleitetes wird ein phasenorientiertes Entscheidungsmodell für Entscheidungsträger im Destinationsmanagement entwickelt.
Auf der Grundlage großer Datensätze bereits behandelter Psychotherapiepatienten werden typische Veränderungsmuster identifiziert, die Therapeuten dabei unterstützen sollen, den beobachteten Verlauf ihrer Patienten besser einordnen und Erfolgswahrscheinlichkeiten ableiten zu können. Dabei werden Unterschiede und Gemeinsamkeiten dieser Muster und deren Implikationen in Bezug auf Therapieerfolg und -länge für verschiedene Störungsbilder, Erhebungsinstrumente, Therapiephasen und Untersuchungsdesigns herausgearbeitet sowie rechenintensive Identifikationsmethoden mit einfacheren verglichen.
Zum wechselseitigen Einfluss epistemologischer Überzeugungen und Förderung von Informationskompetenz
(2015)
Die Dissertation zielt darauf ab, den wechselseitigen Zusammenhang zwischen epistemologischen Überzeugungen und der Förderung von Informationskompetenz im Hochschulbereich zu untersuchen. Hinsichtlich der aktuellen Literatur zu epistemologischen Überzeugungen wird dabei zunächst ein Mangel an Fragebogen-Verfahren zur Erfassung epistemologischer Überzeugungen bei Hochschulstudierenden identifiziert. Demnach unterscheiden bisher verfügbare Fragebögen lediglich zwischen absoluten und nicht-absoluten Überzeugungen, nicht aber zwischen undifferenzierten und differenzierten multiplistischen Überzeugungen. Die Arbeit ist daher in zwei Teile untergliedert. Im ersten Teil wird ein epistemologischer Fragebogen, bestehend aus Items mit absoluten und multiplistischen Aussagen entwickelt (vier Studien, Gesamt-N = 416). Im zweiten Teil werden mittels dieses Fragebogens und eines Informationskompetenz-Wissenstests der Einfluss absoluter und multiplistischer Überzeugungen auf den Lerngewinn in einem Blended-Learning Training zur Förderung von Informationskompetenz Psychologie-Studierender (N = 67) sowie die kurzzeitigen Veränderungen dieser Überzeugungen infolge der Trainingsteilnahme untersucht. Faktorenanalysen zeigen, dass Items mit absoluten und multiplistischen Aussagen auf unterschiedlichen Faktoren laden. Die finale Faktoren-Lösung umfasst k = 23 (von ursprünglich k = 35) Items mit zwei Faktoren, wobei Items mit absoluten Aussagen hauptsächlich auf dem ersten und Items mit multiplistischen Aussagen hauptsächlich auf dem zweiten Faktor laden. Die daraus abgeleiteten Skalen zeigen eine zufriedenstellende interne Konsistenz. Die konvergente Validität der Skalen wird durch signifikante Korrelationen mit den beiden Skalen des Fragebogens "Connotative Aspects of Epistemological Beliefs" (CAEB) und der Skala "Need for Cognitive Closure" (NCC) belegt. Querschnittsanalysen zeigen signifikant niedrigere Mittelwerte der multiplistischen Skala bei zunehmendem Studienfortschritt, wohingegen sich auf der absoluten Skala keine signifikanten Unterschiede zeigen. Multiple Regressionsanalysen zeigen, dass höhere Werte auf der multiplistischen Skala mit einem signifikant geringeren Lernerfolg im Informationskompetenz-Training einhergehen. Hinsichtlich der absoluten Skala zeigt sich demgegenüber kein signifikanter Zusammenhang. Abhängig von der Teilnahme am Informationskompetenz-Training lässt sich eine signifikante Zunahme absoluter Überzeugungen nachweisen. Multiplistische Überzeugungen hingegen verändern sich nicht in Abhängigkeit der Trainingsteilnahme. Ausgehend von den Ergebnissen wird diskutiert, dass durch die messtheoretische Differenzierung zwischen absoluten und multiplistischen Überzeugungen zusätzliche Informationen (z.B. über die Entwicklung epistemologischer Überzeugungen) gewonnen werden können, die mit herkömmlichen Fragebögen nicht abgebildet werden. Die Ergebnisse stützen überdies die Annahme eines wechselseitigen Zusammenhangs zwischen epistemologischen Überzeugungen und Informationskompetenz. Es wird vermutet, dass dieser wechselseitige Zusammenhang auf einen tendenziell absoluten Charakter von Lerninhalten zur Informationskompetenz zurückführbar ist.
Die Arbeit untersucht das Potential kleiner unbemannter Luftfahrtsysteme (UAS) in Landwirtschaft und Archäologie. Der Begriff UAS beinhaltet dabei: Fluggerät, Antriebsmechanismus, Sensorik, Bodenstation, Kommunikationsmittel zwischen Bodenstation und Fluggerät und weiteres Equipment. Aufgrund ihrer Flexibilität, fanden UAS seit der Jahrtausendwende eine blühende Entwicklung. Um die wachsende Weltbevölkerung zu ernähren, muss die landwirtschaftliche Produktion sensibel und nachhaltig intensiviert werden, um Nahrungssicherheit für alle zu gewährleisten und weitere Boden- und Landdegradation zu vermeiden. Präzisionslandwirtschaft umfasst technologische Verbesserungen hin zur effizienteren und weniger schädlichen landwirtschaftlichen Praxis. Hierbei ist die Verfügung über zeitnahe, leicht zugängliche hoch aufgelöste räumliche Daten eine Voraussetzung für die Nahrungsmittelproduktion. UAS schließen hier die Lücke zwischen Bodendaten und teuren bemannten Luftfahrtsysteme und selteneren Satellitenbildern. Die Vorteile der UAS-Daten liegen in der ad-hoc Akquisition großmaßstäbiger Fernerkundungsdaten, den geringeren Kosten gegenüber der bemannten Systeme und einer relativen Wetterunabhängigkeit, da auch unter Wolken geflogen werden kann. Den größten Anteil innerhalb der UAS stellen die Mini-UAS (Abfluggewicht von 5kg) und dabei vertikale Start- und Landesysteme. Diese können über Untersuchungsgebieten schweben, sind dadurch jedoch langsamer und eher geeignet für kleinere Flächen. Flugregularien und die Integration in den bemannten Luftraum werden derzeit europaweit harmonisiert und in den Mitgliedstaaten umgesetzt. Die Hauptziele dieser Arbeit lagen in der Evaluierung wie Schlüsselparametern landwirtschaftlicher Nutzpflanzen (Chlorophyll-, Stickstoffgehalt, Erntemenge, sonnendinduzierter Chlorophyll-Fluoreszenz) mittels UAS abgeleitet und wie UAS-Daten für archäologische Aufklärung genutzt werden können. Dazu wurde ein Quadrokopter (md4-1000, microdrones GmbH) mit einer digitalen Spiegelreflexkamera, einem Multispektralsensor (MiniMCA-6, Tetracam Inc.) und einer Thermalkamera (UCM, Zeiss) ausgestattet. Eine Sensitivitätsanalyse führte zur Ableitung geeigneter Wellenlängenbereiche und untersuchte bidirektionale und Flughöheneffekte auf das Multispektralsignal. Die Studie beschreibt außerdem die Vorgehensweise bei Bildaufnahme und Vorprozessierung mit besonderem Schwerpunkt auf die Multispektralkamera (530-900 nm). Die Vorprozessierung beinhaltet die Korrektur von Sensorfehlern (Linsenverzeichnung, Vignettierung, Kanalkalibrierung), die radiometrische Kalibrierung über eine empirische Korrektur mit Hilfe von Referenzspektren, Atmosphärenkorrektur und schließlich die geometrische Verarbeitung unter Verwendung von Structure from Motion Programme zur Generierung von Punktwolkenmodellen bis hin zum digitalen Orthophotomosaik und Höhenmodell in Zentimeterauflösung. In einer Weinbergsstudie (2011, 2012) wurden geeignete Beobachtungswinkel für die Untersuchung des Einflusses von Bodenbearbeitungsstrategien auf das Multispektralsignal evaluiert. Schrägichtaufnahmen von 45-° Beobachtungswinkel gegenüber Nadir waren am besten geeignet zur Ableitung pflanzenphysiolgischer Parameter und multispektraler Unterscheidung von Bodenbearbeitungstypen. So konnten Chlorophyll-Gehalte über Regressionsanalysen über mehrere saisonale Aufnahmen mit einem kreuzvalidierten R-² von 0.65, Stickstoffgehaltsindex von 0.76 (2012) und Ernte mit 0.84 (2011) und für verschiedene Zeitpunkte nach der Blüte (0.87) und während der Reifephase (0.73) ermittelt werden. Desweiteren wurde die (Fs) in einem Stickstoff-Düngung-Experiment bei Zuckerrüben von Multispektral-, Indizes und Thermaldaten untersucht (HyFlex-Kampagne 2012). Zuckerrübenvarietäten konnten spektral und thermal unterschieden werden, die Fluoreszenzindizes waren wetterbedingt, weniger erfolgreich. Außerdem konnte der Tagesgang der Fs trotz instabiler Einstrahlungsverhältnisse am Morgen abgeleitet werden. Die Werte waren jedoch gegenüber Bodenmessungen um ein Vielfaches erhöht. Archäologische Fernerkundung durch UAS wird bereits seit Jahren (z.B. mit Fesselballons) durchgeführt. Die Mustererkennung profitiert von der spektralen Ausdehnung vom menschlichen Auge hin zu multispektralen, neuerdings auch hyperspektralen Sensoren. Studien in Los Bañales, Spanien, zeigten die Möglichkeiten des Informationsgewinns durch Bildverarbeitung von UAS-Daten: vermutliche historische Siedlungsmuster konnten durch Landoberflächenklassifikation von Multispektraldaten mittels Support Vector Machines und Bestandsmusterdetektion beschrieben werden. Um qualitative hochwertige, hochaufgelöste UAS-Daten zu erhalten, sollten die Daten mit hoher Überlappung (80%) und auch Schrägsicht akquiriert und ggf. durch Referenzmessungen zur radiometrischen Kalibrierung und GPS-Messungen für geometrische Referenzierung ergänzt werden.
Seit seiner Unabhängigkeit erfreut sich Namibia als Reiseziel weltweit wachsender Beliebtheit, wodurch der Tourismus wirtschaftlich einen hohen Stellenwert hat. Zugleich lebt ein Großteil der Bevölkerung in Armut und ist zumeist noch immer von der Landwirtschaft abhängig. Diese dominiert flächenmäßig, zur Wertschöpfung und zur Entwicklung des Landes vermag sie allerdings nur wenig beizutragen. Kam im ariden Namibia ehemals nur Ranching als Landnutzung in Frage, sehen sich Landbesitzer wegen verschlechterter Rahmenbedingungen heute gezwungen, weitere Einkommensquellen zu erschließen. Naturtourismus ist eine der Alternativen. Ausgerechnet die wirtschaftlichen Schwächen der ländlichen Regionen mit naturnahen Landschaften, geringer anthropogener Überformung und der Abwesenheit von Industrie ermöglichen einzigartige Naturerlebnisse und stellen damit die Grundlage für Naturtourismus dar. Im Fokus der vorliegenden Studie stehen daher die Landnutzungen Ranching und Naturtourismus, die beide auf dem natürlichen Potenzial des Landes basieren und zugleich räumlich um die gleichen Flächen konkurrieren. Ziel ist die Bewertung der Auswirkungen beider Landnutzungen im Vergleich, um somit die für einen Raum am besten geeignete Nutzungsoption zu identifizieren und Verbesserungspotentiale bei der Ausgestaltung der untersuchten Landnutzungen aufzuzeigen. Die Erkenntnisse aus der einschlägigen Fachliteratur legen die Hypothese nahe, dass Naturtourismus im Vergleich zum Ranching die besser geeignete Landnutzung darstellt. Den theoretischen Rahmen zur Identifizierung der besser geeigneten Landnutzung bildet das Nachhaltigkeitskonstrukt, das wie jedes andere Theorem nicht unmittelbar mess- oder beobachtbar, sondern nur indirekt mit Hilfe von Indikatoren operationalisierbar ist. Die Mehrzahl der 34 insgesamt verwendeten Indikatoren entstammt dem Set der Vereinten Nationen. Alle verwendeten Indikatoren fanden Anwendung in einer für diese Arbeit auf Unternehmensebene adaptierten Version. Um den physischen wie humangeographischen Besonderheiten Namibias (Verfügbarkeit von Wasser, Namibia als Entwicklungsland etc.) gerecht zu werden, wurden zusätzliche Indikatoren für den regionalen Kontext der Studie konzipiert. Entsprechend dem Erkenntnisinteresse, unter Nachhaltigkeitsaspekten die am besten geeignete Landnutzung zu identifizieren, wurden anhand eines umfangreichen methodischen Kanons die empirischen Untersuchungen durchgeführt. Ausgangspunkt hierfür waren Erhebungen in Namibia, die in der Etosha-Region unmittelbar südlich der Kommunalgebiete stattfanden. Methodisch kamen dafür vorrangig quantitative Methoden zum Einsatz, wobei standardisierte Fragebögen als primäre Erhebungsinstrumente konzipiert wurden. Diese wurden von Expertengesprächen, Beobachtungen, Kartierungen und Sekundärdatenanalysen flankiert. Die Erkenntnisse aus den Erhebungen erlauben Aussagen für weite Gebiete Namibias mit vergleichbaren Bedingungen. So bestehen - entsprechend der Forschungshypothese - eindeutige Vorteile des Naturtourismus gegenüber dem Ranching hinsichtlich der betrachteten Landnutzungsauswirkungen, womit der Naturtourismus unter Nachhaltigkeitsaspekten die besser geeignete Landnutzung ist. Vor allem im Bereich der Sozialindikatoren überzeugen die Auswirkungen: Soziale Sicherheit, Wohnbedingungen (Elektrizität, Sanitäreinrichtungen, Wasserversorgung etc.), sozio-ökonomische Aufstiegschancen und die Mitarbeiterzufriedenheit sind zugunsten des Naturtourismus zu werten. Auch im Ökonomischen liegen die Vorteile bei dieser Landnutzung, wobei ein Aspekt negativ auffällt: Vor allem in puncto Regionalökonomie besteht im Tourismus Verbesserungsbedarf. Denn sowohl die Angestelltenrekrutierung als auch die Versorgung mit Waren und Dienstleistungen erfolgt mehrheitlich überregional. Dahingehend sind die Auswirkungen des Ranching als vorteilhafter anzusehen. Wie die Erhebungen ferner belegen, nimmt die Bedeutung des ausschließlichen Ranching aufgrund von Rentabilitätsproblemen auf kommerziellem Farmland sukzessive ab, stattdessen weisen Ländereien zumeist mehr als nur ein wirtschaftliches Standbein auf. Daher ist hinsichtlich der Landreform zu kritisieren, dass Neufarmer - wenn überhaupt - nur auf das Ranching vorbereitet werden. Wie die Erhebungen zeigen: eine wenig zeitgemäße Landnutzungsstrategie. Ein im Rahmen der Arbeit entwickeltes und ihr beiliegendes Farmrentabilitätstool verdeutlicht auf Basis einer Vielzahl vom Nutzer veränderlicher Einstellungen, wie schwierig die rentable Bewirtschaftung von Ranches heute ist.
In Mitteleuropa steigt der Anteil befestigter und damit zumeist undurchlässiger Oberflächen durch Flächenerschließung und Urbanisierung stetig. Die Verdichtung und Befestigung natürlicher Oberflächen und das einhergehende Sammeln und Abführen des Niederschlagswassers vergrößert nicht nur den Oberflächenabfluss, sondern reduziert auch die Grundwasserneubildung. Das an Regenwettertagen anfallende Oberflächenwasser von befestigten Flächen wird zwar in den Kanalnetzen gesammelt, kann jedoch nicht vollständig zur Kläranlage abgeführt werden. Das überschüssige Wasser im Kanalsystem wird dann an neuralgischen Punkten dem nächstgelegenen Gewässer zugeleitet. Auf diese Weise gelangt eine große Bandbreite an Substanzen in die Gewässer und beeinflusst den natürlichen Stoffhaushalt. Häufig sind kleine und mesoskalige Gewässersysteme in Ballungsräumen mit einem hohen Versiegelungsgrad betroffen. Neben der schadlosen Ableitung des Ereignisabflusses tritt im Zuge der Umsetzung der Europäischen Wasserrahmenrichtlinie (WRRL, 2000/60/EG) das Ziel des guten ökologischen und chemischen Zustandes des Gewässers in den Vordergrund. Mit Blick auf die Reduktion von angereichertem und vermischtem Niederschlagswasser in den Gewässern ist das Niederschlagswassermanagement das wichtigste Instrument. Die vorliegende Arbeit betrachtet beispielhaft zwei mesoskalige, urban geprägte Gewässer in der Großregion Luxemburg-Trier, die luxemburgische Mess und den deutschen Olewiger Bach. Dabei werden ebenfalls zwei unmittelbar durch Trenn- und Mischwasserkanalisation beeinflusste Teileinzugsgebiete des Olewiger Bachs untersucht. Ziel ist es, die Auswirkungen der urbanen Einleitungen an Regenwettertagen in den verschiedenen Phasen der Hochwasserwelle (Anstieg, Plateau und Rezessionsast) zu analysieren. Ein Schwerpunkt wird dabei auf den Nachweis anthropogener Spurenstoffe sowie wiederkehrende Strukturen im Wellenverlauf gelegt. Die Untersuchung der urban geprägten Bäche erfolgt mit zeitlich hochaufgelösten Einzelstichproben. Im Gegensatz zur gängigen Beprobung mittels volumen-proportionaler Mischproben kann mit diesem Ansatz der Einfluss der anthropogenen Systeme auf Hydro- und Chemographen im Hochwasserereignis analysiert werden. Auch Stoßbelastungen werden besser erfasst und abgebildet. In allen Untersuchungsgebieten werden in jeder Hochwasserwelle anthropogene Spurenstoffe nachgewiesen. Die Konzentrationen variieren sowohl während eines Hochwasserereignisses, als auch im Vergleich zwischen Ereignissen erheblich. Die nachgewiesenen Maximalkonzentrationen in Mess und Olewiger Bach übersteigen die mittleren Gehalte der einzelnen Spurenstoffe um das zwei bis 30-fache. Einige Pestizidgehalte in der Mess überschreiten zudem zeitweise die Grenzwerte der Umweltqualitätsnormen Richtlinie (UQN, 2008/105/EG). Die größten stofflichen Belastungen in Form maximaler Spurenstoffgehalte treten in der Regel bei mäßigen Niederschlagsereignissen in Kombination mit geringem Basisabfluss im Gewässer auf. Die Gesamtfracht hingegen steigt meist mit der Ereignisfülle. Die hydraulischen und stoffrelevanten Auswirkungen an der Schnittstelle von Kanal und Gewässer lassen sich in vielen urban geprägten Bächen wiederfinden. Diese Einleitungen an Regenwettertagen sind bedeutsam für die Komplexität des Abflussverhaltens sowie die Chemodynamik der betroffenen Vorfluter. Die Ergebnisse zeigen, dass es zukünftig mit Blick auf ein erfolgreiches Einzugsgebietsmanagement notwendig ist, die Niederschlagswasserbewirtschaftung in die Maßnahmenplanung einzubeziehen. Bei urbanen Gewässern muss darauf geachtet werden, dass die Maßnahmen zur Verbesserung des chemischen und ökologischen Zustandes nach der WRRL nicht im Konflikt mit der schadlosen Ableitung des Niederschlagswassers stehen. Vor allem hinsichtlich der stofflichen Dynamik, welche in der Regel mittels volumenproportionaler Mischproben untersucht wird, besteht weiterer Forschungsbedarf.
Gerade in der heutigen Zeit im Spannungsfeld zwischen der globalen Klimaveränderung und einer stetig wachsenden Weltbevölkerung wird es immer wichtiger, die Oberflächenprozesse quantifizieren zu können. In fünf Untersuchungsgebieten in Deutschland, Luxemburg und Spanien wurden experimentelle Geländemessmethoden zur Quantifizierung von Oberflächenabflussbildung und Bodenerosion eingesetzt. Je nach geographischer Lage der Testgebiete sind unterschiedliche Einflussgrößen wichtig für die Abflussreaktion und den Bodenabtrag. Jahreszeit und Vorfeuchte des Bodens können zu verschiedenen Systemzuständen führen und damit die Oberflächenabflussbildungs- und Bodenerosionsraten beeinflussen. Die Verwendung von experimentellen Messmethoden (Beregnungen) ermöglicht es uns, die Reaktion derselben Flächen bei unterschiedlichen Ausgangsbedingungen auf ein und dasselbe (simulierte) Niederschlagsereignis zu messen. Durch die Kombination mit Geländekartierungen und GIS-Auswertungen wird eine qualitative Übertragung der punktuellen Messergebnisse auf die Fläche ermöglicht. In den beiden Untersuchungsgebieten in Deutschland wurden häufig hydrophobe Eigenschaften der Böden festgestellt. Durch diese Hydrophobizität dringt ein Teil des Niederschlagswassers gar nicht bis zum Mineralboden durch, sondern wird in der Streuschicht gehalten oder fließt innerhalb der Streuschicht ab. Dies führt zu einer Erhöhung der Oberflächenabflussraten. Auch der Einfluss der Landnutzung auf die Intensität der Oberflächenprozesse konnte für die Testgebiete in Deutschland und Luxemburg nachgewiesen werden. Auf Wegen und Fahrspuren, sowie auf Ackerflächen wurden die höchsten Oberflächenabfluss- und Bodenabtragsraten gemessen. Aber auch hydrophobe Waldstandorte zeigten hohe Oberflächenabflussraten, allerdings keinen nennenswerten Bodenabtrag, weil die Humusauflage die Bodenoberfläche schützt. Die im Rahmen dieser Arbeit verwendeten Rinnenerosionsversuche ermöglichen es, die Effizienz natürlicher Erosionsrinnen zu messen und zu vergleichen. Durch die Verwendung von beiden Methoden, Beregnung und Rinnenerosionsversuch, können die im Rinneneinzugsgebiet gemessenen Abtragsraten und -mengen mit den Abtragswerten der Erosionsrinne selbst verglichen werden. Insgesamt kann festgestellt werden, dass die Ergebnisse der experimentellen Messungen in Kombination mit einer Kartierung der aktuellen Geomorphodynamik sowie der Auswertung großmaßstäbiger Luftbilder, eine Quantifizierung der aktuellen Prozessdynamik ermöglichen.
Die zukünftige Landwirtschaft steht vor großen Herausforderungen: Zum einen sollen mit knapper werdenden Ressource wie Wasser und Boden mehr Menschen ernährt, die Wirtschaftlichkeit gesteigert und Pflanzen zur Energiegewinnung sowie für die Industrie erzeugt werden. Zum anderen sollen Umweltbelastungen deutlich verringert werden, damit die Landwirtschaft nicht ihre eigene Grundlage zerstört und Anpassungsstrategien für das zukünftige Klima gefunden werden. Die Erstellung eines Modells, mit deren Hilfe die Auswirkungen von Klimavariabilität, Standortbedingung, verschiedenartiger Kultivierung, Umwelteinflüsse und nachhaltigem Wirtschaften auf das Pflanzenwachstum simuliert werden können, also eine ökonomisch-ökologischen Bewertung vorgenommen werden kann, ist daher das Hauptziel vorliegender Dissertation. Zur Erlangung dieses Ziels sollte ein ökologisches (STICS) und ein ökonomische Modell (Produktionsfunktion) miteinander gekoppelt werden. Eine Sensitivitätsanalyse des Pflanzenwachstumsmodells STICS verdeutlicht, dass dieses Modell geeignet ist den Einfluss unterschiedlicher Bewirtschaftungsmethoden und Klimakenngrößen auf das Pflanzenwachstum bzw. den Ertrag sowie die Bodenfruchtbarkeit, z.B. über die Nitratauswaschung, realitätsnah abzubilden. Die Voraussetzung dafür ergibt sich auch aus dem Verwenden des statistischen Klimamodells WETTREG 2010, welches hochaufgelöste Klimadaten, die in Anzahl der Klimaelemente und zeitlicher Auflösung der Messreihen von Klimastationen gleichen, liefert. Die natürliche Variabilität des Klimas wird damit gut widergeben und Aussagen über zukünftiges Wachstum und Pflanzenentwicklung sowie Auswirkungen von Extremwetterlagen berechenbar. Die Ergebnisse des Pflanzenwachstumsmodells dienen als Grundlage einer Produktionsfunktion des Cobb-Douglas-Typs. Der graphische Zusammenhang, die Verteilung der Produktionsfaktoren und die Regressionsergebnisse zeigen allerdings, dass eine einfache lineare Regression zur Bestimmung der Funktion auf Mittel- und Summenwertbasis zu schlechten Ergebnissen, insbesondere hinsichtlich der Anpassung an Extremereignisse, führt. Die Klimafaktoren Niederschlag bzw. Wasser und Temperatur, aber auch die Nachhaltigkeit im Sinne der Erhaltung der Bodenfruchtbarkeit können in der Funktion nicht eindeutig bestimmt werden. Anhand von Simulationen mit künstlichen Klimadaten, d.h. stetig steigenden Temperaturen und immer gleicher Verteilung des Niederschlags (gute und schlechte Verteilung), konnten die Fehlerquellen herauskristallisiert und die fehlenden Faktoren in der Produktionsfunktion gefunden werden. Ein Lösungsansatz ist das Einbeziehen von Stressindizes für Wasser- und Stickstoffmangel, welche die zeitliche Verteilung von Niederschlag und Temperatur bzw. deren Auswirkungen auf das Pflanzenwachstum darstellen. Zudem ist über den Stickstoffstress die Verfügbarkeit von Nitrat für die Pflanze ableitbar und kann in der Produktionsfunktion miteinbezogen werden. Die Ergebnisse der Regression mit Berücksichtigung der Wasser- und Stickstoffstressindizes zeigen deutlich bessere Ergebnisse. Die Variabilität kann deutlich erhöht und die zeitliche Verteilung von Niederschlag und Temperatur sowie die Bodenfruchtbarkeit berücksichtigt werden. Allerdings ist die Anpassung gerade in den extremen Bereichen (überdurchschnittlich niedrige oder hohe Ernten) zu systematisch. Das Pflanzenwachstumsmodell wird demnach nicht durch eine einfache Produktionsfunktion ersetzbar, da es wichtige Informationen zu Ertrag, Einfluss der Klimavariabilität auf den Ertrag, Umwelteinflüssen, wie Stickstoffaustrag, oder Stressindizes liefert. Vielmehr wird erst durch Verwendung des Pflanzenwachstumsmodells die direkte Abhängigkeit zwischen Bewirtschaftung, Ertrag und Nachhaltigkeit im Sinne der Erhaltung der Bodenfruchtbarkeit bzw. der Vermeidung hoher Nitratauswaschung deutlich. Eine nicht angepasste Bewirtschaftung, z.B. Überdüngung und/oder hohe Bewässerung, führt sowohl zu mehr Nitrataustrag als auch zu niedrigerem Ertrag sowie höheren Kosten. Deutlich wird die Unersetzbarkeit des Pflanzenwachstumsmodells durch eine einfache Kostenanalyse. Hierbei konnte die Unrentabilität sehr intensiver Bewirtschaftung und Rentabilität einer zusätzlichen Bewässerung nur unter Berücksichtigung der Nitratauswaschung und klimatischer Gegebenheiten herausgestellt werden. Erst durch das Zusammenspiel von ökologischem und ökonomischem Modell werden die Auswirkungen von Klimavariabilität, Standortbedingung, verschiedenartiger Kultivierung und nachhaltigem Wirtschaften auf das Pflanzenwachstum berechenbar. Eine ökologisch-ökonomische Bewertung, wie die Beurteilung von Auswirkungen bestimmter Klimaelemente (Wasser, Temperatur) auf Pflanzenwachstum und Ertrag, Adaptionsstrategien, effizienter und ressourcenschonender Bewirtschaftung, Rentabilität, Umweltbelastung oder Nachhaltigkeit wird damit letztendlich möglich.
Diese Untersuchungen beinhalten eine Diskussion von Hintergründen, Konzepten und Herausforderungen der aktuellen Qualitätsdiskussion im tertiären Tourismusbildungs-system des südlichen Afrikas. Dabei werden Fragen wie: "Welche Aspekte haben in diesen Ländern zu einer verstärkten Fokussierung auf Qualität geführt?", "Inwieweit lassen sich Erkenntnisse zu Qualitätsentwicklungen aus westlichen Industrienationen auf afrikanische Länder wie z.B. Namibia übertragen?", als auch "Welche Qualitätskriterien werden in der tertiären namibischen Tourismusbildungsinstitutionen als wichtig erachtet?" diskutiert. In diesen Untersuchungen wird diskursiv aufgezeigt, dass sich in vielen Ländern des südlichen Afrikas aufgrund rechtlicher Rahmenbedingungen in der tertiären Tourismus-bildung unterschiedliche Qualitätsansätze etablieren konnten. Eine fundierte Analyse der stark wachsenden Tourismusdestination Namibia als ausgewählte Fallstudie dient dabei als Basis zur Erarbeitung eines spezifischen Qualitätsinstruments. Neben einer Analyse der bestehende Situation versuchen diese vorliegenden Untersuchungen, einen konstruktiven Beitrag zur Qualtätsentwicklung in der namibischen tertiären Tourismusbildung zu liefern. So steht denn auch als Ziel die Erarbeitung eines namibiaspezifischen Qualitätsinstrumentes im Mittelpunkt des Interesses. Zu dessen Entwicklung wird als zentrale Methode eine angepasste Form des Delphi-Verfahrens angewendet, bei welchem eine breite Anzahl relevanter Stakeholder der namibischen tertiären Tourismusbildung eingebunden ist.
Seit 2005 wird auf der Deponie Muertendall (Luxemburg) der Wasserhaushalt einer Oberflächenabdeckung anhand eines Testfeldes untersucht. Die Deponie wurde 1979 in Betrieb genommen. 1991 wurde sie erstmals geschlossen, da ihre Kapazität ausgeschöpft war. Anschließend wurde die Deponie saniert und mit einer Basisabdichtung ausgestattet. Der sanierte Altmüllkörper wurde mit einer 80 cm starken Oberflächenabdeckung versehen. In diesem Bereich der Deponie wurde 2005 ein Testfeld angelegt, um den Wasserhaushalt der Abdeckung zu untersuchen. Ziel dieser Arbeit ist es den Wasserhaushalt der derzeitigen Abdeckung zu bilanzieren und ihre Wasserdurchlässigkeit zu beurteilen. Die Auswertung der Daten zeigt, dass zwischen 30 und 66% des Niederschlages jährlich unterhalb der Abdeckung als Drainageabfluss auftreten. Deutlich zu erkennen ist eine jahreszeitliche Abhängigkeit mit höheren Abflüssen im Winter. Der auftretende Oberflächenabfluss ist vernachlässigbar. In Hinblick auf die Wasserdurchlässigkeit ist die auf der Deponie bestehende Abdeckung nicht geeignet um die Sickerwassermengen deutlich zu minimieren. Da der Wasserhaushalt von Oberflächenabdeckungen die biologischen Abbauprozesse im Deponiekörper maßgeblich beeinflusst, wurden auf der Deponie ebenfalls Untersuchungen am Altmüllkörper durchgeführt, um Rückschlüsse auf den Fortschritt der biologischen Abbauprozesse zu gewinnen. Die ermittelten Wassergehalte im Deponiekörper liegen bei nur 33 Gew. % und sind somit nicht optimal für die biologischen Abbauprozesse. Der untersuchte Altmüll besteht zum Großteil nur noch aus der Fraktion <20 mm als Resultat der biologischen Abbauprozesse. Der übrige Teil besteht größtenteils aus Stoffgruppen, die nur noch schwer biologisch abbaubar sind. Weitere chemisch- physikalische Untersuchungen zeigen, dass im Altmüll immer noch Organik vorhanden ist, die aber durch die biologischen Abbauprozesse nur noch schwer abgebaut werden kann. Aus den gewonnen Ergebnissen werden Vorschläge für die endgültige Abdeckung der Deponie Muertendall gemacht.
Die Dissertation beschäftigt sich mit der Wahrnehmung ländlicher Armut als räumlichem Phänomen und untersucht die Maßnahmen der Agrar-, Sozial- und Raumordnungspolitik, die als strukturpolitisch wirksam zur Bekämpfung sowie Vermeidung ländlicher Armut in den zeitgenössischen Diskursen angenommen wurden. Im Mittelpunkt der Analyse stehen dabei die traditionell landwirtschaftlich geprägten Bundesländer Rheinland-Pfalz und Baden-Württemberg. Untersucht wird, wie das ländliche Armutsproblem in Aussagen von Agrar- und Sozialpolitikern sowie Experten definiert und beschrieben wurde und welche Maßnahmen aufgrund dieser Annahmen als geeignet erschienen, Armut in den agrarwirtschaftlich geprägten Regionen zu bekämpfen. Die Forschungsarbeit basiert auf der Analyse und Bewertung von Förderprogrammen und Förderungshilfen von Bund, Ländern und Kommunen und untersucht diese auf ihre Wirksamkeit hinsichtlich der Existenzsicherung landwirtschaftlicher Betriebe im südwestdeutschen Raum zwischen 1949 und 1974. Ländliche Armut wird so als vor allem bäuerliche Armut beschrieben, die in den zeitgenössischen Diskursen als räumlich abgrenzbare Existenzgefährdung in sogenannten "strukturschwachen" Räumen konstruiert wurde. Im Zusammenhang mit der Untersuchung wirtschaftspolitischer Debatten werden die sozialpolitischen Probleme diskutiert, gesetzliche Durchführungsbestimmungen der Sozialpolitik auf ihre konkreten Ziele hinsichtlich Armutsbekämpfung auf dem Land untersucht sowie die Verflechtungen von Wirtschafts- und Sozialpolitik analysiert.