Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (832)
- Wissenschaftlicher Artikel (219)
- Buch (Monographie) (113)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (108)
- Arbeitspapier (62)
- Teil eines Buches (Kapitel) (22)
- Ausgabe (Heft) zu einer Zeitschrift (22)
- Konferenzveröffentlichung (17)
- Sonstiges (16)
- Rezension (10)
Sprache
- Deutsch (840)
- Englisch (518)
- Französisch (75)
- Mehrsprachig (15)
- Russisch (1)
Schlagworte
- Deutschland (84)
- Luxemburg (52)
- Stress (40)
- Schule (37)
- Schüler (33)
- Politischer Unterricht (29)
- Modellierung (28)
- Fernerkundung (25)
- Geschichte (24)
- Demokratie (23)
Institut
- Raum- und Umweltwissenschaften (213)
- Psychologie (212)
- Politikwissenschaft (132)
- Universitätsbibliothek (82)
- Rechtswissenschaft (77)
- Wirtschaftswissenschaften (66)
- Mathematik (65)
- Fachbereich 4 (57)
- Medienwissenschaft (57)
- Fachbereich 6 (50)
- Geschichte, mittlere und neuere (45)
- Fachbereich 1 (36)
- Fachbereich 3 (34)
- Informatik (31)
- Germanistik (28)
- Fachbereich 2 (26)
- Kunstgeschichte (23)
- Anglistik (21)
- Soziologie (20)
- Computerlinguistik und Digital Humanities (10)
- Philosophie (10)
- Romanistik (9)
- Fachbereich 5 (6)
- Pädagogik (6)
- Allgemeine Sprach- und Literaturwissenschaft (5)
- Ethnologie (5)
- Geschichte, alte (5)
- Klassische Philologie (4)
- Sinologie (4)
- Japanologie (3)
- Archäologie (2)
- Phonetik (2)
- Servicezentrum eSciences (2)
- Forschungszentrum Europa (1)
- Pflegewissenschaft (1)
- Slavistik (1)
- Theologische Fakultät (1)
Zurzeit werden gesundheitliche Auswirkungen von Mobilfunkstrahlung auf den Menschen kontroversiell diskutiert. Die vorliegende Arbeit untersuchte mögliche Auswirkungen auf Befindlichkeit und psychische Variablen in zwei Studien. Es zeigte sich ein Trend bei einer Variable, es gab jedoch keine signifikanten Effekte. Bei den nicht-experimentellen Befunden wiesen Anrainer von Mobilfunksendeanlagen (self-rater) höhere psychische Belastung auf.
Die Vertrauens-Trias erlaubt salutogentische Aussagen über personale Ressourcen. Die kulturvergleichende Anwendung der Vertrauens-Trias wurde bei Jugendlichen in drei Ländern (Deutschland, Luxemburg, Spanien) überprüft. Dabei wurde die Konstruktvalidität der Vertrauens-Trias als auch Zusammenhänge zu symptomatischen Belastungen insgesamt bestätigt. Vergleiche zwischen den Kulturen zeigen keine Unterschiede zwischen deutschen und luxemburgischen Schülern, jedoch zwischen deutschen und spanischen Schülern.
Changes in the cardiovascular system are an often described state in eating disorders. Women with anorexia and bulimia nervosa and control persons were studied before and after a treatment in a psychosomatic clinic. Using different methods cardiovascular reactivity was evaluated in rest and during mental stress and exercise. Improvements after treatment were defined by weight gain, an increase of the trijodthyroninlevel and no more purging in the last three weeks. The anorectics showed higher epinephrinlevels than the other women. The cardiovascular parameters demonstrated an increase of parasympathic activity and a decrease of sympathetic activity in eating disorders. However, the reactivities on stressors showed no differences in comparison to the control group. No changes were observed during the treatment apart from the heartrate, which showed a tendency to increase in the last week of therapy. Because the improvements during the therapy were generally small, within the present study it could not be clarified wether the observed alterations are reversible. An increase of the parasympathic activity in autonome regulation of the heart in eating disorders has been demonstrated and the reactivity on stressors appears to be normal.
Cortisolprofile, speziell morgentlicher Cortisolaufwachanstieg (CAR), wurden in der ersten Stunde nach dem Erwachen, waehrend Schichtarbeit und freier Tage untersucht (acht Speichelproben pro Schicht). In der Untersuchung waren 102 gesunde Dauertag- und Dauernachtschichtarbeiter (Kontrollgruppen) und fruehere Dauertag und Dauernachtschichtarbeiter die auf ein neues schnell vorwaerts rotierendes Schichtsystem umgestellt wurden, welches Morgen-, Abend- und Nachtschicht beinhaltete. Die Ergebnisse zeigen, dass der CAR sowohl bei Tag- als auch Nachtschichten klar erkennbar ist. Bei den Dauernachtschichtarbeitern scheinen die Cortisolprofile waehrend der Nachtschichten und freien Tage abgeflacht zu sein. Die Cortisolprofile ehemaliger Dauernachtschichtarbeiter die auf das neue, schnell vorwaerts rotierende System umgestellt wurden, zeigen schon nach kurzer Zeit keine Stoerungen mehr. Demgegenueber resultiert die Einfuehrung von Nachtarbeit bei ehemaligen Dauertagschichtarbeitern in einer anfaenglichen Abflachung der Cortisolprofile, die sich jedoch nach kurzer Zeit wieder normalisiert. Zusaetzliche psychologische Frageboegen zur Erschoepfung, chronischem Stress, Effort-Reward Imbalance, Schlafqualitaet und Schlaflaenge wurden begleitend eingesetzt.
This dissertation investigates the psychological and endocrinological make-up of patients with functional gastrointestinal disorders (FGD). Patients with irritable bowel syndrome and/or non ulcer dyspepsia were compared with healthy control subjects on several parameters: psychological disorders, bodily complaints, depressed mood, anxiety, chronic stress, personality and basal activity, reactivity (hCRH-test) as well as feedback-sensitivity(Dexamethasone-suppression-test) of the hypothalamic-pituitary-adrenocortical (HPA) system. Patients with FGD had different -mostly higher- scores in almost every psychological/psychometric measure. Furthermore, results of the endocrinological studies indicate a down-regulated HPA activity in patients with FGD.
Die Somatisierungsstörung, Zustände zahlreicher wechselnder körperlicher Beschwerden, die nicht durch medizinische Befunde erklärbar sind, stellt eine häufige und gravierende, dennoch bisher kaum untersuchte psychische Erkrankung dar. Weitgehend unbekannt sind die Ursachen und der Entstehungsprozess. Die Arbeit geht der Frage nach, welche Merkmale für Patienten mit Somatisierungsstörung charakteristisch sind und deshalb als störungsspezifische persönliche Risikofaktoren in Betracht kommen. 110 Patienten in stationärer psycho-therapeutischer Behandlung wurden untersucht. Die Resultate zeigen bei Patienten mit Somatisierungsstörung im Vergleich zu Patienten mit anderen, vorwiegend ängstlich-depressiven psychischen Störungen vermehrte Schwierigkeiten im Erkennen und Benennen von Gefühlen (Alexithymie), eine stärker ausgeprägte Überzeugung, unkalkulierbaren äußeren Einflüssen unterworfen zu sein (fatalistisch-externale Kontrollüberzeugungen) und eine Abweichung im System der hormonellen Stressregulation (Hypothalamus-Hypophysen-Nebennierenrinden-Achsen-Funktion). Weiter ergaben sich Hinweise auf eine Veränderung im Zusammenspiel der Großhirn-Hemisphären (funktionelle hemisphärische Lateralität) bei der Gesamtheit der untersuchten Patienten im Vergleich zu Gesunden. Darüber hinaus konnte eine befriedigende Zuverlässigkeit (Retest-Reliabilität) der verwendeten Methode der Cortisolbestimmung festgestellt werden.
Dysfunctional eating behavior is a major risk factor for developing all sorts of eating disorders. Food craving is a concept that may help to understand better why and how these and other eating disorders become chronic conditions through non homeastatically-driven mechanisms. As obesity affects people worldwide, cultural differences must be acknowledged to apply proper therapeutic strategies. In this work, we adapted the Food Craving Inventory (FCI) to the German population. We performed a factor analysis of an adaptation of the original FCI in a sample of 326 men and women. We could replicate the factor structure of the FCI on a German population.rnThe factor extraction procedure produced a factor solution that reproduces the fourfactors described in the original inventory, the FCI. Our instrument presents high internal consistency, as well as a significant correlation with measures of convergent and discriminant validity. The FCI-Deutsch (FCI-DE) is a valid instrument to assess craving for particular foods in Germany, and it could, therefore, prove useful in the clinical and research practice in the field of obesity and eating behaviors.
We examined the long-term relationship of psychosocial risk and health behaviors on clinical events in patients awaiting heart transplantation (HTx). Psychosocial characteristics (e.g., depression), health behaviors (e.g., dietary habits, smoking), medical factors (e.g., creatinine), and demographics (e.g., age, sex) were collected at the time of listing in 318 patients (82% male, mean age = 53 years) enrolled in the Waiting for a New Heart Study. Clinical events were death/delisting due to deterioration, high-urgency status transplantation (HU-HTx), elective transplantation, and delisting due to clinical improvement. Within 7 years of follow-up, 92 patients died or were delisted due to deterioration, 121 received HU-HTx, 43 received elective transplantation, and 39 were delisted due to improvement. Adjusting for demographic and medical characteristics, the results indicated that frequent consumption of healthy foods (i.e., foods high in unsaturated fats) and being physically active increased the likelihood of delisting due improvement, while smoking and depressive symptoms were related to death/delisting due to clinical deterioration while awaiting HTx. In conclusion, psychosocial and behavioral characteristics are clearly associated with clinical outcomes in this population. Interventions that target psychosocial risk, smoking, dietary habits, and physical activity may be beneficial for patients with advanced heart failure waiting for a cardiac transplant.
Das Triple-X-Syndrom ist die häufigste Chromosomenstörung im weiblichen Geschlecht und dennoch wenig bekannt und erforscht. Um die wissenschaftliche Datenlage für die Betroffenen, werdenden Eltern und genetischen Berater zu verbessern wurde die vorliegende Studie durchgeführt. Ziel der Studie war es zu untersuchen, ob bei Mädchen und Frauen mit Triple-X-Karyotyp häufiger psychische Probleme und Verhaltensauffälligkeiten auftreten als bei Mädchen und Frauen mit einem regelrechten Chromosomensatz. Insgesamt konnten 72 Mädchen und Frauen mit Triple-X und 69 mit einem regelrechten Chromosomensatz in die Studie eingeschlossen werden. Durch drei in Altersgruppen aufgeteilte Kohorten konnte verglichen werden, ob mögliche Auffälligkeiten altersabhängig auftreten, wie sich der Entwicklungsverlauf vom Kind zur erwachsenen Frau darstellt und ob dabei Zusammenhänge erkennbar sind. Bei den Mädchen im Alter von vier bis sieben Jahren zeigten sich im Vergleich zur Kontrollgruppe bereits signifikante Unterschiede in Bezug auf schulische Kompetenzen, soziale Probleme und Aufmerksamkeitsprobleme. In der Altersgruppe der Mädchen von acht bis 17 Jahren haben sich diese Auffälligkeiten noch verstärkt und die Ergebnisse aus dem Fragebogen "Child Behavior Checklist" weisen über alle Skalen hinweg einen deutlichen Unterschied zwischen der Triple-X-Gruppe und der Kontrollgruppe auf. Dies betrifft insbesondere die Bereiche "Schulische Kompetenzen", "Internalisierende Auffälligkeiten", "Sozialer Rückzug", "Soziale Probleme" und "Aufmerksamkeits-probleme". In der Gesamtintensität der Auffälligkeiten haben die Triple-X-Mädchen im Mittel signifikant schlechtere Werte als die Mädchen der Kontrollgruppe. Auch ist der Anteil der Mädchen, die in den klinisch auffälligen Bereich fallen, in der Triple-X-Gruppe signifikant erhöht. Die Untersuchungen zum Selbstwertgefühl machen deutlich, dass Mädchen mit Triple-X-Karyotyp ein vermindertes Selbstwertgefühl im Vergleich zur Kontrollgruppe aufweisen. Auch unterscheiden sich Triple-X-Mädchen in Bezug auf ihr Emotionsregulationsverhalten. Sie haben eine Tendenz zu eher maladaptiven Bewältigungsstrategien und sie zeigen insbesondere beim "Problemorientierten Handeln" und auch in Bezug auf die Emotion "Angst" signifikante Unterschiede zur Kontrollgruppe. Für die Gruppe der Erwachsenen konnte nachgewiesen werden, dass sich Triple-X-Frauen in ihren Persönlichkeitsmerkmalen von Frauen mit einem regelrechten Chromosomensatz unterscheiden. Die Ergebnisse lassen darauf schließen, dass Triple-X-Frauen häufiger emotional labil und ängstlich reagieren und auch eher zurückhaltend und introvertiert und weniger leistungsorientiert sind. Sie haben eine geringere Lebenszufriedenheit und neigen dazu weniger sozial verantwortlich zu handeln. Triple-X-Frauen sind in ihrem täglichen Leben stärker durch körperliche und psychische Symptome beeinträchtigt, wenngleich diese Beeinträchtigungen nicht so stark sind, dass sie in den klinisch auffälligen Bereich fallen.
Quadratische Optimierungsprobleme (QP) haben ein breites Anwendungsgebiet, wie beispielsweise kombinatorische Probleme einschließlich des maximalen Cliquenroblems. Motzkin und Straus [25] zeigten die Äquivalenz zwischen dem maximalen Cliquenproblem und dem standard quadratischen Problem. Auch mathematische Statistik ist ein weiteres Anwendungsgebiet von (QP), sowie eine Vielzahl von ökonomischen Modellen basieren auf (QP), z.B. das quadratische Rucksackproblem. In [5] Bomze et al. haben das standard quadratische Optimierungsproblem (StQP) in ein Copositive-Problem umformuliert. Im Folgenden wurden Algorithmen zur Lösung dieses copositiviten Problems von Bomze und de Klerk in [6] und Dür und Bundfuss in [9] entwickelt. Während die Implementierung dieser Algorithmen einige vielversprechende numerische Ergebnisse hervorbrachten, konnten die Autoren nur die copositive Neuformulierung des (StQP)s lösen. In [11] präsentierte Burer eine vollständig positive Umformulierung für allgemeine (QP)s, sogar mit binären Nebenbedingungen. Leider konnte er keine Methode zur Lösung für ein solches vollständig positives Problem präsentieren, noch wurde eine copositive Formulierung vorgeschlagen, auf die man die oben erwähnten Algorithmen modifizieren und anwenden könnte, um diese zu lösen. Diese Arbeit wird einen neuen endlichen Algorithmus zur Lösung eines standard quadratischen Optimierungsproblems aufstellen. Desweiteren werden in dieser Thesis copositve Darstellungen für ungleichungsbeschränkte sowie gleichungsbeschränkte quadratische Optimierungsprobleme vorgestellt. Für den ersten Ansatz wurde eine vollständig positive Umformulierung des (QP) entwickelt. Die copositive Umformulierung konnte durch Betrachtung des dualen Problems des vollständig positiven Problems erhalten werden. Ein direkterer Ansatz wurde gemacht, indem das Lagrange-Duale eines äquivalenten quadratischen Optimierungsproblems betrachtet wurde, das durch eine semidefinite quadratische Nebenbedingung beschränkt wurde. In diesem Zusammenhang werden Bedingungen für starke Dualität vorgeschlagen.
Das hier beschriebene Qualifizierungskonzept zur Unterstützung eines forschungsprozessbegleitenden Forschungsdatenmanagements (FDM) stellt einen zentralen Baustein im Rahmen des durch das BMBF geförderten Forschungsprojektes „Prozessorientierte Entwicklung von Managementinstrumenten für Forschungsdaten im Lebenszyklus“ (PODMAN) dar. Die Frage, die das PODMAN-Projekt mit dem hier vorgestellten Qualifizierungskonzept adressieren möchte, ist dabei nicht primär, welche Inhalte für den Erwerb der verschiedenen Kompetenzen von Bedeutung sind, sondern vielmehr auf welche Art und Weise diese Inhalte vermittelt werden sollten. Eine Fokussierung auf die Darlegung eines konkreten Designs für Qualifizierungsmaßnahmen im Bereich FDM anstelle von spezifischen Inhalten ist insofern sinnvoll, als dass letztere transient sind und somit ohnehin einer kontinuierlichen Anpassung bedürfen. Nichtsdestotrotz wird in diesem Qualifizierungskonzept auf hilfreiche FDM-Informationsplattformen verwiesen.
Die Dissertation "Qualitativer Bewusstseins- und Verhaltenswandel im Kontext einer nachhaltigen Entwicklung und ökologischen Ökonomik" ist eine ungewöhnliche wirtschaftswissenschaftliche Arbeit, die mit Hilfe von inter- und transdisziplinärer Forschungsmethodik weit über das Gebiet der Ökonomik hinausgeht, um Eigenschaften und Anforderungen für einen qualitativen Bewusstseins- und Verhaltenswandel zu erforschen. Sie ist dazu in sieben Kapitel inklusive Einleitung und Schluss gegliedert. Zunächst werden im zweiten Kapitel Probleme der Operationalisierung und Umsetzung der offenen Brundtland-Definition von nachhaltiger Entwicklung thematisiert. Sowohl die Abgrenzung von Bedürfnissen als auch von ökologischer Tragfähigkeit stellen hierbei die Nachhaltigkeitsforschung vor Schwierigkeiten. Im dritten Kapitel wird die Notwendigkeit der grundlegenden Veränderung der Sicht- und Lebensweise aus dem Leitbild der nachhaltigen Entwicklung abgeleitet, für das die Wirtschaftswissenschaften zwei Ansätze bieten. Im Vergleich mit der neoklassischen Umwelt- und Ressourcenökonomik, die auf den Prämissen des mechanistisch-objektivistischen Weltbildes der klassischen Physik beruht und die Natur als substitutionalisierbar ansieht, wird der ökologischen Ökonomik der Vorzug gegeben, aus deren Sicht die Betrachtung der Ökonomie als kulturelles Ökosystem unter Irreversibilität und der Anwendung des Vorsichtsprinzips zweckdienlich ist. Mit einer dreifachen Konsistenz-, Effizienz- und Suffizienzstrategie will die ökologische Ökonomik nachhaltige Entwicklung umsetzen, verlässt dabei aber nicht eine materialistische Sichtweise, so dass das Merkmal der Suffizienz unzureichend mit Inhalten ausgefüllt wird. Dies ist der Anknüpfungspunkt für einen qualitativen Bewusstseins- und Verhaltenswandel. Beispiele für einen solchen werden im vierten Kapitel beschrieben, sowohl mit der Quantenphysik aus dem Kernbereich der Naturwissenschaften stammend, als auch aus der Bewusstseinsforschung. Kennzeichen eines neuen Bewusstseins sind die Aufhebung der Trennung von Subjekt und Objekt, Geist und Materie, Innen- und Außenwelt. Zwei Exkurse (Emoto, spirituelle Weltanschauungen) zeigen zusätzliche nicht-materialistische Wahrnehmungen von Welt und Wirklichkeit auf. Im fünften Kapitel folgt die Übertragung der gewonnenen Erkenntnisse auf eine zugleich sowohl ergänzende als auch alternative Form von Wissenschaft, der "komplementären Wissenschaft der Innen- und Außenwelt". Sie berücksichtigt nicht nur die äußere Dimension der Erfahrungswelt, sondern auch die innere, um komplexe Sachverhalte ganzheitlich in ihrem Zusammenwirken von Subjekt und Objekt, Geist und Materie, Innen- und Außenwelt betrachten und erfassen zu können. Dazu ist eine Erweiterung der Methodik um introspektive Einsichten notwendig, sowie die Erweiterung von Welt- und Menschenbild um immaterielle Aspekte, ersteres durch die Wechselwirkungen zwischen Bewusstsein, Geist, Materie und Leben, letzteres durch spirituelle, mentale, emotionale und physische Zusammenhänge des Menschseins. Das sechste Kapitel beinhaltet Anforderungen an eine komplementäre Ökonomik der Innen- und Außenwelt, die die Merkmale eines qualitativen Bewusstseins- und Verhaltenswandels aufweist. Zum einen geschieht dies durch das Modell einer "Ökonomie des Geistes", die in Anlehnung an Bateson mentale Strukturen als grundlegend für materielle ökonomische Prozesse ansieht. Zum anderen bietet eine "Quanten-Ökonomik" die Verbindung einer Außenweltperspektive mit der Innenwelt. Daraus geht auch ein neues Verständnis von Nachhaltigkeit hervor, in dem das Zusammenwirken von Innen- und Außenwelt im Mittelpunkt steht. Die Dissertation schließt mit einem Ausblick der Umsetzungschancen eines derartigen qualitativen Bewusstseins- und Verhaltenswandels in Wissenschaft, Wirtschaft und Gesellschaft.
Die Kunstgewerbeschule Pforzheim nimmt innerhalb der Bildungsanstalten, die zur künstlerischen Förderung der Gewerbe im 19. Jahrhundert gegründet worden waren, eine Sonderstellung ein. Lehrplan und Ausbildungsgang orientierten sich vorrangig an den Bedürfnissen der in Pforzheim seit 1767 ansässigen Schmuckindustrie, die maßgeblich an der Gründung und Förderung der Kunstgewerbeschule beteiligt war. In der Dissertation werden die Rahmenbedingungen, die zur Gründung der Pforzheimer Kunstgewerbeschule im Jahr 1877 führten, sowie die Qualität und die Methoden der dort angebotenen künstlerisch-technischen Ausbildung unter Berücksichtigung zeitgenössischer Bildungsideale analysiert. Im Anschluss wird das Ansehen der Kunstgewerbeschule unter Zeitgenossen beurteilt sowie die Bedeutung dieser Institution für die Pforzheimer Schmuckindustrie herausgearbeitet. Der Betrachtungszeitraum erstreckt sich von 1877, dem Gründungsjahr der Kunstgewerbeschule, bis 1911, dem Todesjahr ihres ersten Direktors, Alfred Waag. Zeitgenössische Berichte und Archivmaterialien sowie der kontinuierlich erweiterte Lehrmittelbestand der Kunstgewerbeschule bilden die Grundlage für die Untersuchungen. Ein Großteil der Musterstücke, viele Bücher und Vorlagenwerke, die zur künstlerischen Ausbildung der Schüler angeschafft wurden, sind bis heute in Archiven und Museen erhalten und zeugen von der Qualität und der Fortschrittlichkeit der Ausbildungsstätte. Vor allem in den Bereichen Entwurf und Technik setzte man an der Kunstgewerbeschule Pforzheim Maßstäbe. Unter dem Einfluss der Schule entstanden Entwürfe für die lokale Schmuckindustrie, die speziell auf die serielle Fertigung zugeschnitten waren und damit beispielhaft für eine gelungene Allianz von Kunst, Technik und Wirtschaftlichkeit stehen. Die Zusammenarbeit der lokalen Schmuckhersteller mit Lehrern oder Absolventen der Kunstgewerbeschule ließ sich ebenso belegen wie die erfolgreiche Teilnahme verschiedener Schüler an überregionalen Wettbewerben für Schmuckentwürfe. Dank der quellengestützten Recherche konnten Beziehungen zwischen den als mustergültig empfundenen Vorbildern, der Entwurfsarbeit an der Schule und dem in Pforzheim industriell hergestellten Schmuck aufgezeigt werden. Der häufig geäußerte Vorwurf, Pforzheimer Firmen hätten vor allem fremde Schmuckentwürfe kopiert und durch maschinelle Fertigungstechniken billig produziert, verkennt den eigenen künstlerischen Anspruch einer Industrie, die zur ästhetisch-technischen Ausbildung ihrer Arbeiter und Lehrlinge eine Kunstgewerbeschule ins Leben rief, die bis heute unter dem Namen Hochschule Pforzheim - Gestaltung, Technik, Wirtschaft und Recht Bestand hat.
Measurements of dust emissions and the modeling of dissipation dynamics and total values are related to great uncertainties. Agricultural activity, especially soil cultivation, may be an essential component to calculate and model local and regional dust dynamics and even connect to the global dust cycle. To budget total dust and to assess the impact of tillage, measurement of mobilized and transported dust is an essential but rare basis. In this study, a simple measurement concept with Modified Wilson and Cook samplers was applied for dust measurements on a small temporal and spatial scale on steep-slope vineyards in the Moselle area. Without mechanical impact, a mean horizontal flux of 0.01 g m2 min−1 was measured, while row tillage produced a mean horizontal flux of 5.92 g m2 min−1 of mobilized material and 4.18 g m2 min−1 emitted dust from site (=soil loss). Compared on this singular-event basis, emissions during tillage operations generated 99.89% of total emitted dust from the site under low mean wind velocities. The results also indicate a differing impact of specific cultivation operations, mulching, and tillage tools as well as the additional influence of environmental conditions, with highest emissions on dry soil and with additional wind impact. The dust source function is strongly associated with cultivation operations, implying highly dynamic but also regular and thus predictable and projectable emission peaks of total suspended particles. Detailed knowledge of the effects of mechanical impulses and reliable quantification of the local dust emission inventory are a basis for analysis of risk potential and choice of adequate management options.
The presented research aims at providing a first empirical investigation on lexical structure in Chinese with appropriate quantitative methods. The research objects contain individual properties of words (part of speech, polyfunctionality, polysemy, word length), the relationships between properties (part of speech and polyfunctionality, polyfunctionality and polysemy, polysemy and word length) and the lexical structure composed by those properties. Some extant hypotheses in QL, such as distributions of polysemy and the relationship between word length and polysemy, are tested on the data of Chinese, which enrich the applicability of the laws with a language not tested yet. Several original hypotheses such as the distribution of polyfunctionality and the relationship between polyfunctionality and polysemy are set up and inspected.
Quantitative Studien zur Plansprache Esperanto zu ausgewählten Fragestellungen der Phonologie, Morphologie, Syntax, Lexik, Semantik, Worthäufigkeit und - als Schwerpunkt - Wortbekanntheit wurden durchgeführt. Hauptergebnisse: Die Phonem-Häufigkeitsverteilung des Esperanto kann besonders gut mit dem Yule-Modell beschrieben werden; bei biphonematischer Wertung der Affrikaten ergibt sich eine etwas schlechere Anpassung als bei monophonematischer Wertung. Die Anwendung des klassifikatorischen Schlüssels von Altmann und Lehfeldt bestätigt die Meinung der meisten Autoren, wonach Esperanto agglutinierend mit einigen Merkmalen einer isolierenden Sprache ist. Die bei anderen Sprachen gefundene Gesetzmäßigkeit zwischen Lexermlänge und Polysemie gilt auch für Esperanto. Zur Untersuchung des Zusammenhangs zwischen Wortbekanntheit und Worthäufigkeit sowie zur Untersuchung der Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher wurde das Verfahren der logistischen Regression (einschließlich statistischer Sicherheit) ausführlich dargestellt und als eine innovative Option auch zur Untersuchung analoger Fragestellungen angeboten. Zu den nachfolgend beschriebenen Haupthypothesen kann auf Grundlage der Untersuchung Folgendes ausgesagt werden (es sei angemerkt, dass die Haupthypothesen- (a) und (b) dabei ausschließlich für solche Esperanto-Sprecher gelten, die ihr Esperanto-Anwendungsvermögen als ausreichend gut einschätzen; die Haupthypothese- (c) gilt auch für solche Esperanto-Sprecher, die ihr Esperanto-Anwendungsvermögen als nicht ausreichend gut einschätzen): (a) Die Häufigkeit der zuverlässig bekannten Wörter entspricht der Häufigkeitsgruppe- 7 aus neun Häufigkeitsgruppen der von der Esperanto-Akademie entwickelten Statistik ("offizielle Basis-Wortwurzelsammlung", BRO; Häufigkeitsgruppe- 1: häufigste Wörter). (b)- Sei- A die Häufigkeit der Esperanto-Wörter, die Menschen mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig zuverlässig bekannt sind. Sei- B die Häufigkeit der Esperanto-Wörter, die Menschen mit Muttersprache Chinesisch, Japanisch oder aus der finno-ugrischen Sprachfamilie zuverlässig bekannt sind. Die Untersuchung zeigte: Zwischen A und B besteht kein signifikanter Unterschied. Das heißt: Die naheliegende Vermutung, dass Sprecher mit einer Muttersprache aus dem romanischen oder germanischen Sprachzweig (= Quelle der meisten Esperanto-Wörter) einen Vorteil haben und seltenere Esperanto-Wörter vergleichsweise besser kennen als Sprecher mit anderen Muttersprachen, wurde durch die vorliegende empirische Überprüfung nicht bestätigt. (c)- Bei einer statistischen Sicherheit von 95% ist die Selbsteinschätzung des eigenen Esperanto-Anwendungsvermögens durch seine Sprecher auch nach 100- Lernjahren nur 73%. Für eine zuverlässige Anwendbarkeit (also 90% bei 95%- statistischer Sicherheit) konnte keine Lernzeit ermittelt werden.
Quantitative Untersuchungen im Französischen: Häufigkeitsverteilungen und funktionale Zusammenhänge
(2009)
Die Quantitative Linguistik ist eine relativ junge Disziplin, deren Hauptziel es ist, Gesetzmäßigkeiten zu erforschen, denen sprachliche Phänomene folgen, und gesetzmäßige Zusammenhänge zwischen sprachlichen Variablen zu erklären. Es hat sich inzwischen in einer ganzen Reihe von Untersuchungen immer wieder gezeigt, dass solche Gesetzmäßigkeiten aufgedeckt und erklärt werden können. Die vorliegende Untersuchung stellt einen Beitrag zu dieser Thematik dar. Sie dient der Überprüfung bestimmter lexikalischer und syntaktischer Hypothesen an französischem Sprachmaterial unter der Anwendung quantitativer Methoden. Diese Hypothesen betreffen zweidimensionale Zusammenhänge zwischen den operational definierten quantitativen Eigenschaften der Länge, Frequenz und Polylexie von sprachlichen Einheiten und die Häufigkeitsverteilungen der Einheiten hinsichtlich dieser Eigenschaften. Jede Untersuchungshypothese wird mathematisch modelliert, wobei eine direkte Anwendung der Statistik betrieben wird. D.h.: Bereits existierende theoretische Modelle, die als wahres Bild der zu überprüfenden Hypothesen angesehen werden, werden verwendet. Die Güte der Anpassung des jeweiligen Modells an die empirischen Daten wird aus den Differenzen zwischen den empirischen und den entsprechenden theoretischen Werten abgeschätzt. Bei der empirischen Überprüfung der Hypothesen werden zwei Testverfahren eingesetzt: die Berechnung des Determinationskoeffizienten für die Zusammenhänge zwischen zwei quantitativen Größen und der Chiquadrat-Test für die Verteilungshypothesen. Die durchgeführten Tests bestätigen im Großen und Ganzen die Verträglichkeit der Daten mit den aufgestellten Hypothesen.
Habitat selection of nine songbird species (Sylviidae, Prunellidae, Emberizidae, Fringillidae, Laniidae) in a semi-open transitional landscape (wood/meadow ecotone) is assessed and compared by a quantitative approach over a period of three years. The structural diversity and heterogeneity of this landscape allows a common occurrence to bird species that are spatially segregated in other habitats. On the one hand habitat selection, which in this study is defined by the choice of vegetation structures at the microhabitat level, is regarded as the confrontation of the single bird individuals with their environment and on the other hand as a common trait of subpopulations. The process of habitat selection is only real at the level of the individual. Drawing against this background, a model for the quantification of habitat selection is introduced, making possible an objective analysis of both individual and average habitat selection (not explaining the process itself, however, that leads to the observed habitat selection). The influence of several structural features, mainly regarding the shape of vegetational subunits, on the dispersion of the birds on the plots is analyzed by means of quantitative methods (factor analysis, cluster analysis, discriminant analysis). Preferences and avoidances, constancy in time and space and the degree of selectivity of the specific choice of vegetational structures are discussed in detail for each bird species. There is quantitative evidence that along with increasing abstraction from the individual in the form of spatially increasing data aggregation, the specific distinctness of habitat preferences as a common trait increases. This happens, however, at the expense of information about the variability of the individual selective behaviour. Therefore the flexibility of a bird species would be underrated cosiderably, confining habitat selection to its meaning as an integrating trait of populations. Habitat selection is a dynamic process. It is shown that the structural offer in a landscape strongly influences the result of the species" habitat selection. The availability of vegetational structures on a plot determines the quantitative structural framework, which may be more or less quantitatively modified by the single species. Nevertheless, the structural offer is reflected clearly in the selected structural portions of the bird species. Therefore opportunism and selectivity in the form of structural preferences and avoidances in habitat selection have to be interpreted against the background of the quantitative composition of the vegetational structures that a landscape offers to the birds.
Seit Mitte der 1970er Jahre engagiert sich das Land Nordrhein-Westfalen, in Folge des sozial/ökologischen Wertewandels der 1960er und 1970er Jahre, in der Radverkehrsförderung. Damals wie heute ist die systematische Realisierung von Radverkehrsnetzen, die durchgängig mit einem Leitsystem gekennzeichnet werden, ein zentrales Landesziel. Hierzu entwickelte das Land NRW unterschiedliche Strategien: Ende der 1970er Jahre wurde landesweit ein touristisches Netz erarbeitet, das jedoch seitens der Kommunen nur wenig Akzeptanz fand. Anschließend führte das Land NRW mit zwei Modellvorhaben den Nachweis, dass zur Förderung des Radverkehrs eine systematische Zielnetzplanung verbunden mit einer Kennzeichnung des Netzes mittels Leitsystem zielführend ist. Doch auch dies fand seitens der Kommunen nur wenig Nachahmer. Daher leitete das Land NRW einen weiteren Strategiewechsel von der Bottom-up-Strategie zur Top-down-Strategie ein: 1995 wurde im Koalitionsvertrag der Landesregierung die Realsierung des Radverkehrsnetz Nordrhein-Westfalen (RVN NRW) politisch beschlossen. Landesweit sollte ein Radverkehrsnetz geplant und anschließend mit einem Leitsystem vor Ort gekennzeichnet werden. Das RVN NRW wurde zwischen 1996 und 2007 unter vollständiger Finanzierung des Landes NRW in enger Abstimmung mit den 427 Kommunen und ca. 2.000 Projektpartnern erfolgreich umgesetzt. Es hat eine Länge von 14.155 km. Heute wird das RVN NRW durch viele Kommunen weiter lokal verdichtet. Bereits im Rahmen der Projektkonzeption waren auf Grundlage des RVN NRW umfangreiche Synergien vorgesehen, indem u. a. der Radroutenplaner NRW entwickelt wurde. Dieser wird mittels Internet/Smartphone kommuniziert und enthält sowohl alle Informationen zur Planung der Strecke vor der Fahrt, als auch zur Wegefindung während der Fahrt. Mit diesem innovativen Projekt wurden zahlreiche Mehrwerte und Synergien erzielt, indem z. B. radtouristischen Netze neu geordnet, ein landeseinheitliches Qualitätsmanagement zur Pflege entwickelt, ein Repertoire zur Sicherung des Radverkehrs außerorts geschaffen und insbesondere die Verkehrsmittel des Umweltverbunds sowohl in den Netzen (Hardware) als auch in der Informationsvermittlung (Software) miteinander verknüpft wurden. Unter Berücksichtigung der ökologischen, energetischen, demographischen und volkswirtschaftlichen Anforderungen an die Mobilität der Zukunft, muss ein nachhaltiges selbsterklärendes multimodales Mobilitätssystem mit dem Rückgrat Öffentlicher Verkehr entwickelt werden. Mit der Realisierung des RVN NRW hat das Land NRW bereits eine wesentliche Komponente fertiggestellt. Um die Systemvorteile der jeweiligen Verkehrsarten optimal nutzen zu können, sind umfangreiche weitere Maßnahmen erforderlich, die wiederum einer Landesinitiative bedürfen. Das mit der Konzeption des RVN NRW erfolgreich praktizierte Umsetzungsverfahren lässt sich auf eine Vielzahl von weiteren Zukunftsaufgaben übertragen. Allgemeingültige Handlungsempfehlungen zeigen den Weg auf, wie auch diese Visionen in die Realität übergeleitet werden können.
Background: Psychotherapy is successful for the majority of patients , but not for every patient. Hence, further knowledge is needed on how treatments should be adapted for those who do not profit or deteriorate. In the last years prediction tools as well as feedback interventions were part of a trend to more personalized approaches in psychotherapy. Research on psychometric prediction and feedback into ongoing treatment has the potential to enhance treatment outcomes, especially for patients with an increased risk of treatment failure or drop-out.rnMethods/design: The research project investigates in a randomized controlled trial the effectiveness as well as moderating and mediating factors of psychometric feedback to therapists. In the intended study a total of 423 patients, who applied for a cognitive-behavioral therapy at the psychotherapy clinic of the University Trier and suffer from a depressive and/or an anxietyrndisorder (SCID interviews), will be included. The patients will be randomly assigned either to one therapist as well as to one of two intervention groups (CG, IG2). An additional intervention group (IG1) will be generated from an existing archival data set via propensity score matching. Patients of the control group (CG; n = 85) will be monitored concerning psychological impairment but therapists will not be provided with any feedback about the patients assessments. In both intervention groups (IG1: n = 169; IG2: n = 169) the therapists are provided with feedback about the patients self-evaluation in a computerized feedback portal. Therapists of the IG2 will additionally be provided with clinical support tools, which will be developed in thisrnproject, on the basis of existing systems. Therapists will also be provided with a personalized treatment recommendation based on similar patients (Nearest Neighbors) at the beginning of treatment. Besides the general effectiveness of feedback and the clinical support tools for negatively developing patients, further mediating and moderating variables on this feedback effectrnshould be examined: treatment length, frequency of feedback use, therapist effects, therapist- experience, attitude towards feedback as well as congruence of therapist-andpatient- evaluation concerning the progress. Additional procedures will be implemented to assess treatment adherence as well as the reliability of diagnosis and to include it into the analyses.rnDiscussion: The current trial tests a comprehensive feedback system which combines precision mental health predictions with routine outcome monitoring and feedback tools in routine outpatient psychotherapy. It also adds to previous feedback research a stricter design by investigating another repeated measurement CG as well as a stricter control of treatment integrity. It also includes a structured clinical interview (SCID) and controls for comorbidity (within depression and anxiety). This study also investigates moderators (attitudes towards, use of the feedback system, diagnoses) and mediators (therapists" awareness of negative change and treatment length) in one study.
Cortisol is a stress hormone that acts on the central nervous system in order to support adaptation and time-adjusted coping processes. Whereas previous research has focused on slow emerging, genomic effects of cortisol likely mediated by protein synthesis, there is only limited knowledge about rapid, non-genomic cortisol effects on in vivo neuronal cell activity in humans. Three independent placebo-controlled studies in healthy men were conducted to test effects of 4 mg cortisol on central nervous system activity, occurring within 15 minutes after intravenous administration. Two of the studies (N = 26; N = 9) used continuous arterial spin labeling as a magnetic resonance imaging sequence, and found rapid bilateral thalamic perfusion decrements. The third study (N = 14) revealed rapid cortisol-induced changes in global signal strength and map complexity of the electroencephalogram. The observed changes in neuronal functioning suggest that cortisol may act on the thalamic relay of non-relevant background as well as on task specific sensory information in order to facilitate the adaptation to stress challenges. In conclusion, these results are the first to coherently suggest that a physiologically plausible amount of cortisol profoundly affects functioning and perfusion of the human CNS in vivo by a rapid, non-genomic mechanism.
Rationale Rechtspolitik ist ein einleuchtendes Postulat. Man bestimmt einen normativen Maßstab, etwa Effizienz. Man stellt fest, dass ein Ausschnitt der Wirklichkeit hinter diesem Ziel zurückbleibt. Man listet die Interventionen auf, mit deren Hilfe die Wirklichkeit dem Ziel näher gebracht werden kann. Man wählt die Intervention, die den größten Fortschritt erwarten lässt. Bei näherem Zusehen ist jedes dieser Elemente problematisch. Es gibt eine Vielzahl normativer Währungen, die untereinander nicht kompatibel sind. Das rechtspolitische Problem lässt sich nicht aus dem größeren Zusammenhang herausschälen. Die Menge denkbarer Interventionen ist überreich. Ihre Wirkungen sind schwer zu prognostizieren. Was tun?
Opfer von Schicksalsschlägen (wie Arbeitslosigkeit, Verkehrsunfällen, schweren Krankheiten), leiden oft zusätzlich darunter, daß sie von Mitmenschen herabgesetzt und ausgegrenzt werden, daß ihnen Vorwürfe gemacht und Selbstverschuldung unterstellt wird ("blaming the victim"-Phänomen). Was bewegt Menschen dazu, Opfer zu belasten, statt zu helfen? Zwei Motive wurden diskutiert. (1) Beobachter wollen mit ihren Vorwürfen Kontrolle und die Illusion aufrechterhalten, ihnen selbst könne ähnliches nicht passieren (Defensivattributionshypothese). (2) Beobachter wollen die Illusion einer gerechten Welt aufrechterhalten, in der jeder bekommt, was er verdient (Gerechte-Welt-Theorie). Beide Annahmen wurden bisher nie vergleichend getestet, zudem sind der Glaube an Gerechtigkeit und der Glaube an Kontrolle verwandt und die Instrumente zu ihrer Erfassung oft ähnlich. In einer Fragebogenuntersuchung über Einstellungen zu Krebskrankheiten an 326 Probanden zeigte sich, daß der Glaube an eine gerechte Welt tatsächlich mit Vorwürfen an Kranke einherging, was aber nicht zu einem Gefühl der Sicherheit führte. Der Glaube an Kontrolle ging dagegen mit Invulnerabilitätsillusionen einher, ohne den Umweg über Verantwortlichmachungen der Opfer zu nehmen. In dieser Arbeit ließ sich auch zeigen, daß der Glaube an Gerechtigkeit und an Kontrolle trotz ihrer Gemeinsamkeiten sinnvoll zu unterscheiden sind. Außerdem konnten verschiedene Spielarten des Glaubens an Gerechtigkeit und an Kontrolle mit unterschiedlichen Wirkungen demonstriert werden.
This thesis deals with REITs, their capital structure and the effects on leverage that regulatory requirements might have. The data used results from a combination of Thomson Reuters data with hand-collected data regarding the REIT status, regulatory information and law variables. Overall, leverage is analysed across 20 countries in the years 2007 to 2018. Country specific data, manually extracted from yearly EPRA reportings, is merged with company data in order to analyse the influence of different REIT restrictions on a firm's leverage.
Observing statistically significant differences in means across NON-REITs and REITs, causes motivation for further investigations. My results show that variables beyond traditional capital structure determinants impact the leverage of REITs. I find that explicit restrictions on leverage and the distribution of profits have a significant effect on leverage decisions. This supports the notion that the restrictions from EPRA reportings are mandatory. I test for various combinations of regulatory variables that show both in isolation as well as in combination significant effects on leverage.
My main result is the following: Firms that operate under regulation that specifies a maximum leverage ratio, in addition to mandatory high dividend distributions, have on average lower leverage ratios. Further the existence of sanctions has a negative effect on REITs' leverage ratios, indicating that regulation is binding. The analysis clearly shows that traditional capital structure determinants are of second order relevance. This relationship highlights the impact on leverage and financing decisions caused by regulation. These effects are supported by further analysis. Results based on an event study show that REITs have statistically lower leverage ratios compared to NON-REITs. Based on a structural break model, the following effect becomes apparent: REITs increase their leverage ratios in years prior REIT status. As a consequence, the ex ante time frame is characterised by a bunker and adaption process, followed by the transformation in the event. Using an event study and a structural break model, the analysis highlights the dominance of country-specific regulation.
Background: Hyperhidrosis (excessive sweating, OMIM %114110) is a complex disorder with multifactorial causes. Emotional strains and social stress increase symptoms and lead to a vicious circle. Previously, we showed significantly higher depression scores, and normal cortisol awakening responses in patients with primary focal hyperhidrosis (PFH). Stress reactivity in response to a (virtual) Trier Social Stress Test (TSST-VR) has not been studied so far. Therefore, we measured sweat secretion, salivary cortisol and alpha amylase (sAA) concentrations, and subjective stress ratings in affected and non-affected subjects in response to a TSST-VR.
Method: In this pilot study, we conducted TSST-VRs and performed general linear models with repeated measurements for salivary cortisol and sAA levels, heart rate, axillary sweat and subjective stress ratings for two groups (diagnosed PFH (n = 11), healthy controls (n = 16)).
Results: PFH patients showed significantly heightened sweat secretion over time compared to controls (p = 0.006), with highest quantities during the TSST-VR. In both groups, sweating (p < 0.001), maximum cortisol levels (p = 0.002), feelings of stress (p < 0.001), and heart rate (p < 0.001) but not sAA (p = 0.068) increased significantly in response to the TSST-VR. However, no differences were detected in subjective ratings, cortisol concentrations and heart rate between PFH patients and controls (pall > 0.131).
Conclusion: Patients with diagnosed PFH showed stress-induced higher sweat secretion compared to healthy controls but did not differ in the stress reactivity with regard to endocrine or subjective markers. This pilot study is in need of replication to elucidate the role of the sympathetic nervous system as a potential pathway involved in the stress-induced emotional sweating of PFH patients.
An der Schnittstelle zwischen Recht und Sprache, zwischen der überdachenden Weingesetzgebung der Europäischen Union und dem von den Mitgliedstaaten gesetztem Recht liegt das Recht der Weinbezeichnungen. Hier wie an kaum einer anderen Stelle kommt der Verbraucher mit beiden in Berührung und verliert sich nicht selten im Dschungel der zahllos scheinenden Begriffe in unterschiedlichen Sprachen, die ihn in Gestalt des Flaschenetiketts doch über Herkunft und Qualität des Weins unterrichten und so seine Kaufentscheidung erleichtern sollen. An dieser Stelle setzt die Dissertation an, um unter vergleichender Berücksichtigung der in den Einzelsprachen verwendeten Begriffe und Bezeichnungen das komplex und kunstvoll gewobene Netz zu durchdringen. Als romanistische Arbeit von den vier großen Sprachen der Romania ausgehend, wird zunächst das Weinrecht insgesamt von Frankreich, Italien, Portugal und Spanien dar- und demjenigen Deutschlands gegenübergestellt, wobei jeweils auch der Bezug zum europäischen Weinrecht, insbesondere EG-Weinmarktordnung als Grundverordnung und EG-Weinbezeichnungsverordnung als Durchführungsverordnung, hergestellt wird. Dessen Geschichte und diejenige der nationalen Weinrechtsordnungen werden ausführlich dargestellt. In einem nächsten, den Kern der Arbeit ausmachenden Schritt verengt sich der Fokus auf das Bezeichnungsrecht der Weine als solche, um nach Gewinnung der maßgeblichen Begriffe zu überprüfen, inwieweit diese in Bezug auf ihren Bedeutungsgehalt als gleichwertig anzusehen, also semantisch äquivalent sind. Die Blickrichtung ist auch hier bidirektional und umschließt neben dem Vergleich der europäischen und der nationalen Begriffe auf horizontaler Ebene die Gegenüberstellung beider Systeme in vertikaler Sicht. Ein Blick auf sonstige, nicht obligatorische Angaben, wie etwa die wichtigsten Rebsortennamen, rundet die Untersuchung ab, wobei diese und ihre so genannten Synonyme kritisch hinterfragt werden.
Rechtsdogmatik ist ein schillernder, vieldeutiger Begriff. Wie alle zentralen juristischen Begriffe, ist er auch dem gesellschaftlichen und politischen Wandel ausgesetzt. Das wird an der Zeitgebundenheit juristischer Dogmen augenfällig. Besonders anschaulich werden die Strukturen der Dogmatik durch den schleichenden Verfassungswandel vom Gesetzesstaat (Rechtsstaat) zum Richterstaat betroffen. Damit ändert sich auch die traditionelle Rolle der Rechtswissenschaft. Sie übernimmt, als Bewahrerin rechtshistorischer und -politischer Erfahrungen, verstärkte Dienst-, Angebots- und Kritikfunktionen bei der Entstehung und Stabilisierung neuer Rechtsgrundsätze im Bereich der richterlichen Rechtsfortund Rechtsumbildung. Rechtsdogmatik und Rechtspolitik erweisen sich aus der Sicht des Verfassers als ein untrennbarer Zusammenhang. Rechtsdogmatik kann als "kristallisierte" Rechtspolitik verstanden werden. Sie wird durch ein systemwidrig wucherndes Richterrecht von Erosion bedroht.
Der vorliegende Artikel ist das Manuskript des Vortrages zum Thema "Rechtspolitik im Kontext der Globalisierung", der anlässlich der jährlichen Zeugnisvergabe an die Absolventen der Fachspezifischen Fremdsprachenausbildung im Juli 2014 an der Universität Trier gehalten wurde. Er verdeutlicht die wachsende Bedeutung der vergleichenden Rechtspolitik in einer globalisierten Welt. Besonders bei integrativen Prozessen, wie sie auf Ebene der Europäischen Union und der Eurasischen Wirtschaftsunion stattfinden, sei die Forschung im Bereich der vergleichenden Rechtspolitik von großer Bedeutung, weshalb der Autor eine aktivere Zusammenarbeit verschiedener rechtspolitischer Forschungseinrichtungen anregt.
Rechtspolitik und Medien
(2001)
Der Begriff "Rechtspolitik" stellt die Kombination von einander Widerstreitendem dar: Politik als Bewegung in Richtung auf ein Ziel, das Recht als Fixierung des erreichten Zustandes. Rechtspolitik in der Demokratie ist an bestimmte Legitimierungsmerkmale gebunden. Bei der Formulierung und Fixierung dieser Ziele spielen die Medien eine bestimmte Rolle. Sie bereiten Erwartungen im Volk vor, die sie den Politikern vermitteln, die wiederum in dem von den Medien konsistent aufgezeigten Stimmungen eine die Zeit zwischen den Wahlen füllende Legitimation, auch einen Ansporn finden. Der Bezug zwischen den von Übereinstimmungen oder Gegnerschaften gekennzeichneten Medien und rechtspolitischem Handeln wird an einigen Beispielen gezeigt.
Der Beitrag skizziert rechtsstaatliche Entwicklungen unter besonderer Berücksichtigung der aktuellen terroristischen Bedrohungslage und der ihr folgenden Reaktionen der deutschen Sicherheitsgesetzgebung. Dabei zeigt der Beitrag grob auf, was heutzutage unter dem Begriff "Rechtsstaat" verstanden wird und wie sich die Prinzipien "Sicherheit" und "Freiheit" innerhalb eines modernen Rechtsstaatsverständnisses bedingen. Die Darstellung beschreibt darauf hin die aktuelle terroristische Bedrohungslage, die als ein diffuses und unbestimmtes Risiko empfunden werden kann und die aufgrund der Bedrohungslage, den komplexen Netzwerkstrukturen, dem Schadensausmaß und schließlich ihrer abschreckungsresistenten und anonymen Akteure mit einem technischen oder natürlichen Großrisiko verglichen werden kann, auf das alleine mit einem effektiven Risikomanagement präventiv reagiert werden kann. Dass dieser Präventionsgedanke bereits in aktuellen Sicherheitsgesetzen vorhanden ist, wird anhand einigen legislativen und judikativen Akten deutlich gemacht und einer kritischen Würdigung unterzogen. Insbesondere Vorhaben wie die Vorratsdatenspeicherung oder das 2009 in Kraft getretene Gesetz zur Verfolgung der Vorbereitung von schweren staatsgefährdenden Gewalttatenrn(GVVG) sind Indikatoren für eine zunehmend präventiv und risikosteuernd agierende deutsche Sicherheitsarchitektur. Außerdem sind die präventiv ausgerichteten Sicherheitsbehörden zunehmend auf die heimliche Sammlung von Informationen angewiesen. Der Beitrag warnt davor, dass damit das gesamte Sicherheitsrecht auf eine einzige Extremsituation ausgerichtet wird und somit den "Ausnahmezustand" zu einem normalen Sicherheitsrisiko reduziert.
Der Beitrag setzt sich mit der Frage auseinander, ob die Todesstrafe eine rechtlich begründbare Strafe darstellt, bzw. aus welchen Gründen ihre Abschaffung im Rechtsstaat erforderlich ist. Dabei unterwirft die Autorin die Todesstrafe einer Überprüfung von einem fundamentalen Verständnis des Rechts aus, wobei sowohl empirische als auch pragmatische Gesichtspunkte in eine Gesamtbetrachtung einfließen. Weiter wird die Vollstreckung bzw. die Aussetzung der Vollstreckung der Todesstrafe erörtert. Die Rechtslagen in Korea sowie seinen Nachbarländern Japan und China, zwischen denen aufgrund der geographischen Lage und zum Teil gemeinsamen kulturellen, sowie rechtshistorischen Wurzeln, Wechselwirkungen bestehen, werden aufgezeigt und einer vergleichenden Betrachtung unterzogen.
Reconstructing invisible deviating events: A conformance checking approach for recurring events
(2022)
Conformance checking enables organizations to determine whether their executed processes are compliant with the intended process. However, if the processes contain recurring activities, state-of-the-art approaches unfortunately have difficulties calculating the conformance. The occurrence of complex temporal rules can further increase the complexity of the problem. Identifying this limitation, this paper presents a novel approach towards dealing with recurring activities in conformance checking. The core idea of the approach is to reconstruct the missing events in the event log using defined rules while incorporating specified temporal event characteristics. This approach then enables the use of native conformance checking algorithms. The paper illustrates the algorithmic approach and defines the required temporal event characteristics. Furthermore, the approach is applied and evaluated in a case study on an event log for melanoma surveillance.
Considering the numerical simulation of mathematical models it is necessary to have efficient methods for computing special functions. We will focus our considerations in particular on the classes of Mittag-Leffler and confluent hypergeometric functions. The PhD Thesis can be structured in three parts. In the first part, entire functions are considered. If we look at the partial sums of the Taylor series with respect to the origin we find that they typically only provide a reasonable approximation of the function in a small neighborhood of the origin. The main disadvantages of these partial sums are the cancellation errors which occur when computing in fixed precision arithmetic outside this neighborhood. Therefore, our aim is to quantify and then to reduce this cancellation effect. In the next part we consider the Mittag-Leffler and the confluent hypergeometric functions in detail. Using the method we developed in the first part, we can reduce the cancellation problems by "modifying" the functions for several parts of the complex plane. Finally, in in the last part two other approaches to compute Mittag-Leffler type and confluent hypergeometric functions are discussed. If we want to evaluate such functions on unbounded intervals or sectors in the complex plane, we have to consider methods like asymptotic expansions or continued fractions for large arguments z in modulus.
The collapse of the tailings pond of the Aznalcállar open pit mine (West of Seville, Spain) in April 1998 left more than 4000 ha of arable land and floodplains contaminated with heavy metal containing pyrite sludge. After a first remediation campaign a considerable contamination remained in the soil. The present study evaluates the possibilities of reflectance spectroscopy and airborne hyperspectral remote sensing for the qualitative and quantitative assessment of heavy metal contamination and the acidification risk related to the mining accident. Based on an extensive data set consisting of geochemical analyses and reflectance measurements of more than 300 soil samples different chemometrics methods (multiple linear regression, partial least squares and artificial neural networks) are tested for computation of concentrations of soil constituents on the basis of the spectral reflectance. Spectral mixture analysis is applied for the analysis of the spatial distribution of the contamination. The abundance information derived from spectral mixture analysis is turned into quantitative information incorporating an artificial mixture experiment. The results of this experiment provide a link between sludge abundance and sludge weight, allowing as a consequence calculation of the amount of residual sludge per pixel, the acidification potential and other parameters important for remediation planning. The application of laboratory, field and imaging spectroscopy for providing quantitative information about the contamination levels in their spatial context is a good complement to conventional methods. The advantage is the reduction of the time and labour-intensive geochemical analysis, because after the model calibration, further samples can be analysed directly with the chemometric models. Furthermore, the spatial distribution can be mapped with imaging spectroscopy data helping in a more precise remediation planning.
The global spread of the coronavirus pandemic has particularly dramatic consequences for the lives of migrants and refugees living in already marginalised and restricted conditions, whose ongoing crisis is at risk of being overlooked. But refugees are not only extremely vulnerable and at risk of infection, as several reports show, quickly develop their own protection measures like the production of hygienic products, the publication of their situation and calls for action and help. Therefore, this paper aims to research the effects of the coronavirus crisis on refugees in camp settings with a special ethnographic focus on how refugees actively deal with this crisis and if they, through already developed resilience, are capable of adapting to the restrictions as well as inventing strategies to cope with the difficult situation. To account for the variety of refugee camps as well as the different living conditions due to their locality, history and national asylum politics, we will look at three different locations, namely refugee asylum homes in Germany, hotspots on the Greek islands as well as one refugee camp in Kenya. The main questions will be how, under structurally and institutionally framed conditions of power and victimisation in refugee camps, forms of agency are established, made possible or limited. The goal is to show which strategies refugees apply to cope with the enhanced restrictions and exclusion, how they act to protect themselves and others from the virus and how they present and reflect their situation during the coronavirus pandemic. Finally, this discussion offers a new perspective to consider refugees not only as vulnerable victims, but also as actively engaged individuals.
This cumulative thesis encompass three studies focusing on the Weddell Sea region in the Antarctic. The first study produces and evaluates a high quality data set of wind measurements for this region. The second study produces and evaluates a 15 year regional climate simulation for the Weddell Sea region. And the third study produces and evaluates a climatology of low level jets (LLJs) from the simulation data set. The evaluations were done in the attached three publications and the produced data sets are published online.
In 2015/2016, the RV Polarstern undertook an Antarctic expedition in the Weddell Sea. We operated a Doppler wind lidar on board during that time running different scan patterns. The resulting data was evaluated, corrected, processed and we derived horizontal wind speed and directions for vertical profiles with up to 2 km height. The measurements cover 38 days with a temporal resolution of 10-15 minutes. A comparisons with other radio sounding data showed only minor differences.
The resulting data set was used alongside other measurements to evaluate temperature and wind of simulation data. The simulation data was produced with the regional climate model CCLM for the period of 2002 to 2016 for the Weddell Sea region. Only smaller biases were found except for a strong warm bias during winter near the surface of the Antarctic Plateau. Thus we adapted the model setup and were able to remove the bias in a second simulation.
This new simulation data was then used to derive a climatology of low level jets (LLJs). Statistics of occurrence frequency, height and wind speed of LLJs for the Weddell Sea region are presented along other parameters. Another evaluation with measurements was also performed in the last study.
The Eurosystem's Household Finance and Consumption Survey (HFCS) collects micro data on private households' balance sheets, income and consumption. It is a stylised fact that wealth is unequally distributed and that the wealthiest own a large share of total wealth. For sample surveys which aim at measuring wealth and its distribution, this is a considerable problem. To overcome it, some of the country surveys under the HFCS umbrella try to sample a disproportionately large share of households that are likely to be wealthy, a technique referred to as oversampling. Ignoring such types of complex survey designs in the estimation of regression models can lead to severe problems. This thesis first illustrates such problems using data from the first wave of the HFCS and canonical regression models from the field of household finance and gives a first guideline for HFCS data users regarding the use of replicate weight sets for variance estimation using a variant of the bootstrap. A further investigation of the issue necessitates a design-based Monte Carlo simulation study. To this end, the already existing large close-to-reality synthetic simulation population AMELIA is extended with synthetic wealth data. We discuss different approaches to the generation of synthetic micro data in the context of the extension of a synthetic simulation population that was originally based on a different data source. We propose an additional approach that is suitable for the generation of highly skewed synthetic micro data in such a setting using a multiply-imputed survey data set. After a description of the survey designs employed in the first wave of the HFCS, we then construct new survey designs for AMELIA that share core features of the HFCS survey designs. A design-based Monte Carlo simulation study shows that while more conservative approaches to oversampling do not pose problems for the estimation of regression models if sampling weights are properly accounted for, the same does not necessarily hold for more extreme oversampling approaches. This issue should be further analysed in future research.
Die vorgelegte Dissertation trägt den Titel Regularization Methods for Statistical Modelling in Small Area Estimation. In ihr wird die Verwendung regularisierter Regressionstechniken zur geographisch oder kontextuell hochauflösenden Schätzung aggregatspezifischer Kennzahlen auf Basis kleiner Stichproben studiert. Letzteres wird in der Fachliteratur häufig unter dem Begriff Small Area Estimation betrachtet. Der Kern der Arbeit besteht darin die Effekte von regularisierter Parameterschätzung in Regressionsmodellen, welche gängiger Weise für Small Area Estimation verwendet werden, zu analysieren. Dabei erfolgt die Analyse primär auf theoretischer Ebene, indem die statistischen Eigenschaften dieser Schätzverfahren mathematisch charakterisiert und bewiesen werden. Darüber hinaus werden die Ergebnisse durch numerische Simulationen veranschaulicht, und vor dem Hintergrund empirischer Anwendungen kritisch verortet. Die Dissertation ist in drei Bereiche gegliedert. Jeder Bereich behandelt ein individuelles methodisches Problem im Kontext von Small Area Estimation, welches durch die Verwendung regularisierter Schätzverfahren gelöst werden kann. Im Folgenden wird jedes Problem kurz vorgestellt und im Zuge dessen der Nutzen von Regularisierung erläutert.
Das erste Problem ist Small Area Estimation in der Gegenwart unbeobachteter Messfehler. In Regressionsmodellen werden typischerweise endogene Variablen auf Basis statistisch verwandter exogener Variablen beschrieben. Für eine solche Beschreibung wird ein funktionaler Zusammenhang zwischen den Variablen postuliert, welcher durch ein Set von Modellparametern charakterisiert ist. Dieses Set muss auf Basis von beobachteten Realisationen der jeweiligen Variablen geschätzt werden. Sind die Beobachtungen jedoch durch Messfehler verfälscht, dann liefert der Schätzprozess verzerrte Ergebnisse. Wird anschließend Small Area Estimation betrieben, so sind die geschätzten Kennzahlen nicht verlässlich. In der Fachliteratur existieren hierfür methodische Anpassungen, welche in der Regel aber restriktive Annahmen hinsichtlich der Messfehlerverteilung benötigen. Im Rahmen der Dissertation wird bewiesen, dass Regularisierung in diesem Kontext einer gegen Messfehler robusten Schätzung entspricht - und zwar ungeachtet der Messfehlerverteilung. Diese Äquivalenz wird anschließend verwendet, um robuste Varianten bekannter Small Area Modelle herzuleiten. Für jedes Modell wird ein Algorithmus zur robusten Parameterschätzung konstruiert. Darüber hinaus wird ein neuer Ansatz entwickelt, welcher die Unsicherheit von Small Area Schätzwerten in der Gegenwart unbeobachteter Messfehler quantifiziert. Es wird zusätzlich gezeigt, dass diese Form der robusten Schätzung die wünschenswerte Eigenschaft der statistischen Konsistenz aufweist.
Das zweite Problem ist Small Area Estimation anhand von Datensätzen, welche Hilfsvariablen mit unterschiedlicher Auflösung enthalten. Regressionsmodelle für Small Area Estimation werden normalerweise entweder für personenbezogene Beobachtungen (Unit-Level), oder für aggregatsbezogene Beobachtungen (Area-Level) spezifiziert. Doch vor dem Hintergrund der stetig wachsenden Datenverfügbarkeit gibt es immer häufiger Situationen, in welchen Daten auf beiden Ebenen vorliegen. Dies beinhaltet ein großes Potenzial für Small Area Estimation, da somit neue Multi-Level Modelle mit großem Erklärungsgehalt konstruiert werden können. Allerdings ist die Verbindung der Ebenen aus methodischer Sicht kompliziert. Zentrale Schritte des Inferenzschlusses, wie etwa Variablenselektion und Parameterschätzung, müssen auf beiden Levels gleichzeitig durchgeführt werden. Hierfür existieren in der Fachliteratur kaum allgemein anwendbare Methoden. In der Dissertation wird gezeigt, dass die Verwendung ebenenspezifischer Regularisierungsterme in der Modellierung diese Probleme löst. Es wird ein neuer Algorithmus für stochastischen Gradientenabstieg zur Parameterschätzung entwickelt, welcher die Informationen von allen Ebenen effizient unter adaptiver Regularisierung nutzt. Darüber hinaus werden parametrische Verfahren zur Abschätzung der Unsicherheit für Schätzwerte vorgestellt, welche durch dieses Verfahren erzeugt wurden. Daran anknüpfend wird bewiesen, dass der entwickelte Ansatz bei adäquatem Regularisierungsterm sowohl in der Schätzung als auch in der Variablenselektion konsistent ist.
Das dritte Problem ist Small Area Estimation von Anteilswerten unter starken verteilungsbezogenen Abhängigkeiten innerhalb der Kovariaten. Solche Abhängigkeiten liegen vor, wenn eine exogene Variable durch eine lineare Transformation einer anderen exogenen Variablen darstellbar ist (Multikollinearität). In der Fachliteratur werden hierunter aber auch Situationen verstanden, in welchen mehrere Kovariate stark korreliert sind (Quasi-Multikollinearität). Wird auf einer solchen Datenbasis ein Regressionsmodell spezifiziert, dann können die individuellen Beiträge der exogenen Variablen zur funktionalen Beschreibung der endogenen Variablen nicht identifiziert werden. Die Parameterschätzung ist demnach mit großer Unsicherheit verbunden und resultierende Small Area Schätzwerte sind ungenau. Der Effekt ist besonders stark, wenn die zu modellierende Größe nicht-linear ist, wie etwa ein Anteilswert. Dies rührt daher, dass die zugrundeliegende Likelihood-Funktion nicht mehr geschlossen darstellbar ist und approximiert werden muss. Im Rahmen der Dissertation wird gezeigt, dass die Verwendung einer L2-Regularisierung den Schätzprozess in diesem Kontext signifikant stabilisiert. Am Beispiel von zwei nicht-linearen Small Area Modellen wird ein neuer Algorithmus entwickelt, welche den bereits bekannten Quasi-Likelihood Ansatz (basierend auf der Laplace-Approximation) durch Regularisierung erweitert und verbessert. Zusätzlich werden parametrische Verfahren zur Unsicherheitsmessung für auf diese Weise erhaltene Schätzwerte beschrieben.
Vor dem Hintergrund der theoretischen und numerischen Ergebnisse wird in der Dissertation demonstriert, dass Regularisierungsmethoden eine wertvolle Ergänzung der Fachliteratur für Small Area Estimation darstellen. Die hier entwickelten Verfahren sind robust und vielseitig einsetzbar, was sie zu hilfreichen Werkzeugen der empirischen Datenanalyse macht.
Der Beitrag von Professor Basedow beschäftigt sich mit dem Wesen und den wirtschaftlichen sowie rechtlichen Grenzen wirtschaftlicher Regulierung. Zu diesem Zweck werden zunächst der Begriff der Regulierung erläutert und politische Erklärungen zu dieser Thematik erörtert. Danach folgt eine Untersuchung der Frage, wie wirtschaftliche Regulierungen gerechtfertigt werden können und wie sich eine entsprechende Politik zu gegenläufigen Prinzipien des höherrangigen Rechts verhält. Daran schließt sich eine Bestandsaufnahme des zur Zeit praktizierten Nebeneinander von Deregulierung und Regulierung sowie eine Auswertung aller dargestellten Befunde an.
Erstmals wird der gesamte Zeichnungsnachlass des in Aachen tätigen Goldschmieds Reinhold Vasters (1827-1909) wissenschaftlich bearbeitet. Schwerpunkt ist ein Katalogteil, der die 1079 Zeichnungen (Inv.Nrn. E.2570- bis E. 3649-1919) zu Objekten in Gruppen ordnet. Die Katalognummern erfassen alle Entwürfe eines Objektes (Angabe von u. a. Maßen, Literatur) mit Farbabbildungen, stellen historische Vorbilder höfischer Sammlungen (Wien, München, Paris) und Ideengrundlagen gegenüber sowie Verbindungen im Konvolut her. Des weiteren sind liturgische Geräte chronologisch aufgeführt, deren Zahl im Vergleich mit profanen Arbeiten klein ist und für die sich im Gegensatz zu diesen meist kein Entwurf erhielt. Texte zu den Objektgruppen geben einen Überblick und erläutern exemplarisch die für Vasters typischen und symptomatischen Vorgehensweisen. Biographische Erkenntnisse (unter anderem ein Stammbaum) informieren über Ereignisse in seiner Vita und revidieren den Wissensstand - zum Beispiel war Vasters nicht erst 1853 in Aachen nachzuweisen, sondern schon 1849 als 'Goldarbeiter zu Crefeld'. Kapitel zur Ausbildung und Werkstatt ergänzen das Bild. Schließlich wird das Thema 'Vasters als Fälscher' beleuchtet und die Beziehungen zum Kunsthändler Frédéric Spitzer, dem Kanonikus Franz Bock und dem Pariser Goldschmied Alfred André.
Die Dissertation beschäftigt sich mit der Frage, inwieweit und unter welchen Bedingungen psychophysiologische Maße gewinnbringend zur empirischen Prüfung physiologisch orientierter Persönlichkeitstheorien genutzt werden können. Am Beispiel des Extraversionsmodells von Brebner & Cooper (1985), das mit Hilfe ereigniskorrelierter Hirnrindenpotentiale (EKP) empirisch geprüft wurde, wird deutlich herausgearbeitet, mit welchen Herausforderungen sich eine solche Forschung konfrontiert sieht: die konsequente und streng theoriegeleitete Verknüpfung psychologischer Konzepte mit psychophysiologischen Maßen, die sorgfältige Berücksichtigung der funktionalen Bedeutung und der komplexen auslösenden Bedingungen der elektrophysiologischen Parametern im Kontext des gewählten Paradigmas sowie die umfassende Kontrolle experimenteller und situationsspezifischer Rahmenbedingung. Das Brebner-Cooper-Modell führt Verhaltensunterschiede zwischen Extravertierten und Introvertierten auf differentiell wirksame exzitatorische und inhibitorische Prozesse zurück, die im Zusammenhang mit der Analyse von Reizen (Reizanalyse) und der Vorbereitung von Reaktionen (Reaktionsorganisation) in einer spezifischen Situation stehen. Der empirische Teil der Arbeit beschreibt zwei EKP-Experimente, in denen langsame Potentiale zur Untersuchung dieser Modellkonzepte herangezogen wurden. Das Ausmaß kortikaler Aktivierung und Deaktivierung bei Introvertierten vs. Extravertierten in Abhängigkeit von variierenden Anforderungen an Reizanalyse und Reaktionsorganisation wurde über die Contingent Negative Variation (CNV) abgebildet. Aufgrund theoretischer wie empirischer Überlegungen wurde davon ausgegangen, dass sich Unterschiede in der Reizanalyse in der initial CNV (iCNV), Unterschiede in der Reaktionsorganisation dagegen in der terminal CNV (tCNV) niederschlagen. Die Ergebnisse bestätigen, dass der Einsatz psychophysiologischer Methoden zur Theorienprüfung erst dann vielversprechend ist, wenn zuvor eine Validierung der elektrophysiologischen Maße als geeignete Indikatoren für die psychologischen Konstrukte erfolgt ist.
The 23rd Annual Congress of the European Consortium for Church and State Research took place in Oxford, United Kingdom from 29 September to 2 October 2011. Founded in 1989, the Consortium unites experts in law and religion from Member States of the European Union. The Oxford conference took as its theme Religion and Discrimination Law focusing on the manner in which State governments had sought to implement the non-discrimination policy of the EU by legislation and through courts and tribunals. The proceedings comprise three introductory papers considering the historical, cultural and social background; the prohibition on discrimination, and the exemptions to the general prohibition. This is followed by national reports from twenty-three countries describing the reach of discrimination law in the field of religion. These are supplemented by further papers analysing the jurisprudence of the Strasbourg Court and the background to EU Directive 2000/78/EC and by some concluding reflections. The proceedings begin with the text of a public lecture given at the opening of the Congress by Sir Nicolas Bratza, President of the European Court of Human Rights on the subject of freedom of religion under Article 9 of the Convention.
The 22nd annual conference of the European Consortium for Church and State Research took place from 11 to 14 November 2010 in Trier, Germany. Founded in 1989, the Consortium unites experts of law and religion of all Member States of the European Union. In annual meetings, various topics of the relations between religions and states within the European Union are discussed. This year- conference was dedicated to the topic "Religion in Public Education". Scholars from 27 European countries discussed inter alia the role of religion in the European member states" educational systems, opting out of school obligations for religious reasons, home schooling as well as religious dress and symbols in public schools. The present proceedings contain the opening lectures, all country reports and a report on the European Union law.
Religion, churches and religious communities have growing importance in the Law of the European Union. Since long a distinct law on religion of the European Union is developing. This collection of those norms of European Union Law directly concerning religion mirrors today's status of this dynamic process.
Religion, churches and religious communities have growing importance in the Law of the European Union. Since long a distinct law on religion of the European Union is developing.rnThis collection of those norms of European Union Law directly concerning religion mirrors today's status of this dynamic process.
Das Recht der Europäischen Union erfasst Religion, Kirchen und Religionsgemeinschaften in zunehmendem Maße. Längst hat sich ein eigenes und eigenständiges Religionsrecht der Europäischen Union entwickelt, ein europäisches Religionsrecht im Werden.rnDie Sammlung der unmittelbar einschlägigen Normen dieses europäischen Religionsrecht spiegelt den gegenwärtigen Stand eines dynamischen Prozesses.
Das Recht der Europäischen Union erfasst Religion, Kirchen und Religionsgemeinschaften in zunehmendem Maße. Längst hat sich ein eigenes und eigenständiges Religionsrecht der Europäischen Union entwickelt, ein europäisches Religionsrecht im Werden. Die Sammlung der unmittelbar einschlägigen Normen dieses europäischen Religionsrecht spiegelt den gegenwärtigen Stand eines dynamischen Prozesses.
Das in Indien geltende Religionsrecht ist ganz überwiegend in staatlichen Kodifikationen normiert, neben die in beschränktem Umfange Normen der verschiedenen Religionsgemeinschaften selbst treten. Die vorliegende Veröffentlichung möchte einen Überblick über die staatlichen Kodifikationen des indischen Religionsrechtes geben. Diese finden sich in den verschiedensten Rechtsbereichen und liegen teilweise in der Gesetzgebungszuständigkeit der Indischen Union, zum Teil aber auch in der der 28 Einzelstaaten. Eine vollständige Darstellung aller einzelstaatlichen Gesetze war im Umfang dieser Sammlung nicht möglich, doch wurde bei der Zusammenstellung eine möglichst repräsentative Auswahl vorgenommen.
In order to discuss potential sustainability issues of expanding silage maize cultivation in Rhineland-Palatinate, spatially explicit monitoring is necessary. Publicly available statistical records are often not a sufficient basis for extensive research, especially on soil health, where risk factors like erosion and compaction depend on variables that are specific to every site, and hard to generalize for larger administrative aggregates. The focus of this study is to apply established classification algorithms to estimate maize abundance for each independent pixel, while at the same time accounting for their spatial relationship. Therefore, two ways to incorporate spatial autocorrelation of neighboring pixels are combined with three different classification models. The performance of each of these modeling approaches is analyzed and discussed. Finally, one prediction approach is applied to the imagery, and the overall predicted acreage is compared to publicly available data. We were able to show that Support Vector Machine (SVM) classification and Random Forests (RF) were able to distinguish maize pixels reliably, with kappa values well above 0.9 in most cases. The Generalized Linear Model (GLM) performed substantially worse. Furthermore, Regression Kriging (RK) as an approach to integrate spatial autocorrelation into the prediction model is not suitable in use cases with millions of sparsely clustered training pixels. Gaussian Blur is able to improve predictions slightly in these cases, but it is possible that this is only because it smoothes out impurities of the reference data. The overall prediction with RF classification combined with Gaussian Blur performed well, with out of bag error rates of 0.5% in 2009 and 1.3% in 2016. Despite the low error rates, there is a discrepancy between the predicted acreage and the official records, which is 20% in 2009 and 27% in 2016.
Agricultural monitoring is necessary. Since the beginning of the Holocene, human agricultural
practices have been shaping the face of the earth, and today around one third of the ice-free land
mass consists of cropland and pastures. While agriculture is necessary for our survival, the
intensity has caused many negative externalities, such as enormous freshwater consumption, the
loss of forests and biodiversity, greenhouse gas emissions as well as soil erosion and degradation.
Some of these externalities can potentially be ameliorated by careful allocation of crops and
cropping practices, while at the same time the state of these crops has to be monitored in order
to assess food security. Modern day satellite-based earth observation can be an adequate tool to
quantify abundance of crop types, i.e., produce spatially explicit crop type maps. The resources to
do so, in terms of input data, reference data and classification algorithms have been constantly
improving over the past 60 years, and we live now in a time where fully operational satellites
produce freely available imagery with often less than monthly revisit times at high spatial
resolution. At the same time, classification models have been constantly evolving from
distribution based statistical algorithms, over machine learning to the now ubiquitous deep
learning.
In this environment, we used an explorative approach to advance the state of the art of crop
classification. We conducted regional case studies, focused on the study region of the Eifelkreis
Bitburg-Prüm, aiming to develop validated crop classification toolchains. Because of their unique
role in the regional agricultural system and because of their specific phenologic characteristics
we focused solely on maize fields.
In the first case study, we generated reference data for the years 2009 and 2016 in the study
region by drawing polygons based on high resolution aerial imagery, and used these in
conjunction with RapidEye imagery to produce high resolution maize maps with a random forest
classifier and a gaussian blur filter. We were able to highlight the importance of careful residual
analysis, especially in terms of autocorrelation. As an end result, we were able to prove that, in
spite of the severe limitations introduced by the restricted acquisition windows due to cloud
coverage, high quality maps could be produced for two years, and the regional development of
maize cultivation could be quantified.
In the second case study, we used these spatially explicit datasets to link the expansion of biogas
producing units with the extended maize cultivation in the area. In a next step, we overlayed the
maize maps with soil and slope rasters in order to assess spatially explicit risks of soil compaction
and erosion. Thus, we were able to highlight the potential role of remote sensing-based crop type
classification in environmental protection, by producing maps of potential soil hazards, which can
be used by local stakeholders to reallocate certain crop types to locations with less associated
risk.
In our third case study, we used Sentinel-1 data as input imagery, and official statistical records
as maize reference data, and were able to produce consistent modeling input data for four
consecutive years. Using these datasets, we could train and validate different models in spatially
iv
and temporally independent random subsets, with the goal of assessing model transferability. We
were able to show that state-of-the-art deep learning models such as UNET performed
significantly superior to conventional models like random forests, if the model was validated in a
different year or a different regional subset. We highlighted and discussed the implications on
modeling robustness, and the potential usefulness of deep learning models in building fully
operational global crop classification models.
We were able to conclude that the first major barrier for global classification models is the
reference data. Since most research in this area is still conducted with local field surveys, and only
few countries have access to official agricultural records, more global cooperation is necessary to
build harmonized and regionally stratified datasets. The second major barrier is the classification
algorithm. While a lot of progress has been made in this area, the current trend of many appearing
new types of deep learning models shows great promise, but has not yet consolidated. There is
still a lot of research necessary, to determine which models perform the best and most robust,
and are at the same time transparent and usable by non-experts such that they can be applied
and used effortlessly by local and global stakeholders.
Die Polargebiete sind geprägt von harschen Umweltbedingungen mit extrem kalten Temperaturen und Winden. Besonders während der polaren Nacht werden Temperaturen von bis zu -89.2°C}$ auf dem Antarktischen Plateau beobachtet. Infolge der starken Abkühlung beginnt das Ozeanwasser zu gefrieren und die Eisproduktion beginnt. Der Antarktische Ozean ist dabei von einer ausgeprägten zwischen- und innerjährlichen Variabilität geprägt und die Eisbedeckung variiert zwischen 2.07 * 10^6 km^2 im Sommer und 20.14 * 10^6 km^2 im Winter. Die Eisproduktion und Eisschmelze beeinflussen die atmosphärische und ozeanische Zirkulation. Dynamische Prozesse führen zur Bildung von Rissen im Eis und letztlich zum Entstehen von Eisrinnen (leads). Leads sind langgestreckte Risse die mindestens einige Meter breit und hunderte Meter bis hunderte Kilometer lang sein können. In diesen Eisrinnen ist das warme Ozeanwasser in Kontakt mit der kalten Atmosphäre, wodurch die Austauschraten fühlbarer und latenter Wärme, Feuchtigkeit und von Gasen stark erhöht sind. Eisrinnen tragen zur Eisproduktion in den Polargebieten bei und sind Habitat für zahlreiche Tiere. Eisrinnen, zentraler Bestandteil der präsentierten Studie, sind bis heute nur unzureichend im Südpolarmeer erforscht und beobachtet. Daher ist es Ziel einen Algorithmus zu entwickeln, um Eisrinnen in Fernerkundungsdaten automatisiert zu identifizieren. Dabei kommen thermal-Infrarot Satellitendaten des Moderate-Resolution Imaging Spectroradiometer (MODIS) zum Einsatz, welches auf den beiden Satelliten Aqua und Terra montiert ist und seit 2000 (Terra) bzw. 2002 (Aqua) Satellitenbilder bereitstellt. Die einzelnen Satellitenbilder beinhalten die Eisoberflächentemperatur des MOD/MYD 29 Produktes, welche in einem zweistufigen Algorithmus für den Zeitraum April bis September 2003 bis 2019 prozessiert werden.
Im ersten Schritt werden potentielle Eisrinnen anhand der lokalen positiven Temperaturanomalie identifiziert. Aufgrund von Artefakten werden weitere temperatur- und texturbasierte Parameter abgeleitet und zu täglichen Kompositen zusammengefügt. Diese werden in der zweiten Prozessierungsstufe verwendet, um Wolkenartefakte von echten Eisrinnen-Observationen zu trennen. Hier wird Fuzzy Logic genutzt und eine Antarktis-spezifische Konfiguration wird definiert. In diesem werden ausgewählte Eingabedaten aus dem ersten Prozessierungslevel genutzt, um einen finalen Proxy, den Lead Score (LS), zu berechnen. Der LS wird abschließend mittels manueller Qualitätskontrolle in eine Unsicherheit überführt. Die darüber identifizierten Artefakte können so zusätzlich zur MODIS-Wolkenmaske genutzt werden.
Auf Basis der Eisrinnenbeobachtungen wird ein klimatologischer Referenzdatensatz erstellt, der die repräsentative Eisrinnenverteilung im Antarktischen Ozean für die Wintermonate April bis September, 2003 bis 2019 zeigt. In diesem ist sichtbar, dass Eisrinnen in manchen Gegenden systematischer auftreten als in anderen. Das sind vor allem die Regionen entlang der Küstenregion, des kontinentalen Schelfabhangs und einigen Erhebungen und Kanälen in der Tiefsee. Dabei sind die erhöhten Frequenzen entlang des Schelfabhangs besonders interessant und der Einfluss von atmosphärischen und ozeanischen Einflüssen wird untersucht. Ein regionales Eis-Ozeanmodell wird genutzt, um ozeanische Einflüsse in Zusammenhang mit erhöhten Eisrinnenfrequenzen zu setzen.
In der vorliegenden Studie wird außerdem ein umfangreicher Überblick über die großskalige Variabilität von Antarktischem Meereis gegeben. Tägliche Eiskonzentrationsdaten, abgeleitet aus passiven Mikrowellendaten, werden aus dem Zeitraum 1979 bis 2018 für die Klassifikation genutzt. Der dk-means Algorithmus wird verwendet, um zehn repräsentative Eisklassen zu identifizieren. Die geographische Verteilung dieser Klassen wird als Karte dargestellt, in der der typische jährliche Eiszyklus je Klasse sichtbar ist.
Veränderungen in dem räumlichen Auftreten von Eisklassen werden identifiziert und qualitativ interpretiert. Positive Abweichungen hin zu höheren Eisklassen werden im Weddell- und dem Ross-Meer und einigen Regionen in der Ostantarktis identifiziert. Negative Abweichungen sind im Amundsen-Bellingshausen-Meer vorhanden. Der neu entwickelte (Climatological Sea Ice Anomaly Index) wird genutzt, um Klassenabweichungen in der Zeitreihe zu identifizieren. Damit werden drei Jahre (1986, 2007, 2014) für eine Fallstudie ausgewählt und in Relation zu atmosphärischen Daten aus ERA-Interim und Eisdrift-Daten untersucht. Für die beiden Jahre 1986 und 2007 können bestimmte atmosphärische Zirkulationsmuster identifiziert werden, die die entsprechende Eisklassifikation beeinflusst haben. Für das Jahr 2014 können keine besonders ausgeprägten atmosphärischen Anomalien ausgemacht werden.
Der Eisklassen-Datensatz kann in Zukunft als Ergänzung zu vorhandenen Studien und für die Validierung von Meereismodellen genutzt werden. Dabei sind vor allem Anwendungen in Bezug auf den Eisrinnen-Datensatz möglich.
Les outils numériques offrent un large éventail de possibilités pour favoriser la participation démocratique dans les écoles et la société, pour participer aux processus d’élaboration des politiques et pour organiser le travail des comités scolaires, les processus de développement et les projets. Afin de permettre aux élèves d’employer les outils de façon efficace, leur utilisation à l’école et dans l’enseignement doit être testée et faire l’objet d’une réflexion.
Even though proper research on Cauchy transforms has been done, there are still a lot of open questions. For example, in the case of representation theorems, i.e. the question when a function can be represented as a Cauchy transform, there is 'still no completely satisfactory answer' ([9], p. 84). There are characterizations for measures on the circle as presented in the monograph [7] and for general compactly supported measures on the complex plane as presented in [27]. However, there seems to exist no systematic treatise of the Cauchy transform as an operator on $L_p$ spaces and weighted $L_p$ spaces on the real axis.
This is the point where this thesis draws on and we are interested in developing several characterizations for the representability of a function by Cauchy transforms of $L_p$ functions. Moreover, we will attack the issue of integrability of Cauchy transforms of functions and measures, a topic which is only partly explored (see [43]). We will develop different approaches involving Fourier transforms and potential theory and investigate into sufficient conditions and characterizations.
For our purposes, we shall need some notation and the concept of Hardy spaces which will be part of the preliminary Chapter 1. Moreover, we introduce Fourier transforms and their complex analogue, namely Fourier-Laplace transforms. This will be of extraordinary usage due to the close connection of Cauchy and Fourier(-Laplace) transforms.
In the second chapter we shall begin our research with a discussion of the Cauchy transformation on the classical (unweighted) $L_p$ spaces. Therefore, we start with the boundary behavior of Cauchy transforms including an adapted version of the Sokhotski-Plemelj formula. This result will turn out helpful for the determination of the image of the Cauchy transformation under $L_p(\R)$ for $p\in(1,\infty).$ The cases $p=1$ and $p=\infty$ are playing special roles here which justifies a treatise in separate sections. For $p=1$ we will involve the real Hardy space $H_{1}(\R)$ whereas the case $p=\infty$ shall be attacked by an approach incorporating intersections of Hardy spaces and certain subspaces of $L_{\infty}(\R).$
The third chapter prepares ourselves for the study of the Cauchy transformation on subspaces of $L_{p}(\R).$ We shall give a short overview of the basic facts about Cauchy transforms of measures and then proceed to Cauchy transforms of functions with support in a closed set $X\subset\R.$ Our goal is to build up the main theory on which we can fall back in the subsequent chapters.
The fourth chapter deals with Cauchy transforms of functions and measures supported by an unbounded interval which is not the entire real axis. For convenience we restrict ourselves to the interval $[0,\infty).$ Bringing once again the Fourier-Laplace transform into play, we deduce complex characterizations for the Cauchy transforms of functions in $L_{2}(0,\infty).$ Moreover, we analyze the behavior of Cauchy transform on several half-planes and shall use these results for a fairly general geometric characterization. In the second section of this chapter, we focus on Cauchy transforms of measures with support in $[0,\infty).$ In this context, we shall derive a reconstruction formula for these Cauchy transforms holding under pretty general conditions as well as results on the behaviur on the left half-plane. We close this chapter by rather technical real-type conditions and characterizations for Cauchy transforms of functions in $L_p(0,\infty)$ basing on an approach in [82].
The most common case of Cauchy transforms, those of compactly supported functions or measures, is the subject of Chapter 5. After complex and geometric characterizations originating from similar ideas as in the fourth chapter, we adapt a functional-analytic approach in [27] to special measures, namely those with densities to a given complex measure $\mu.$ The chapter is closed with a study of the Cauchy transformation on weighted $L_p$ spaces. Here, we choose an ansatz through the finite Hilbert transform on $(-1,1).$
The sixth chapter is devoted to the issue of integrability of Cauchy transforms. Since this topic has no comprehensive treatise in literature yet, we start with an introduction of weighted Bergman spaces and general results on the interaction of the Cauchy transformation in these spaces. Afterwards, we combine the theory of Zen spaces with Cauchy transforms by using once again their connection with Fourier transforms. Here, we shall encounter general Paley-Wiener theorems of the recent past. Lastly, we attack the issue of integrability of Cauchy transforms by means of potential theory. Therefore, we derive a Fourier integral formula for the logarithmic energy in one and multiple dimensions and give applications to Fourier and hence Cauchy transforms.
Two appendices are annexed to this thesis. The first one covers important definitions and results from measure theory with a special focus on complex measures. The second appendix contains Cauchy transforms of frequently used measures and functions with detailed calculations.
This study focuses on the representation of British South Asian identities in contemporary British audiovisual media. It attempts to answer the question, whether these identities are represented as hybrid, heterogeneous and ambivalent, or whether these contemporary representations follow in the tradition of colonial and postcolonial racialism. Racialised depictions of British South Asians have been the norm not only in the colonial but also in the postcolonial era until the rise of the Black British movement, whose successes have been also acknowledged in the field of representation. However these achievements have to be scrutinized again, especially in the context of the post 9/11 world, rising Islamophobia, and new forms of institutionalized discrimination on the basis of religion. Since the majority of British Muslims are of South Asian origin, this study tries to answer the question whether the marker of religious origin is racial belonging, i.e. skin colour, and old stereotypes associated with the racialised representation are being perpetuated into current depictions through an examination of the varied genre of popular audio visual media texts.
Représentation des élèves : les conditions de réussite d’une participation démocratique organisée
(2020)
Dans de nombreuses écoles de la Grande Région, des projets d’éducation à la démocratie sont menés et des initiatives sont prises pour encourager les élèves à participer à la conception de leur propre école. En outre, il existe un instrument souvent sous-estimé qui permet une participation institutionnelle sur un pied d’égalité avec les autres acteurs scolaires : la représentation des élèves.
Due to the breath-taking growth of the World Wide Web (WWW), the need for fast and efficient web applications becomes more and more urgent. In this doctoral thesis, the emphasis will be on two concrete tasks for improving Internet applications. On the one hand, a major problem of many of today's Internet applications may be described as the performance of the Client/Server-communication: servers often take a long time to respond to a client's request. There are several strategies to overcome this problem of high user-perceived latencies; one of them is to predict future user-requests. This way, time-consuming calculations on the server's side can be performed even before the corresponding request is being made. Furthermore, in certain situations, also the pre-fetching or the pre-sending of data might be appropriate. Those ideas will be discussed in detail in the second part of this work. On the other hand, a focus will be placed on the problem of proposing hyperlinks to improve the quality of rapid written texts, at first glance, an entirely different problem to predicting client requests. Ultra-modern online authoring systems that provide possibilities to check link-consistencies and administrate link management should also propose links in order to improve the usefulness of the produced HTML-documents. In the third part of this elaboration, we will describe a possibility to build a hyperlink-proposal module based on statistical information retrieval from hypertexts. These two problem categories do not seem to have much in common. It is one aim of this work to show that there are certain, similar solution strategies to look after both problems. A closer comparison and an abstraction of both methodologies will lead to interesting synergetic effects. For example, advanced strategies to foresee future user-requests by modeling time and document aging can be used to improve the quality of hyperlink-proposals too.
Im Zeitalter der Globalisierung wachsen Märkte über Staatsgrenzen hinweg zusammen. Die Rede vom "globalen Dorf" ist aber nirgends treffender als für die internationalen Finanzbeziehungen. Die Frage lautet, welche Konsequenzen sich hieraus ergeben, auch für die internationale Rechtsordnung. Freilich ist hierüber nicht nachzusinnen, wenn deregulierte Finanzmärkte sich selbst regeln und deshalb zu effizienten Ergebnissen gelangen. Gerade das aber ist nicht der Fall. Und deshalb gibt es Handlungsbedarf für ein den Bedingungen der Globalisierung angemessenes Design der internationalen Finanzbeziehungen, deshalb auch der internationalen Rechtsordnung. Ziel sollte es sein, die Globalisierung der Finanzbeziehungen zum Vorteil aller zu nutzen, ohne der Gefahr zu unterliegen, das System des offenen Welthandels, liberalisierter Finanzbeziehungen und offene Gesellschaften aufs Spiel zu setzen. Eine wichtige Aufgabe in diesem Zusammenhang ist es, das institutionelle Vakuum zu füllen, das sich aus der Entnationalisierung von Wirtschaft und Wirtschaftspolitik im Zuge der Globalisierung aufgetan hat. Ohne sehr viel stärkere wirtschaftspolitische Kooperationen und Abstimmung der hierfür erforderlichen juristischen Voraussetzungen ist dieses Ziel als Vorbedingung einer stabilen internationalen Finanzarchitektur nicht zu erreichen.
Using a dendrochronological approach, we determined the resistance, recovery and resilience of the radial stem increment towards episodes of growth decline, and the accompanying variation of 13C discrimination against atmospheric CO2 (Δ13C) in tree rings of two palaeotropical pine species. These species co-occur in the mountain ranges of south–central Vietnam (1500–1600 m a.s.l.), but differ largely in their areas of distribution (Pinus kesiya from northeast India to the Philippines; P. dalatensis only in south and central Vietnam and in some isolated populations in Laos). For P. dalatensis, a robust growth chronology covering the past 290 years could be set up for the first time in the study region. For P. kesiya, the 140-year chronology constructed was the longest that could be established to date in that region for this species. In the first 40 years of the trees’ lives, the stem diameter increment was significantly larger in P. kesiya, but levelled off and even decreased after 100 years, whereas P. dalatensis exhibited a continuous growth up to an age of almost 300 years. Tree-ring growth of P. kesiya was negatively related to temperature in the wet months and season of the current year and in October (humid transition period) of the preceding year and to precipitation in August (monsoon season), but positively to precipitation in December (dry season) of the current year. The P. dalatensis chronologies exhibited no significant correlation with temperature or precipitation. Negative correlations between BAI and Δ13C indicate a lack of growth impairment by drought in both species. Regression analyses revealed a lower resilience of P. dalatensis upon episodes of growth decline compared to P. kesiya, but, contrary to our hypothesis, mean values of the three sensitivity parameters did not differ significantly between these species. Nevertheless, the vigorous growth of P. kesiya, which does not fall behind that of P. dalatensis even at the margin of its distribution area under below-optimum edaphic conditions, is indicative of a relatively high plasticity of this species towards environmental factors compared to P. dalatensis, which, in tendency, is less resilient upon environmental stress even in the “core” region of its occurrence.
The forward testing effect is an indirect benefit of retrieval practice. It refers to the finding that retrieval practice of previously studied information enhances learning and retention of subsequently studied other information in episodic memory tasks. Here, two experiments were conducted that investigated whether retrieval practice influences participants’ performance in other tasks, i.e., arithmetic tasks. Participants studied three lists of words in anticipation of a final recall test. In the testing condition, participants were immediately tested on lists 1 and 2 after study of each list, whereas in the restudy condition, they restudied lists 1 and 2 after initial study. Before and after study of list 3, participants did an arithmetic task. Finally, participants were tested on list 3, list 2, and list 1. Different arithmetic tasks were used in the two experiments. Participants did a modular arithmetic task in Experiment 1a and a single-digit multiplication task in Experiment 1b. The results of both experiments showed a forward testing effect with interim testing of lists 1 and 2 enhancing list 3 recall in the list 3 recall test, but no effects of recall testing of lists 1 and 2 for participants’ performance in the arithmetic tasks. The findings are discussed with respect to cognitive load theory and current theories of the forward testing effect.
This thesis discusses revue as a significantly inter-cultural genre in the history of global theatre. During the ‘modernisation’ period in Europe, America and Japan, most major urban cities experienced a boom in revue venues and performances. Few studies about revue have yet been done in theatre studies or in urban cultural studies. My thesis will attempt to reevaluate and redefine revue as a highly intercultural theatre genre by using the concept of liminality. In other words, the aim is to examine revue as a genre built on ‘modern composition of betweenness’, bridging seemingly opposing elements, such as the foreign and the domestic, the classic and the innovative, the traditional and the modern, the professional and the amateur, high and low culture, and the feminine and the masculine. The goal is to regard revue as a liminal genre constructed amidst the negotiations between these binaries, existing in a state of constant flux.
The purpose of this approach is to capture revue as a transitory phenomena in five dimensions: conceptual, spatial, temporal, categorical and physical. Over the course of six chapters, this
inter-disciplinary discussion will reveal the reasons why and the ways by which revue came to establish its prominent position in the Japanese theatre industry. The whole structure is also an attempt to provide plausible ways to apply sociological considerations to theatre studies.
Every day we are exposed to a large set of appetitive food cues, mostly of high caloric, high carbohydrate content. Environmental factors like food cue exposition can impact eating behavior, by triggering anticipatory endocrinal responses and reinforcing the reward value of food. Additionally, it has been shown that eating behavior is largely influence by neuroendocrine factors. Energy homeostasis is of great importance for survival in all animal species. It is challenged under the state of food deprivation which is considered to be a metabolic stressor. Interestingly, the systems regulating stress and food intake share neural circuits. Adrenal glucocorticoids, as cortisol, and the pancreatic hormone insulin have been shown to be crucial to maintain catabolic and anabolic balance. Cortisol and insulin can cross the blood-brain barrier and interact with receptors distributed throughout the brain, influencing appetite and eating behavior. At the same time, these hormones have an important impact on the stress response. The aim of the current work is to broaden the knowledge on reward related food cue processing. With that purpose, we studied how food cue processing is influenced by food deprivation in women (in different phases of the menstrual cycle) and men. Furthermore, we investigated the impact of the stress/metabolic hormones, insulin and cortisol, at neural sites important for energy metabolism and in the processing of visual food cues. The Chapter I of this thesis details the underlying mechanisms of the startle response and its application in the investigation of food cue processing. Moreover, it describes the effects of food deprivation and of the stress-metabolic hormones insulin and cortisol in reward related processing of food cues. It explains the rationale for the studies presented in Chapter II-IV and describes their main findings. A general discussion of the results and recommendations for future research is given. In the study described in Chapter II, startle methodology was used to study the impact of food deprivation in the processing of reward related food cues. Women in different phases of the menstrual cycle and men were studied, in order to address potential effects of sex and menstrual cycle. All participants were studied either satiated or food deprived. Food deprivation provoked enhanced acoustic startle (ASR) response during foreground presentation of visual food cues. Sex and menstrual cycle did not influence this effect. The startle pattern towards food cues during fasting can be explained by a frustrative nonreward effect (FNR), driven by the impossibility to consume the exposed food. In Chapter III, a study is described, which was carried out to explore the central effects of insulin and cortisol, using continuous arterial spin labeling to map cerebral blood flow patterns. Following standardized periods of fasting, male participants received either intranasal insulin, oral cortisol, both, or placebo. Intranasal insulin increased resting regional cerebral blood flow in the putamen and insular cortex, structures that are involved in the regulation of eating behavior. Neither cortisol nor interaction effects were found. These results demonstrate that insulin exerts an action in metabolic centers during resting state, which is not affected by glucocorticoids. The study described in Chapter IV uses a similar pharmacological manipulation as the one presented in Chapter III, while assessing processing of reward related food cues through the startle paradigm validated in Chapter II. A sample of men was studied during short-term food deprivation. Considering the importance of both cortisol and insulin in glucose metabolism, food pictures were divided by glycemic index. Cortisol administration enhanced ASR during foreground presentation of "high glycemic" food pictures. This result suggests that cortisol provokes an increase in reward value of high glycemic food cues, which is congruent with previous research on stress and food consumption. This thesis gives support to the FNR hypothesis towards food cues during states of deprivation. Furthermore, it highlights the potential effects of stress related hormones in metabolism-connected neuronal structures, and in the reward related mechanisms of food cue processing. In a society marked by increased food exposure and availability, alongside with increased stress, it is important to better understand the impact of food exposition and its interaction with relevant hormones. This thesis contributes to the knowledge in this field. More research in this direction is needed.
Rezensiert wird das umfangreiche Buch von Matthias Steinle, das die wechselseitige Darstellung der Bundesrepublik Deutschland und der Deutschen Demokratischen Republik in Dokumentarfilmen analysiert. Die Materialauswahl umfasst mehr als 60 Filme, wobei der Begriff von Dokumentarfilm weit gefasst ist und auch Kino-Wochenschauen berücksichtigt werden,
Modern decision making in the digital age is highly driven by the massive amount of
data collected from different technologies and thus affects both individuals as well as
economic businesses. The benefit of using these data and turning them into knowledge
requires appropriate statistical models that describe the underlying observations well.
Imposing a certain parametric statistical model goes along with the need of finding
optimal parameters such that the model describes the data best. This often results in
challenging mathematical optimization problems with respect to the model’s parameters
which potentially involve covariance matrices. Positive definiteness of covariance matrices
is required for many advanced statistical models and these constraints must be imposed
for standard Euclidean nonlinear optimization methods which often results in a high
computational effort. As Riemannian optimization techniques proved efficient to handle
difficult matrix-valued geometric constraints, we consider optimization over the manifold
of positive definite matrices to estimate parameters of statistical models. The statistical
models treated in this thesis assume that the underlying data sets used for parameter
fitting have a clustering structure which results in complex optimization problems. This
motivates to use the intrinsic geometric structure of the parameter space. In this thesis,
we analyze the appropriateness of Riemannian optimization over the manifold of positive
definite matrices on two advanced statistical models. We establish important problem-
specific Riemannian characteristics of the two problems and demonstrate the importance
of exploiting the Riemannian geometry of covariance matrices based on numerical studies.
Die Einführung leistungsorientierter Entgeltsysteme stellt Mitarbeiter und Unternehmen vor besondere Herausforderungen. Dabei verändert sich vor allem die Rolle des Mitarbeiters. War er vormals Ausführender der ihm übertragenen Arbeitsaufgaben, wird er zunehmend zum eigenverantwortlichen Gestalter und Mitunternehmer. Im Rahmen einer multiplen Fallstudie wird zunächst der Frage nachgegangen, wie die Mitarbeiter in drei karitativen Einrichtungen die Einführung einer leistungsorientierten Vergütungskomponente erleben. Dazu werden inhaltliche Gestaltungsmerkmale der Entgeltsysteme, Merkmale des Einführungsprozesses und ihre Auswirkungen untersucht. Die Ergebnisse zeigen, dass die Mitarbeiter in allen Einrichtungen dem Aspekt der Finanzierung des variablen Vergütungsanteils eine wesentliche Bedeutung beimessen. Wird dieser Anteil durch die Variabilisierung bisher garantierter, fixer Vergütungsanteile finanziert, entstehen unsichere Gehalts-anteile und es erhöht sich das Risiko von möglichen Gehaltsverlusten. In der Einrichtung mit dem höchsten Entgeltrisiko führte dieser Umstand dazu, dass Mitarbeiter und Vorgesetzte durch informelle Absprachen versucht haben, mögliche Verluste zu vermeiden. Wird der variable Entgeltanteil durch die Einrichtungen mitfinanziert, erhöhen sich hingegen die Chancen auf Einkommensgewinne, was auch zu einer höheren Akzeptanz der neuen Entgeltsysteme beiträgt. Aufbauend auf den Ergebnissen der Fallstudie werden in einer quantitativen Analyse die Auswirkungen eines erhöhten Entgeltrisikos auf die Zufriedenheit der Mitarbeiter mit ihrem variablen Vergütungsanteil (Bonuszufriedenheit) untersucht. Dabei wird das Entgeltrisiko durch drei konzeptuelle Facetten operationalisiert: die Variabilität der Entlohnung, das Ausmaß möglicher Verluste und das Verhältnis von Risiko und Chance (RCV). Entgegen der bisherigen Annahme in der Forschungsliteratur, dass vor allem die Variabilität der Entlohnung ausschlaggebend für die Auswirkungen von Entgeltrisiko ist, zeigen regressionsanalytische Ergebnisse, dass in der Einführungsphase neuer Entgeltsysteme vor allem das RCV einen signifikanten Effekt auf die Bonuszufriedenheit der Mitarbeiter hat. Die Ergebnisse einer multiplen Mediationsanalyse legen nahe, dass der Effekt von RCV auf die Bonuszufriedenheit zum Teil von Einstellungen der distributiven und prozeduralen Gerechtigkeit vermittelt wird. Wei-terführende Analysen ergeben, dass der Zusammenhang zwischen dem RCV und der Bonuszufriedenheit durch zwei moderierende Variablen beeinflusst wird: zum einen durch die partizipative Beteiligung der Mitarbeiter am Einführungsprozess und zum anderen durch die individuelle Präferenz für leistungsorientierte Entlohnung. Vor allem bei hoher partizipativer Beteiligung wirkt sich ein günstiges RCV positiv auf die Bonuszufriedenheit der Mitarbeiter aus. Außerdem sind jene Mitarbeiter unzufriedener mit einem risiko-reichen Entgeltsystem, die eine stark ausgeprägte Präferenz für leistungsorientierte Entlohnung besitzen.
Both water scarcity and flood risk are increasingly turning into safety concerns for many urban dwellers and, consequently, become increasingly politicised. This development involves a reconfiguration of the academic land- scape around urban risk, vulnerability and adaptation to climate change research. This paper is a literature assessment of concepts on disaster risk, vulnerability and adaptation and their applicability to the context of studying water in an African city. An overview on water-related risk in African cities is presented and concepts and respective disciplinary backgrounds reviewed. Recent debates that have emerged from the application of risk, vulnerability and adaptation concepts in research and policy practice are presented. Finally the applicability of these concepts as well as the relevance and implications of recent debates for studying water in African cities is discussed. ‘Riskscape’ is proposed as a conceptual frame for close and integrated analysis of water related risk in an African city.
This thesis sheds light on the heterogeneous hedging behavior of airlines. The focus lies on financial hedging, operational hedging and selective hedging. The unbalanced panel data set includes 74 airlines from 39 countries. The period of analysis is 2005 until 2014, resulting in 621 firm years. The random effects probit and fixed effects OLS models provide strong evidence of a convex relation between derivative usage and a firm’s leverage, opposing the existing financial distress theory. Airlines with lower leverage had higher hedge ratios. In addition, the results show that airlines with interest rate and currency derivatives were more likely to engage in fuel price hedging. Moreover, the study results support the argument that operational hedging is a complement to financial hedging. Airlines with more heterogeneous fleet structures exhibited higher hedge ratios.
Also, airlines which were members of a strategic alliance were more likely to be hedging airlines. As alliance airlines are rather financially sound airlines, the positive relation between alliance membership and hedging reflects the negative results on the leverage
ratio. Lastly, the study presents determinants of an airlines’ selective hedging behavior. Airlines with prior-period derivative losses, recognized in income, changed their hedge portfolios more frequently. Moreover, the sample airlines acted in accordance with herd behavior theory. Changes in the regional hedge portfolios influenced the hedge portfolio of the individual airline in the same direction.
In this thesis, we aim to study the sampling allocation problem of survey statistics under uncertainty. We know that the stratum specific variances are generally not known precisely and we have no information about the distribution of uncertainty. The cost of interviewing each person in a stratum is also a highly uncertain parameter as sometimes people are unavailable for the interview. We propose robust allocations to deal with the uncertainty in both stratum specific variances and costs. However, in real life situations, we can face such cases when only one of the variances or costs is uncertain. So we propose three different robust formulations representing these different cases. To the best of our knowledge robust allocation in the sampling allocation problem has not been considered so far in any research.
The first robust formulation for linear problems was proposed by Soyster (1973). Bertsimas and Sim (2004) proposed a less conservative robust formulation for linear problems. We study these formulations and extend them for the nonlinear sampling allocation problem. It is very unlikely to happen that all of the stratum specific variances and costs are uncertain. So the robust formulations are in such a way that we can select how many strata are uncertain which we refer to as the level of uncertainty. We prove that an upper bound on the probability of violation of the nonlinear constraints can be calculated before solving the robust optimization problem. We consider various kinds of datasets and compute robust allocations. We perform multiple experiments to check the quality of the robust allocations and compare them with the existing allocation techniques.
Data used for the purpose of machine learning are often erroneous. In this thesis, p-quasinorms (p<1) are employed as loss functions in order to increase the robustness of training algorithms for artificial neural networks. Numerical issues arising from these loss functions are addressed via enhanced optimization algorithms (proximal point methods; Frank-Wolfe methods) based on the (non-monotonic) Armijo-rule. Numerical experiments comprising 1100 test problems confirm the effectiveness of the approach. Depending on the parametrization, an average reduction of the absolute residuals of up to 64.6% is achieved (aggregated over 100 test problems).
Background: We evaluated depression and social isolation assessed at time of waitlisting as predictors of survival in heart transplant (HTx) recipients. Methods and Results: Between 2005 and 2006, 318 adult HTx candidates were enrolled in the Waiting for a New Heart Study, and 164 received transplantation. Patients were followed until February 2013. Psychosocial characteristics were assessed by questionnaires. Eurotransplant provided medical data at waitlisting, transplantation dates, and donor characteristics; hospitals reported medical data at HTx and date of death after HTx. During a median followâ€up of 70 months (<1"93 months postâ€HTx), 56 (38%) of 148 transplanted patients with complete data died. Depression scores were unrelated to social isolation, and neither correlated with disease severity. Higher depression scores increased the risk of dying (hazard ratio=1.07, 95% confidence interval, 1.01, 1.15, P=0.032), which was moderated by social isolation scores (significant interaction term; hazard ratio = 0.985, 95% confidence interval, 0.973, 0.998; P=0.022). These findings were maintained in multivariate models controlling for covariates (P values 0.020"0.039). Actuarial 1â€year/5â€year survival was best for patients with low depression who were not socially isolated at waitlisting (86% after 1 year, 79% after 5 years). Survival of those who were either depressed, or socially isolated or both, was lower, especially 5 years posttransplant (56%, 60%, and 62%, respectively). Conclusions: Low depression in conjunction with social integration at time of waitlisting is related to enhanced chances for survival after HTx. Both factors should be considered for inclusion in standardized assessments and interventions for HTx candidates. We evaluated depression and social isolation assessed at time of waitlisting as predictors of survival in heart transplant (HTx) recipients.\r\n\r\nMethods and Results: Between 2005 and 2006, 318 adult HTx candidates were enrolled in the Waiting for a New Heart Study, and 164 received transplantation. Patients were followed until February 2013. Psychosocial characteristics were assessed by questionnaires. Eurotransplant provided medical data at waitlisting, transplantation dates, and donor characteristics; hospitals reported medical data at HTx and date of death after HTx. During a median followâ€up of 70 months (<1"93 months postâ€HTx), 56 (38%) of 148 transplanted patients with complete data died. Depression scores were unrelated to social isolation, and neither correlated with disease severity. Higher depression scores increased the risk of dying (hazard ratio=1.07, 95% confidence interval, 1.01, 1.15, P=0.032), which was moderated by social isolation scores (significant interaction term; hazard ratio = 0.985, 95% confidence interval, 0.973, 0.998; P=0.022). These findings were maintained in multivariate models controlling for covariates (P values 0.020"0.039). Actuarial 1â€year/5â€year survival was best for patients with low depression who were not socially isolated at waitlisting (86% after 1 year, 79% after 5 years). Survival of those who were either depressed, or socially isolated or both, was lower, especially 5 years posttransplant (56%, 60%, and 62%, respectively).
Anmerkung: Es handelt sich um die 1. Auflage der Dissertation.
2. überarbeitete Auflage siehe:
"https://ubt.opus.hbz-nrw.de/frontdoor/index/index/docId/2166".
Ausgangspunkt der politisch-ikonographischen Untersuchung, in deren Zentrum zwei Staatsporträts König Maximilians II. von Bayern stehen, ist die Beobachtung, dass diese beiden Bildnisse grundsätzlich unterschiedliche Inszenierungsformen wählen. Das erste von Max Hailer gefertigte Werk zeigt Maximilian II. im vollen bayerischen Krönungsornat und greift eine tradierte Darstellungsweise im Staatsporträt auf. Es entstand zwei Jahre nach Maximilians II. Thronbesteigung und damit nach den revolutionären Unruhen der Jahre 1848/49 im Jahr 1850. Das zweite wurde von Joseph Bernhardt 1857 bis 1858 gemalt und im Jahr 1858 zum zehnjährigen Thronjubiläum des Monarchen erstmals präsentiert. Die Inszenierung ändert sich im zweiten Bildnis: Das bayerische Krönungsornat ist der Generalsuniform gewichen, ebenso weitere Details, die sich noch in der ersten Darstellung finden: Draperie und Wappen fehlen, der übliche bayerisch-königliche Thronsessel ist durch einen anderen ersetzt. In den Hintergrund gedrängt ist die Verfassung, immerhin seit 1818 staatliche Rechtsgrundlage des bayerischen Königreichs. Die beiden Staatsporträts Maximilians II. leiten offensichtlich von den Herrscherbildnissen im vollen bayerischen Krönungsornat seines Großvaters Maximilian I. und Vaters Ludwig I. über zu einer solchen in Uniform mit Krönungsmantel wie sie sich bei Napoleon III. und Friedrich Wilhelm IV. finden und wie sie sein Sohn Ludwig II. weiterführte. Es stellt sich somit die Frage, welche Faktoren zu diesem prägnanten Wandel in der Inszenierung Maximilians II. als König von Bayern führten. Die Arbeit geht der These nach, dass beide Darstellungen grundlegend auf eine reaktionäre, gegen die Revolution 1848/49 gerichtete Politik ausgelegt sind, wobei dieser reaktionäre Charakter in Maximilians II. Bildnis von 1858 noch eine Steigerung im Vergleich zu derjenigen von 1850 erfährt. Zudem wandelt sich die innenpolitisch-historische Ausrichtung des ersten Porträts bei der zweiten Darstellung des bayerischen Monarchen in eine außenpolitisch-progressive. Die Legitimation Maximilians II. begründet sich nicht mehr, wie bei ersterem, in der Geschichte und der Herrschaft der Wittelsbacher, sondern in seinen eigenen Errungenschaften und seiner eigenen Herrschaft. Dieser Wechsel der politischen Bildaussage fußt sowohl auf den politischen Veränderungen und Entwicklungen innerhalb und außerhalb Bayerns als auch auf der Entwicklung des Staatsporträts in der Mitte des 19. Jahrhunderts. Nach nur zehn Jahren wird so eine veränderte Botschaft über Maximilians II. Position und Machtanspruch ausgesendet.
Anmerkung: Es handelt sich um die 2. überarbeitete Auflage der Dissertation.
1. Auflage siehe:
"https://ubt.opus.hbz-nrw.de/frontdoor/index/index/docId/2083".
Ausgangspunkt der politisch-ikonographischen Untersuchung, in deren
Zentrum zwei Staatsporträts König Maximilians II. von Bayern stehen, ist die Beobachtung, dass diese beiden Bildnisse grundsätzlich unterschiedliche Inszenierungsformen wählen. Das erste von Max Hailer gefertigte Werk zeigt Maximilian II. im vollen bayerischen Krönungsornat und greift eine tradierte Darstellungsweise im Staatsporträt auf. Es entstand zwei Jahre nach Maximilians II. Thronbesteigung und damit nach den revolutionären Unruhen der Jahre 1848/49 im Jahr 1850. Das zweite wurde von Joseph Bernhardt 1857 bis 1858 gemalt und im Jahr 1858 zum zehnjährigen Thronjubiläum des Monarchen erstmals präsentiert. Die Inszenierung ändert sich im zweiten Bildnis: Das bayerische Krönungsornat ist der Generalsuniform gewichen, ebenso weitere Details, die sich noch in der ersten Darstellung finden: Draperie und Wappen fehlen, der übliche bayerisch-königliche Thronsessel ist durch einen anderen ersetzt. In den Hintergrund gedrängt ist die Verfassung, immerhin seit 1818 staatliche Rechtsgrundlage des bayerischen Königreichs. Die beiden Staatsporträts Maximilians II. leiten offensichtlich von den Herrscherbildnissen im vollen bayerischen Krönungsornat seines Großvaters Maximilian I. und Vaters Ludwig I. über zu einer solchen in Uniform mit Krönungsmantel wie sie sich bei Napoleon III. und Friedrich Wilhelm IV. finden und wie sie sein Sohn Ludwig II. weiterführte. Es stellt sich somit die Frage, welche Faktoren zu diesem prägnanten Wandel in der Inszenierung Maximilians II. als König von Bayern führten. Die Arbeit geht der These nach, dass beide Darstellungen grundlegend auf eine reaktionäre, gegen die Revolution 1848/49 gerichtete Politik ausgelegt sind, wobei dieser reaktionäre Charakter in Maximilians II. Bildnis von 1858 noch eine Steigerung im Vergleich zu derjenigen von 1850 erfährt. Zudem wandelt sich die innenpolitisch-historische Ausrichtung des ersten Porträts bei der zweiten Darstellung des bayerischen Monarchen in eine außenpolitisch-progressive. Die Legitimation Maximilians II. begründet sich nicht mehr, wie bei ersterem, in der Geschichte und der Herrschaft der Wittelsbacher, sondern in seinen eigenen Errungenschaften und seiner eigenen Herrschaft. Dieser Wechsel der politischen Bildaussage fußt sowohl auf den politischen Veränderungen und Entwicklungen innerhalb und außerhalb Bayerns als auch auf der Entwicklung des Staatsporträts in der Mitte des 19. Jahrhunderts. Nach nur zehn Jahren wird so eine veränderte Botschaft über Maximilians II. Position und Machtanspruch ausgesendet.
Die Dissertation behandelt die Sakralarchitektur Triers des 13. und 14. Jahrhunderts, die mit Ausnahme der Liebfrauenkirche in der bisherigen Forschung keine ausreichende Würdigung erfahren hat. In Trier werden drei Rezeptionsstränge gotischer Architektur ins Reich deutlich: Nach der anfäng-lichen Übernahme einzelner Neuerungen aus dem zisterziensischen Architekturkreis und der Aneignung einzelner Strukturen werden schließlich ganze Konzepte rezipiert. Das Zisterzienserkloster Himmerod kann entgegen der bisherigen Forschungsmeinung nicht als Auslöser des gotischen Baubooms in Trier gelten - keinerlei Quellen weisen darauf hin. Um 1221 beginnen die in Stadt gelangten Dominikaner und Franziskaner, später die Augustiner-Eremiten und Karmeliter mit dem Bau ihrer Kirchen, die neben der champagnesischen Baugruppe eine eigenständige Bautengruppe bilden. Bettelordenarchitektur verdeutlicht eine ordensinterne Repräsentationsstrategie, die sich in der Ablehnung des Hauptbaus der champagnesischen Baugruppe - der Liebfrauenkirche - zeigt und die auf der Wiedererkennung als Bettelordenkirche in einem Stadtgefüge basiert. So ist die Sakralarchitektur Triers das Ergebnis unterschiedlicher Repräsentationsbedürfnisse des Erzbischofs bzw. der Bettelorden. Trier muss aufgrund der enormen und frühen Bautätigkeit als frühgotisches Zentrum des Reiches gelten.
Wastewater treatment is of great financial concern in many states of Germany. In the rural areas of the Saarland (German state at the border to Luxembourg and France) investments for wastewater treatments in the next years will mount up to 400 mio. €. Nevertheless, decision makers are still left with the question, if these investments result in an effective and sustainable water treatment. To answer this question, the ministry of environment, related authorities and the University of the Saarland (Geographical Institute) started a Project to investigate seven small headwater catchments with predominantly Triassic series of Muschelkalk. Aims of this study were the following: (i) the description of the spatial variability of water chemistry upstream and downstream of small villages (in these villages only mechanically treated waste water is discharged into the brooks), (ii) calculation of nutrient loads of differently managed catchments (predominantly woodland, meadows or fields) and (iii) the relative importance of non-point pollution sources to point pollution sources. Results indicated that spatial variability of nitrate concentration during base-flow conditions was quite similar in intensively used agricultural areas. Nitrogen fluxes were predominantly controlled hydrologically. The nitrogen load (kg N per ha) from non-point pollution sources amounts from 32.5 to 43 kg N / ha * a in intensively used agricultural areas. This load, forecast to one square-km, is equal to the N-load of 800 " 1000 population equivalents. Thus, non-point pollution sources are a major part of the overall nitrogen pollution in the rural areas. The results are important criterias for the sewage disposal plan of the Saarland (disposal plans are obligate according to German water law) and can serve as a first part of a river basin management according to the European Water Framework Directive. To lower non-point N-pollution changes in agricultural management practices are necessary.
Gerade in der heutigen Zeit im Spannungsfeld zwischen der globalen Klimaveränderung und einer stetig wachsenden Weltbevölkerung wird es immer wichtiger, die Oberflächenprozesse quantifizieren zu können. In fünf Untersuchungsgebieten in Deutschland, Luxemburg und Spanien wurden experimentelle Geländemessmethoden zur Quantifizierung von Oberflächenabflussbildung und Bodenerosion eingesetzt. Je nach geographischer Lage der Testgebiete sind unterschiedliche Einflussgrößen wichtig für die Abflussreaktion und den Bodenabtrag. Jahreszeit und Vorfeuchte des Bodens können zu verschiedenen Systemzuständen führen und damit die Oberflächenabflussbildungs- und Bodenerosionsraten beeinflussen. Die Verwendung von experimentellen Messmethoden (Beregnungen) ermöglicht es uns, die Reaktion derselben Flächen bei unterschiedlichen Ausgangsbedingungen auf ein und dasselbe (simulierte) Niederschlagsereignis zu messen. Durch die Kombination mit Geländekartierungen und GIS-Auswertungen wird eine qualitative Übertragung der punktuellen Messergebnisse auf die Fläche ermöglicht. In den beiden Untersuchungsgebieten in Deutschland wurden häufig hydrophobe Eigenschaften der Böden festgestellt. Durch diese Hydrophobizität dringt ein Teil des Niederschlagswassers gar nicht bis zum Mineralboden durch, sondern wird in der Streuschicht gehalten oder fließt innerhalb der Streuschicht ab. Dies führt zu einer Erhöhung der Oberflächenabflussraten. Auch der Einfluss der Landnutzung auf die Intensität der Oberflächenprozesse konnte für die Testgebiete in Deutschland und Luxemburg nachgewiesen werden. Auf Wegen und Fahrspuren, sowie auf Ackerflächen wurden die höchsten Oberflächenabfluss- und Bodenabtragsraten gemessen. Aber auch hydrophobe Waldstandorte zeigten hohe Oberflächenabflussraten, allerdings keinen nennenswerten Bodenabtrag, weil die Humusauflage die Bodenoberfläche schützt. Die im Rahmen dieser Arbeit verwendeten Rinnenerosionsversuche ermöglichen es, die Effizienz natürlicher Erosionsrinnen zu messen und zu vergleichen. Durch die Verwendung von beiden Methoden, Beregnung und Rinnenerosionsversuch, können die im Rinneneinzugsgebiet gemessenen Abtragsraten und -mengen mit den Abtragswerten der Erosionsrinne selbst verglichen werden. Insgesamt kann festgestellt werden, dass die Ergebnisse der experimentellen Messungen in Kombination mit einer Kartierung der aktuellen Geomorphodynamik sowie der Auswertung großmaßstäbiger Luftbilder, eine Quantifizierung der aktuellen Prozessdynamik ermöglichen.
Im Mittelpunkt dieser Untersuchung stand die in der Umweltbeobachtung bestehende Diskrepanz zwischen dem Wunsch nach flächendeckender Information und der Tatsache, dass meist nur punktuell und stichprobenartig Information erhoben wird. Über das Zusammenführen von unterschiedlichsten Informationen über die Umwelt wurde die Frage der räumlichen Übertragbarkeit von Umweltdaten und die Leistungsfähigkeit von Umweltdaten untersucht. Zur Überprüfung der Hypothese, dass die in einem bestimmten Ökosystemtyp ermittelten Ergebnisse auf andere Vertreter desselben Ökosystemtyps übertragbar sind, wurden PAK gewählt, die als Indikatoren für die luftgetragene stoffliche Immission dienen. Grundlegend für den Untersuchungsansatz war die Annahme, dass die ökologisch-strukturelle Ausstattung eines Ökosystems auch einen bestimmenden Einfluss auf die stoffliche "Belastung" in diesem Ökosystem hat. Dazu wurden zunächst Hinweise auf ein Faktorengefüge erarbeitet, welches den Stoffeintrag bestimmen und welches die ökologisch-struktuelle Ausstattung im Hinblick auf die Zielsetzung in einem ausreichenden Maße beschreiben kann. Die erarbeiteten Faktoren gehören zu den Komplexen Klima, Topographie, Flächennutzung und Biometrie. Entsprechend dem Untersuchungsansatz wurde nach einem Modell gesucht, das den funktionalen Zusammenhang zwischen Faktoren zur Beschreibung der ökologisch-strukturellen Ausstattung der Gebiete und der entsprechenden PAK-Immission annähert. Für diesen Anwendungsfall ist der Netztyp des GRNN (General Regression Neural Network) besonders gut geeignet. Mit Hilfe des Modells wurden Prognosen der PAK-Immission für fünf Ökosysteme in Deutschland berechnet. Die Validierung dieser Ergebnisse erfolgte anhand von rückstandsanalytischen Untersuchungen an einjährigen Fichtentrieben aus diesen Gebieten. Über die Modellbildung mit unterschiedlichen Input-Sets wurden die für die PAK-Immission relevanten Faktoren herausgearbeitet. Es konnte gezeigt werden, dass sich das gewählte Modell für die Frage der räumlichen Übertragbarkeit eignet, wobei hinsichtlich der Güte der Prognose deutliche Unterschiede zwischen den beiden Gruppen leichtflüchtige und schwerflüchtige PAK bestehen. Zudem bestehen qualitative Unter-schiede hinsichtlich der Prognosen zwischen den Gebieten, da durch die bisherige ökologisch-strukturelle Beschreibung wahrscheinlich einige die Immission bestimmende oder beeinflussende Faktoren nicht oder nicht ausreichend berücksichtigt wurden. Insgesamt wurde durch den gewählten Ansatz auch die Leistungsfähigkeit von Umweltdaten aus unterschiedlichen Monitoring- und Untersuchungsprogrammen durch deren gemeinsame Auswertung verdeutlicht.
Überblicksdarstellung zu deutschen Besuchern der Pariser Nationalbibliothek zwischen ca. 1780-1820 auf Grundlage der in Paris erhaltnenen handschriftlichen Ausleihjournale und gedruckter Reiseberichte.
Rückkehrprozesse aus Genderperspektive: remigrierte (Spät-)Aussiedler-Ehepaare in Westsibirien
(2019)
Die Studie untersucht die Rückkehrprozesse von (Spät-)Aussiedler-Ehepaaren aus Deutschland nach Westsibirien. Ein besonderes Augenmerk wird auf die Sichtweisen der Frauen und Männer hinsichtlich ihrer gemachten Erfahrung der Remigration gelegt. Darüber hinaus analysiert die Studie einerseits die Gemeinsamkeiten und Unterschiede beider Geschlechter im Hinblick auf die Rückkehrmotive, die Zufriedenheit mit der Wiederanpassung in Russland sowie die Einstellung hinsichtlich einer erneuten Migration nach Deutschland. Andererseits fokussiert die Arbeit auf die Geschlechterverhältnisse unter den Ehegatten im Prozess der Entscheidungsfindung zur Remigration. Die Studie folgt einem qualitativen methodischen Ansatz und verbindet verschiedene Forschungsrichtungen, genauer (Re)Migrations-, Familien-, (Spät-)AussiedlerInnen- und Geschlechterforschung.