Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (833)
- Wissenschaftlicher Artikel (219)
- Buch (Monographie) (113)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (108)
- Arbeitspapier (62)
- Ausgabe (Heft) zu einer Zeitschrift (24)
- Teil eines Buches (Kapitel) (22)
- Konferenzveröffentlichung (17)
- Sonstiges (16)
- Rezension (10)
Sprache
- Deutsch (843)
- Englisch (518)
- Französisch (75)
- Mehrsprachig (15)
- Russisch (1)
Schlagworte
- Deutschland (84)
- Luxemburg (52)
- Stress (40)
- Schule (37)
- Schüler (33)
- Politischer Unterricht (29)
- Modellierung (28)
- Fernerkundung (25)
- Geschichte (24)
- Demokratie (23)
Institut
- Raum- und Umweltwissenschaften (213)
- Psychologie (212)
- Politikwissenschaft (132)
- Universitätsbibliothek (84)
- Rechtswissenschaft (77)
- Wirtschaftswissenschaften (66)
- Mathematik (65)
- Fachbereich 4 (57)
- Medienwissenschaft (57)
- Fachbereich 6 (50)
- Geschichte, mittlere und neuere (45)
- Fachbereich 1 (36)
- Fachbereich 3 (34)
- Informatik (31)
- Germanistik (28)
- Fachbereich 2 (26)
- Kunstgeschichte (23)
- Anglistik (21)
- Soziologie (20)
- Computerlinguistik und Digital Humanities (10)
- Philosophie (10)
- Romanistik (9)
- Fachbereich 5 (7)
- Pädagogik (6)
- Allgemeine Sprach- und Literaturwissenschaft (5)
- Ethnologie (5)
- Geschichte, alte (5)
- Klassische Philologie (4)
- Sinologie (4)
- Japanologie (3)
- Archäologie (2)
- Phonetik (2)
- Servicezentrum eSciences (2)
- Forschungszentrum Europa (1)
- Pflegewissenschaft (1)
- Slavistik (1)
- Theologische Fakultät (1)
Online-Shopping hat sich im Zuge der zunehmenden Verbreitung und technischen Fortentwicklung des Internets in nahezu allen Märkten etabliert. Sowohl Anbieter und Entwickler von Onlineshops als auch Nutzer und Kunden mussten hierfür in wenigen Jahren neue Strukturen und Verhaltensweisen entwickeln und lernen. Dieser Prozess ist noch nicht abgeschlossen. Die noch offene Zukunft der Entwicklung erlaubt und erfordert daher auch neue Fragestellungen und methodische Orientierungen in der psychologischen Forschung. In diesem noch jungen Forschungsfeld befasst sich die vorliegende empirisch-psychologische Arbeit mit dem Merkmal der Gebrauchstauglichkeit von Onlineshops und hierin insbesondere mit den Auswirkungen der Konformität von Nutzererwartungen über den Ablauf eines Einkaufsvorgangs und der Gestaltung dieser Abläufe in einem Onlineshop. Zur Beschreibung und Analyse der Nutzererwartungen wird ein skripttheoretischer Ansatz verwendet. Dieser geht davon aus, dass Menschen aufgrund der sich wiederholenden Erfahrung ein kognitives Schema in Form eines Skripts herausbilden, womit eine Aufmerksamkeitsentlastung in zukünftigen Situationen ähnlicher Art erreicht wird. In drei experimentell angelegten Untersuchungen zum Vorgehen beim Online-Shopping zeigen sich grundlegende Gemeinsamkeiten in den Erwartungen von Nutzern, die als allgemeines Onlineshoppingskript das generell erwartbare Einkaufsverhalten darstellen können. Die Auswirkungen einer Abweichung von den Nutzererwartungen im Design von Onlineshops werden in drei weiteren Untersuchungen mit Hilfe eines fiktiven Onlineshops überprüft. Die Ergebnisse der Untersuchungen bieten Hinweise und Kriterien für die Konzeption von Onlineshops.
Den Begriff 'Fabelwesen' konnte es in der mittelalterlichen Naturkunde nicht geben, weil sie wesentlich von literarischer Tradtion und christlicher Naturdeutung geleitet war, nicht von moderner Naturbeobachtung und empirischer Naturwissenschaft. Der Aufsatz illustriert dies auf ebenso unterhaltsame wie lehrreiche Weise an einer Vielzahl von Beispielen und in einem Durchgang durch zentrale lateinisch-theologische Autoritäten wie volkssprachlichen Äußerungen in Literatur für/von Laien.
In modern society poverty is understood not as a state of absolute economic deprivation but as an extreme case of social inequality, as "poverty in affluence", and the concept of poverty is multidimensional, containing subjective and objective dimensions as well as multiple deprivations. As poverty is often associated with stigmatisation and social exclusion one may therefore assume that the poor are socially isolated. Arguments supporting a relation between social isolation and poverty come from poverty and segregation research and from theories of social exclusion and social closure. Using data from the German Socio-Economic Panel (GSOEP) the author shows that poverty leads to loneliness and that the poor are restricted in the realisation of certain social contacts. Among the poor subgroups can be identified whose social integration is precarious and the transition to social isolation fluent. People who cannot cope with economic hardship as well as those in persistent poverty are more likely to be affected by the consequences of poverty on social relationships than others and this is especially true for the poorest among the poor. Although the findings do not suggest that poverty directly leads to social isolation, they demonstrate that the poor face a high risk of being isolated and that certain aspects associated with poverty (i.e. persistence of poverty) may lead to complete and ongoing isolation.
Die vorliegende Dissertation beschäftigt sich mit der Konzeption, der Implementation und der Evaluation eines Kindertrainings für sechs- bis achtjährige Grundschüler, welches pro-soziale Verhaltensweisen, sozial-emotionale Kompetenzen und konstruktive Konfliktlösestrategien vermitteln und damit aggressivem Verhalten vorbeugen soll. Das verhaltens- und personenzentrierte Kindertraining wurde mit 92 Kindern an fünf Grundschulen der Stadt Trier von September 2003 bis Juli 2004 durchgeführt. Die Wirksamkeit des Trainings wurde im Vergleich zu einer unbehandelten Kontrollgruppe von 51 Kindern mittels Prä-, Post- und 4-Monats-Follow-up-Messungen überprüft, wobei kindliche Kompetenzen und Problemverhalten aus der Sicht der Eltern, der Klassenlehrerinnen und der Kinder mit Fragebögen bzw. Kinderinterviews erfasst wurden. Der erste Teil der Dissertation widmet sich dem theoretischen Hintergrund des IBC-Kindertrainings und beschäftigt sich mit den Phänomenen Konflikt, Aggression und prosoziales Verhalten sowie mit der Verflechtung dieser Phänomene untereinander. An eine Über-sicht zu den bestehenden Präventionsprogrammen zur Förderung von prosozialem Verhalten und zur Prophylaxe von aggressiven Verhaltensweisen bei Kindern im Grundschulalter schließt sich die detaillierte Darstellung des IBC-Trainingskonzeptes an. Vorzüge dieses Trainingsprogramms gegenüber anderen Kindertrainings werden aufgezeigt und begründet. Die methodische Vorgehensweise und die Ergebnisse der durchgeführten Trainingsevaluation werden im zweiten Teil der Arbeit vorgestellt. Es konnten positive Einflüsse des Trainings auf das Sozialverhalten der Erstklässler nachgewiesen werden. Die erzielten Trainingseffekte liegen im mittleren Bereich (.23 ≤ d ≤ .94). Insbesondere ließ sich eine signifikante Reduktion des oppositionell-aggressiven Verhaltens und der emotionalen Auffälligkeiten aufzeigen. Die wesentlichen Evaluationsbefunde zur Wirksamkeit des IBC-Kindertrainings werden im dritten Teil der Arbeit methodenkritisch diskutiert. Vor dem Hintergrund aktueller gesellschaftlicher Entwicklungen wird dabei aufgezeigt, dass das niederschwellige Angebot des evaluierten Kindertraining insbesondere in Zeiten knapper öffentlicher Mittel als eine wertvolle Chance zur Förderung kindlicher Kompetenzen und zur Vorbeugung negativer Entwicklungen genutzt werden sollte.
Die Lateralitätsforschung hat bis dato eine Vielzahl an Hinweisen für einen linkshemisphärischen Leistungsvorteil für die Verarbeitung verbalen Materials und umgekehrt einen rechtshemisphärischen Vorteil für die Verarbeitung bildhaften Materials aufzeigen können. Doch fällt auf, daß kaum Studien existieren, in denen Verhaltensasymmetrien und Asymmetrien elektrophysiologischer Hirnaktivität in einer experimentellen Umgebung gemeinsam untersucht wurden. Viele wissenschaftliche Autoren schlossen einfach von funktionellen Verhaltensasymmetrien auf zugrunde liegende strukturelle Asymmetrien, ohne dabei auf ein allgemeingültiges Erklärungsmodell zur Vorhersage und Integration beider Asymmetriemaße zurückzugreifen. Die Experimente dieser Arbeit setzen das in der psychophysiologischen Wahrnehmungsforschung bereits etablierte visuelle Halbfeldparadigma (VHF-Paradigma) ein, den Probanden werden dabei unterschiedliche visuelle Stimuli lateralisiert auf einem Computermonitor dargeboten. In diesem Untersuchungsrahmen bearbeiten die Versuchspersonen in zwei unterschiedlichen Experimenten zum einen abstrakte verbale Stimuli und zum anderen emotionale bildhafte Stimuli. Die P300- Komponente findet in dieser Studie eine besondere Berücksichtigung. Zentral ist hierbei die Fragestellung, ob das EKP und i.e.S. die P300-Komponente überhaupt zur Erfassung und Interpretation von lateralisierten kognitiven Prozessen geeignet ist. Zusammengefasst läßt sich feststellen, obwohl in den durchgeführten Wahrnehmungsexperimenten deutliche funktionellen Asymmetrien auf der Verhaltensebene resultieren, kann auf der Ebene der phasischen elektrokortikalen Asymmetrien keinesfalls von Lateralitätseffekten gesprochen werden. Das Muster der reizspezifischen Hemisphärenasymmetrie vieler Verhaltensexperimente kann in den hier untersuchten elektrophysiologischen Parametern nicht ansatzweise nachvollzogen werden. Zwar können die funktionelle Asymmetrien in Trefferquoten und Reaktionszeiten zwar einen ersten Hinweis auf strukturelle Asymmetrien darstellen, doch kann aufgrund der vorliegenden Befundlage nicht ohne weiteres von der Verhaltensebene auf Asymmetrien der elektrophysiologischen Ebene geschlossen werden.
In einer empirischen Neuroimaging Studie an einer Gruppe von 141 rechts- und linkshändigen Probanden beiderlei Geschlechts wurden fMRT-Korrelate der funktionalen Sprachrepräsentation untersucht. Es fanden sich bedeutsame Unter-schiede in der Sprachverarbeitungskompetenz der beiden Hemisphären sowohl zwischen Rechts- und Linkshändern als auch zwischen Männern und Frauen.
Epistemologische Überzeugungen sind Annahmen über die Struktur und Richtigkeit von Wissen sowie den Prozess des Wissenserwerbs. Der Autor stellt diesbezüglich Zusammenhänge von psychologischen und philosophischen Konzepten her und argumentiert dabei vom Standpunkt des kritischen Realismus. Außerdem werden, aufgrund empirisch gewonnener Hinweise, die Variabilität wissenschaftstheoretischer und epistemologischer Überzeugungen sowie deren Zusammenhänge zu Leistungsmotivation, Lernzielen und Lernstrategien bei Studenten beschrieben.
Major threats to the Spanish Constitutional Court’s independence and authority have come, first, from political parties and the media and, second, by the Catalonian secession movement. The authority and the legitimacy of the Constitutional Court were tested in the stormy
proceedings on the Statute of Autonomy of Catalonia of 2006 that ended in 2010 and, above all, in the period of 2013–2017, when successive acts directed at the secession of were recurrently Catalonia challenged before the Court and subsequently overturned, and to stop the continued disobedience its rulings the of Court was given extended execution powers for its judgments. These new powers include the temporary replacement of any authority or public official that does not comply with a Court’s ruling and the ordering of a substitutive execution through the central government. The Court declared the new powers to be consistent with the Constitution (with three dissenting votes by four constitutional judges) and it even used them for the first time to enforce its prohibition of the referendum on the independence of Catalonia of 1 October 2017. Nevertheless, the Venice Commission has raised doubts about the opportunity of those powers, which are unusual in European constitutional jurisdiction models. At the end, the Court’s powers were not enough to stop the Catalonian secession process, and on 27 October 2017 the state government implemented the federal coercion clause and suspended Catalonian autonomy until new elections were held.
In this thesis, in order to shed light on the biological function of the membrane-bound Glucocorticoid Receptor (mGR), proteomic changes induced by 15 min in vivo acute stress and by short in vitro activation of the mGR were analyzed in T-lymphocytes. The numerous overlaps between the two datasets suggest that the mGR mediates physiologically relevant actions and participates in the early stress response, triggering rapid early priming events that pave the way for the slower genomic GC activities. In addition, a new commercially available method with suitable sensitivity to detect the human mGR is reported and the transcriptional origin of this protein investigated. Our results indicates that specific GR-transcripts, containing exon 1C and 1D, are associated with the expression of this membrane isoform.
Das Geschäftsmodell für den nachhaltigen Betrieb der Virtuellen Forschungsumgebung FuD wird vorgestellt. Es wurde im Rahmen des DFG-Projektes "FuD2015 " eine virtuelle Forschungsumgebung für die Geschichtswissenschaft und deren Überführung in den Regelbetrieb" (01.01.2013-31.07.2015) entwickelt. Ausgehend von Forschungsprojekten aus unterschiedlichen Disziplinen wurden in einer detaillierten Prozessanalyse Aufgabenfelder definiert sowie Organisations- und Finanzierungsstrukturen für den Betrieb der FuD-Basisversion sowie den Aufbau projektspezifischer Anwenderversionen und deren Betreuung erarbeitet. Dabei wurden die notwendigen Aufgaben beschrieben und die Zuständigkeit für die verschiedenen Arbeitsschritte den beteiligten Akteuren zugeordnet; die Workflows wurden fortlaufend evaluiert und angepasst. Ebenso wurden verschiedene Organisations- und Kostenmodelle anhand verschiedener Szenarien geprüft und rechtliche Bestimmungen (z. B. Haushalts- und Beihilferecht) bei diesen Planungen berücksichtigt.
Die Untersuchung zeichnet die Geschichte des frühen Kinos in der lothringischen Kleinstadt St. Avold bis zum Ausbruch des Ersten Weltkrieges nach und arbeitet wesentliche Charakteristika des lokalen Kinogewerbes in diesem Zeitraum heraus; sie stützt sich dabei vor allem auf die Bestände der zeitgenössischen deutschsprachigen Lokalzeitungen in den Archives municipales de Saint-Avold. Für St. Avold lassen sich vom ersten Nachweis eines Wanderkinematographen im Jahr 1901 bis 1914 drei Phasen der Kinogeschichte unterscheiden, die getrennt betrachtet werden: die Phase der Wanderkinematographie bis 1908, eine Übergangsphase vom Wanderkino zum ortsfesten Kino, in der zumindest zeitweilig eine kontinuierliche Kinoversorgung gewährleistet war, sowie die Phase des ortsfesten Kinos ab Dezember 1910. Besonderes Augenmerk gilt den Wanderkinematographen, die bis in die Zeit des ortsfesten Kinos die Stadt bereisten " der letzte Besuch eines Wanderkinos ist für das Jahr 1911 belegt. Ausgehend von einem Überblick über Akteure und Unternehmen werden Eintrittspreise und Besucherstruktur, Aufführungssituation und Programm, mögliche Konkurrenzsituationen, Werbestrategien der Kinematographenbetreiber und die öffentliche Wahrnehmung des Kinos in St. Avold betrachtet; dabei finden auch Filmvorführungen des Flottenvereins und anderer Institutionen und Vereinigungen Berücksichtigung. Was die Untersuchung der Kinematographenprogramme betrifft, so kann im Rahmen der Arbeit " nicht zuletzt aufgrund der Quellenlage " keine vollständige Programmstrukturanalyse vorgenommen werden. Stattdessen wird exemplarisch versucht, anhand jeweils eines vollständig überlieferten Programms aus der Übergangsphase und der Zeit des ortsfesten Kinos Tendenzen der Programmierung aufzuzeigen. Die Studie zeigt, dass die Entwicklung der Kinolandschaft in der Kleinstadt St. Avold im Vergleich zu größeren Städten verzögert ablief. Für die Zeit vor der Eröffnung des Eden-Theater-Kinematographen ist darüber hinaus festzustellen, dass Saalspieler häufiger belegt sind als Jahrmarktkinematographen. Ein Grund dafür war neben der größeren Flexibilität der Saalspieler bei der Wahl des Veranstaltungstermins möglicherweise auch das Transportproblem vom Bahnhof in die Stadt, das in erster Linie die Jahrmarktkinematographen mit ihren mobilen Kinobauten betraf. Die Befunde für St. Avold deuten darauf hin, dass in diesem Kontext aber auch die Größe der ambulanten Kinematographen eine Rolle gespielt hat. Im Gegensatz zur Wanderkinophase bis einschließlich 1908, in der gelegentlich noch große zeitliche Abstände zwischen den einzelnen kinematographischen Vorführungen lagen, ist die Übergangsphase 1909 bis 1910 dadurch gekennzeichnet, dass die Vorstellungen örtlicher Veranstalter teilweise kontinuierlich über mehrere Wochen stattfanden. Zwar war das Angebot kinematographischer Vorführungen und damit der Wettbewerb in diesem Zeitraum am größten, dennoch überschnitten sich die Aufenthalte der Kinematographen auch in dieser Phase nicht. Auch der Übergang vom Kurzfilm- zum Mischprogramm mit Lang- und Kurzfilmen erfolgte in St. Avold verspätet. Im Kontext des Programms der Übergangsphase und des ortsfesten Kinos muss auch die Bedeutung von Lokalfilmen hervorgehoben werden. Zwar ist keine der vier bis Kriegsbeginn nachgewiesenen Aufnahmen aus St. Avold erhalten, entsprechende Angaben in Anzeigen und Zeitungsberichten zeigen aber, dass mit Kirchausgängen und Kaiserparaden auch in der lothringischen Provinz die für diese Lokalbilder typischen Sujets aufgenommen wurden. Besondere Bedeutung kam den Aufnahmen offensichtlich bei der Differenzierung des Kinoprogramms im Wettbewerb der Kinematographenunternehmer zu: Die Quellen deuten darauf hin, dass die Anziehungskraft dieser Bilder über den städtischen Bereich hinaus wirkte.
Kommt die Scharia auch in Deutschland zur Anwendung oder wäre die Inkorporation bestimmter Teile der Scharia in deutsches Recht zumindest wünschenswert? Könnte Großbritannien hier Vorbild sein, wo Schlichtungsgerichte für muslimische Streitparteien ebenso wie die staatlicherseits anerkannten Schariagerichtshöfe fest etabliert sind? Und wie sind islamische Friedensrichter in Deutschland zu bewerten, die vielerorts eine vermittelnde Rolle zwischen muslimischen Tätern und deutschen Strafverfolgungsbehörden übernehmen? Schiedssprüche zwischen Konfliktparteien gleich welcher Religionszugehörigkeit können nur dann als vorteilhaft beurteilt werden, wenn sie geeignete, rechtstreue, ausgebildete Personen durchführen, die nach rechtsstaatlichen Prinzipien urteilen und der gerichtlichen Kontrolle unterliegen. Schiedsverfahren dürften traditionellem Schariarecht nicht folgen, da es in seiner klassischen Auslegung staatlichem Recht widerspricht und ebenso wie das Operieren von "Friedensrichtern" integrationshemmend wirkt.
One of the current issues in psycholinguistics is how the frequency of syntactic structures influences the mental processing of sentences, especially in the case of ambiguous constructions. The present work attempts to shed light on this issue from the perspective of computational and corpus linguistics. Existing theories of human sentence processing assign different roles to frequency, varying from certain 'principle-based' models that completely ignore it to 'experience-based' models relying on frequency alone. The present work develops a frequency-based parsing component that may be combined with other factors influencing disambiguation. This module, named the Optimized Frequency Constraint (OFC), addresses questions largely left open by existing frequency-based models: How are the frequencies of syntactic structures stored mentally? When does the human sentence processing mechanism access this stored information, and in what sequence? OFC is then applied to a range of syntactic constructions in German (licensing, attachment of phrases and relative clauses, word order, etc.) that have been used in psycholinguistic experiments. The settings of OFC's parameters are determined by analyzing German corpus data. The predictions based on OFC are confirmed by the results reported in the psycholinguistic literature in most cases, indicating that OFC offers psychologically valid predictions of the influence of frequency in human parsing.
Im Mittelpunkt der Arbeit Freizeithandeln Jugendlicher - Motive und Bedeutungen stehen die subjektiven Bedeutungen jugendlichen Freizeithandelns. Dazu wurden zentrale Freizeitmotive ermittelt, mit denen Jugendliche ihrer Freizeit Bedeutung verleihen. Ist als Folge der modernen Bedingungen des Aufwachsens Spasserleben zu einem typischen Kennzeichen des Freizeithandelns der heutigen Jugend geworden, wie dies z. B. OPASCHOWSKI zu erkennen glaubt? Die bundesdeutsche Gesellschaft hat sich in den letzten Jahrzehnten in vielerlei Hinsicht gewandelt. Traditionelle Orientierungen und Segmentierungen (z. B. schicht- bzw. milieuspezifische Lebensweisen) haben ihre Verbindlichkeit eingebuesst. In einer komplexer werdenden Umwelt gehen traditionell gegebene Orientierungen des alltaeglichen Lebens verloren. Welche Auswirkungen haben solche Veraenderungen auf Jugendliche? Ist die hohe Bedeutung von Spasserleben die Antwort? Beduerfnisse und Beweggruende fuer Freizeithandeln koennen vielfaeltig sein. Die Arbeit konzentriert sich auf den Lebensbereich der Freizeit und verfolgt das Ziel, ihre subjektive Bedeutung fuer Jugendliche zu analysieren. Hierzu wird zunaechst der Stand der Forschung im Hinblick auf die Besonderheiten der Jugendphase und die Freizeitgestaltung Jugendlicher aufgezeigt. Die subjektive Bedeutung wird ueber die Rekonstruktion von Freizeitmotiven herausgearbeitet. Sie duerften ein zentrales Element der Bedeutungen sein, in denen Menschen den Zusammenhang zwischen innerer und aeusserer Umwelt herstellen und durch die einzelne Aktivitaeten ihren subjektiven Sinn finden. Zentrale Annahmen der Arbeit Der Lebensbereich Freizeit wird aus einer eher marktorientierten Sichtweise analysiert. Allen Akteuren des Freizeitmarktes kann unterstellt werden, dass ihrem Agieren auf dem Markt eine Zielstruktur zugrunde liegt, die sich - allgemein formuliert - handlungsleitend auf ihre jeweiligen Aktivitaeten auswirkt. Diese Zielstruktur muss nach Ansicht d. V. dem jeweiligen Marktakteur und insbesondere den Jugendlichen jedoch nicht notwendigerweise als klar formulierbare Verhaltensabsicht bewusst sein. Die von den Jugendlichen selbst wahrgenommenen Antriebskraefte fuer Nachfrage und Ausuebung ausgewaehlter Freizeittaetigkeiten werden hier als Motive bezeichnet. Ueber spezifische Motive geben sie ihrer Freizeit einen subjektiven Sinn, der fuer sie wiederum handlungsrelevant wird. Dementsprechend wird untersucht, welche Motive von Jugendlichen fuer ihre vielfaeltigen Freizeitaktivitaeten genannt werden. Die Bedeutung von Freizeit kann mit typischen Mustern dargestellt werden, die Einzelaktivitaeten uebergreifen.
Fray Cesáreo de Armellada OFM Cap. und die Pemón-Sprache. Ein Beitrag zur Missionarslinguistik in Venezuela Die in spanischer Sprache abgefasste Dissertation befasst sich mit den, in der 2. Hälfte des 20. Jahrhunderts entstandenen, linguistischen Forschungen und Veröffentlichungen von Fray Cesáreo de Armelladas, einem Missionar des Kapuzinerordens, der sich intensiv mit Struktur und Gebrauch der Pemón"Sprache beschäftigte. Die Pemón sind ein indigenes Volk, das überwiegend in den Regenwäldern Venezuelas, Brasiliens und Guayanas lebt. Die Pemón-Sprache wird der Sprachfamilie der Caribe zugeordnet. Durch den zunehmenden Kontakt des indigenen Volkes mit Sprechern, u. a. des Spanischen, Portugiesischen und Englischen, besteht jedoch die Gefahr, dass diese Minderheitssprache (19.129 Sprecher laut Bevölkerungsstatistik 2003) und damit verbundene, kulturelle Grundlagen der Pemón verloren gehen. Der Missionar Fray Cesáreo de Armellada lebte von den 30-ern bis in die 50-er Jahre des vergangenen Jahrhunderts mit dem Pemónvolk zusammen, beobachtete und kodifizierte mithilfe damaliger linguistischer Methoden dessen Sprache, sammelte, verschriftlichte und übersetzte zahlreiche Erzählungen der Pemón und veröffentlichte die Ergebnisse seiner Forschungen (meist unter verschiedenen Pseudonymen) in mehreren Büchern und als wissenschaftliche Artikel in verschiedenen Periodika. Die linguistischen, kulturhistorischen und ethnologischen Forschungen de Armelladas sind für jede wissenschaftlich fundierte Beschäftigung mit der Pemón-Sprache eine unverzichtbare Grundlage. Erst seine Beobachtungen und Ergebnisse ermöglichten eine systematische Kodifizierung des, bis dahin nur als von Generation zu Generation mündlich überlieferten, Idioms. Grammatische und soziolinguistische Studien, die für den Erhalt und die Pflege, aber zum Teil auch für die Rekonstruktion bereits untergegangener sprachlicher Strukturen nötig sind, konnten und können auf dieser Basis aufbauen. Insbesondere auch die Missionarslinguistik verdankt der wissenschaftlichen Arbeit und den zahlreichen und diversen Veröffentlichungen von Fray Cesáreo de Armellada wichtige Anregungen und Erkenntnisse. Seine auf allen relevanten Ebenen erfolgte grammatische Beschreibung der Pemón-Sprache ist die Basis für die aktuellen Bemühungen von engagierten Sprachwissenschaftlern und Repräsentanten des venezolanischen Staates, diese indigene, vom Untergang bedrohte Sprache zu erhalten. Gerade in jüngster Zeit ist man bemüht, kommende Generationen des Pemónvolkes bilingual zu unterrichten und ihnen somit die Chance zu geben, ihre eigene kulturelle Identität und Tradition zu verstehen, bewahren und zu pflegen. Zudem werden aktuell, von de Amellada übertragene und verschriftliche, traditionelle Erzählungen der Pemón in Venezuela in Buchform, teilweise in spanischer Sprache aber auch bilingual, herausgegeben. Diese Dissertation versucht in sieben Kapiteln die sprachwissenschaftlichen Forschungen de Armelladas und seine systematische Erfassung der Pemón-Sprache in einem umfassenden Zusammenhang, unter historischen, kulturellen, gesellschaftlichen, sprachwissenschaftlichen und, insbesondere für die Missionarslinguistik wissenschaftshistorischen Aspekten, darzustellen.
Der Vortrag zeigt das Spektrum auf, in dem Frauenreisen als eigenständige Kategorie der Literatur- und Medienwissenschaft etabliert wurde. Ohne den Fokus der Konfrontation mit der orientalischen Lebenswelt und der Exklusion der Männer in bestimmten Lebensbereichen hätte sich diese Form von Reiseberichten nicht etablieren können.
Karl May wurde Ende des 19. Jahrhunderts zum Erfolgs- und Volksschriftsteller mit seinem Orient-Zyklus "Durch die Wüste". In Abgrenzung dazu stellt dieser Vortrag einige heute unbekannte Frauen vor, deren Reiseschilderungen sich so abenteuerlich lesen wie die Romane Karl Mays - allerdings mit dem entscheidenden Unterschied, dass ihre Reisen real, und nicht nur in der Phantasie, stattfanden. - Der Aufsatz gibt einen Vortrag der Verfasserin wieder, der an der Hochschule Darmstadt am 28.04.1989 gehalten wurde. rn
Diese Arbeit hat das Ziel, die Kategorie "Frau", ihre Situation und ihre Konstitution sowohl auf symbolischer als auch soziostruktureller Ebene innerhalb der mexikanischen Kultur und Gesellschaft zu ergründen. Die Konstruktion von Weiblichkeit in Mexiko erfolgt entlang der bedeutungsstiftenden Strukturen einer Vielzahl von Kulturen (zumindest: die "indigen/traditionelle", die hispanisch-europäische und die mestizisch/mexikanische), gesellschaftlicher und politischer Institutionen (wie das staatliche Entwicklungsprojekt, Bildungsinitiativen, Kirchen und Religion) und weiterer, diffuser Einflüsse (etwa die Massenmedien in ihren populären Formen). Gerade deshalb gewinnt die Weiblichkeit der mexikanischen Mestizinnen eine besondere Qualität, die eine Möglichkeit bieten kann, nicht nur eine "fremde" Kultur, sondern auch die eigene Wahrnehmung zu analysieren.
Auf der Grundlage der Beobachtung, dass Städte und Regionen in Deutschland signifikant unterschiedliche durchschnittliche Lohnniveaus aufweisen, macht es sich die Dissertation zur Aufgabe, die Gründe für die Divergenz regionaler Lohnniveaus in Westdeutschland zu erforschen. Theoretischer Ausgangpunkt der Analyse ist das Konzept der lokalen Humankapitalexternalitäten. Dieses besagt, dass der individuelle Bildungsstand eines Arbeitnehmers nicht nur für diesen selbst produktivitätsbestimmend ist, sondern darüber hinaus auch einen Einfluss auf die Produktivität anderer Arbeitnehmer in räumlicher Nähe ausüben kann. Das Vorliegen von Humankapitalexternalitäten ist für den deutschen Fall potenziell relevant, da sich beträchtliche Unterschiede in den durchschnittlichen regionalen Bildungsniveaus feststellen lassen. Die Dissertation untersucht daher, in welchem Umfang regionale Lohndisparitäten in Deutschland auf externe Produktivitätseffekte des regionalen Bildungsniveaus zurückzuführen sind und durch welche mikroökonomischen Mechanismen derartige Effekte entstehen. Diese Frage wird in vier thematisch eng miteinander verknüpften Artikeln beantwortet. Der erste Artikel stellt eine Überblicksstudie dar, in der die Literaturen zu regionalen Humankapitalexternalitäten und zur städtischen Lohnprämie hinsichtlich ihrer Ergebnisse und Methodik miteinander verglichen werden. Der Literaturvergleich zeigt, dass sowohl Agglomerationseffekte, als auch Humankapitalexternalitäten gültige Erklärungen für regionale Lohnunterschiede darstellen. Weiterhin werden die ökonometrische Methodik und die Identifikationsstrategien, die beiden Literaturen zugrunde liegen, verglichen. Es wird gezeigt, dass ein beträchtliches gegenseitiges Lernpotenzial zwischen beiden Literaturen besteht. Der zweite Artikel untersucht empirisch die Bedeutung von Humankapitalexternalitäten für die Divergenz regionaler Lohnniveaus in Deutschland. Es werden individuelle Lohngleichungen geschätzt, die um regionale Variablen erweitert werden. Einer möglichen Inkonsistenz der Schätzer wird durch den Einsatz von Instrumentvariablen begegnet. Die Ergebnisse weisen darauf hin, dass ebenso wie in anderen Ländern der regionale Humankapitalbestand auch in Deutschland einen signifikanten Einfluss auf die Löhne von Arbeitnehmern ausübt und somit zum Auftreten regionaler Lohndifferenziale beiträgt. Der dritte Artikel untersucht das Auftreten von Matchingeffekten als möglichen mikroökonomischen Mechanismus, durch den Humankapitalexternalitäten individuelle Löhne beeinflussen. Konkret wird überprüft, ob in humankapitalintensiven Regionen stärker ausgeprägte lokale Karrierenetzwerke bestehen, die durch einen besseren Informationsfluss im Hinblick auf Karrierechancen zu einer erhöhten Matchingeffizienz und damit zu höheren Löhnen in regionalen Arbeitsmärkten führen. Hierzu wird untersucht, ob sich signifikante Unterschiede zwischen humankapitaintensiven und humankapitalschwachen Regionen hinsichtlich des Lohnanpassungs- und Arbeitsplatzwechselverhaltens von Arbeitnehmern feststellen lassen. Die empirischen Ergebnisse zeigen, dass regionale Humankapitalexternalitäten unter anderem durch verbesserte Matches zwischen Arbeitnehmern und Unternehmen in humankapitalintensiven Regionen entstehen. Der vierte Artikel untersucht, ob erfolgreicher industrieller Wandel und regionale Humankapitalexternalitäten insoweit zwei Seiten derselben Medaille sind, als dass die produktivitätsbestimmende Wirkung des einen Einen das Vorliegen des Anderen voraussetzt. Die Ergebnisse deuten auf eine Komplementarität dynamischer Arbeitsmärkte und regionaler Humankapitalausstattungen hin. So weisen lokale Industrien eine signifikant höhere Produktivität auf, wenn sie in regionalen Arbeitsmärkten beheimatet sind, die gleichermaßen einen hohen Anteil hochqualifizierter Arbeitnehmer und eine überdurchschnittliche Arbeitsmarktdynamik aufweisen. Die Ergebnisse zeigen weiterhin, dass Humankapitalexternalitäten vor allem dann entstehen, wenn Arbeitnehmer ihren Arbeitsplatz innerhalb einer Region wechseln und damit zum Auftreten von produktivitätssteigernden Wissenspillovers und einer erhöhten Matchingeffizienz beitragen. Die Ergebnisse aus allen vier Artikeln untermauern die Bedeutung regionaler Humankapitalexternalitäten für das Entstehen regional unterschiedlicher Lohnniveaus. Hieraus erwachsen zwei zentrale Implikation für die regionale Bildungs- und Infrastrukturpolitiken, die im Schlusskapitel der Dissertation erörtert werden. So können staatliche Investitionen in Humankapital effizienzsteigernd wirken, da eine Unterinvestition in Bildung eine wahrscheinliche Folge beim Vorliegen von Humankapitalexternalitäten ist. Weiterhin können Infrastrukturinvestitionen zu einem Verschmelzen von humankapitalarmen mit humankapitalintensiven Arbeitsmärkten führen und somit eine größere Zahl an Arbeitnehmern an den positiven Produktivitätseffekten, die durch regionale Humankapitalexternalitäten entstehen, teilhaben lassen.
Stiftungsunternehmen sind Unternehmen, die sich ganz oder teilweise im Eigentum einer gemeinnützigen oder privaten Stiftung befinden. Die Anzahl an Stiftungsunternehmen in Deutschland ist in den letzten Jahren deutlich gestiegen. Bekannte deutsche Unternehmen wie Aldi, Bosch, Bertelsmann, LIDL oder Würth befinden sich im Eigentum von Stiftungen. Einige von ihnen, wie beispielsweise Fresenius, ZF Friedrichshafen oder Zeiss, sind sogar an der Börse notiert. Die Mehrzahl der Stiftungsunternehmen entsteht dadurch, dass Unternehmensgründer oder Unternehmerfamilien ihr Unternehmen in eine Stiftung einbringen, anstatt es zu vererben oder zu verkaufen.
Die Motive hierfür sind vielfältig und können familiäre Gründe (z. B. Kinderlosigkeit, Vermeidung von Familienstreit), unternehmensbezogene Gründe (z. B. Möglichkeit der langfristigen Planung durch stabile Eigentümerstruktur) und steuerliche Gründe (Vermeidung oder Reduzierung der Erbschaftssteuer) haben oder sind durch die Person des Gründers motiviert (Möglichkeit, das Unternehmen auch nach dem eigenen Tod über die Stiftung noch weiterhin zu prägen). Aufgrund der Tatsache, dass Stiftungsunternehmen zumeist aus Familienunternehmen hervorgehen, wird in der Forschung häufig nicht zwischen Familien- und Stiftungsunternehmen differenziert. Aus diesem Grund werden in dieser Dissertation zu Beginn anhand des Drei-Kreis-Modells für Familienunternehmen die Unterschiede zwischen Stiftungs- und Familienunternehmen dargestellt. Die Ergebnisse zeigen, dass nur eine sehr geringe Anzahl von Stiftungsunternehmen eine große Ähnlichkeit zu klassischen Familienunternehmen aufweist. Die meisten Stiftungsunternehmen unterscheiden sich zum Teil sehr stark von Familienunternehmen. Diese Ergebnisse verdeutlichen, dass Stiftungsunternehmen als separates Forschungsfeld betrachtet werden sollten.
Da innerhalb der Gruppe der Stiftungsunternehmen ebenfalls eine starke Heterogenität herrscht, werden im Anschluss Performanceunterschiede innerhalb der Gruppe der Stiftungsunternehmen untersucht. Hierzu wurden die Daten von 142 deutschen Stiftungsunternehmen für die Jahre 2006-2016 erhoben und mittels einer lineareren Regression ausgewertet. Die Ergebnisse zeigen, dass zwischen den verschiedenen Typen signifikante Unterschiede herrschen. Unternehmen, die von einer gemeinnützigen Stiftung gehalten werden, weisen eine signifikant schlechtere Performance auf, als Unternehmen die eine private Stiftung als Shareholder haben.
Im nächsten Schritt wird die Gruppe der börsennotierten Stiftungsunternehmen untersucht. Mittels einer Ereignisstudie wird getestet, wie sich die Stiftung als Eigentümer eines börsennotierten Unternehmens auf den Shareholder Value auswirkt. Die Ergebnisse zeigen, dass eine Anteilsverringerung einer Stiftung einen positiven Einfluss auf den Shareholder Value hat. Stiftungen werden vom Kapitalmarkt dementsprechend negativ bewertet. Aufgrund der divergierenden Ziele von Stiftung und Unternehmen birgt die Verbindung zwischen Stiftung und Unternehmen potentielle Konflikte und Herausforderungen für die beteiligten Personen. Mittels eines qualitativen explorativen Ansatzes, wird basierend auf Interviews, ein Modell entwickelt, welches die potentiellen Konflikte in Stiftungsunternehmen anhand des Beispiels der Doppelstiftung aufzeigt.
Im letzten Schritt werden Handlungsempfehlungen in Form eines Entwurfs für einen Corporate Governance Kodex erarbeitet, die (potentiellen) Stifterinnen und Stiftern helfen sollen, mögliche Konflikte entweder zu vermeiden oder bereits bestehende Probleme zu lösen.
Die Ergebnisse dieser Dissertation sind relevant für Theorie und Praxis. Aus theoretischer Sicht liegt der Wert dieser Untersuchungen darin, dass Forscher künftig besser zwischen Stiftungs- und Familienunternehmen unterscheiden können. Zudem bringt diese Arbeit den aktuellen Forschungsstand zum Thema Stiftungsunternehmen weiter. Außerdem bietet diese Dissertation insbesondere potentiellen Stiftern einen Überblick über die verschiedenen Ausgestaltungsmöglichkeiten und die Vor- und Nachteile, die diese Konstruktionen mit sich bringen. Die Handlungsempfehlungen ermöglichen es Stiftern, vorab potentielle Gefahren erkennen zu können und diese zu umgehen.
Some of the largest firms in the DACH region (Germany, Austria, Switzerland) are (partially) owned by a foundation and/or a family office, such as Aldi, Bosch, or Rolex. Despite their growing importance, prior research neglected to analyze the impact of these intermediaries on the firms they own. This dissertation closes this research gap by contributing to a deeper understanding of two increasingly used family firm succession vehicles, through four empirical quantitative studies. The first study focuses on the heterogeneity in foundation-owned firms (FOFs) by applying a descriptive analysis to a sample of 169 German FOFs. The results indicate that the family as a central stakeholder in a family foundation fosters governance that promotes performance and growth. The second study examines the firm growth of 204 FOFs compared to matched non-FOFs from the DACH region. The findings suggest that FOFs grow significantly less in terms of sales but not with regard to employees. In addition, it seems that this negative effect is stronger for the upper than for the middle or lower quantiles of the growth distribution. Study three adopts an agency perspective and investigates the acquisition behavior within the group of 164 FOFs. The results reveal that firms with charitable foundations as owners are more likely to undertake acquisitions and acquire targets that are geographically and culturally more distant than firms with a family foundation as owner. At the same time, they favor target companies from the same or related industries. Finally, the fourth study scrutinizes the capital structure of firms owned by single family-offices (SFOs). Drawing on a hand-collected sample of 173 SFO-owned firms in the DACH region, the results show that SFO-owned firms display a higher long-term debt ratio than family-owned firms, indicating that SFO-owned firms follow trade-off theory, similar to private equity-owned firms. Additional analyses show that this effect is stronger for SFOs that sold their original family firm. In conclusion, the outcomes of this dissertation furnish valuable research contributions and offer practical insights for families navigating such intermediaries or succession vehicles in the long term.
Forschungsprozessspezifische Kompetenzmatrix für die Einführung des Forschungsdatenmanagements (FDM)
(2018)
Die forschungsprozessspezifische Kompetenzmatrix stellt einen Baustein im Rahmen des durch das BMBF geförderten Forschungsprojektes „Prozessorientierte Entwicklung von Managementinstrumenten für Forschungsdaten im Lebenszyklus“ (PODMAN) dar. Im Rahmen des PODMAN-Projektes soll ein Referenzmodell und ein zugehöriges prozessorientiertes Benchmarking-Verfahren zur Implementierung des Forschungsdatenmanagements an Hochschulen und außeruniversitären Forschungseinrichtungen entwickelt werden. Darüber soll den Hochschulen und außeruniversitären Forschungseinrichtungen ein Orientierungsrahmen bereitgestellt werden, den sie flexibel zur Umsetzung eigener Datenmanagementstrategien nutzen können. In diesem Zusammenhang sollen Instrumente entwickelt werden, welche eine erfolgreiche Organisation der Zusammenarbeit und Kommunikation sowie der Qualifizierung aller am Forschungsdatenmanagementprozess beteiligten Akteure erlauben. Die forschungsprozessspezifische Kompetenzmatrix hat als eines dieser Instrumente zwei Funktionen: Erstens definiert sie die zur Implementierung eines umfassenden institutionellen FDM-Konzeptes notwendigen Aufgaben und zweitens die damit verbundenen Kompetenzen der ausführenden Akteure.
Forschungsprozessspezifische Kompetenzmatrix für die Einführung des Forschungsdatenmanagements (FDM)
(2019)
Die forschungsprozessspezifische Kompetenzmatrix stellt einen Baustein im Rahmen des durch das BMBF geförderten Forschungsprojektes „Prozessorientierte Entwicklung von Managementinstrumenten für Forschungsdaten im Lebenszyklus“ (PODMAN) dar. Im Rahmen des PODMAN-Projektes soll ein Referenzmodell und ein zugehöriges prozessorientiertes Benchmarking-Verfahren zur Implementierung des Forschungsdatenmanagements an Hochschulen und außeruniversitären Forschungseinrichtungen entwickelt werden. Darüber soll den Hochschulen und außeruniversitären Forschungseinrichtungen ein Orientierungsrahmen bereitgestellt werden, den sie flexibel zur Umsetzung eigener Datenmanagementstrategien nutzen können. In diesem Zusammenhang sollen Instrumente entwickelt werden, welche eine erfolgreiche Organisation der Zusammenarbeit und Kommunikation sowie der Qualifizierung aller am Forschungsdatenmanagementprozess beteiligten Akteure erlauben. Die forschungsprozessspezifische Kompetenzmatrix hat als eines dieser Instrumente zwei Funktionen: Erstens definiert sie die zur Implementierung eines umfassenden institutionellen FDM-Konzeptes notwendigen Aufgaben und zweitens die damit verbundenen Kompetenzen der ausführenden Akteure.
Die Publikation, die sich primär an Forschende aus den Geisteswissenschaften wendet, bietet eine praxisbezogene kurze Einführung in das Forschungsdatenmanagement. Sie ist als Planungsinstrument für ein Forschungsprojekt konzipiert und bietet Hilfestellung bei der Erarbeitung eines digitalen Forschungskonzepts und der Erstellung eines Datenmanagementplans. Ausgehend von der Analyse ausgewählter Arbeitssituationen (Projektplanung und Antrag-stellung, Quellenbearbeitung, Publikation und Archivierung) und deren Veränderung in einer zunehmend digital organisierten Forschungspraxis werden die Zusammenhänge zwischen Forschungs- und Datenmanagementprozess thematisiert. Eine Checkliste in Form eines Fragenkatalogs und eine kommentierte Mustervorlage für einen Daten-managementplan helfen bei der Projektplanung und -beantragung.
Der Tagungsbericht fasst die Vorträge, Workshops und Ergebnisse der Abschlusstagung des BMBF-Projektes PODMAN: „Forschung + Datenmanagement = Forschungsdatenmanagement – Wann geht die Gleichung auf?“ vom 27. und 28. März 2019 an der Universität Trier zusammen. Ihm sind die Vortragsfolien, die Präsentationen der Workshops sowie die zugehörige Fotodokumentation der Arbeitsgruppen im Anhang beigefügt.
Die Beschäftigung mit dem Luxemburgischen unter phraseologischem Gesichtspunkt ist ein Phänomen der jüngsten Forschungen, das erst im Laufe der letzten beiden Jahrzehnte vermehrt Aufmerksam gefunden hat. Trotz einer bereits soliden Grundsteinlegung bietet die Phraseologie des Luxemburgischen noch reichlich Untersuchungsfläche. Die Dissertation "Formelhafte Sprache in der Chambre des Députés: Eine empirische Untersuchung der Phrasemverwendung im Luxemburgischen anhand der öffentlichen Sitzungsprotokolle der Abgeordnetenkammer" befasst sich mit dem Gebrauch des Luxemburgischen in politischen Reden, mit Schwerpunkt auf formelhafter Sprache, sogenannten Phraseologismen, wie etwa Routineformeln (z. B.: Dir Dammen an Dir Hären…; wéi scho gesot…), Sprichwörter (z. B.: Déi aarm Leit kache mat Waasser; Wie schnell geet, geet duebel), Paarformeln (z. B.: de Sënn an den Zweck; ëmmer an iwwerall), komparative Phraseologismen (z. B.: eppes läit engem um Mo wéi eng Zill) und andere vorgefertigte Sprachelemente, die meistens in einer verfestigten Form vorkommen und häufig dazu dienen, bestimmte Kommunikationssituationen zu bewältigen. In diesen Reden spielen Phraseologismen unbestreitbar eine wichtige Rolle, seien es bewusst eingesetzte Wortverbindungen, die rhetorisch überzeugen sollen oder unbewusst vorkommende Phraseologismen, die den Redefluss und die Formulierung erleichtern. Zudem zeigt die Formelhaftigkeit sich in dieser Textsorte umso stärker, weil es in den Sitzungen der Abgeordnetenkammer, ebenso wie in anderen Parlamenten auch, eine Fülle von fest vorgeschriebenen Abläufen und festgelegte Rollen mit eigenen ritualisierten Redeanteilen gibt. Die in den stenographischen Protokollen aufgezeichneten Reden und Debatten aus dem luxemburgischen Parlament bilden also die Grundlage der Untersuchung. Im Vorfeld wurde ein Untersuchungkorpus zusammengestellt, indem die betreffenden Sprachelemente (Phraseme) manuell exzerpiert wurden. Diese wurden in eine Datenbank eingetragen, nach mehreren Kriterien klassifiziert und mit zusätzlichen Metainformationen angereichert. Der Hauptteil der Untersuchung besteht in der Analyse der im Textkorpus vorkommenden Phraseme innerhalb ihres Kontextes in den Abgeordnetenreden, um die unterschiedlichen (stilistischen, rhetorischen, etc.) Funktionen und Effekte herauszuarbeiten, die sie in den jeweiligen Redestellen erfüllen. Dieses Vorgehen ist von großer Bedeutung, um zu erkennen, wie wichtig solche verfestigten Ausdrücke und formelhaften Elemente für die Sprache sind und welche zentrale Rolle sie in den untersuchten Reden und im Luxemburgischen im Allgemeinen spielen. Daneben werden auch quantitative Aspekte untersucht (z. B. allgemeine Phraseologismenfrequenz; Verteilung auf unterschiedliche Phraseologismusklassen; Phrasemvorkommen in unterschiedlichen Zeitschnitten), damit die ausgewählten Texte auch mit anderen Textsorten oder mit Parlamentsreden aus anderen Sprachen vergleichbar sind hinsichtlich des Gebrauchs von formelhaften/phraseologischen Elementen.
Formation et marché du travail transfrontalier : Quelles pistes face aux déséquilibres croissants ?
(2022)
L’objet de ce document est d’alimenter la réflexion sur le rôle de la formation sur le marché du travail transfrontalier, en mobilisant les débats engagés à la fois dans les différents Cahiers de la Grande Ré-gion et lors d’une conférencedébat organisée en ligne le 1er décembre 2020 sur le thème « Inadéquations, Compétences, et formation : Quelles équations pour le marché du travail transfrontalier ? ». Plus précisément, cette contribution vise à répondre à la question suivante : comment la formation et ses différentes pratiques dans les domaines professionnels, mais aussi dans l’enseignement scolaire et universitaire peuvent atténuer les déséquilibres qui se font jour sur le marché du travail de la Grande Région ? Le document propose ainsi quelques pistes de réflexions pour la coopération transfrontalière en matière de formation.
This thesis centers on formal tree languages and on their learnability by algorithmic methods in abstractions of several learning settings. After a general introduction, we present a survey of relevant definitions for the formal tree concept as well as special cases (strings) and refinements (multi-dimensional trees) thereof. In Chapter 3 we discuss the theoretical foundations of algorithmic learning in a specific type of setting of particular interest in the area of Grammatical Inference where the task consists in deriving a correct formal description for an unknown target language from various information sources (queries and/or finite samples) in a polynomial number of steps. We develop a parameterized meta-algorithm that incorporates several prominent learning algorithms from the literature in order to highlight the basic routines which regardless of the nature of the information sources have to be run through by all those algorithms alike. In this framework, the intended target descriptions are deterministic finite-state tree automata. We discuss the limited transferability of this approach to another class of descriptions, residual finite-state tree automata, for which we propose several learning algorithms as well. The learnable class by these techniques corresponds to the class of regular tree languages. In Chapter 4we outline a recent range of attempts in Grammatical Inference to extend the learnable language classes beyond regularity and even beyond context-freeness by techniques based on syntactic observations which can be subsumed under the term 'distributional learning', and we describe learning algorithms in several settings for the tree case taking this approach. We conclude with some general reflections on the notion of learning from structural information.
In der kleinen ostfriesischen Kirchengemeinde W. hat sich im Jahr 1969 ein plötzlicher Todesfall ereignet. Fremdverschulden wird ausgeschlossen. Jemand, der die Hintergründe des Todesfalls aufklären will, stößt allenthalben auf – bisweilen gar aggressives – Schweigen. Eine Geschichte über individuelle und kollektive Schuld, lutherische Kirchenmusik und den Wert, den wir der Kultur und der Tradition beimessen.
Ausgezeichnet mit dem Borsla-Preis 2019.
Although it has been demonstrated that nociceptive processing can be modulated by heterotopically and concurrently applied noxious stimuli, the nature of brain processes involved in this percept modulation in healthy subjects remains elusive. Using functional magnetic resonance imaging (fMRI) we investigated the effect of noxious counter-stimulation on pain processing. FMRI scans (1.5 T; block-design) were performed in 34 healthy subjects (median age: 23.5 years; range: 20-31 yrs.) during combined and single application (duration: 15 s; ISI=36 s incl. 6 s rating time) of noxious interdigital-web pinching (intensity range: 6-15 N) and contact-heat (45-49 -°C) presented in pseudo-randomized order during two runs separated by approx. 15 min with individually adjusted equi-intense stimuli. In order to control for attention artifacts, subjects were instructed to maintain their focus either on the mechanical or on the thermal pain stimulus. Changes in subjective pain intensity were computed as percent differences (∆%) in pain ratings between single and heterotopic stimulation for both fMRI runs, resulting in two subgroups showing a relative pain increase (subgroup P-IN, N=10) vs. decrease (subgroup P-DE, N=12). Second level and Region of Interest analysis conducted for both subgroups separately revealed that during heterotopic noxious counter-stimulation, subjects with relative pain decrease showed stronger and more widespread brain activations compared to subjects with relative pain increase in pain processing regions as well as a fronto-parietal network. Median-split regression analyses revealed a modulatory effect of prefrontal activation on connectivity between the thalamus and midbrain/pons, supporting the proposed involvement of prefrontal cortex regions in pain modulation. Furthermore, the mid-sagittal size of the total corpus callosum and five of its subareas were measured from the in vivo magnetic resonance imaging (MRI) recordings. A significantly larger relative truncus size (P=.04) was identified in participants reporting a relative decrease of subjective pain intensity during counter-stimulation, when compared to subjects experiencing a relative pain increase. The above subgroup differences observed in functional and structural imaging data are discussed with consideration of potential differences in cognitive and emotional aspects of pain modulation.
The microbial enzyme alkaline phosphatase contributes to the removal of organic phosphorus compounds from wastewaters. To cope with regulatory threshold values for permitted maximum phosphor concentrations in treated wastewaters, a high activity of this enzyme in the biological treatment stage, e.g., the activated sludge process, is required. To investigate the reaction dynamics of this enzyme, to analyze substrate selectivities, and to identify potential inhibitors, the determination of enzyme kinetics is necessary. A method based on the application of the synthetic fluorogenic substrate 4-methylumbelliferyl phosphate is proven for soils, but not for activated sludges. Here, we adapt this procedure to the latter. The adapted method offers the additional benefit to determine inhibition kinetics. In contrast to conventional photometric assays, no particle removal, e.g., of sludge pellets, is required enabling the analysis of the whole sludge suspension as well as of specific sludge fractions. The high sensitivity of fluorescence detection allows the selection of a wide substrate concentration range for sound modeling of kinetic functions.
- Fluorescence array technique for fast and sensitive analysis of high sample numbers
- No need for particle separation – analysis of the whole (diluted) sludge suspension
- Simultaneous determination of standard and inhibition kinetics
Traditional workflow management systems support process participants in fulfilling business tasks through guidance along a predefined workflow model.
Flexibility has gained a lot of attention in recent decades through a shift from mass production to customization. Various approaches to workflow flexibility exist that either require extensive knowledge acquisition and modelling effort or an active intervention during execution and re-modelling of deviating behaviour. The pursuit of flexibility by deviation is to compensate both of these disadvantages through allowing alternative unforeseen execution paths at run time without demanding the process participant to adapt the workflow model. However, the implementation of this approach has been little researched so far.
This work proposes a novel approach to flexibility by deviation. The approach aims at supporting process participants during the execution of a workflow through suggesting work items based on predefined strategies or experiential knowledge even in case of deviations. The developed concepts combine two renowned methods from the field of artificial intelligence - constraint satisfaction problem solving with process-oriented case-based reasoning. This mainly consists of a constraint-based workflow engine in combination with a case-based deviation management. The declarative representation of workflows through constraints allows for implicit flexibility and a simple possibility to restore consistency in case of deviations. Furthermore, the combined model, integrating procedural with declarative structures through a transformation function, increases the capabilities for flexibility. For an adequate handling of deviations the methodology of case-based reasoning fits perfectly, through its approach that similar problems have similar solutions. Thus, previous made experiences are transferred to currently regarded problems, under the assumption that a similar deviation has been handled successfully in the past.
Necessary foundations from the field of workflow management with a focus on flexibility are presented first.
As formal foundation, a constraint-based workflow model was developed that allows for a declarative specification of foremost sequential dependencies of tasks. Procedural and declarative models can be combined in the approach, as a transformation function was specified that converts procedural workflow models to declarative constraints.
One main component of the approach is the constraint-based workflow engine that utilizes this declarative model as input for a constraint solving algorithm. This algorithm computes the worklist, which is proposed to the process participant during workflow execution. With predefined deviation handling strategies that determine how the constraint model is modified in order to restore consistency, the support is continuous even in case of deviations.
The second major component of the proposed approach constitutes the case-based deviation management, which aims at improving the support of process participants on the basis of experiential knowledge. For the retrieve phase, a sophisticated similarity measure was developed that integrates specific characteristics of deviating workflows and combines several sequence similarity measures. Two alternative methods for the reuse phase were developed, a null adaptation and a generative adaptation. The null adaptation simply proposes tasks from the most similar workflow as work items, whereas the generative adaptation modifies the constraint-based workflow model based on the most similar workflow in order to re-enable the constraint-based workflow engine to suggest work items.
The experimental evaluation of the approach consisted of a simulation of several types of process participants in the exemplary domain of deficiency management in construction. The results showed high utility values and a promising potential for an investigation of the transfer on other domains and the applicability in practice, which is part of future work.
Concluding, the contributions are summarized and research perspectives are pointed out.
A basic assumption of standard small area models is that the statistic of interest can be modelled through a linear mixed model with common model parameters for all areas in the study. The model can then be used to stabilize estimation. In some applications, however, there may be different subgroups of areas, with specific relationships between the response variable and auxiliary information. In this case, using a distinct model for each subgroup would be more appropriate than employing one model for all observations. If no suitable natural clustering variable exists, finite mixture regression models may represent a solution that „lets the data decide“ how to partition areas into subgroups. In this framework, a set of two or more different models is specified, and the estimation of subgroup-specific model parameters is performed simultaneously to estimating subgroup identity, or the probability of subgroup identity, for each area. Finite mixture models thus offer a fexible approach to accounting for unobserved heterogeneity. Therefore, in this thesis, finite mixtures of small area models are proposed to account for the existence of latent subgroups of areas in small area estimation. More specifically, it is assumed that the statistic of interest is appropriately modelled by a mixture of K linear mixed models. Both mixtures of standard unit-level and standard area-level models are considered as special cases. The estimation of mixing proportions, area-specific probabilities of subgroup identity and the K sets of model parameters via the EM algorithm for mixtures of mixed models is described. Eventually, a finite mixture small area estimator is formulated as a weighted mean of predictions from model 1 to K, with weights given by the area-specific probabilities of subgroup identity.
Finding behavioral parameterization for a 1-D water balance model by multi-criteria evaluation
(2019)
Evapotranspiration is often estimated by numerical simulation. However, to produce accurate simulations, these models usually require on-site measurements for parameterization or calibration. We have to make sure that the model realistically reproduces both, the temporal patterns of soil moisture and evapotranspiration. In this study, we combine three sources of information: (i) measurements of sap velocities; (ii) soil moisture; and (iii) expert knowledge on local runoff generation and water balance to define constraints for a “behavioral” forest stand water balance model. Aiming for a behavioral model, we adjusted soil moisture at saturation, bulk resistance parameters and the parameters of the water retention curve (WRC). We found that the shape of the WRC influences substantially the behavior of the simulation model. Here, only one model realization could be referred to as “behavioral”. All other realizations failed for a least one of our evaluation criteria: Not only transpiration and soil moisture are simulated consistently with our observations, but also total water balance and runoff generation processes. The introduction of a multi-criteria evaluation scheme for the detection of unrealistic outputs made it possible to identify a well performing parameter set. Our findings indicate that measurement of different fluxes and state variables instead of just one and expert knowledge concerning runoff generation facilitate the parameterization of a hydrological model.
Wladimir Putin beherrscht seit 15 Jahren die politische Bühne in Russland. In dieser Zeit hat kein anderes Land in Europa vergleichbar dramatische Änderungen der gesellschaftlichen Verhältnisse, der wirtschaftlichen Ordnung und des politischen Systems erfahren. Die Verknüpfungen zwischen Wirtschaft, Militär, Sicherheitsdiensten, Politik und organisierter Kriminalität haben ein gefährliches Milieu geschaffen. Dort sind Gefahren und Bedrohungen entstanden, die über die Grenzen Russlands hinausreichen. Die Folgen dieser besorgniserregenden Entwicklung, bei der die Staatsfinanzen, aber auch die Aktivitäten der russischen organisierten Kriminalität wie etwa die Geldwäsche eine besondere Bedeutung haben, sind unter anderem Gegenstände dieser Schrift, die zum ersten Mal die strategischen und sicherheitspolitischen Zusammenhänge sowie die konkreten kriminellen Methoden der Beteiligten beschreibt.
Auf politischer Ebene hat die Finanzierung von Kleinstunternehmen, kleinen und mittleren Unternehmen (KMU) durch die europäische Finanz- und Wirtschaftskrise eine hohe Bedeutung erhalten, da mehr als 99% aller europäischen Unternehmen in Europa dieser Kategorie angehören. Als Reaktion auf die oftmals schwierige Finanzierungssituation von KMU, die maßgeblich zur Gefährdung der Innovationsfähigkeit und der Entwicklung der europäischen Wirtschaft beitragen kann, wurden spezielle staatliche Programme aufgelegt. Trotz des vermehrten Interesses auf politischer und akademischer Ebene bezüglich KMU-Finanzierung, gibt es jedoch auf europäischer Ebene nur wenig empirische Evidenz. Diese Dissertation beschäftigt sich daher in fünf verschiedenen empirischen Studien zu aktuellen Forschungslücken hinsichtlich der Finanzierung von Kleinstunternehmen, kleinen und mittleren Unternehmen in Europa und mit neuen Finanzierungsinstrumenten für innovative Unternehmen oder Start-Ups.
Zunächst wird basierend auf zwei empirischen Untersuchungen (Kapitel 2 und 3) der Status Quo der KMU-Finanzierung in Europa dargelegt. Die Finanzierung von KMU in Europa ist sehr heterogen. Einerseits sind KMU als Gruppe keine homogene Gruppe, da Kleinstunternehmen (< 10 Mitarbeiter), kleine (10–49 Mitarbeiter) und mittlere (50–249 Mitarbeiter) Unternehmen sich nicht nur in ihren Charakteristiken unterscheiden, sondern auch unterschiedliche Finanzierungsmöglichkeiten und -bedürfnisse besitzen. Andererseits existieren Länderunterschiede in der Finanzierung von KMU in Europa. Die Ergebnisse dieser beiden Studien (Kapitel 2 und 3), die auf einer Umfrage der Europäischen Zentralbank und der Europäischen Kommission („SAFE survey“) beruhen, verdeutlichen dies: KMU in Europa verwenden unterschiedliche Finanzierungsmuster und nutzen Finanzierungsmuster komplementär oder substitutiv zueinander. Die verschiedenen Finanzierungsmuster sind wiederum gekennzeichnet durch firmen-, produkt-, und länderspezifische Charakteristika, aber auch durch makroökonomische Variablen (z. B. Inflationsraten).
In Kapitel 3 der Dissertation werden gezielt die Unterschiede zwischen der Finanzierung von Kleinstunternehmen im Vergleich zu kleinen und mittleren Unternehmen untersucht. Während kleine und mittlere Unternehmen eine Vielzahl an verschiedenen Finanzierungsinstrumenten parallel zueinander nutzen (z. B. subventionierte Bankkredite parallel zu Banken-, Überziehungs- und Lieferantenkrediten), greifen Kleinstunternehmen auf wenige Instrumente gleichzeitig zurück (insbesondere kurzfristiges Fremdkapital). Folglich finanzieren sich Kleinstunternehmen entweder intern oder über Überziehungskredite. Die Ergebnisse der Dissertation zeigen somit, dass die Finanzierung der KMU nicht homogen ist. Insbesondere Kleinstunternehmen sollten als eine eigenständige Gruppe innerhalb der KMU mit charakteristischen Finanzierungsmustern behandelt werden.
Innovative Firmen und Start-Ups gelten als wichtiger Motor für die Entwicklung der regionalen Wirtschaft. Auch sie werden in der akademischen Literatur häufig mit Finanzierungsschwierigkeiten in Verbindung gebracht, die das Wachstum und Überleben dieser Unternehmen erschwert. Der zweite Teil der Dissertation beinhaltet daher zwei empirische Studien zu dieser Thematik. Zunächst werden in Kapitel 4 in einer ersten Studie die regionalen und firmenspezifischen Faktoren untersucht, die den Output des geistigen Eigentums erhöhen. Insbesondere regionale Faktoren wurden bisher unzureichend untersucht, welche jedoch speziell für die politischen Entscheidungsträger von besonderer Relevanz sind. Die Ergebnisse dieser Studie zeigen, dass der Erhalt von Venture Capital neben der Firmengröße einen signifikanten Einfluss auf die Höhe des geistigen Eigentums haben. Zwar spielen technische Universitäten keine Rolle bezüglich des Outputs, jedoch zeigt sich ein signifikant positiver Effekt der Studentenrate auf den jeweiligen Output des geistigen Eigentums. Basierend auf diesen Ergebnissen wird in einer zweiten Studie gezielt auf das Finanzierungsinstrument Venture Capital eingegangen und zwischen verschiedenen VC Typen unterschieden: staatliche, unabhängige und Corporate Venture Capital Firmen. Die Ergebnisse zeigen, dass insbesondere Regionen mit einem Angebot an qualifiziertem Humankapital staatliche Venture Capital Investitionen anziehen. Des Weiteren investieren insbesondere Corporate und staatliche Venture Capital Firmen vermehrt in ländliche Regionen.
Als neues Finanzierungsinstrument für besonders innovative Unternehmer hat sich das „Initial Coin Offering (ICO)“ in den letzten Jahren herauskristallisiert, womit sich Kapitel 5 näher beschäftigt. Mithilfe einer Zeitreihenanalyse werden Marktzyklen von ICO Kampagnen, bitcoin und Ether Preisen analysiert. Die Ergebnisse dieser Studie zeigen, dass vergangene ICOs die folgenden ICOs positiv beeinflussen. Zudem haben ICOs einen negativen Einfluss auf die Kryptowährungen Bitcoin und Ether, wohingegen sich der Preis des bitcoin positiv auf den Preis des Ethers auswirkt.
Financing of Small and Medium-Sized Enterprises in Europe - Financing Patterns and 'Crowdfunding'
(2015)
Small and medium-sized enterprises (SMEs) play a vital role for the innovativeness, economic growth and competitiveness of Europe. One of the most pressing problems of SMEs is access to finance to ensure their survival and growth. This dissertation uses both quantitative and qualitative exploratory research methods and increases with its holistic approach the transparency in SME financing. The results of a cluster analysis including 12,726 SMEs in 28 European countries reveal that SME financing in Europe is not homogenous but that different financing patterns exist which differ according to the number of financing instruments used and the combinations thereof. Furthermore, the SME financing types can be profiled according to their firm-, product-, industry- and country-specific characteristics. The results of this analysis provide some support for prior findings that smaller, younger and innovative SMEs suffer from a financing gap which cannot be closed with traditional financing instruments. One alternative to close this financing gap is crowdfunding. Even though crowdfunding has shown tremendous growth rates over the past few years, little is known about the determinants of this financing alternative. This dissertation systematically analyses the existing scientific literature on crowdfunding as an alternative in SME financing and reveals existing research gaps. Afterwards, the focus is on the role of investor communication as a way to reduce information asymmetries of the crowd in equity-based crowdfunding. The results of 24 interviews with market participants in equity-based crowdfunding reveal that crowd investors seem to replace personal contacts with alternative ways of communicating, which can be characterized as pseudo-personal (i.e., by using presentation videos, social media and investor relations channels). In addition, it was found that third party endorsements (e.g., other crowd investors, professional investors, customers and platforms) reduce the information asymmetries of crowd investors and hence, increase the likelihood of their investment.
With two-thirds to three-quarters of all companies, family firms are the most common firm type worldwide and employ around 60 percent of all employees, making them of considerable importance for almost all economies. Despite this high practical relevance, academic research took notice of family firms as intriguing research subjects comparatively late. However, the field of family business research has grown eminently over the past two decades and has established itself as a mature research field with a broad thematic scope. In addition to questions relating to corporate governance, family firm succession and the consideration of entrepreneurial families themselves, researchers mainly focused on the impact of family involvement in firms on their financial performance and firm strategy. This dissertation examines the financial performance and capital structure of family firms in various meta-analytical studies. Meta-analysis is a suitable method for summarizing existing empirical findings of a research field as well as identifying relevant moderators of a relationship of interest.
First, the dissertation examines the question whether family firms show better financial performance than non-family firms. A replication and extension of the study by O’Boyle et al. (2012) based on 1,095 primary studies reveals a slightly better performance of family firms compared to non-family firms. Investigating the moderating impact of methodological choices in primary studies, the results show that outperformance holds mainly for large and publicly listed firms and with regard to accounting-based performance measures. Concerning country culture, family firms show better performance in individualistic countries and countries with a low power distance.
Furthermore, this dissertation investigates the sensitivity of family firm performance with regard to business cycle fluctuations. Family firms show a pro-cyclical performance pattern, i.e. their relative financial performance compared to non-family firms is better in economically good times. This effect is particularly pronounced in Anglo-American countries and emerging markets.
In the next step, a meta-analytic structural equation model (MASEM) is used to examine the market valuation of public family firms. In this model, profitability and firm strategic choices are used as mediators. On the one hand, family firm status itself does not have an impact on firms‘ market value. On the other hand, this study finds a positive indirect effect via higher profitability levels and a negative indirect effect via lower R&D intensity. A split consideration of family ownership and management shows that these two effects are mainly driven by family ownership, while family management results in less diversification and internationalization.
Finally, the dissertation examines the capital structure of public family firms. Univariate meta-analyses indicate on average lower leverage ratios in family firms compared to non-family firms. However, there is significant heterogeneity in mean effect sizes across the 45 countries included in the study. The results of a meta-regression reveal that family firms use leverage strategically to secure their controlling position in the firm. While strong creditor protection leads to lower leverage ratios in family firms, strong shareholder protection has the opposite effect.
The article deals with the responsibility of the financial sector under criminal law in Germany. This question has been of special interest since the beginning of the financial crisis. The author argues that the transactions of asset-backed securities based on American subprime mortgages fulfill all legal elements of the criminal offence "breach of trust" (Untreue). From the author's point of view, the people's legal loyalty would be severely affected if there were no criminal proceedings against such bankers who purchased those toxic asset-backed securities without sufficient information on their structure and value. Refraining from criminal prosecution even in cases causing high loss would send a dangerous signal towards the investment banking industry.
Auf Grundlage der Erschließung und Analyse des reichhaltigen Konvoluts an Kinoanzeigen in der Freiburger Zeitung beschreibt die Arbeit die Etablierung des Starsystems im Kinogewerbe vor dem Ersten Weltkrieg (1911-1914) am lokalen Beispiel der Stadt Freiburg im Breisgau. Im Zentrum stehen die Werbestrategien der Kinobetreiber, die dem Zeitung lesenden Publikum in ihren Inseraten den Besuch von langen Spielfilmen mit der dänischen Schauspielerin Asta Nielsen nahelegen. rnDie Kinoanzeigen in der Lokalpresse überliefern eine wichtige zeitgenössische Schnittstelle zwischen Filmindustrie und Kinopublikum. Sie enthalten die maßgebliche Information und Werbung zu einzelnen Filmprogrammen für potentielle Kinobesucher aus den "besseren" Kreisen. Chronologisch an den Freiburger Kinoanzeigen voranschreitend zeigt die Arbeit zunächst die innovativen Merkmale des Verleihs einzeln angebotener Filme mit Asta Nielsen bis hin zu Asta-Nielsen-Serien: Exklusiver Monopolfilmverleih, Blockbuchen von ganzen Filmserien im Voraus und die zunehmende Fokussierung der inhaltlichen und formalen Gestaltung der Kinoanzeigen auf die Hauptdarstellerin als ausschlaggebenden Werbeträger werden ausführlich dargestellt. Asta Nielsen wird als Marke beworben " gegenüber der Hauptdarstellerin treten die wechselnden Titel ihrer Filme in den Hintergrund.rnDie konkurrierenden Kinounternehmen antworten mit der Aufbietung der Namen von Autoren (wie Leo Tolstoi oder Charles Decroix), von fiktionalen Figuren wie dem Detektiv Nick Winter oder Komikern wie "Max" (Max Linder) oder "Moritz" (Charles Prince) und von DarstellerInnen wie Henny Porten, Wanda Treumann, Suzanne Grandais oder Waldemar Psilander. Diese Gegenstrategien sind selbst Indizien für den Erfolg der auf den Star zentrierten Werbung für Asta-Nielsen-Filme. Die Ankündigung von Filmen mit der schwedischen Schauspielerin Ida Nielsen profitiert sogar direkt vom gelungenen Aufbau der Marke Asta Nielsen. Vergleichende Datenerhebungen zur Nennung von DarstellerInnen in den Kinoanzeigen der Freiburger Zeitung ergeben, dass Asta Nielsen mit weitem Abstand den Spitzenplatz einnimmt. Auf diese Weise demonstriert die Arbeit einmal mehr, dass der Medienumbruch vom Nummernprogramm zum langen Spielfilm in Freiburg an den Kinoanzeigen für Asta-Nielsen-Filme signifikant abzulesen ist.
Rezension des 21. Bandes der Gesellschaft für Exilforschung, der sich unter dem Titel "Film und Fotografie" mit der Exilsituation in der NS-Zeit auseinandersetzt. Der Sammelband stellt unbekannte Emigranten-Schicksale aus dem Bereich Film vor, fünf Beiträge befassen sich mit der Fotografie während und nach der NS-Zeit.
Jugendliche zu unterstützen, sich auszudrücken, ist ein wichtiger Bereich der Demokratiebildung. Eine der Möglichkeiten dafür ist es, sie die Medien gestalten zu lassen, die sie am besten kennen. Der vorliegende Artikel beschäftigt sich vor allem mit der Frage, wie man kreative und themenbezogene Projektarbeit mit digitalen Medien – genauer: dem Smartphone – verbinden kann.
The availability of data on the feeding habits of species of conservation value may be of great importance to develop analyses for both scientific and management purposes. Stomach flushing is a harmless technique that allowed us to collect extensive data on the feeding habits of six Hydromantes species. Here, we present two datasets originating from a three-year study performed in multiple seasons (spring and autumn) on 19 different populations of cave salamanders. The first dataset contains data of the stomach content of 1,250 salamanders, where 6,010 items were recognized; the second one reports the size of the intact prey items found in the stomachs. These datasets integrate considerably data already available on the diet of the European plethodontid salamanders, being also of potential use for large scale meta-analyses on amphibian diet.
With the ongoing trend towards deep learning in the remote sensing community, classical pixel based algorithms are often outperformed by convolution based image segmentation algorithms. This performance was mostly validated spatially, by splitting training and validation pixels for a given year. Though generalizing models temporally is potentially more difficult, it has been a recent trend to transfer models from one year to another, and therefore to validate temporally. The study argues that it is always important to check both, in order to generate models that are useful beyond the scope of the training data. It shows that convolutional neural networks have potential to generalize better than pixel based models, since they do not rely on phenological development alone, but can also consider object geometry and texture. The UNET classifier was able to achieve the highest F1 scores, averaging 0.61 in temporal validation samples, and 0.77 in spatial validation samples. The theoretical potential for overfitting geometry and just memorizing the shape of fields that are maize has been shown to be insignificant in practical applications. In conclusion, kernel based convolutions can offer a large contribution in making agricultural classification models more transferable, both to other regions and to other years.
Fibromyalgia is a disorder of unknown etiology characterized by widespread, chronic musculoskeletal pain of at least three month duration and pressure hyperalgesia at specific tender points on clinical examination. The disorder is accompanied by a multitude of additional symptoms such as fatigue, sleep disturbances, morning stiffness, depression, and anxiety. In terms of biological disturbances, low cortisol concentrations have been repeatedly observed in blood and urine samples of fibromyalgia patients, both under basal and stress-induced conditions. The aim of this dissertation was to investigate the presence of low cortisol concentrations (hypocortisolism) and potential accompanying alterations on sympathetic and immunological levels in female fibromyalgia patients. Beside the expected hypocortisolism, a higher norepinephrine secretion and lower natural killer cell levels were found in the patient group compared to a control group consisting of healthy, age-matched women. In addition, an increased activity of some pro-inflammatory markers was observed thus leading to alterations in the balance of pro-/anti-inflammatory activity. The results underline the relevance of simultaneous investigations of interacting bodily systems for a better understanding of underlying biological mechanisms in stress-related disorders.
Die Untersuchung widmet sich dem Verhältnis von Kunst und Fernsehen in Deutschland seit den 1960er Jahren bis heute unter Berücksichtigung des gesellschaftlichen und künstlerischen Diskurses. In den 1960er Jahren begann die Zusammenarbeit von Künstlern und dem Fernsehen mit Projekten wie "Black Gate Cologne" oder Gerry Schums "Fernsehgalerie" äußerst vielversprechend. In enger Zusammenarbeit mit den Fernsehverantwortlichen wurden Sendungen speziell für die Ausstrahlung im Fernsehen produziert und auch als Fernsehkunst gesendet. Die Akzeptanz und Resonanz auf diese Projekte waren jedoch nach anfänglicher Euphorie bescheiden bis ablehnend. Allerdings führte dies nicht zu einem Scheitern und einer Rückverlagerung der Kunst in den Präsentationsort Museum oder Galerie, sondern zu einer Weiterentwicklung der Fernsehkunst bis in die heutige Zeit. Fernsehkunst hat sich ihrem Aufführungs- und Produktionskontext, aber auch bei der Wahl ihrer Themen der jeweiligen Epoche mit ihren technischen und kommunikativen Möglichkeiten sowie dem gesellschaftlichen Diskurs zu öffentlichkeitsrelevanten Themen anpasst. Fernsehkunst ist stets ein Spiegel der aktuellen Diskurse in Kunst und Gesellschaft. In der bisherigen Forschung wurde Fernsehkunst als gescheitert und damit als nicht mehr existent angesehen. Die Stigmatisierung des Fernsehens als reines Unterhaltungs- und Informationsmedium führte dazu, dass Fernsehkunst als Begriff und als Kunstgattung im öffentlichen und im wissenschaftlichen Diskurs nicht vorkam. Die typologische und inhaltliche Analyse hat jedoch gezeigt, dass Fernsehkunst in klarer Abgrenzung zur Videokunst auch gegenwärtig existiert.
Es wurden Staubmessungen in der Luft eines Putenmaststalls mit dem Ziel der Charakterisierung der Höhe und des Verlaufs besonders der Feinstaubfraktion PM 10 (Particulate Matter 10, Partikel, deren aerodynamischer Durchmesser kleiner als 10 -µm ist) und der einatembaren Staubfraktion (ID bzw. PM 100) im Laufe eines Mastdurchganges durchgeführt. Zur Erfassung von PM 10 wurde das für Emissionsmessungen bereits etablierte Messsystem DIGITEL HVS DHA-80 eingesetzt, um es auf Eignung unter Stallbedingungen zu testen. Die Ansaughöhe zur Probenahme betrug 2 m über Grund. Parallel dazu wurde die einatembare Staubfraktion mit einem in der Arbeitsmedizin gebräuchlichen, stationär positionierten Personal Sampler (IOM-SKC-Messsystem) erfasst. Anlass der Erfassung der Staubkonzentrationen war der unbefriedigende Kenntnisstand bezüglich der Zuordnung der Emissionen zur Quelle "Tierstall" und bezüglich der Quantitäten der Staubfrachten. Ein wesentlicher Grund für die bislang geringe Anzahl von Feinstaubmessungen in Tierhaltungen liegt in dem Fehlen standardisierter Messverfahren für diese Komponente, was zudem den Vergleich der bisherigen Messergebnisse erschwert. Der Wert der genauen Kenntnis der Konzentrationen der partikelförmigen Emissionen besonders Feinstaub (PM 10) in und aus landwirtschaftlicher Nutztierhaltung liegt in der Einschätzung des Gefährdungspotentials für den Menschen unter Berücksichtigung umwelthygienischer und umweltrechtlicher Aspekte. Letztere werden unter anderem durch das Vorsorgeprinzip im Bundes-Immissionsschutzgesetz dargestellt, wobei die Minderung der von Tierhaltungen ausgehenden Emissionen bereits wichtiger Bestandteil nationaler und europäischer Luftreinhaltepolitik ist. So beschäftigen sich Umwelt- und Arbeitsmediziner aufgrund des Verdachts erhöhter Prävalenz umweltbezogener Beschwerdebilder wie Störungen im Bereich der Atemwege in Regionen mit spezialisierter Tierhaltung und bezüglich des Auftretens als arbeitsschutzrelevanter Arbeitsstoff verstärkt mit diesem Feinstaub. Darüber hinaus werden die Daten von den Behörden als Entscheidungshilfe für die Bewilligung neuer Stallbauten benötigt, um Anwohner vor möglichen negativen Einflüssen zu bewahren. Derzeit wird davon ausgegangen, dass PM 10 aus Nutztierhaltungen, aufgrund der durch die Abstandsregelung der TA Luft (2002) greifenden Verdünnungseffekte keine negativen Auswirkungen auf die Gesundheit von Anwohnern hat. Diese Annahme ist allerdings bisher nicht durch ausreichende Messungen abgesichert. Die im Rahmen der Arbeit durchgeführten Messkampagnen haben zusammen mit der Literaturrecherche ergeben, dass das Messsystem DIGITEL HVS DAH-80 zur Erfassung von PM 10-Konzentrationen in Geflügelstallungen als geeignet bewertet werden kann. Die über 24 Stunden maximal erfasste mittlere PM 10-Konzentration beträgt 2,44 mg•m-3, der Durchschnitt liegt bei 1,27 mg•m-3, wobei die PM 10-Konzentrationen im Tagesverlauf tagesrhythmische Ereignisse widerspiegeln. Die ebenso über 24 Stunden erfassten ID-Konzentrationen liegen in Bereichen von 0,83 mg•m-3 bis 4,34 mg•m-3. Beide Staubfraktionen wurden im Hinblick auf bekannte Arbeitsplatz-Grenzwerte (AGW) sowie in Bezug auf umweltrechtliche Aspekte bewertet. Da bisher keine berufsbezogenen Grenzwerte existieren, wurden die beiden Staubkonzentrationen als arbeitsschutzrelevante Arbeitsstoffe mit den allgemein gültigen Grenzwerten der GefStoffV von E-Staub (einatembarer Staub) und A-Staub (Alveolengängiger Staub) mit einem AGW von 10 mg•m-3 bzw. 3 mg•m-3 verglichen. Selbst die bestimmten maximalen Tages-Konzentrationen liegen unterhalb dieser AGWs. Von ausgewählten Staubproben beider Fraktionen wurden die Aktivitäten der ebenso zu den umwelthygienisch bedeutenden Luftinhaltsstoffen zählenden Endotoxine ermittelt und mit bekannten Werten aus der Literatur verglichen. Für diese biologische Komponente besteht derzeit kein Grenzwert, sondern nur Orientierungswerte, die von 50 EU•m-3 bis 1.000 EU•m-3 reichen. Mehr als die Hälfte der ermittelten Endotoxinaktivitäten im E-Staub lagen unterhalb von 1.000 EU•m-3, die der analysierten PM 10-Teilfilter lagen im Bereich von 150 EU•m-3 bis 3.500 EU•m-3. Bei umwelthygienischen oder arbeitsmedizinischen Fragestellungen sollte die Qualität der Staubfraktionen zunehmend im Fokus der Messungen stehen, da diese aufgrund zahlreicher Einflussfaktoren eine erhebliche Variabilität aufweisen kann. Die weitere Bearbeitung des relativ neuen Arbeitsgebietes PM 10 im Bereich der landwirtschaftlichen Nutztierhaltung erfordert zudem eine verstärkte interdisziplinäre Zusammenarbeit und den Austausch von Erkenntnissen und Erfahrungen zwischen den beteiligten Disziplinen der Wissenschaft und Forschung aber auch mit Gesetzgebern und Genehmigungsbehörden.
Feedback in der Schule? Das bedeutet häufig eine kurze Rückmeldung der Lehrer*innen an die Schüler*innen zu deren Mitarbeit. Dabei bietet eine etablierte Feedbackkultur im Unterricht breite Möglichkeiten, demokratisches Handeln zu üben und die Unterrichtsqualität zu verbessern, und muss keineswegs nur einseitig ausfallen.
As in many other cities of the Global South, in Accra and its Greater Metropolitan Area (GAMA) water provision for drinking, domestic and productive uses is coproduced by multiple provisioning and delivery modalities. This paper contributes to the overall understanding of sociospatial conditions of urban water (in)security in GAMA. By looking at the geography of infrastructure and inequalities in water access, it seeks to identify patterns of uneven access to water. The first part provides an overview of urban water supply in GAMA, focusing on water infrastructure and the perspective of water providers. In the second part, households’ access strategies are discussed by combining both quantitative and qualitative perspectives. The paper brings together literature research and empirical material collected during fieldwork in the Ghanaian capital city.
This paper provides an overview of five major shifts in urban water supply governance in relation to changing paradigms in the water sector as a whole and in water-related research: i) the municipal hydraulic paradigm in the Global North; ii) its travel to cities in the Global South; iii) the shift from government to governance; iv) the (private) utility model and v) its contestation. The articulation of each shift in the Ghanaian context is described from the creation of the first water supply system during colonial time to the recent contestation against private corporate sector participation. Current challenges are outlined together with new pathways for researching urban water governance. The paper is based on a literature review conducted in 2015 and serves as a background study for further research within the WaterPower project.
This thesis introduces a calibration problem for financial market models based on a Monte Carlo approximation of the option payoff and a discretization of the underlying stochastic differential equation. It is desirable to benefit from fast deterministic optimization methods to solve this problem. To be able to achieve this goal, possible non-differentiabilities are smoothed out with an appropriately chosen twice continuously differentiable polynomial. On the basis of this so derived calibration problem, this work is essentially concerned about two issues. First, the question occurs, if a computed solution of the approximating problem, derived by applying Monte Carlo, discretizing the SDE and preserving differentiability is an approximation of a solution of the true problem. Unfortunately, this does not hold in general but is linked to certain assumptions. It will turn out, that a uniform convergence of the approximated objective function and its gradient to the true objective and gradient can be shown under typical assumptions, for instance the Lipschitz continuity of the SDE coefficients. This uniform convergence then allows to show convergence of the solutions in the sense of a first order critical point. Furthermore, an order of this convergence in relation to the number of simulations, the step size for the SDE discretization and the parameter controlling the smooth approximation of non-differentiabilites will be shown. Additionally the uniqueness of a solution of the stochastic differential equation will be analyzed in detail. Secondly, the Monte Carlo method provides only a very slow convergence. The numerical results in this thesis will show, that the Monte Carlo based calibration indeed is feasible if one is concerned about the calculated solution, but the required calculation time is too long for practical applications. Thus, techniques to speed up the calibration are strongly desired. As already mentioned above, the gradient of the objective is a starting point to improve efficiency. Due to its simplicity, finite differences is a frequently chosen method to calculate the required derivatives. However, finite differences is well known to be very slow and furthermore, it will turn out, that there may also occur severe instabilities during optimization which may lead to the break down of the algorithm before convergence has been reached. In this manner a sensitivity equation is certainly an improvement but suffers unfortunately from the same computational effort as the finite difference method. Thus, an adjoint based gradient calculation will be the method of choice as it combines the exactness of the derivative with a reduced computational effort. Furthermore, several other techniques will be introduced throughout this thesis, that enhance the efficiency of the calibration algorithm. A multi-layer method will be very effective in the case, that the chosen initial value is not already close to the solution. Variance reduction techniques are helpful to increase accuracy of the Monte Carlo estimator and thus allow for fewer simulations. Storing instead of regenerating the random numbers required for the Brownian increments in the SDE will be efficient, as deterministic optimization methods anyway require to employ the identical random sequence in each function evaluation. Finally, Monte Carlo is very well suited for a parallelization, which will be done on several central processing units (CPUs).
Une Journée de la démocratie offre l’occasion de prendre du recul par rapport au développement de l’éducation à la démocratie en milieu scolaire, de réfléchir à l’état actuel des possibilités de participation, des groupes de travail et des comités, ainsi que de lancer conjointement de nouveaux plans et projets et de les façonner pour la communauté scolaire.
Fast and Slow Effects of Cortisol on Several Functions of the Central Nervous System in Humans
(2014)
Cortisol is one of the key substances released during stress to restore homeostasis. Our knowledge of the impact of this glucocorticoid on cognition and behavior in humans is, however, still limited. Two modes of action of cortisol are known, a rapid, nongenomic and a slow, genomic mode. Both mechanisms appear to be involved in mediating the various effects of stress on cognition. Here, three experiments are presented that investigated fast and slow effects of cortisol on several functions of the human brain. The first experiment investigated the interaction between insulin and slow, genomic cortisol effects on resting regional cerebral blood flow (rCBF) in 48 young men. A bilateral, locally distinct increase in rCBF in the insular cortex was observed 37 to 58 minutes after intranasal insulin admission. Cortisol did not influence rCBF, neither alone nor in interaction with insulin. This finding suggests that cortisol does not influence resting cerebral blood flow within a genomic timeframe. The second experiment examined fast cortisol effects on memory retrieval. 40 participants (20 of them female) learned associations between neutral male faces and social descriptions and were tested for recall one week later. Cortisol administered intravenously 8 minutes before retrieval influenced recall performance in an inverted U-shaped dose-response relationship. This study demonstrates a rapid, presumably nongenomic cortisol effect on memory retrieval in humans. The third experiment studied rapid cortisol effects on early multisensory integration. 24 male participants were tested twice in a focused cross-modal choice reaction time paradigm, once after cortisol and once after placebo infusion. Cortisol acutely enhanced the integration of visual targets and startling auditory distractors, when both stimuli appeared in the same sensory hemi-field. The rapidity of effect onset strongly suggests that cortisol changes multisensory integration by a nongenomic mechanism. The work presented in this thesis highlights the essential role of cortisol as a fast acting agent during the stress response. Both the second and the third experiment provide new evidence of nongenomic cortisol effects on human cognition and behavior. Future studies should continue to investigate the impact of rapid cortisol effects on the functioning of the human brain.
FAMILIE LEDEBOER: TERUGKEER NAAR NEDERLAND (1926) ist einer der wenigen noch heute erhaltenen Familienfilme aus der niederländischen Kolonie Nederlands-Indië, dem heutigen Indonesien. Der Dokumentarfilmer Willy Mullens zeigt hier das Verhältnis der niederländischen Kolonialherren und ihren kolonisierten Anderen in einer sehr persönlichen, wenngleich auch nicht alltäglichen Form. Anlässlich der Rückkehr der Familie in die Niederlande werden ausgewählte Begegnungen zwischen der Familie Ledeboer und ihren Angestellten dargestellt, in denen der abstrakte, kolonial-ideologische Gegensatz zwischen dem "Selbst" und dem "Anderen" konkrete Form annimmt. Obgleich der Film den Daheimgebliebenen zeigen sollte, wie man in der Kolonie lebt und wie es einem in der Fremde ergeht, sollte zugleich durch Bilder von Ordnung und Stabilität und die Betonung der Loyalität der Angestellten und der guten Fürsorge über diese die Kolonialideologie einer weißen Überlegenheit gestützt werden. Dies gewinnt insbesondere vor dem Hintergrund zunehmender Konflikte und eines aufkeimenden Nationalismus in der Kolonie und einer damit einhergehenden Infragestellung der kolonialen Ordnung zu dieser Zeit an Bedeutung. Der Familienfilm diente so zur Konstruktion von Normalität und zur Bestätigung der eigenen Identität als Familie und als Europäer in der Fremde, zur Bestätigung von Status und Zugehörigkeit und zur Vergewisserung des eigenen Selbstbildes auf der individuellen wie auch kollektiven Ebene. Dennoch bleibt die Darstellung des Verhältnisses von Kolonialherren und Kolonisierten ambivalent. Obschon versucht wird, bei aller Fürsorglichkeit auch soziale Distanz und Überlegenheit zu transportieren, merkt man dem Umgang auch die Vertrautheit der tagtäglichen Nähe und Interaktion an.
The increase in recreational leisure during the last century and the increase in the individual mobility since the sixties have induced growing travel activities as well as a growing demand for recreation in a natural environment. Politically the demand for recreational leisure is regarded as a fundamental part of human life and is legally embedded as inherent goal of nature resorts besides nature conservation. Following new pedagogic principles man should get familiar with the environment in order protect nature in the long-run. Taking the bicycle concept of the nature resort Saar-Hunsrück with special emphasis on the St. Wendel country as an example the bicycle tourism which fulfils the principles of sustainability is analysed with regard to the acceptance by the tourists. Scenic and historical attractions of the area are deliberately taken into account in the design of the bicycle routes. By analysing the results of a survey it is the objective to work out applicable results for the design of routes and systems of orientation. Moreover it is the objective of a special survey on mountain bikers to answer the question on how this extreme type of biking could be incorporated in the supply of recreational activities of the nature resort and whether it can contribute to a growing environmental sensitivity.
In Luxemburg helfen externe Schulmediator*innen bei schulischen Konflikten. Die Anlaufstelle unterstützt bei drohenden Schulabbrüchen und Konflikten, die bei der Inklusion und Integration von Schüler*innen mit besonderem Förderbedarf oder mit Migrationshintergrund entstehen. Michèle Schilt sprach mit der Leiterin der Servicestelle, Lis De Pina, über die Arbeit der Schulmediation.
Given a compact set K in R^d, the theory of extension operators examines the question, under which conditions on K, the linear and continuous restriction operators r_n:E^n(R^d)→E^n(K),f↦(∂^α f|_K)_{|α|≤n}, n in N_0 and r:E(R^d)→E(K),f↦(∂^α f|_K)_{α in N_0^d}, have a linear and continuous right inverse. This inverse is called extension operator and this problem is known as Whitney's extension problem, named after Hassler Whitney. In this context, E^n(K) respectively E(K) denote spaces of Whitney jets of order n respectively of infinite order. With E^n(R^d) and E(R^d), we denote the spaces of n-times respectively infinitely often continuously partially differentiable functions on R^d. Whitney already solved the question for finite order completely. He showed that it is always possible to construct a linear and continuous right inverse E_n for r_n. This work is concerned with the question of how the existence of a linear and continuous right inverse of r, fulfilling certain continuity estimates, can be characterized by properties of K. On E(K), we introduce a full real scale of generalized Whitney seminorms (|·|_{s,K})_{s≥0}, where |·|_{s,K} coincides with the classical Whitney seminorms for s in N_0. We equip also E(R^d) with a family (|·|_{s,L})_{s≥0} of those seminorms, where L shall be a a compact set with K in L-°. This family of seminorms on E(R^d) suffices to characterize the continuity properties of an extension operator E, since we can without loss of generality assume that E(E(K)) in D^s(L).
In Chapter 2, we introduce basic concepts and summarize the classical results of Whitney and Stein.
In Chapter 3, we modify the classical construction of Whitney's operators E_n and show that |E_n(·)|_{s,L}≤C|·|_{s,K} for s in[n,n+1).
In Chapter 4, we generalize a result of Frerick, Jordá and Wengenroth and show that LMI(1) for K implies the existence of an extension operator E without loss of derivatives, i.e. we have it fulfils |E(·)|_{s,L}≤C|·|_{s,K} for all s≥0. We show that a large class of self similar sets, which includes the Cantor set and the Sierpinski triangle, admits an extensions operator without loss of derivatives.
In Chapter 5 we generalize a result of Frerick, Jordá and Wengenroth and show that WLMI(r) for r≥1 implies the existence of a tame linear extension operator E having a homogeneous loss of derivatives, such that |E(·)|_{s,L}≤C|·|_{(r+ε)s,K} for all s≥0 and all ε>0.
In the last chapter we characterize the existence of an extension operator having an arbitrary loss of derivatives by the existence of measures on K.
Variational inequality problems constitute a common basis to investigate the theory and algorithms for many problems in mathematical physics, in economy as well as in natural and technical sciences. They appear in a variety of mathematical applications like convex programming, game theory and economic equilibrium problems, but also in fluid mechanics, physics of solid bodies and others. Many variational inequalities arising from applications are ill-posed. This means, for example, that the solution is not unique, or that small deviations in the data can cause large deviations in the solution. In such a situation, standard solution methods converge very slowly or even fail. In this case, so-called regularization methods are the methods of choice. They have the advantage that an ill-posed original problem is replaced by a sequence of well-posed auxiliary problems, which have better properties (like, e.g., a unique solution and a better conditionality). Moreover, a suitable choice of the regularization term can lead to unconstrained auxiliary problems that are even equivalent to optimization problems. The development and improvement of such methods are a focus of current research, in which we take part with this thesis. We suggest and investigate a logarithmic-quadratic proximal auxiliary problem (LQPAP) method that combines the advantages of the well-known proximal-point algorithm and the so-called auxiliary problem principle. Its exploration and convergence analysis is one of the main results in this work. The LQPAP method continues the recent developments of regularization methods. It includes different techniques presented in literature to improve the numerical stability: The logarithmic-quadratic distance function constitutes an interior point effect which allows to treat the auxiliary problems as unconstrained ones. Furthermore, outer operator approximations are considered. This simplifies the numerical solution of variational inequalities with multi-valued operators since, for example, bundle-techniques can be applied. With respect to the numerical practicability, inexact solutions of the auxiliary problems are allowed using a summable-error criterion that is easy to implement. As a further advantage of the logarithmic-quadratic distance we verify that it is self-concordant (in the sense of Nesterov/Nemirovskii). This motivates to apply the Newton method for the solution of the auxiliary problems. In the numerical part of the thesis the LQPAP method is applied to linearly constrained, differentiable and nondifferentiable convex optimization problems, as well as to nonsymmetric variational inequalities with co-coercive operators. It can often be observed that the sequence of iterates reaches the boundary of the feasible set before being close to an optimal solution. Against this background, we present the strategy of under-relaxation, which robustifies the LQPAP method. Furthermore, we compare the results with an appropriate method based on Bregman distances (BrPAP method). For differentiable, convex optimization problems we describe the implementation of the Newton method to solve the auxiliary problems and carry out different numerical experiments. For example, an adaptive choice of the initial regularization parameter and a combination of an Armijo and a self-concordance step size are evaluated. Test examples for nonsymmetric variational inequalities are hardly available in literature. Therefore, we present a geometric and an analytic approach to generate test examples with known solution(s). To solve the auxiliary problems in the case of nondifferentiable, convex optimization problems we apply the well-known bundle technique. The implementation is described in detail and the involved functions and sequences of parameters are discussed. As far as possible, our analysis is substantiated by new theoretical results. Furthermore, it is explained in detail how the bundle auxiliary problems are solved with a primal-dual interior point method. Such investigations have by now only been published for Bregman distances. The LQPAP bundle method is again applied to several test examples from literature. Thus, this thesis builds a bridge between theoretical and numerical investigations of solution methods for variational inequalities.
Extension of inexact Kleinman-Newton methods to a general monotonicity preserving convergence theory
(2011)
The thesis at hand considers inexact Newton methods in combination with algebraic Riccati equation. A monotone convergence behaviour is proven, which enables a non-local convergence. Above relation is transferred to a general convergence theory for inexact Newton methods securing the monotonicity of the iterates for convex or concave mappings. Several application prove the pratical benefits of the new developed theory.
Extension of an Open GEOBIA Framework for Spatially Explicit Forest Stratification with Sentinel-2
(2022)
Spatially explicit information about forest cover is fundamental for operational forest management and forest monitoring. Although open-satellite-based earth observation data in a spatially high resolution (i.e., Sentinel-2, ≤10 m) can cover some information needs, spatially very high-resolution imagery (i.e., aerial imagery, ≤2 m) is needed to generate maps at a scale suitable for regional and local applications. In this study, we present the development, implementation, and evaluation of a Geographic Object-Based Image Analysis (GEOBIA) framework to stratify forests (needleleaved, broadleaved, non-forest) in Luxembourg. The framework is exclusively based on open data and free and open-source geospatial software. Although aerial imagery is used to derive image objects with a 0.05 ha minimum size, Sentinel-2 scenes of 2020 are the basis for random forest classifications in different single-date and multi-temporal feature setups. These setups are compared with each other and used to evaluate the framework against classifications based on features derived from aerial imagery. The highest overall accuracies (89.3%) have been achieved with classification on a Sentinel-2-based vegetation index time series (n = 8). Similar accuracies have been achieved with classification based on two (88.9%) or three (89.1%) Sentinel-2 scenes in the greening phase of broadleaved forests. A classification based on color infrared aerial imagery and derived texture measures only achieved an accuracy of 74.5%. The integration of the texture measures into the Sentinel-2-based classification did not improve its accuracy. Our results indicate that high resolution image objects can successfully be stratified based on lower spatial resolution Sentinel-2 single-date and multi-temporal features, and that those setups outperform classifications based on aerial imagery only. The conceptual framework of spatially high-resolution image objects enriched with features from lower resolution imagery facilitates the delivery of frequent and reliable updates due to higher spectral and temporal resolution. The framework additionally holds the potential to derive additional information layers (i.e., forest disturbance) as derivatives of the features attached to the image objects, thus providing up-to-date information on the state of observed forests.
With the start of the Coronavirus (COVID-19) pandemic, the global education system has a faced immense challenges and disruptions resulting in and the necessity for an immediate redesign of teaching and learning in the school context. Face-to-face classroom instruction had to be replaced by ‘emergency remote teaching’, requiring teacher to adapt their daily routines to a new and unprecedented educational reality. Researchers and policymakers worldwide have agreed that, despite the fact that efforts were made to immediately adapt to emergency remote teaching, disadvantaged and vulnerable students may be especially at risk in emergency remote teaching. Given the differences in schooling organization across countries during the COVID-19 pandemic it can be expected that teachers performed inclusive instructional practices significantly different. Against the unpredictable situation, cross-country research has been urgently required to provide data that could inform education policy. Thus, this study explored teachers’ perceptions of supporting at risk students during the first COVID-19 school closures, as well as examining teachers’ inclusive teaching practices in three countries: Germany, Austria and Portugal. ANOVA results revealed important country differences. In general, it appears that teachers in Germany and Austria reported to have implemented less practices to address vulnerable and at-risk students compared to Portuguese teachers. Implications of the results, as well as further lines of research are outlined.
This thesis contains four parts that are all connected by their contributions to the Efficient Market Hypothesis and decision-making literature. Chapter two investigates how national stock market indices reacted to the news of national lockdown restrictions in the period from January to May 2020. The results show that lockdown restrictions led to different reactions in a sample of OECD and BRICS countries: there was a general negative effect resulting from the increase in lockdown restrictions, but the study finds strong evidence for underreaction during the lockdown announcement, followed by some overreaction that is corrected subsequently. This under-/overreaction pattern, however, is observed mostly during the first half of our time series, pointing to learning effects. Relaxation of the lockdown restrictions, on the other hand, had a positive effect on markets only during the second half of our sample, while for the first half of the sample, the effect was negative. The third chapter investigates the gender differences in stock selection preferences on the Taiwan Stock Exchange. By utilizing trading data from the Taiwan Stock Exchange over a span of six years, it becomes possible to analyze trading behavior while minimizing the self-selection bias that is typically present in brokerage data. To study gender differences, this study uses firm-level data. The percentage of male traders in a company is the dependent variable, while the company’s industry and fundamental/technical aspects serve as independent variables. The results show that the percentage of women trading a company rises with a company’s age, market capitalization, a company’s systematic risk, and return. Men trade more frequently and show a preference for dividend-paying stocks and for industries with which they are more familiar. The fourth chapter investigated the relationship between regret and malicious and benign envy. The relationship is analyzed in two different studies. In experiment 1, subjects had to fill out psychological scales that measured regret, the two types of envy, core self-evaluation and the big 5 personality traits. In experiment 2, felt regret is measured in a hypothetical scenario, and the subject’s felt regret was regressed on the other variables mentioned above. The two experiments revealed that there is a positive direct relationship between regret and benign envy. The relationship between regret and malicious envy, on the other hand, is mostly an artifact of core self-evaluation and personality influencing both malicious envy and regret. The relationship can be explained by the common action tendency of self-improvement for regret and benign envy. Chapter five discusses the differences in green finance regulation and implementation between the EU and China. China introduced the Green Silk Road, while the EU adopted the Green Deal and started working with its own green taxonomy. The first difference comes from the definition of green finance, particularly with regard to coal-fired power plants. Especially the responsibility of nation-states’ emissions abroad. China is promoting fossil fuel projects abroad through its Belt and Road Initiative, but the EU’s Green Deal does not permit such actions. Furthermore, there are policies in both the EU and China that create contradictory incentives for economic actors. On the one hand, the EU and China are improving the framework conditions for green financing while, on the other hand, still allowing the promotion of conventional fuels. The role of central banks is also different between the EU and China. China’s central bank is actively working towards aligning the financial sector with green finance. A possible new role of the EU central bank or the priority financing of green sectors through political decision-making is still being debated.
Die Zielsetzung der vorliegenden Arbeit war die raumdifferenzierte und skalenübergreifende Untersuchung der Hochwasserentstehungsprozesse im Frankelbach-Einzugsgebiet, das ein Beispiel eines land- und forstwirtschaftlich genutzten Kleineinzugsgebiets in Mittelgebirgen der gemäßigten Breiten ist. Eine Kernaufgabe war die Quantifizierung der Beiträge einzelner Abflusskomponenten während des Scheiteldurchflusses eines Hochwassers. Zudem sollten Zusammenhänge zwischen der Bodenfeuchtedynamik und der Abflussreaktion herausgearbeitet werden. Zur Bodenfeuchtemessung wurde ein neu entwickeltes Spatial-TDR-Messsystem eingesetzt. Im Rahmen dieses pilothaften Einsatzes war zudem die Tauglichkeit des Messsystems zu überprüfen und zu bewerten. Das im Rotliegenden gelegene 5 km2 große Frankelbachgebiet mit Jahresniederschlägen von 750 mm a-1, steil eingeschnittenen, bewaldeten Kerbtälern und ackerwirtschaftlich genutzten Hochflächen liegt zwischen 200 und 450 m ü. NN. Auf schuttführenden Sand- und Schlufflehmen, deren Genese auf periglaziale Solifluktionsprozesse zurückgeht, sind hangabwärts mächtiger werdende Braunerden zu finden. Bemerkenswert sind die zahlreichen Quellen auf gleicher Höhenlage, die teilweise als Pipequellen ausgebildet sind. Beregnungs- und Infiltrationsversuche dienten der Beurteilung der Oberflächenabflussreaktion unterschiedlich bewirtschafteter Flächen. Durch stündliche Spatial-TDR-Messungen an 13 Standorten (60 cm lange vertikal installierte Dreistabsonden) konnten Hangwasserflüsse identifiziert werden. Zwischen 2005 und 2009 wurden die Abflüsse vier geschachtelter Einzugsgebiete sowie einer Quelle in 10min-Intervallen erfasst und 87 Hochwasserereignisse analysiert. Mittels Messungen der elektrischen Leitfähigkeit und eines Zweikomponenten-Mischungsmodells wurde der Ereigniswasseranteil für die höchsten Hochwasser abgeschätzt. Ergänzend zu den Geländeexperimenten wurde ein einfaches Modell konzipiert, das eine quantitative Abschätzung der ober- und unterirdischen Wasserflüsse in einen Gewässereinschnitt erlaubt. Zum Vergleich mit 31 anderen Untersuchungsgebieten wurde eine Codierung entwickelt, die eine Einordnung sowohl hinsichtlich der Geofaktoren der Gebiete als auch bezüglich der untersuchten Hochwasserereignisse ermöglicht. Das im hanghydrologischen Forschungsbereich als eher trocken einzuordnende Frankelbachgebiet, zeigte ein jahreszeitlich sehr unterschiedliches Abflussverhalten. Während in trockenen Sommern hohe Niederschläge im Gebiet gespeichert werden, liegen die Abflusskoeffizienten für einige schneeschmelzfreie Frühjahrsereignisse über 50 %. Das höchste beobachtete Hochwasser weist einen Abflusskoeffizient von 55 % bei einer relativ niedrigen Abflussspende von 140 l s-1 km-2 auf. Die Großberegnungsversuche, die Quellabflussmessungen, die Ereignisanalysen und die Modellierungsergebnisse weisen darauf hin, dass Dauerregen- und Schneeschmelz-Hochwasser zum Großteil aus Zwischenabfluss bestehen. Hier konnten zwei Abflusskomponenten differenziert werden: (i) eine oberflächen- und gerinnenahe Komponenten, die aufgrund des hohen Ereigniswasseranteils von etwa 60 % durch präferentielles Fließen erklärt werden kann, und (ii) eine ein bis zwei Tage verzögerte tiefere Komponente, die durch unterirdische Abflusskonzentration auf stauenden Schichten generiert wird. Letztere war in den Quellabfluss- und Spatial-TDR-Messungen erkennbar, hatte jedoch an den am Pegel beobachteten Scheiteldurchflüssen nur einen sehr kleinen Anteil. Während sehr intensiver Niederschläge könnte zusätzlich der Horton'sche Oberflächenabfluss von offen liegenden, hydraulisch angeschlossenen Äckern zum Scheiteldurchfluss beitragen. Für sämtliche Spatial-TDR-Messstandorte ist von hohen Infiltrations- und Sickerraten auszugehen. Eine Aufsättigung der Standorte war nicht erkennbar, für die nassen Wintermonate liegen jedoch nur sehr wenige Spatial-TDR-Messwerte vor. Eine in einer Tiefenlinie installierte Sonde (A08) zeigte das Umschalten des Gesamtgebiets in relativ nasse Zustände an. Hier nahm die Bodenfeuchte während zwei größerer Dauerregenereignisse infolge der unterirdischen Abflusskonzentration stark zu. In der vorliegenden Arbeit wurden die einbau- und substratbedingten Unsicherheiten sowie die Schwächen des Algorithmus zur Rekonstruktion der absoluten Bodenfeuchtewerte konkretisiert. Demzufolge wurde lediglich das Spatial-TDR-Rohsignal als Indikator für die aktuelle Bodenfeuchte verwendet. Durch eine Transformation des Spatial-TDR-Signals von der Zeit auf den Sondenort können dennoch Aussagen zur relativen Änderung der Bodenfeuchte in einer bestimmten Tiefe gemacht werden können. Diese Informationen sind hinreichend genau für die Untersuchung hanghydrologischer Prozesse und für die Ableitung von Gebietsfeuchtezuständen.
Rinnen werden als effektive Sedimentquellen und als Transportwege für große Sedimentmengen angesehen, zusätzlich agieren sie als bevorzugte Fließwege für den Oberflächenabfluss. Sie können sich zu irreversiblen Formen (Gullys) weiterentwickeln. Trotz Fortschritten in der Modellierung bleibt insbesondere die Modellierung von Rinnenerosion schwierig. Daher ist es wichtig, experimentelle Daten aus Geländeversuchen zu erheben, um das Prozesswissen zu verbessern und bessere Modelle zu entwickeln. In den Experimenten sollte eine standardisierte Methode verwendet werden, um eine gewisse Vergleichbarkeit der Ergebnisse zwischen unterschiedlichen Testgebieten zu gewährleisten. Die meisten Experimente zur Rinnenerosion, die unter Labor- oder Geländebedingungen durchgeführt wurden, verwendeten Substrate mit unterschiedlichen Korngrößen und natürlichen oder simulierten Niederschlag. Ziel war meist die Entstehung von Rinnennetzwerken zu beobachten, Startbedingungen für Rinnenbildung zu definieren, die Entwicklung der Rinnenmorphologie zu untersuchen, die wichtigsten hydraulischen Parameter wie Fließquerschnitt, benetzten Umfang, hydraulischen Radius, mittlere Fließgeschwindigkeit und shear stress abzuschätzen oder mathematische Modelle zu kreieren, um den Bodenabtrag durch Rinnenerosion abschätzen zu können. Aber es fehlen Untersuchungen zum Verhalten von existierenden Rinnen, natürlichen oder anthropogen entwickelten, unter Geländebedingungen. Um diese Lücke zu schließen wurde eine reproduzierbare Versuchsanordnung entworfen und in verschiedenen Rinnen angewendet um folgende Fragen zu beantworten: Wie hoch ist der Anteil der Rinnenerosion am Bodenabtrag? 2) Wie effektiv sind Rinnen beim Transport von Wasser und Sediment durch ihr Einzugsgebiet? In prozess-basierten Modellen werden verschiedene Prozesse durch mathematische Gleichungen beschrieben. Die Grundlage dieser Formeln ist meist ein hydraulischer Parameter, der in Verbindung zum Abtrag gebracht wird. Der am häufigsten verwendete Parameter ist der shear stress, von dem angenommen wird, dass er ein lineares Verhältnis zu Erosionsparametern wie detachment rate, detachment capacity oder Sedimentkonzentration aufweist. Aus dem shear stress lassen sich weitere Parameter wie unit length shear force oder verschiedene Varianten der stream power berechnen. Die verwendeten Erosions- und hydraulischen Parameter ändern sich je nach Forschergruppe. Eine weitere Modellannahme ist, dass die transport rate die trasnport capacity nicht übersteigen kann. Wenn das transport rate vs. transport capacity - Verhältnis 1 übersteigt, verringern Sedimentationsprozesse die Rate bis die transport capacity wieder erreicht ist. Wir untersuchten in Geländeversuchen die folgenden Annahmen: 1) Ist das Verhältnis zwischen transport rate und transport capacity immer kleiner 1? 2) Besteht die lineare Beziehung zwischen verschiedenen hydraulischen Parametern und Bodenabrtagsparametern? 3)Verursachen die selben hydraulischen Parameter, die in verschiedenen Versuchen aufgenommen wurden, auch immer die selben Erosionsparameter?
Teamwork is ubiquitous in the modern workplace. However, it is still unclear whether various behavioral economic factors de- or increase team performance. Therefore, Chapters 2 to 4 of this thesis aim to shed light on three research questions that address different determinants of team performance.
Chapter 2 investigates the idea of an honest workplace environment as a positive determinant of performance. In a work group, two out of three co-workers can obtain a bonus in a dice game. By misreporting a secret die roll, cheating without exposure is an option in the game. Contrary to claims on the importance of honesty at work, we do not observe a reduction in the third co-worker's performance, who is an uninvolved bystander when cheating takes place.
Chapter 3 analyzes the effect of team size on performance in a workplace environment in which either two or three individuals perform a real-effort task. Our main result shows that the difference in team size is not harmful to task performance on average. In our discussion of potential mechanisms, we provide evidence on ongoing peer effects. It appears that peers are able to alleviate the potential free-rider problem emerging out of working in a larger team.
In Chapter 4, the role of perceived co-worker attractiveness for performance is analyzed. The results show that task performance is lower, the higher the perceived attractiveness of co-workers, but only in opposite-sex constellations.
The following Chapter 5 analyzes the effect of offering an additional payment option in a fundraising context. Chapter 6 focuses on privacy concerns of research participants.
In Chapter 5, we conduct a field experiment in which, participants have the opportunity to donate for the continuation of an art exhibition by either cash or cash and an additional cashless payment option (CPO). The treatment manipulation is completed by framing the act of giving either as a donation or pay-what-you-want contribution. Our results show that donors shy away from using the CPO in all treatment conditions. Despite that, there is no negative effect of the CPO on the frequency of financial support and its magnitude.
In Chapter 6, I conduct an experiment to test whether increased transparency of data processing affects data disclosure and whether the results change if it is indicated that the implementation of the GDPR happened involuntarily. I find that increased transparency raises the number of participants who do not disclose personal data by 21 percent. However, this is not the case in the involuntary-signal treatment, where the share of non-disclosures is relatively high in both conditions.
Due to the transition towards climate neutrality, energy markets are rapidly evolving. New technologies are developed that allow electricity from renewable energy sources to be stored or to be converted into other energy commodities. As a consequence, new players enter the markets and existing players gain more importance. Market equilibrium problems are capable of capturing these changes and therefore enable us to answer contemporary research questions with regard to energy market design and climate policy.
This cumulative dissertation is devoted to the study of different market equilibrium problems that address such emerging aspects in liberalized energy markets. In the first part, we review a well-studied competitive equilibrium model for energy commodity markets and extend this model by sector coupling, by temporal coupling, and by a more detailed representation of physical laws and technical requirements. Moreover, we summarize our main contributions of the last years with respect to analyzing the market equilibria of the resulting equilibrium problems.
For the extension regarding sector coupling, we derive sufficient conditions for ensuring uniqueness of the short-run equilibrium a priori and for verifying uniqueness of the long-run equilibrium a posteriori. Furthermore, we present illustrative examples that each of the derived conditions is indeed necessary to guarantee uniqueness in general.
For the extension regarding temporal coupling, we provide sufficient conditions for ensuring uniqueness of demand and production a priori. These conditions also imply uniqueness of the short-run equilibrium in case of a single storage operator. However, in case of multiple storage operators, examples illustrate that charging and discharging decisions are not unique in general. We conclude the equilibrium analysis with an a posteriori criterion for verifying uniqueness of a given short-run equilibrium. Since the computation of equilibria is much more challenging due to the temporal coupling, we shortly review why a tailored parallel and distributed alternating direction method of multipliers enables to efficiently compute market equilibria.
For the extension regarding physical laws and technical requirements, we show that, in nonconvex settings, existence of an equilibrium is not guaranteed and that the fundamental welfare theorems therefore fail to hold. In addition, we argue that the welfare theorems can be re-established in a market design in which the system operator is committed to a welfare objective. For the case of a profit-maximizing system operator, we propose an algorithm that indicates existence of an equilibrium and that computes an equilibrium in the case of existence. Based on well-known instances from the literature on the gas and electricity sector, we demonstrate the broad applicability of our algorithm. Our computational results suggest that an equilibrium often exists for an application involving nonconvex but continuous stationary gas physics. In turn, integralities introduced due to the switchability of DC lines in DC electricity networks lead to many instances without an equilibrium. Finally, we state sufficient conditions under which the gas application has a unique equilibrium and the line switching application has finitely many.
In the second part, all preprints belonging to this cumulative dissertation are provided. These preprints, as well as two journal articles to which the author of this thesis contributed, are referenced within the extended summary in the first part and contain more details.
Evaluative conditioning (EC) refers to changes in liking that are due to the pairing of stimuli, and is one of the effects studied in order to understand the processes of attitude formation. Initially, EC had been conceived of as driven by processes that are unique to the formation of attitudes, and that occur independent of whether or not individuals engage in conscious and effortful propositional processes. However, propositional processes have gained considerable popularity as an explanatory concept for the boundary conditions observed in EC studies, with some authors going as far as to suggest that the evidence implies that EC is driven primarily by propositional processes. In this monograph I present research which questions the validity of this claim, and I discuss theoretical challenges and avenues for future EC research.
Evaluation of desalination techniques for treating the brackish water of Olushandja sub-basin
(2014)
The groundwater of Olushandja sub-basin as part of Cuvelai basin in central-northern Namibia is saline with TDS content varying between 4,000ppm to 90,000ppm. Based on climatic conditions, this region can be classified as a semi-arid to arid region with an annual rainfall during summer time varying between 200mm to 500mm. The mean annual evaporation potential is about 2,800mm, which is much higher than the annual rainfall. The southern block of this sub-basin is of low population density. It has not been covered by the supply networks for electricity and water. Therefore, the inhabitants are forced to use the untreated groundwater from the hand-dug wells for their daily purposes. This groundwater is not safe for human consumption and therefore needs to be desalinated for that purpose. The goal of this thesis has been to select a suitable desalination technology for that region. The technology to be selected is from those which use renewable energy sources, which have capacity of production from 10m3 to 100m3 per day, which are simple and robust against existing harsh environmental conditions and have already been implemented successfully in some place. Based on these criteria, the technologies which emerged from the literature are: multistage flashing (MSF), multi effect distillation (MED), multi effect humidification (MEH), membrane distillation (MD), reverse osmosis (RO) and electro dialysis reversed (ED). Out of these technologies, RO &amp; ED are based on membrane techniques and MSF, MED &amp; MEH use thermal processes whereas MD technology uses a hybrid process of thermal and membrane techniques for desalinating the water. For evaluation of technical performance, environmental sustainability and financial feasibility of the above mentioned desalination techniques, the following criteria have been used: gained output ratio, recovery rate, pretreatment requirements, sensitivity to feed water quality, post treatment, operating temperature, operating pressure, scaling and fouling potential, corrosion susceptibility, brine disposal, prime energy requirement, mechanical and electrical power output, heat energy, running costs and water generation costs. The data regarding the performance standards of the successfully implemented desalination techniques have been obtained from the literature of performance benchmarks. The Utility Value Analysis Tool of the Rafter-Group of Multi-Criteria Analysis (MCA) has been used for measuring the performance score of a technology. To perform the utility analysis, an evaluation matrix has to be constructed through the following procedures: selection of the decision options (or assessment groups), identification of the evaluation criteria, measurement of performance and transformation of the units. Then the criteria under the objective groups are assigned a level of importance for determining their weights.To perform the sensitivity analysis the level of importance of a criterion is changed by giving more weight or rate to the assessment group of interest (or study). Within the assessment group of interests, the best performing desalination technology has been selected according to the outcome of the sensitivity analysis. The important conclusions of this study are the identification of the capabilities of thermal and membrane based small scale desalination technologies and their applicability based on site specific needs. The sensitivity analysis indicates that the MED technology is the most environmental friendly technology that uses minimum energy and produces least concentrated brine for disposal. The ED technology has emerged to be technically suitable, but it is only applicable when source water has less than 12.000 ppm salt content. The MSF process has favorable thermal efficiency and it is insensitive to feed water quality. Its major drawbacks are energy needs and post treatment requirements that affected its net score. The MD and MSF process have scored the lowest for the technical and economic assessment groups and are concluded not to be suitable for Olushandja sub-basin. The MEH process is cheaper and technically more appropriate than the MED in the two assessment groups. Based on the above mentioned evaluations, this study concluded that Olushandja sub-basin needs more data collection on the geological profile, distinctive identification of aquifers and evidence on the interaction between the aquifers. From the best available data obtained, it could not be established with certainty where the highest level of salinity can be found in the profile, or how the geological profile is layered. More data on ground water quality for spatial overview of the trends and pattern of the sub-basin will be useful in drawing better conclusion on the specific desalination technology needed which is suitable for a specified village or living space.
Regional climate models are a valuable tool for the study of the climate processes and climate change in polar regions, but the performance of the models has to be evaluated using experimental data. The regional climate model CCLM was used for simulations for the MOSAiC period with a horizontal resolution of 14 km (whole Arctic). CCLM was used in a forecast mode (nested in ERA5) and used a thermodynamic sea ice model. Sea ice concentration was taken from AMSR2 data (C15 run) and from a high-resolution data set (1 km) derived from MODIS data (C15MOD0 run). The model was evaluated using radiosonde data and data of different profiling systems with a focus on the winter period (November–April). The comparison with radiosonde data showed very good agreement for temperature, humidity, and wind. A cold bias was present in the ABL for November and December, which was smaller for the C15MOD0 run. In contrast, there was a warm bias for lower levels in March and April, which was smaller for the C15 run. The effects of different sea ice parameterizations were limited to heights below 300 m. High-resolution lidar and radar wind profiles as well as temperature and integrated water vapor (IWV) data from microwave radiometers were used for the comparison with CCLM for case studies, which included low-level jets. LIDAR wind profiles have many gaps, but represent a valuable data set for model evaluation. Comparisons with IWV and temperature data of microwave radiometers show very good agreement.
In politics and economics, and thus in the official statistics, the precise estimation of indicators for small regions or parts of populations, the so-called Small Areas or domains, is discussed intensively. The design-based estimation methods currently used are mainly based on asymptotic properties and are thus reliable for large sample sizes. With small sample sizes, however, this design based considerations often do not apply, which is why special model-based estimation methods have been developed for this case - the Small Area methods. While these may be biased, they often have a smaller mean squared error (MSE) as the unbiased design based estimators. In this work both classic design-based estimation methods and model-based estimation methods are presented and compared. The focus lies on the suitability of the various methods for their use in official statistics. First theory and algorithms suitable for the required statistical models are presented, which are the basis for the subsequent model-based estimators. Sampling designs are then presented apt for Small Area applications. Based on these fundamentals, both design-based estimators and as well model-based estimation methods are developed. Particular consideration is given in this case to the area-level empirical best predictor for binomial variables. Numerical and Monte Carlo estimation methods are proposed and compared for this analytically unsolvable estimator. Furthermore, MSE estimation methods are proposed and compared. A very popular and flexible resampling method that is widely used in the field of Small Area Statistics, is the parametric bootstrap. One major drawback of this method is its high computational intensity. To mitigate this disadvantage, a variance reduction method for parametric bootstrap is proposed. On the basis of theoretical considerations the enormous potential of this proposal is proved. A Monte Carlo simulation study shows the immense variance reduction that can be achieved with this method in realistic scenarios. This can be up to 90%. This actually enables the use of parametric bootstrap in applications in official statistics. Finally, the presented estimation methods in a large Monte Carlo simulation study in a specific application for the Swiss structural survey are examined. Here problems are discussed, which are of high relevance for official statistics. These are in particular: (a) How small can the areas be without leading to inappropriate or to high precision estimates? (b) Are the accuracy specifications for the Small Area estimators reliable enough to use it for publication? (c) Do very small areas infer in the modeling of the variables of interest? Could they cause thus a deterioration of the estimates of larger and therefore more important areas? (d) How can covariates, which are in different levels of aggregation be used in an appropriate way to improve the estimates. The data basis is the Swiss census of 2001. The main results are that in the author- view, the use of small area estimators for the production of estimates for areas with very small sample sizes is advisable in spite of the modeling effort. The MSE estimates provide a useful measure of precision, but do not reach in all Small Areas the level of reliability of the variance estimates for design-based estimators.
Natural hazards are diverse and uneven in time and space, therefore, understanding its complexity is key to save human lives and conserve natural ecosystems. Reducing the outputs obtained after each modelling analysis is key to present the results for stakeholders, land managers and policymakers. So, the main goal of this survey was to present a method to synthesize three natural hazards in one multi-hazard map and its evaluation for hazard management and land use planning. To test this methodology, we took as study area the Gorganrood Watershed, located in the Golestan Province (Iran). First, an inventory map of three different types of hazards including flood, landslides, and gullies was prepared using field surveys and different official reports. To generate the susceptibility maps, a total of 17 geo-environmental factors were selected as predictors using the MaxEnt (Maximum Entropy) machine learning technique. The accuracy of the predictive models was evaluated by drawing receiver operating characteristic-ROC curves and calculating the area under the ROC curve-AUCROC. The MaxEnt model not only implemented superbly in the degree of fitting, but also obtained significant results in predictive performance. Variables importance of the three studied types of hazards showed that river density, distance from streams, and elevation were the most important factors for flood, respectively. Lithological units, elevation, and annual mean rainfall were relevant for detecting landslides. On the other hand, annual mean rainfall, elevation, and lithological units were used for gully erosion mapping in this study area. Finally, by combining the flood, landslides, and gully erosion susceptibility maps, an integrated multi-hazard map was created. The results demonstrated that 60% of the area is subjected to hazards, reaching a proportion of landslides up to 21.2% in the whole territory. We conclude that using this type of multi-hazard map may be a useful tool for local administrators to identify areas susceptible to hazards at large scales as we demonstrated in this research.
Evaluation of an eye tracking setup for studying visual attention in face-to-face conversations
(2021)
Many eye tracking studies use facial stimuli presented on a display to investigate attentional processing of social stimuli. To introduce a more realistic approach that allows interaction between two real people, we evaluated a new eye tracking setup in three independent studies in terms of data quality, short-term reliability and feasibility. Study 1 measured the robustness, precision and accuracy for calibration stimuli compared to a classical display-based setup. Study 2 used the identical measures with an independent study sample to compare the data quality for a photograph of a face (2D) and the face of the real person (3D). Study 3 evaluated data quality over the course of a real face-to-face conversation and examined the gaze behavior on the facial features of the conversation partner. Study 1 provides evidence that quality indices for the scene-based setup were comparable to those of a classical display-based setup. Average accuracy was better than 0.4° visual angle. Study 2 demonstrates that eye tracking quality is sufficient for 3D stimuli and robust against short interruptions without re-calibration. Study 3 confirms the long-term stability of tracking accuracy during a face-to-face interaction and demonstrates typical gaze patterns for facial features. Thus, the eye tracking setup presented here seems feasible for studying gaze behavior in dyadic face-to-face interactions. Eye tracking data obtained with this setup achieves an accuracy that is sufficient for investigating behavior such as eye contact in social interactions in a range of populations including clinical conditions, such as autism spectrum and social phobia.
Software and interactive systems that adapt their behavior to the user are often referred to as Adaptive Systems. These systems infer the user's goals, knowledge or preferences by observing the user's actions. A synposis of 43 published studies demonstrated that only few of the existing systems are evaluated empirically. Most studies failed to show an advantage of the user model. A new framework is proposed that categorizes existing studies and defines an evaluation procedure which is able to uncover failures and maladaptations in the user model. It consists of four layers: evaluation of input data, evaluation of inference, evaluation of adaptation decision and evaluation of total interaction. Exemplary, the framework has been applied to the HTML-Tutor, an online-course that adapts to the learners' knowledge. Several empirical studies are described that test the accuracy of the user models, and explore the effects of adaptation to knowledge respectively prior knowledge. Generalization issues of the approach are discussed.
Im Fokus dieser Untersuchung steht die Evaluation allgemeinpsychiatrischer tagesklinischer Behandlung, einerseits zur Überprüfung der Wirksamkeit der teilstationären Intervention bzgl. der Symptomatik, andererseits unter der speziellen Berücksichtigung von generalisierten Vertrauensaspekten (Vertrauenstrias) auf dem theoretischen Hintergrund des Handlungstheoretischen Partialmodells der Persönlichkeit (Krampen, 1987) und ihren Zusammenhängen zu psychischen Erkrankungen. Dem wurde in einer Fragebogenstudie mit 200 tagesklinischen Patienten im Alter von 16 bis 80 Jahren, die im Zeitraum von Oktober 2002 bis Februar 2004 in einer südwestdeutschen Kleinstadt teilstationär aufgenommen worden waren, nachgegangen. Die Patienten unterscheiden sich sowohl in den soziodemographischen Variablen als auch in Diagnosen und Behandlungszeiträumen. Wie in den Hypothesen angenommen, kann in dieser Studie gezeigt werden, dass die teilstationäre Behandlung eine deutliche Verringerung der psychischen Belastung mit sich bringt und Vertrauen " mit Ausnahme von interpersonalem " gesteigert wird. Weiterhin wurden negative Zusammenhänge zwischen Vertrauen und psychischer Krankheit/Gesundheit und Unterschiede bezüglich einzelner Störungsbilder angenommen. Die einzelnen Hypothesen hierzu werden ebenfalls durch diese Studie größtenteils bestätigt.
Abstracts book of oral presentations and poster contributions for the mid-term conference of the Interreg IVB NWE project ForeStClim. The international conference took place in Nancy (France) from 20. to 22. September 2010. The topics of the conference sessions were as follows:rnSession 1: Projecting forest sites and stand shiftsrnSession 2: Climate change and water: modelling across spatial and temporal scalesrnSession 3: Addressing climate change in practical silvicultural decision support
Ethnologie goes Internet. Internetauftritte deutschsprachiger Ethnologie-Institute im Vergleich
(2004)
Warum sind Internetauftritte ethnologischer Universitätsinstitute wichtig? Die Antwort auf die Frage ist relativ leicht zu geben: ethnologische Inhalte und Themengebiete sollen stärker ins Licht der Öffentlichkeit gerückt werden. Diese Forderung ist schon lange Teil einer öffentlichen Diskussion unter Ethnologen. Das Medium Internet bietet bei der Präsentation ethnologischer Themen ein großes Potential: es stellt eine gute Kommunikationsplattform dar und kann eine breite Öffentlichkeit erreichen. Diese Projektarbeit entstand im Rahmen eines interdisziplinären Seminars zur Medienethnologie (Universität Trier, WS 2003/04, Leitung: Dr. M. Schönhuth). Wichtigstes Ziel der Arbeit war die Evaluierung der Homepage des Faches Ethnologie an der Universität Trier. Aus diesem Grund wurden die Internetauftritte verschiedener deutschsprachiger Ethnologie-Institute nach einem zuvor entwickelten Bewertungsschema untersucht und verglichen. Die Evaluation soll im Nachlauf des Projektes als Optimierungshilfe für die Erstellung einer neuen Internetpräsenz des Faches dienen.
This thesis comprises of four research papers on the economics of education and industrial relations, which contribute to the field of empirical economic research. All of the corresponding papers focus on analysing how much time individuals spend on specific activities. The allocation of available time resources is a decision that individuals make throughout their lifetime. In this thesis, we consider individuals at different stages of their lives - students at school, university students, and dependent employees at the workplace.
Part I includes two research studies on student's behaviour in secondary and tertiary education.
Chapter 2 explores whether students who are relatively younger or older within the school year exhibit differential time allocation. Building on previous findings showing that relatively younger students perform worse in school, the study shows that relatively younger students are aware of their poor performance in school and feel more strain as a result. Nevertheless, there are no clear differences to be found in terms of time spent on homework, while relatively younger students spend more time watching television and less time on sports activities. Thus, the results suggest that the lower learning outcomes are not associated with different time allocations between school-related activities and non-school-related activities.
Chapter 3 analyses how individual ability and labour market prospects affect study behaviour. The theoretical modelling predicts that both determinants increase study effort. The empirical investigation is based on cross-sectional data from the National Educational Panel Study (NEPS) and includes thousands of students in Germany. The analyses show that more gifted students exhibit lower subjective effort levels and invest less time in self-study. In contrast, very good labour market prospects lead to more effort exerted by the student, both qualitatively and quantitatively. The potential endogeneity problem is taken into account by using regional unemployment data as an instrumental variable.
Part II includes two labour economic studies on determinants of overtime. Both studies belong to the field of industrial relations, as they focus on union membership on the one hand and the interplay of works councils and collective bargaining coverage on the other.
Chapter 4 shows that union members work less overtime than non-members do. The econometric approach takes the problem of unobserved heterogeneity into account; but provides no evidence that this issue affects the results. Different channels that could lead to this relationship are analysed by examining relevant subgroups separately. For example, this effect of union membership can also be observed in establishments with works councils and for workers who are very likely to be covered by collective bargaining agreements. The study concludes that the observed effect is due to the fact that union membership can protect workers from corresponding increased working time demands by employers.
Chapter 5 builds on previous studies showing a negative effect of works councils on overtime. In addition to co-determination by works councils at the firm level, collective bargaining coverage is an important factor in the German industrial relations system. Corresponding data was not available in the SOEP for quite some time. Therefore, the study uses recent SOEP data, which also contains information on collective bargaining coverage. A cross-sectional analysis is conducted to examine the effects of works councils in establishments with and without collective bargaining coverage. Similar to studies analysing other outcome variables, the results show that the effect of works councils exists only for employees covered by a collective bargaining agreement.
Entrepreneurial ventures are associated with economic growth, job creation, and innovation. Most entrepreneurial ventures need external funding to succeed. However, they often find it difficult to access traditional forms of financing, such as bank loans. To overcome this hurdle and to provide entrepreneurial ventures with badly-needed external capital, many types of entrepreneurial finance have emerged over the past decades and continue to emerge today. Inspired by these dynamics, this postdoctoral thesis contains five empirical studies that address novel questions regarding established (e.g., venture capital, business angels) and new types of entrepreneurial finance (i.e., initial coin offerings).
Formen direkter Demokratie tragen über schulrechtlich verankerte Mitbestimmungsmöglichkeiten von Schüler*innen und Lehrer*innen hinaus dazu bei, eine unmittelbare Teilhabe an schulischen und gesellschaftlichen Entscheidungs- und Entwicklungsprozessen zu verwirklichen. Sie eröffnen Perspektiven, unabhängig von Mandat oder Funktion Schulkultur zu gestalten und Selbstwirksamkeit zu ermöglichen. Traditionelle Hierarchien in der Institution Schule können progressiv reflektiert und direkte Teilhabe als individuelle und institutionelle Entwicklungschance erfahren werden. Just Community und Aushandlungsprozesse sind inspirierende Bauformen, die Entwicklung der Schule insgesamt und gemeinsam direktdemokratisch zu gestalten sowie Empowerment zu fördern.
Erschöpfung ist ein prominentes, unspezifisches Symptom mit vielfältigen Begleitsymptomen (z. B. Schmerzen, Schlafstörungen, Reizbarkeit, Niedergeschlagenheit). Gängige Konzepte erschöpfungsbezogener Erkrankungen und Syndrome werden häufig in Bezug auf ihre Differenzierungskraft oder Struktur kritisiert. Die Ursachen für die Entstehung von Erschöpfung sind vielfältig und die Behandlung kann nur mit gründlicher Differentialdiagnostik erfolgen. Anhand adaptionsbezogener Stressmodelle kann die Entstehung von Erschöpfung beschrieben und in drei Formen eingeteilt werden (I: reversibel, II: prädispositioniert und III: emotional-dysregulativ). Poststress-Symptome (z. B. "Wochenend-Migräne", "UrlaubsInfekte") stellen möglicherweise eine Erschöpfungsform dar, welche durch eine zentrale Entleerung der Noradrenalin-Spiegel bedingt ist. In der vorliegenden Arbeit wurden die Verlässlichkeit der Neuropattern-Erschöpfungsskala, sowie der Zusammenhang von Erschöpfung, Stress, dem Langzeit-Gesundheitsstatus und Poststress-Symptomen geprüft. Hierzu wurden Daten ambulanter und stationärer Patienten und Mitarbeitern verwendet, die an einer randomisierten klinischen Studie zur Neuropattern-Diagnostik teilnahmen. Zusätzlich wurden Daten von gesunden Personen zur Erhebung einer Normstichprobe verwendet. Die Neuropattern-Erschöpfungsskala zeigte sich als reliables und valides Maß. Sie war Indikator für direkte, indirekte und intangible Gesundheitskosten (z. B. erhöhte Arzt-, Therapeutenbesuche, Medikamenteneinnahme und Arbeitsunfähigkeit, reduziertes psychisches und physisches Wohlbefinden). Es zeigte sich, dass sowohl Stress, als auch Erschöpfung den Gesundheitszustand über den Verlauf von zwölf Monaten vorhersagt. Bemerkenswert ist, dass der Zusammenhang zwischen Stress und dem Langzeit-Gesundheitszustand vornehmlich durch Erschöpfung vermittelt wurde. Schließlich wurde die Prävalenz von Poststress-Symptomen bei gesunden Personen (2.9%), ambulanten (20%) und stationären Patienten (34,7%) bestimmt. Auch hier war nicht Stress der stärkste Prädiktor für das Auftreten von Poststress-Symptomen, sondern Erschöpfung. Modelle der psychophysiologischen Stressreaktion können die Entstehung von Erschöpfung erklären und die Diagnostik und Behandlung stressbezogener Gesundheitsstörungen verbessern. Die vorgestellte Neuropattern-Erschöpfungsskala ist dabei ein verlässliches und für die Praxis gut geeignetes Instrument, welches zur Indikation und Validierung präventiver und therapeutischer Maßnahmen eingesetzt werden kann. Je nach Erschöpfungsform bieten sich verschiedene Maßnahmen des regenerativen, instrumentellen oder kognitiven Stressmanagements, Nahrungsergänzungsmittel und Pharmakotherapie an.
In Deutschland fallen bei der Wasseraufbereitung, der Verarbeitung von Gesteinen, Recyclingprozessen und in der Industrie etliche mineralische Zwangs-, Koppel-, Neben- oder Abfallprodukte an, die aufgrund ihrer Inhaltsstoffe als Puffersubstanzen oder Nährstofflieferanten im Wald eingesetzt werden könnten. In diesem Projekt wurde die Wirksamkeit und Ökosystemverträglichkeit von Mischungen potentieller Sekundärrohstoffe in Gefäßversuchen, Lysimeterversuchen, Freilandversuchen, Perkolationsversuchen und Keim- und Wachstumsversuchen untersucht. Die Mischungen bestehen aus Enthärterkalk und Magnesitstaub. Eingesetzte Enthärterkalke waren zwei Reaktorkornvarianten und ein Enthärterschlamm, dem zur besseren Händelbarkeit und als Kaliumquelle Bimsmehl bzw. Perlitstaub beigemischt wurde. Zur Anregung der biologischen Aktivität mit Phosphor wurden zwei Enthärterschlammmischungen mit Tiermehlasche aus der Monoverbrennung von Tierkörpermehl versetzt. Als Puffersubstanzen oder Nährstofflieferanten bewährten sich die Reaktorkörner, Magnesitstaub und Bimsmehl. Die Reaktorkornkalke wirken ähnlich dem herkömmlich eingesetzten Dolomit mit hoher oberflächennaher Säurepufferkapazität, verbesserter Basensättigung des Mineralbodens, Reduktion der Schwermetallmobilität und Aluminiumbelegung an den Austauscher sowie Erhöhung der Stickstoffspeicherkapazität. Unter dem Einfluss von Magnesitstaubs erhöhte sich der Magnesiumgehalt der Bodenlösung bis in den Hauptwurzelraum und Magnesiummangel in Pflanzen wurde signifikant behoben. Pflanzenvitalitätskennwerte verbesserten sich deutlich. Der Kaliumgehalt der Bodenlösung verbesserte sich bei Perlitstaub und Bimsmehl, in den Pflanzen nur bei Bimsmehl. Unter Einfluss der Tiermehlasche erhöhte sich weder der Gehalt der Bodenlösung noch die biologische Aktivität. Der enthaltene Phosphor liegt als schwerlösliches Hydroxylapatit vor, leichter lösliches Phosphat wurde als Calciumphosphat festgelegt. Durch geringe Anteile von Kalkmilch im Enthärterschlamm wurden initiale Nitrat- und Protonenschübe initiiert, die in stickstoffgesättigten Systemen problematisch werden können. Auf der Basis der Untersuchungsergebnisse wurden die positiv bewerteten Sekundärrohstoffe in die 2003 neugefasste Düngemittelverordnung aufgenommen.
Erlkönig und Mathematik
(2005)
Erlebnisgenese im Tourismus
(2021)
Das Thema des Erlebnisses steht bereits seit langem im Fokus von Anbietern von Dienstleistungen. Dies gilt insbesondere für den Tourismus, einer Branche, deren Produkte zu einem signifikanten Teil aus solchen bestehen. Entsprechend der Prominenz des Themas, vor allem in den Bereichen touristischer Produktentwicklung und Marketing, ist dieses bereits breit in der Forschung diskutiert worden.
Trotz ausgiebiger Publikationsaktivitäten ist der tatsächliche Wissensstand in diesem Thema dennoch auffällig gering. Ein wichtiges Problem liegt darin begründet, dass die Terminologie im Bereich von Erlebnissen noch nicht allgemein akzeptiert und scharf abgegrenzt ist. So muss zwischen Erlebnissen und Erfahrungen unterschieden werden. Erstere treten während des Prozesses der Wahrnehmung einer touristischen Dienstleistung auf und bilden die Basis für Erfahrungen, welche prägend hinsichtlich der Wahrnehmung wirken und im Gesamtkontext der Reise betrachtet werden. Dieser Unterscheidung wird nicht nur in der englischsprachigen Literatur, in der beide Begriffe mit dem Begriff Experience beschrieben werden, sondern auch in der deutschsprachigen Literatur zumeist zu wenig Rechnung getragen, was dazu führt, dass häufig zu Erlebnissen publiziert wird, obwohl eigentlich Erfahrungen beschrieben werden. Problematisch ist dies vor allem, weil damit ein Phänomen untersucht wird, dessen Basis nahezu gänzlich unbekannt ist. Wichtige Fragen, welche zum Verständnis von Erlebnissen und damit auch von Erfahrungen bleiben unbeantwortet:
1) Welche Faktoren werden in der Genese von Erlebnissen wirksam?
2) Wie wirken diese zusammen?
3) Wie wird die Stärke eines Erlebnisses determiniert?
4) Wie werden Erlebnisse stark genug um den Konsum einer touristischen Dienstleistung zu prägen und damit gegebenenfalls zu Erfahrungen zu werden?
In der vorliegenden Arbeit wurden diese Fragen beantwortet, womit ein erster Schritt in Richtung der Füllung einer für die Tourismuswissenschaft nicht unbedeutenden Forschungslücke gelungen ist.
Um Erlebnisse, den Prozess der Genese dieser und deren Bewertung durch den Gast verstehen zu können, wurde ein triangulierter, zweistufiger Forschungsprozess ersonnen und in einem naturtouristischen Setting im Nationalpark Vorpommersche Boddenlandschaft zur Anwendung gebracht. Es handelt sich dabei um einen Mixed-Methods-Ansatz:
1) Induktive-qualitative Studie auf Basis der Grounded Theory
a. Ziel: Identifikation von Wirkkomponenten und deren Zusammenspiel und Generierung eines Modells
b. Methoden: Verdeckte Beobachtung und narrative Interviews
c. Ergebnisse: Modelle der Genese punktueller Erlebnisse und prägender Erlebnisse
2) Deduktive-quantitative Studie
a. Ziel: Überprüfung und Konkretisierung der in 1) generierten Modelle
b. Methoden: Fragebogengestützte, quantitative Befragung und Auswertung mittels multivariater Verfahren
c. Ergebnisse: Zusammenfassung der beiden Modelle zu einem finalen Modell der Erlebnis- und Erfahrungsgenese
Das Ergebnis des Vorgehens ist ein empirisch erarbeitetes und validiertes, detailliertes Modell der Genese von Erlebnissen und der Bewertung dieser durch den Erlebenden in Bezug auf deren Fähigkeit zu Erfahrungen zu werden.
Neben der Aufarbeitung und Konkretisierung dieses Prozesses konnte zusätzlich die in viele Richtungen diskutierte Bedeutung von Erwartungen und Produktzufriedenheit mit Blick auf die Bewertung von Erlebnissen geklärt werden. So konnte empirisch nachgewiesen werden, dass Erlebnisse, die auf Überraschungen, dem Unerwarteten, basierten besonders resistent gegenüber Störfaktoren waren und positive Erlebnisse zwar durchaus im Zusammenhang mit Produktzufriedenheit stehen aber sich vor allem durch eine zumindest temporär gesteigerte Lebenszufriedenheit manifestieren. Damit konnte das Hauptkriterium für die Bewertung von Erlebnissen mit Blick auf ihre Tauglichkeit zu Erfahrungen identifiziert werden.
Für die weitere Forschung kann die vorliegende Arbeit mit dem finalen Modell der Erlebnis- und Erfahrungsgenese einen soliden Ausgangspunkt bilden. So bieten zahlreiche Faktoren im Modell die Möglichkeit zur weiteren Forschung. Auch sollten die Ergebnisse in weiteren touristischen Kontexten überprüft werden.
Für die touristische Praxis kann die vorliegende Arbeit zahlreiche Hinweise geben. So bedeutet die Generierung von Erlebnissen im touristischen Kontext mehr als nur die Erfüllung von Erwartungen. Die widerstandsfähigsten Erlebnisse sind jene, die den Gast zu überraschen vermögen. Ein qualitativ hochwertiges, den Gast zufriedenstellendes Produkt ist dabei nicht mehr als ein Basisfaktor. Wirklich erfolgreich ist ein erlebnisbasierender Ansatz nur dann, wenn dieser es vermag die Lebenszufriedenheit des Gastes zu steigern.
Durch die Betrachtung der dialogischen Erziehung Bubers, deren Anknüpfung an die Erziehungstheorien Rousseaus, Humboldts und Schleiermachers, sowie die Darstellung der hermeneutischen Ansätze von Schleiermacher, Dilthey und Gadamer als auch der Dialektik Schleiermachers versucht die Dissertation zunächst, das erzieherische Verhältnis als dialogisches Verhältnis mit Anderen in Verbindung mit Hermeneutik und Dialektik vorzustellen. Aufgrund der Bedeutung der Selbständigkeit in der Erziehung, der geschichtlichen Prägung in der Hermeneutik und der Vielfalt in der Dialektik wird dann das Erkennen des Anderen als Aufgabe der Erwachsenenbildung unter den drei Gesichtspunkten Autonomie, geschichtliche Prägung und Vielfältigkeit erörtert und der etablierten Erwachsenenbildung eine offene Erwachsenenbildung gegenüber gestellt.
Der erste Band der im Auftrag des Historisch-Kulturwissenschaftlichen Forschungszentrums (HKFZ) Mainz-Trier herausgegebenen Reihe "e-Beiträge zu den Historischen Kulturwissenschaften" präsentiert die Ergebnisse der Mainzer Tagung "Wissen und Raumgenese". Die Beiträge behandeln den zentralen Forschungsgegenstand "Räume des Wissens" mit unterschiedlicher Schwerpunktsetzung und gewähren Einblicke in die interdisziplinäre Projektarbeit des Forschungszentrums. Inhaltsverzeichnis EMBACH, Michael / RAPP, Andrea: Neue Tendenzen der Handschriften- und Bibliotheksforschung " Ergebnisse des Trierer Workshops ... Seite 4 SCHMID, Wolfgang: Mittelalterliche Kathedralen als Kommunikations- und Wissensräume ... Seite 10 DREYER, Mechthild: Räume des Wissens " integriert oder ausgegrenzt? ... Seite 16 TODT, Klaus-Peter: Venedig und Kreta als Räume des Wissens über Byzanz und die orthodoxe Christenheit im 14. und 15. Jahrhundert ... Seite 24 VOLLET, Matthias / ALTHOFF, Jochen: Räume des Wissbaren in der Philosophie der Antike. Räume des Wissens und des Wissbaren bei Platon und Aristoteles ... Seite 34
Aus dem Wunsch, die zentralen Prozesse im System Boden"Pflanze"Atmosphäre einschließlich der Auswirkungen verschiedener Bewirtschaftungspraktiken zu verstehen und nachzubilden, resultiert die Entwicklung verschiedener Pflanzenwachstumsmodelle. Ziel der vorliegenden Untersuchung ist zum einen, die im Realsystem auftretenden räumlichen Ertragsmuster zu identifizieren und zu charakterisieren. Mithilfe der Semivariogramm-Analyse ist eine räumliche Autokorrelation der Ertragsdaten von maximal 48 Meter abzuleiten. Die räumliche Analyse (GIS) zeigt, dass die Sommergerste ein leicht abweichendes Verhalten im Vergleich zu den Winterkulturen (Winterweizen, Winterraps) aufweist. Schließlich werden mithilfe der selbstorganisierenden Merkmalskarten die primär und sekundär für das Ertragsverhalten verantwortlichen Ursachen identifiziert. Eine abschließende hierarchische Clusteranalyse gliedert die in die Untersuchung eingehenden Standorte in vier spezifische Cluster mit charakteristischen Eigenschaften. Ein zweites Ziel ist die Klärung der Frage, ob die Pflanzenwachstumsmodelle STICS und DAISY bei entsprechender Parametrisierung in der Lage sind, das für ein detektiertes Muster charakteristische Verhalten von Pflanzenwachstum und Ertrag realitätsnah abzubilden. Den Modellanwendungen gehen eine Sensitivitätsanalyse und verschiedene Parametrisierungsansätze zur Erfassung des jeweiligen Modellverhaltens voraus. In beiden Modellen übt der Bodenwasserhaushalt einen starken Einfluss auf die Ertragsbildung aus. Des weiteren kommt in beiden Modellen den Stressfaktoren eine zentrale Bedeutung zu. Die Parametrisierung der Modelle auf der Grundlage der im Feld erhobenen Daten führt bei beiden Modellen nicht zu einem dem Realsystem entsprechenden Bild. Eine über die Sensitivitätsanalyse hinausreichende, vertiefte Modellkenntnis ist erforderlich, um die in die Modelle eingehenden Parameter bzw. deren spezifischen Einfluss auf das Modellverhalten beurteilen und interpretieren zu können. Dies betrifft insbesondere die Modellgrößen der Bodenmodule. Dieser Aspekt erschwert eine einfache räumliche Übertragung der Modelle STICS und DAISY.
A phenomenon of recent decades is that digital marketplaces on the Internet are establishing themselves for a wide variety of products and services. Recently, it has become possible for private individuals to invest in young and innovative companies (so-called "start-ups"). Via Internet portals, potential investors can examine various start-ups and then directly invest in their chosen start-up. In return, investors receive a share in the firm- profit, while companies can use the raised capital to finance their projects. This new way of financing is called "Equity Crowdfunding" (ECF) or "Crowdinvesting". The aim of this dissertation is to provide empirical findings about the characteristics of ECF. In particular, the question of whether ECF is able to overcome geographic barriers, the interdependence of ECF and capital structure, and the risk of failure for funded start-ups and their chances of receiving follow-up funding by venture capitalists or business angels will be analyzed. The results of the first part of this dissertation show that investors in ECF prefer local companies. In particular, investors who invest larger amounts have a stronger tendency to invest in local start-ups. The second part of the dissertation provides first indications of the interdependencies between capital structure and ECF. The analysis makes clear that the capital structure is not a determinant for undertaking an ECF campaign. The third part of the dissertation analyzes the success of companies financed by ECF in a country comparison. The results show that after a successful ECF campaign German companies have a higher chance of receiving follow-up funding by venture capitalists compared to British companies. The probability of survival, however, is slightly lower for German companies. The results provide relevant implications for theory and practice. The existing literature in the area of entrepreneurial finance will be extended by insights into investor behavior, additions to the capital structure theory and a country comparison in ECF. In addition, implications are provided for various actors in practice.
Species can show strong variation of local abundance across their ranges. Recent analyses suggested that variation in abundance can be related to environmental suitability, as the highest abundances are often observed in populations living in the most suitable areas. However, there is limited information on the mechanisms through which variation in environmental suitability determines abundance. We analysed populations of the microendemic salamander Hydromantes flavus, and tested several hypotheses on potential relationships linking environmental suitability to population parameters. For multiple populations across the whole species range, we assessed suitability using species distribution models, and measured density, activity level, food intake and body condition index. In high-suitability sites, the density of salamanders was up to 30-times higher than in the least suitable ones. Variation in activity levels and population performance can explain such variation of abundance. In high-suitability sites, salamanders were active close to the surface, and showed a low frequency of empty stomachs. Furthermore, when taking into account seasonal variation, body condition was better in the most suitable sites. Our results show that the strong relationship between environmental suitability and population abundance can be mediated by the variation of parameters strongly linked to individual performance and fitness.
The search for relevant determinants of knowledge acquisition has a long tradition in educational research, with systematic analyses having started over a century ago. To date, a variety of relevant environmental and learner-related characteristics have been identified, providing a wide body of empirical evidence. However, there are still some gaps in the literature, which are highlighted in the current dissertation. The dissertation includes two meta-analyses summarizing the evidence on the effectiveness of electrical brain stimulation and the effects of prior knowledge on later learning outcomes and one empirical study employing latent profile transition analysis to investigate the changes in conceptual knowledge over time. The results from the three studies demonstrate how learning outcomes can be advanced by input from the environment and that they are highly related to the students" level of prior knowledge. It is concluded that the effects of environmental and learner-related variables impact both the biological and cognitive processes underlying knowledge acquisition. Based on the findings from the three studies, methodological and practical implications are provided, followed by an outline of four recommendations for future research on knowledge acquisition.
In Ostafrika ist der Fußgängerverkehr die mit Abstand wichtigste Fortbewegungsart. Dies gilt für städtische und ländliche Gebiete! Tatsache ist aber, dass die Probleme der Fußgänger in der Planung nicht ausreichend berücksichtigt werden. Die Politiker richten ihre zentrale Aufmerksamkeit auf den motorisierten Individualverkehr und missachten somit die Bedürfnisse der Mehrheit der Bevölkerung. Diese Disparität kann im Zuge einer nachhaltigen Entwicklung reduziert werden. Der nicht-motorisierte sowie der öffentliche Verkehr müssen stärker gefördert werden, da der motorisierte Individualverkehr in Ostafrika auf lange Zeit der breiten Bevölkerungsschicht vorenthalten bleibt. Westliche Wohlstandsmodelle dürfen demnach nicht als Verkehrsvorbild dienen. Die Entwicklungszusammenarbeit ist aufgerufen, Projekte in den Bereichen des öffentlichen sowie des nicht-motorisierten Verkehrs gezielt zu fördern. Nur so kann eine Transportplanung erfolgen, die ökologisch nachhaltig, sozial gerecht, ökonomisch effizient, politisch regulierend und investitionsfördernd ist. Durch gezielte Maßnahmen könnte eine Trendwende erreicht werden. Die Chancen für ein Umdenken in Form angepasster Verkehrspolitik sind gegeben. Wenn Industrieländer mit gutem Beispiel vorangehen, werden sich die Entwicklungsländer diesem Trend nicht verschließen können.
Diese Arbeit stellt eine einheitliche Workbench zur Entwicklung von mobilen Anwendungen in multihop Ad-Hoc-Netzwerken vor. Die einheitliche Workbench besteht aus drei Bausteinen: einem Simulator für diese Netzwerke, einer hybriden Emulationsumgebung für mobile multihop Ad-Hoc-Netzwerke und einer Ausführungsplattform für Anwendungen auf mobilen Geräten. Anwendungen können bereits im Simulator vollständig implementiert und evaluiert werden. Der entstandene Code kann unverändert sowohl im Emulationsteil als auch auf der Ausführungsplattform für mobile Geräte eingesetzt werden. Im passenden dreistufigen Entwicklungsprozeß wird die Anwendung im Simulator implementiert und getestet, bevor sie -- zusammen mit einer graphischen Oberfläche -- in der hybriden Emulationsumgebung weiter evaluiert und optimiert wird. Zuletzt erfolgt die Erprobung auf mobilen Geräten im Feldversuch. Mehrere tausend bis zehntausend mobile Geräte können in der Workbench durch die Beschränkung auf die topologischen Aspekte des Ad-Hoc-Netzwerks und eine besondere Bewegungsmodellabstraktion, die die besonders effiziente Berechnung der Bewegungs- und Konnektivitätsdaten der Geräte ermöglicht, effizient simuliert werden. Die Vorausberechnung und Wiederverwendung dieser Daten ist möglich. Simulationen können in Echtzeit detailliert visualisiert werden, wobei die Art der Visualisierung und das Ausgabeformat vom Benutzer definiert werden können. Die Workbench und der Softwareentwicklungsprozeß für Anwendungen in mobilen multihop Ad-Hoc-Netzwerken werden anhand einer Fallstudie erprobt. Dabei werden die Erfahrungen bei der Implementierung einer Middleware für Ad-Hoc-Anwendungen sowie bei der Entwicklung einer selbstorganisierenden Auktionsanwendung aufgezeigt.
Die vorliegende Habilitationsschrift widmet sich der Begegnung von partizipativen Entwicklungsansätzen und Ethnologie, ihren Chancen, ihren Gefahren und ihren Grenzen. Sie tut dies empirisch dort, wo die Begegnung derzeit am breitesten stattfindet: in der internationalen Entwicklungszusammenarbeit (EZ). Von ethnologischer Seite bedeutet dies eine Fokussierung auf den Teilbereich des Faches, der sich vorwiegend mit der Thematik EZ beschäftigt: die Entwicklungsethnologie. Das erste Kapitel gibt einen Überblick über den State-of-the-Art der deutschen Entwicklungsethnologie. Von den partizipativen Ansätzen wurde beispielhaft derjenige gewählt, der in der EZ in den letzten 10 Jahren am meisten rezipiert und in Projekte und Programme eingebunden wurde. Er firmiert in Entwicklungskreisen unter den Labeln Rapid Rural Appraisal (RRA) bzw. Participatory Appraisal (PRA). Seine wesentlichen Kennzeichen, seine unterschiedlichen Verwendungsbereiche und seine Begegnung mit der Ethnologie werden im zweiten und dritten Kapitel skizziert. Zwei Fallbeispiele (in Tansanias Rukwaregion und bei Russlanddeutschen in der Nähe von Nowosibirsk) zeigen, wie der Einsatz von PRA in der Projektpraxis bzw. im Rahmen einer ethnologischen Lehrforschung aussehen kann. Auf dieser empirischen Basis wird das Label "PRA" auf seine Verwendungen in der Praxis hin analysiert, seine Grenzen und Herausforderungen bestimmt und Anschlusspunkte für eine kritische Entwicklungsethnologie gesucht. Ein Kapitel zur notwendigen Frage der Ethik in der praxisbezogenen entwicklungsethnologischen Forschung schließt sich an, bevor in einem umfassenden Versuch die Fäden zusammen geführt und die Begegnung von Ethnologie und Partizipation an den Schnittstellen von Entwicklung ausgeleuchtet werden. Das einführende Kapitel bildet den Rahmen und die Klammer für die nachfolgenden Beiträge. Es verortet den Partizipationsdiskurs in den zwei Feldern, in denen sich Entwicklungsethnologie und die PRA-Methoden entwickelt haben. Es wird die Frage geklärt, in welchem Rahmen die Begegnung von partizipativen Ansätzen mit der internationalen EZ und mit der ethnologischen Fachgeschichte stattgefunden haben. Am Ende der Einleitung wird ein Ausblick aus heutiger Sicht (Ende 2002) vorgenommen. Mein persönliches Interesse an der Thematik und die empirische Legitimation für diese Arbeit sind berufsbiographischer Natur. 1992 war ich der Einladung eines Fachkollegen gefolgt, im Rahmen eines Forschungsauftrages den damaligen Stand partizipativer Ansätze in der deutschen und internationalen staatlichen Zusammenarbeit zu erheben (vgl. Schönhuth / Kievelitz 1993). Als angewandt arbeitender Ethnologe, der zwar teilweise praktisch forscht und berät, sein Standbein aber in der akademischen Forschung und Lehre hat, stellte sich mir die Frage, ob, und wenn ja wie sich die eher rasch und handlungsorientiert arbeitenden partizipativen Ansätze der EZ mit klassischen ethnologischen Methoden verbinden lassen.
Basierend auf der konstruktivistischen Lehrtheorie wurde eine Qualifizierung zum Online-Trainer entwickelt, die den neuen Anforderungen der virtuellen Weiterbildung begegnet. Die Wirkung dieser Qualifizierung und deren Einfluss auf den Erfolg der Online-Trainer wurde untersucht. Transparenz in die Aufgaben der Trainer wird durch die Darstellung der Online-Strategie der Trainer ermöglicht. Aus der betrieblichen Weiterbildung nahmen 59 Trainer an der Experimentalgruppe und 53 Trainer an der Kontrollgruppe der untersuchten Stichprobe teil. Entgegen der Annahmen hat die Qualifizierung keinen signifikanten Einfluss auf die Online-Selbstwirksamkeit und Kohäsion der Trainer. Weiterführende Analysen mittels multidimensionaler Skalierung wiesen aber eine Wirkung auf die Online-Strategie nach. Selbststeuerung, Erfahrung und Motivation wurden als moderierende Variablen in Bezug auf die Online-Strategie bestätigt. Zudem moderiert Selbststeuerung auch den Zusammenhang zwischen Qualifizierung und Kohäsion. Die Skala Modellstruktur, die den Einsatz der Online-Strategie als Strukturierungshilfe erfasst, stellt sich als der einzige bedeutende Prädiktor für Online-Trainererfolg heraus. Ergänzend zur Untersuchung stützt ein weiterer Vergleich, der Trainer einbezieht, die weder an der Kontroll- noch Experimentalgruppe teilnahmen, dass die Qualifizierung Einfluss auf den Online-Trainererfolg hat.
Die Arbeit thematisiert die Weiterentwicklung des touristischen Angebots der Deutschen Bahn, das derzeit über den Reiseveranstaltervertrieb am Markt platziert wird. Kunden, die im Reisebüro oder Internet eine Städtereise über ihren Veranstalter buchen, erhalten mit dem RIT (Rail Inclusive Tours)-Angebot ein spezielles Kooperationsticket für ihre Zugfahrt. Im ersten Abschnitt der Arbeit wird zunächst auf die Besonderheiten des Dienstleistungsbereichs inklusive Auswirkungen auf die Angebotsgestaltung von Unternehmen eingegangen. In diesem Zusammenhang werden Hintergründe von Kundenzufriedenheit und Kundenbindung skizziert sowie deren Wechselwirkungen dargestellt. Über die Einordnung der Deutschen Bahn als Dienstleistungsunternehmen im Schienenpersonenfernverkehr wird deren Positionierung im zunehmenden Wettbewerbsmarkt in einer Umfeldanalyse erarbeitet und die Bedeutsamkeit für den Unternehmenserfolg aufgezeigt. Der praktische Teil der Arbeit befasst sich mit den Befragungsergebnissen von Bestandskunden in der fokussierten Zielgruppe der Städtereisenden. Neben der Analyse von Nutzerstruktur, Reisegewohnheiten und alternativer Verkehrsmittelwahl, werden Kundenzufriedenheiten und Wichtigkeiten einzelner Leistungsbestandteile der Bahnreise näher betrachtet. Durch die Identifizierung von Kundensegmenten lassen sich Ansatzpunkte für die Weiterentwicklung des Angebots ableiten, die eine Attraktivitätssteigerung der Bahnfahrt herbeiführen und die Kundenzufriedenheit nachhaltig erhöhen können. Einbindung von Essensgutscheinen, das Angebot von Kuriergepäck oder die Integration des City-Tickets sind denkbare, nutzensteigernde Maßnahmen für die Anreisealternative Bahnfahrt. Weiterer Forschungsbedarf für die betrachtete Zielgruppe besteht in der Erfassung von Hinderungsgründen für eine bevorzugte Bahnwahl in der Verkehrsmittelentscheidung. Darüber hinaus ist das Potenzial für eine Einbindung solcher Services zu erfassen, die sich auf Seiten der Reiseveranstalter in ein Leistungspaket integrieren lassen, um weitere Indikatoren zur Attraktivitätssteigerung der Bahnfahrt ableiten zu können. Zusammenfassend stellt die Arbeit eine Analyse der skizzierten Zielgruppe der Städtereisenden der Deutschen Bahn über den Veranstaltervertrieb dar und liefert einen Beitrag, der die Ableitung einiger relevanter Handlungsempfehlungen erlaubt. Denn nur durch attraktive Angebote und die Erzielung einer hohen Kundenzufriedenheit kann sich die Bahn als bevorzugtes Transportmittel behaupten und neue Kunden für die Zugfahrt begeistern.
Since the end of the eighties a modern and high-quality medicine is not possible without use of data processing technology and communication technology. The physician manage the enormously big volume of medical data only with the help of computer-assisted information systems. In this regard the work deals with the concept and the construction of an intranet/internet-based radiology information system. The work examine the evaluation of the radiological systems already available on market. After the analysis of relevant qualities of these systems they are measured in demands and criteria, posed before. From discovered disadvantages as for example lacking internet ability, insufficient platform independence, the major tasks of this work will be described. In the first chapter a new concept is suggested for the construction of an intranet/internet-oriented, radiological information system for the transmission and archiving of data in clinics and local physicians implemented in modular structure, producer-independent DICOM-standardization, modern, independent of platform JAVA-technology and Intranet/Internet-technology. The second chapter treats the problems of the medical image compression. After an introducing description of the known compression procedures the difficulties of the compression of the medical images is described.In accordance with these requirements the known lossy and loss-less compression-algorithms are measured. The results of the comparative examinations will get in a representative random check of more than 500 DICOM-images. Two new adaptive compression algorithms are developed by methods suggested in the work of the classification and appreciation of the quality of medical images. The third chapter is dedicated to the implementation of the components of the developed intranet/internet-oriented radiology information system. First the different net communication scenarios for the data exchange between the components of the system on the basis of Java-technology are analyzed and than an own scenario is developed. The software is developed for the visualization and processing of DICOM-image projects. The last section considers the new internet/intranet-oriented radiology information system with whose draft the scientific and practical results of this doctoral thesis were applied.
Die zukünftige Landwirtschaft steht vor großen Herausforderungen: Zum einen sollen mit knapper werdenden Ressource wie Wasser und Boden mehr Menschen ernährt, die Wirtschaftlichkeit gesteigert und Pflanzen zur Energiegewinnung sowie für die Industrie erzeugt werden. Zum anderen sollen Umweltbelastungen deutlich verringert werden, damit die Landwirtschaft nicht ihre eigene Grundlage zerstört und Anpassungsstrategien für das zukünftige Klima gefunden werden. Die Erstellung eines Modells, mit deren Hilfe die Auswirkungen von Klimavariabilität, Standortbedingung, verschiedenartiger Kultivierung, Umwelteinflüsse und nachhaltigem Wirtschaften auf das Pflanzenwachstum simuliert werden können, also eine ökonomisch-ökologischen Bewertung vorgenommen werden kann, ist daher das Hauptziel vorliegender Dissertation. Zur Erlangung dieses Ziels sollte ein ökologisches (STICS) und ein ökonomische Modell (Produktionsfunktion) miteinander gekoppelt werden. Eine Sensitivitätsanalyse des Pflanzenwachstumsmodells STICS verdeutlicht, dass dieses Modell geeignet ist den Einfluss unterschiedlicher Bewirtschaftungsmethoden und Klimakenngrößen auf das Pflanzenwachstum bzw. den Ertrag sowie die Bodenfruchtbarkeit, z.B. über die Nitratauswaschung, realitätsnah abzubilden. Die Voraussetzung dafür ergibt sich auch aus dem Verwenden des statistischen Klimamodells WETTREG 2010, welches hochaufgelöste Klimadaten, die in Anzahl der Klimaelemente und zeitlicher Auflösung der Messreihen von Klimastationen gleichen, liefert. Die natürliche Variabilität des Klimas wird damit gut widergeben und Aussagen über zukünftiges Wachstum und Pflanzenentwicklung sowie Auswirkungen von Extremwetterlagen berechenbar. Die Ergebnisse des Pflanzenwachstumsmodells dienen als Grundlage einer Produktionsfunktion des Cobb-Douglas-Typs. Der graphische Zusammenhang, die Verteilung der Produktionsfaktoren und die Regressionsergebnisse zeigen allerdings, dass eine einfache lineare Regression zur Bestimmung der Funktion auf Mittel- und Summenwertbasis zu schlechten Ergebnissen, insbesondere hinsichtlich der Anpassung an Extremereignisse, führt. Die Klimafaktoren Niederschlag bzw. Wasser und Temperatur, aber auch die Nachhaltigkeit im Sinne der Erhaltung der Bodenfruchtbarkeit können in der Funktion nicht eindeutig bestimmt werden. Anhand von Simulationen mit künstlichen Klimadaten, d.h. stetig steigenden Temperaturen und immer gleicher Verteilung des Niederschlags (gute und schlechte Verteilung), konnten die Fehlerquellen herauskristallisiert und die fehlenden Faktoren in der Produktionsfunktion gefunden werden. Ein Lösungsansatz ist das Einbeziehen von Stressindizes für Wasser- und Stickstoffmangel, welche die zeitliche Verteilung von Niederschlag und Temperatur bzw. deren Auswirkungen auf das Pflanzenwachstum darstellen. Zudem ist über den Stickstoffstress die Verfügbarkeit von Nitrat für die Pflanze ableitbar und kann in der Produktionsfunktion miteinbezogen werden. Die Ergebnisse der Regression mit Berücksichtigung der Wasser- und Stickstoffstressindizes zeigen deutlich bessere Ergebnisse. Die Variabilität kann deutlich erhöht und die zeitliche Verteilung von Niederschlag und Temperatur sowie die Bodenfruchtbarkeit berücksichtigt werden. Allerdings ist die Anpassung gerade in den extremen Bereichen (überdurchschnittlich niedrige oder hohe Ernten) zu systematisch. Das Pflanzenwachstumsmodell wird demnach nicht durch eine einfache Produktionsfunktion ersetzbar, da es wichtige Informationen zu Ertrag, Einfluss der Klimavariabilität auf den Ertrag, Umwelteinflüssen, wie Stickstoffaustrag, oder Stressindizes liefert. Vielmehr wird erst durch Verwendung des Pflanzenwachstumsmodells die direkte Abhängigkeit zwischen Bewirtschaftung, Ertrag und Nachhaltigkeit im Sinne der Erhaltung der Bodenfruchtbarkeit bzw. der Vermeidung hoher Nitratauswaschung deutlich. Eine nicht angepasste Bewirtschaftung, z.B. Überdüngung und/oder hohe Bewässerung, führt sowohl zu mehr Nitrataustrag als auch zu niedrigerem Ertrag sowie höheren Kosten. Deutlich wird die Unersetzbarkeit des Pflanzenwachstumsmodells durch eine einfache Kostenanalyse. Hierbei konnte die Unrentabilität sehr intensiver Bewirtschaftung und Rentabilität einer zusätzlichen Bewässerung nur unter Berücksichtigung der Nitratauswaschung und klimatischer Gegebenheiten herausgestellt werden. Erst durch das Zusammenspiel von ökologischem und ökonomischem Modell werden die Auswirkungen von Klimavariabilität, Standortbedingung, verschiedenartiger Kultivierung und nachhaltigem Wirtschaften auf das Pflanzenwachstum berechenbar. Eine ökologisch-ökonomische Bewertung, wie die Beurteilung von Auswirkungen bestimmter Klimaelemente (Wasser, Temperatur) auf Pflanzenwachstum und Ertrag, Adaptionsstrategien, effizienter und ressourcenschonender Bewirtschaftung, Rentabilität, Umweltbelastung oder Nachhaltigkeit wird damit letztendlich möglich.
Markenaufbau von Destinationen ist eine kostenintensive und langfristige Angelegenheit. In den vergangenen Jahren stieg das Interesse von Kommunen, Regionen und Ländern die Markenbildung zu verstärken. Gleichzeitig wird aber auch immer mehr der Ruf lauter ein Instrument zu schaffen, das Markenbewertung für Destinationen vornimmt. Vor allem in der Konsumgüter und Investitionsgüterindustrie finden sich zahlreiche Ansätze zur Markenbewertung, im Destinationsmanagement gibt es das bisher kaum. Es gibt drei verschiedene Arten von Verfahren, die meist von Unternehmensberatungen oder Wissenschaftlern entwickelt wurden: Messung des Markenwertes, Messung der Markenstärke und hybride Verfahren. Für Destinationen machen rein quantitative Verfahren wenig Sinn, da es beim Thema "Reise" auch auf eine Vielzahl von qualitativen Merkmalen ankommt. Von daher wurde im Rahmen dieser Dissertation entschieden, sich primär auf ein qualitatives Verfahren zu konzentrieren und verschiedene Modelle der Markenbewertung zu überprüfen. Das Resultat der Überprüfung zeigte, dass es notwendig war verschiedene Modelle zu kombinieren, um damit die Markenstärke einer Destination zu messen. Als empirisches Beispiel wurde hier Spanien ausgewählt, da dies als ein erfolgreiches Beispiel für Branding in der Fachliteratur gesehen wird. Dieses neu entwickelte Verfahren wurde an der Destination Spanien überprüft im Rahmen einer Projektstudie mit Studierenden der Universität Trier. Das Ergebnis zeigte, dass der Ansatz eines qualitativen Verfahrens richtig war, allerdings könnte es in ein hybrides Verfahren überführt werden. Kooperationspartner für die Dissertation war Turespana, Berlin.