Refine
Year of publication
Document Type
- Doctoral Thesis (733) (remove)
Language
- German (463)
- English (259)
- Multiple languages (7)
- French (4)
Keywords
- Stress (34)
- Deutschland (26)
- Fernerkundung (17)
- Modellierung (16)
- Hydrocortison (15)
- stress (15)
- Optimierung (13)
- Stressreaktion (12)
- cortisol (12)
- n.a. (11)
Institute
- Psychologie (180)
- Geographie und Geowissenschaften (148)
- Mathematik (62)
- Wirtschaftswissenschaften (58)
- Fachbereich 4 (28)
- Geschichte, mittlere und neuere (28)
- Germanistik (26)
- Informatik (25)
- Kunstgeschichte (22)
- Politikwissenschaft (18)
Erlebnisgenese im Tourismus
(2021)
Das Thema des Erlebnisses steht bereits seit langem im Fokus von Anbietern von Dienstleistungen. Dies gilt insbesondere für den Tourismus, einer Branche, deren Produkte zu einem signifikanten Teil aus solchen bestehen. Entsprechend der Prominenz des Themas, vor allem in den Bereichen touristischer Produktentwicklung und Marketing, ist dieses bereits breit in der Forschung diskutiert worden.
Trotz ausgiebiger Publikationsaktivitäten ist der tatsächliche Wissensstand in diesem Thema dennoch auffällig gering. Ein wichtiges Problem liegt darin begründet, dass die Terminologie im Bereich von Erlebnissen noch nicht allgemein akzeptiert und scharf abgegrenzt ist. So muss zwischen Erlebnissen und Erfahrungen unterschieden werden. Erstere treten während des Prozesses der Wahrnehmung einer touristischen Dienstleistung auf und bilden die Basis für Erfahrungen, welche prägend hinsichtlich der Wahrnehmung wirken und im Gesamtkontext der Reise betrachtet werden. Dieser Unterscheidung wird nicht nur in der englischsprachigen Literatur, in der beide Begriffe mit dem Begriff Experience beschrieben werden, sondern auch in der deutschsprachigen Literatur zumeist zu wenig Rechnung getragen, was dazu führt, dass häufig zu Erlebnissen publiziert wird, obwohl eigentlich Erfahrungen beschrieben werden. Problematisch ist dies vor allem, weil damit ein Phänomen untersucht wird, dessen Basis nahezu gänzlich unbekannt ist. Wichtige Fragen, welche zum Verständnis von Erlebnissen und damit auch von Erfahrungen bleiben unbeantwortet:
1) Welche Faktoren werden in der Genese von Erlebnissen wirksam?
2) Wie wirken diese zusammen?
3) Wie wird die Stärke eines Erlebnisses determiniert?
4) Wie werden Erlebnisse stark genug um den Konsum einer touristischen Dienstleistung zu prägen und damit gegebenenfalls zu Erfahrungen zu werden?
In der vorliegenden Arbeit wurden diese Fragen beantwortet, womit ein erster Schritt in Richtung der Füllung einer für die Tourismuswissenschaft nicht unbedeutenden Forschungslücke gelungen ist.
Um Erlebnisse, den Prozess der Genese dieser und deren Bewertung durch den Gast verstehen zu können, wurde ein triangulierter, zweistufiger Forschungsprozess ersonnen und in einem naturtouristischen Setting im Nationalpark Vorpommersche Boddenlandschaft zur Anwendung gebracht. Es handelt sich dabei um einen Mixed-Methods-Ansatz:
1) Induktive-qualitative Studie auf Basis der Grounded Theory
a. Ziel: Identifikation von Wirkkomponenten und deren Zusammenspiel und Generierung eines Modells
b. Methoden: Verdeckte Beobachtung und narrative Interviews
c. Ergebnisse: Modelle der Genese punktueller Erlebnisse und prägender Erlebnisse
2) Deduktive-quantitative Studie
a. Ziel: Überprüfung und Konkretisierung der in 1) generierten Modelle
b. Methoden: Fragebogengestützte, quantitative Befragung und Auswertung mittels multivariater Verfahren
c. Ergebnisse: Zusammenfassung der beiden Modelle zu einem finalen Modell der Erlebnis- und Erfahrungsgenese
Das Ergebnis des Vorgehens ist ein empirisch erarbeitetes und validiertes, detailliertes Modell der Genese von Erlebnissen und der Bewertung dieser durch den Erlebenden in Bezug auf deren Fähigkeit zu Erfahrungen zu werden.
Neben der Aufarbeitung und Konkretisierung dieses Prozesses konnte zusätzlich die in viele Richtungen diskutierte Bedeutung von Erwartungen und Produktzufriedenheit mit Blick auf die Bewertung von Erlebnissen geklärt werden. So konnte empirisch nachgewiesen werden, dass Erlebnisse, die auf Überraschungen, dem Unerwarteten, basierten besonders resistent gegenüber Störfaktoren waren und positive Erlebnisse zwar durchaus im Zusammenhang mit Produktzufriedenheit stehen aber sich vor allem durch eine zumindest temporär gesteigerte Lebenszufriedenheit manifestieren. Damit konnte das Hauptkriterium für die Bewertung von Erlebnissen mit Blick auf ihre Tauglichkeit zu Erfahrungen identifiziert werden.
Für die weitere Forschung kann die vorliegende Arbeit mit dem finalen Modell der Erlebnis- und Erfahrungsgenese einen soliden Ausgangspunkt bilden. So bieten zahlreiche Faktoren im Modell die Möglichkeit zur weiteren Forschung. Auch sollten die Ergebnisse in weiteren touristischen Kontexten überprüft werden.
Für die touristische Praxis kann die vorliegende Arbeit zahlreiche Hinweise geben. So bedeutet die Generierung von Erlebnissen im touristischen Kontext mehr als nur die Erfüllung von Erwartungen. Die widerstandsfähigsten Erlebnisse sind jene, die den Gast zu überraschen vermögen. Ein qualitativ hochwertiges, den Gast zufriedenstellendes Produkt ist dabei nicht mehr als ein Basisfaktor. Wirklich erfolgreich ist ein erlebnisbasierender Ansatz nur dann, wenn dieser es vermag die Lebenszufriedenheit des Gastes zu steigern.
Auf politischer Ebene hat die Finanzierung von Kleinstunternehmen, kleinen und mittleren Unternehmen (KMU) durch die europäische Finanz- und Wirtschaftskrise eine hohe Bedeutung erhalten, da mehr als 99% aller europäischen Unternehmen in Europa dieser Kategorie angehören. Als Reaktion auf die oftmals schwierige Finanzierungssituation von KMU, die maßgeblich zur Gefährdung der Innovationsfähigkeit und der Entwicklung der europäischen Wirtschaft beitragen kann, wurden spezielle staatliche Programme aufgelegt. Trotz des vermehrten Interesses auf politischer und akademischer Ebene bezüglich KMU-Finanzierung, gibt es jedoch auf europäischer Ebene nur wenig empirische Evidenz. Diese Dissertation beschäftigt sich daher in fünf verschiedenen empirischen Studien zu aktuellen Forschungslücken hinsichtlich der Finanzierung von Kleinstunternehmen, kleinen und mittleren Unternehmen in Europa und mit neuen Finanzierungsinstrumenten für innovative Unternehmen oder Start-Ups.
Zunächst wird basierend auf zwei empirischen Untersuchungen (Kapitel 2 und 3) der Status Quo der KMU-Finanzierung in Europa dargelegt. Die Finanzierung von KMU in Europa ist sehr heterogen. Einerseits sind KMU als Gruppe keine homogene Gruppe, da Kleinstunternehmen (< 10 Mitarbeiter), kleine (10–49 Mitarbeiter) und mittlere (50–249 Mitarbeiter) Unternehmen sich nicht nur in ihren Charakteristiken unterscheiden, sondern auch unterschiedliche Finanzierungsmöglichkeiten und -bedürfnisse besitzen. Andererseits existieren Länderunterschiede in der Finanzierung von KMU in Europa. Die Ergebnisse dieser beiden Studien (Kapitel 2 und 3), die auf einer Umfrage der Europäischen Zentralbank und der Europäischen Kommission („SAFE survey“) beruhen, verdeutlichen dies: KMU in Europa verwenden unterschiedliche Finanzierungsmuster und nutzen Finanzierungsmuster komplementär oder substitutiv zueinander. Die verschiedenen Finanzierungsmuster sind wiederum gekennzeichnet durch firmen-, produkt-, und länderspezifische Charakteristika, aber auch durch makroökonomische Variablen (z. B. Inflationsraten).
In Kapitel 3 der Dissertation werden gezielt die Unterschiede zwischen der Finanzierung von Kleinstunternehmen im Vergleich zu kleinen und mittleren Unternehmen untersucht. Während kleine und mittlere Unternehmen eine Vielzahl an verschiedenen Finanzierungsinstrumenten parallel zueinander nutzen (z. B. subventionierte Bankkredite parallel zu Banken-, Überziehungs- und Lieferantenkrediten), greifen Kleinstunternehmen auf wenige Instrumente gleichzeitig zurück (insbesondere kurzfristiges Fremdkapital). Folglich finanzieren sich Kleinstunternehmen entweder intern oder über Überziehungskredite. Die Ergebnisse der Dissertation zeigen somit, dass die Finanzierung der KMU nicht homogen ist. Insbesondere Kleinstunternehmen sollten als eine eigenständige Gruppe innerhalb der KMU mit charakteristischen Finanzierungsmustern behandelt werden.
Innovative Firmen und Start-Ups gelten als wichtiger Motor für die Entwicklung der regionalen Wirtschaft. Auch sie werden in der akademischen Literatur häufig mit Finanzierungsschwierigkeiten in Verbindung gebracht, die das Wachstum und Überleben dieser Unternehmen erschwert. Der zweite Teil der Dissertation beinhaltet daher zwei empirische Studien zu dieser Thematik. Zunächst werden in Kapitel 4 in einer ersten Studie die regionalen und firmenspezifischen Faktoren untersucht, die den Output des geistigen Eigentums erhöhen. Insbesondere regionale Faktoren wurden bisher unzureichend untersucht, welche jedoch speziell für die politischen Entscheidungsträger von besonderer Relevanz sind. Die Ergebnisse dieser Studie zeigen, dass der Erhalt von Venture Capital neben der Firmengröße einen signifikanten Einfluss auf die Höhe des geistigen Eigentums haben. Zwar spielen technische Universitäten keine Rolle bezüglich des Outputs, jedoch zeigt sich ein signifikant positiver Effekt der Studentenrate auf den jeweiligen Output des geistigen Eigentums. Basierend auf diesen Ergebnissen wird in einer zweiten Studie gezielt auf das Finanzierungsinstrument Venture Capital eingegangen und zwischen verschiedenen VC Typen unterschieden: staatliche, unabhängige und Corporate Venture Capital Firmen. Die Ergebnisse zeigen, dass insbesondere Regionen mit einem Angebot an qualifiziertem Humankapital staatliche Venture Capital Investitionen anziehen. Des Weiteren investieren insbesondere Corporate und staatliche Venture Capital Firmen vermehrt in ländliche Regionen.
Als neues Finanzierungsinstrument für besonders innovative Unternehmer hat sich das „Initial Coin Offering (ICO)“ in den letzten Jahren herauskristallisiert, womit sich Kapitel 5 näher beschäftigt. Mithilfe einer Zeitreihenanalyse werden Marktzyklen von ICO Kampagnen, bitcoin und Ether Preisen analysiert. Die Ergebnisse dieser Studie zeigen, dass vergangene ICOs die folgenden ICOs positiv beeinflussen. Zudem haben ICOs einen negativen Einfluss auf die Kryptowährungen Bitcoin und Ether, wohingegen sich der Preis des bitcoin positiv auf den Preis des Ethers auswirkt.
Grundlage der Arbeit stellten zwei Arbeitshypothesen dar, die es zu überprüfen galt. Die beiden Arbeitshypothesen wurden aufgrund einer Beobachtung eines Phänomens im Freiland formuliert, da bei scheinbar unterschiedlich starkem Reblausbesatzes im Boden kein direkter Zusammenhang zu einer schädigenden Wirkung dieses Stressphänomens (Reblausbefall) hergestellt werden konnte. Im Gegenteil traten die schädigenden Wirkungen des Reblausbefalls in Form von Rückgangserscheinungen eher in Rebflächen auf, die einer mangelhaften Bewirtschaftung oder Bestandsführung unterlagen. Zur Klärung dieses Phänomens wurden daher die beiden (A., B.) folgenden Hypothesen aufgestellt, die es zu überprüfen galt:
A.: Die in mit Unterlagsrebsorten der Kreuzung V. berlandieri x V. riparia zu beobachtenden Rückgangserscheinungen in Rebanlagen mit Reblausvorkommen werden nicht allein durch die Saugtätigkeit der Reblaus an den Rebwurzeln verursacht; eine direkte Korrelation zwischen Reblausdichte und Ausmaß der Rückgangserscheinungen an infizierten Reben besteht nicht. B.: Das Ausmaß möglicher Rückgangserscheinungen ist abhängig von der Bewirtschaftung des Rebbestands, wobei der Bodenbewirtschaftung eine maßgebliche Rolle zukommt.
Um diese Hypothesen zu überprüfen wurde ableitend von den Zielen der Arbeit ein Reblausbonitursystem zur Erfassung der Reblausabudanz im Freiland im Boden erarbeitet. Die besonderen Schwierigkeiten bei der Erfassung des Reblausbefalls im Boden aufgrund des stark variierenden Wurzelsystems der Rebe und dem ebenfalls stark schwankenden Reblausbefalls an der Wurzel der Rebe wurde mit dem Reblausbonitursystem (Grabungen) Rechnung getragen, sodass ein valides System zur Beurteilung des Reblausbefalls auch im jahreszeitlichen Verlauf erstellt worden konnte. Damit wurde ein Reblausbonitursystem geschaffen, das auch in praktischer Anwendung durchführbar ist und somit mit seiner höheren möglichen Replikationsrate bei der Probenentnahme dem stark variierenden Charakter des Reblausbefalls im Boden Rechnung trägt.
Um Rückgangserscheinungen in einem Weinberg nachhaltig analysieren zu können, wurde ein Wuchsbonitursystem evaluiert. Dieses System beurteilt alle Reben einer Rebfläche innerhalb eines einfachen für den Menschen kognitiv sehr gut verarbeitenden Bewertungssystem zum Wuchs der Reben. Damit ist eine Erfassung einer sehr großen Datenmenge zur Beurteilung des Wuchses auf einem Rebfeld möglich. Die Korrelation des mit dem System ermittelten Wuchses zu vielen Leistungsparametern der Rebe und den Gegebenheiten auf den Versuchsflächen zeigt die hohe Validität des Wuchsbonitursystems auf. Auch konnten Wuchsunterschiede in sehr differierenden Versuchsfeldern mit dieser Methode deutlich belegt werden. Damit wurde deutlich, dass mit dieser Wuchsboniturmethode die Rückgangserscheinungen in einer Rebfläche erkannt und analysiert werden konnten. Somit konnten mit den beiden Instrumenten der Wuchs- und Reblausbonitur die beiden Arbeitshypothesen dahingehend belegt werden, dass unter Verwendung der Unterlagensorten der Kreuzungskombination V. berlandieri x V. riparia kein Zusammenhang zwischen der Reblausdichte im Boden und Rückgangserscheinungen der Rebe vorliegen. Darüber hinaus konnte belegt werden, dass in Erweiterung dieser Erkenntnis das Ausmaß der Rückganserscheinungen bei Reben maßgeblich von der Art der Bewirtschaftung abhängt und somit deutlich abzutrennen ist vom Einfluss des Reblausbefalls. Vor allem konnte durch die vorliegende Arbeit unter Einbeziehung des Wuchsbonitursystems eine Methode erarbeitet werden, die in Zukunft bei der Beurteilung von Fernerkundungsdaten ein nützliches Instrument darstellt, um die wirklichen Gegebenheiten hinsichtlich des Wuchses der Reben auf Weinbergsflächen mit den berechneten Werten zu Wuchsindizes zu korrelieren.
This work studies typical mathematical challenges occurring in the modeling and simulation of manufacturing processes of paper or industrial textiles. In particular, we consider three topics: approximate models for the motion of small inertial particles in an incompressible Newtonian fluid, effective macroscopic approximations for a dilute particle suspension contained in a bounded domain accounting for a non-uniform particle distribution and particle inertia, and possibilities for a reduction of computational cost in the simulations of slender elastic fibers moving in a turbulent fluid flow.
We consider the full particle-fluid interface problem given in terms of the Navier-Stokes equations coupled to momentum equations of a small rigid body. By choosing an appropriate asymptotic scaling for the particle-fluid density ratio and using an asymptotic expansion for the solution components, we derive approximations of the original interface problem. The approximate systems differ according to the chosen scaling of the density ratio in their physical behavior allowing the characterization of different inertial regimes.
We extend the asymptotic approach to the case of many particles suspended in a Newtonian fluid. Under specific assumptions for the combination of particle size and particle number, we derive asymptotic approximations of this system. The approximate systems describe the particle motion which allows to use a mean field approach in order to formulate the continuity equation for the particle probability density function. The coupling of the latter with the approximation for the fluid momentum equation then reveals a macroscopic suspension description which accounts for non-uniform particle distributions in space and for small particle inertia.
A slender fiber in a turbulent air flow can be modeled as a stochastic inextensible one-dimensionally parametrized Kirchhoff beam, i.e., by a stochastic partial differential algebraic equation. Its simulations involve the solution of large non-linear systems of equations by Newton's method. In order to decrease the computational time, we explore different methods for the estimation of the solution. Additionally, we apply smoothing techniques to the Wiener Process in order to regularize the stochastic force driving the fiber, exploring their respective impact on the solution and performance. We also explore the applicability of the Wiener chaos expansion as a solution technique for the simulation of the fiber dynamics.
Aufgrund oftmals erhöhter Arsen- und Schwermetallgehalte in den Oberböden von Auen ist eine Verwertung von Auenböden, zum Beispiel im Rahmen von Renaturierungsmaßnahmen, oftmals schwierig, da keine auenspezifische Bewertungsgrundlage für dieser Stoffgehalte vorliegt.
Am Beispiel der Lippeaue erfolgte auf Grundlage abgeleiteter Haupteinflussfaktoren für die Konzentration von Arsen- und Schwermetallen in den Oberböden die Ableitung von Hintergrundgehalten. Die Metall- und Schwermetallgehalte in den Oberböden der Lippeaue lagen i. d. R. erwartungsgemäß oberhalb der in der Praxis verwendeten Einstufungswerte (z. B. Vorsorgewerte der BBodSchV, Hintergrundwerte von NRW), die sich allerdings auf Standorte außerhalb der Aue beziehen.
Anhand von gewonnen Daten aus Projektarbeiten im Zuge der Umsetzung der EU-Wasserrahmenrichtlinie (z. B. bodenkundliche und ingenieurgeologische Profilaufnahme, bodenmechanische Laborversuche) und ergänzend durchgeführter Untersuchungen, wie z. B. Bodentypenkartierung und mineralogische Untersuchungen, erfolgte eine detaillierte Standortcharakterisierung der Böden in der Lippeaue.
Auf Basis der abgeleiteten Hintergrundgehalte wurden unter Berücksichtigung der ermittelten Bodenkennwerte und Einflussgrößen auenspezifische Einbauregeln abgeleitet. Mit dem Ziel einer praktikablen Anwendbarkeit wurde eine auf die wesentlichen Kenngrößen reduzierte Bewertungsmatrix erarbeitet. Bei geplanten baulichen Eingriffen in den Boden kann nun mit den lippeauenspezifischen Einbauwerten für Arsen und Schwermetalle anhand konventioneller Parameter für jeden Standort ermittelt werden, ob besonders günstige oder ungünstige Bedingungen für einen potenziellen Wiedereinbau vorliegen. Die abgeleiteten Hintergrundgehalte und Einbauwerte verstehen sich dabei als – auf Basis der aktuellen Datenlage abgeleitete – Handlungsempfehlung und Orientierung zur Bewertung von Böden im Hinblick auf einen gebietsübergreifenden Wiedereinbau in der Lippeaue.
Heimatfabrik Lokalmuseum bietet einen neuen Blick auf lokal verankerte Museen. Anhand von ausgewählten Fallbeispielen, die durch eine quantitative Untersuchung von etwa 370 Museen im Großherzogtum Luxemburg und in der belgischen Region Wallonien ergänzt werden, analysiert die Autorin, welche Identifikationsangebote bäuerliche Alltagsmuseen, Stadtmuseen, Industriemuseen, Kriegsmuseen und Auswanderermuseen ihren Besuchern bieten. Wen schließen die Museumsverantwortlichen durch ihre Erzählweisen ein und wen grenzen sie aus? Wie gehen sie mit sprachlichen, konfessionellen, kulturellen, sexuellen und soziale Minderheiten um?
Das Buch beginnt mit der Klärung der Frage, wie sich das Heimatverständnis in Luxemburg in Luxemburg und im angrenzenden Wallonien im Spannungsfeld zwischen dem klassischen Heimatbegriff des deutschsprachigen Raums und der Inwertsetzung der Landschaft durch die französischen Humangeographen seit der Mitte des 19. Jahrhunderts entwickelt hat. Aus diesem unterschiedlichen Zugang zu dem was als enger Kreis des gesellschaftlichen Zusammenhalts empfunden wird, ergeben sich verschiedene Typen von lokalhistorischen Museen, die die Autorin in historischer Perspektive vorstellt.
Indem sie Dinge des Alltags durch die Aufnahme in ihre Sammlungen zu symbolischen Zeichenträgern einer Gesellschaft erheben sind Museen privilegierte Orte für die Schaffung von Heritage. Mit den Ausstellungen erzeugen die Museumsträger eine subjektiv empfundene gesellschaftliche Einheit, die von manchen Besucher als Heimat angenommen oder abgelehnt wird, andere wiederum gleichgültig lässt. Vor diesem Hintergrund dieser Feststellung beschäftigt sich die Autorin mit dem, was unter lokalem heritage zu verstehen ist und welcher gestalterischen Mittel sich die Verantwortlichen von lokalhistorischen Museen bedienen um ihre Vorstellung von Heimat zu konstruieren. Anhand der Themenbereiche bäuerlicher Alltag, Natur, Ein- und Auswanderung, Krieg sowie Industrie geht das Buch der Frage nach, wie interne und externe Museumsstakeholder das vom Museum vermittelte Heimatbild und damit verbunden auch die nationale Geschichtskultur mitbestimmen.
Das Buch möchte dazu beitragen, den Blick einer interessierten Öffentlichkeit für lokales Kulturerbe zu schulen sowie Historiker auf das Potenzial von lokalhistorischen Museen hinzuweisen. In diesem Sinne ist die Untersuchung auch ein Plädoyer für die Anerkennung der Besonderheit von außerakademischer historischer Aufarbeitung und für die Verstärkung der Zusammenarbeit zwischen universitärer und außeruniversitärer Forschung.
In light of an alarming increase of sick leave and early retirement because of mental diseases, the public, political and scientific interest in an effective protection of psychological health within organizational context has been increasing for years. More and more the focus is especially on executives who influence the mental health of their employees by leadership behavior within interactions and by designing work tasks and working pro-cesses. In this regard classical and modern, explicit health-oriented leadership approaches provide valuable insights but also neglect the important influence of leadership situation on health-oriented leadership. This situation reduces the explanatory and predictive potential of available health-oriented leadership concepts.
In article 1 a conceptual framework model called Systemic Salutogenic Interaction Model (SSIM) is developed and justified that is based on findings of evidence-based leadership research but also integrates systemic concepts and key elements of the theory of saluto-genesis. The SSIM distinguishes between two levels: Within the primary system of salutogenic interaction salutogenic leadership and employees behavior for the first time are conceptualized as recipocal influence factors that influence each other (level 1). The organizational context is explicitly taken into account as significant factor outside the primary system that effects the behavior of both interaction partners mediated via cognitive pro-cesses (level 2). Due to this focus on interactions und context factors for the first time leadership situation becomes an explicit component of a health-oriented leadership concept.
First of all, article 2 focusses on the systematic analysis of the relative importance health related leadership aspects. For this purpose the TIMP-inventory was developed that records three distinct core-factors of salutogenic leadership (trust, incident management and pressure) which explain more variance of the Work-SoC construct than established general approaches and health-related leadership concepts.
In article 3 the results of a cross-sectional multilevel analysis indicate that the perceived leadership situation significantly explains variance of salutogenic leadership between teams. For the first time, this shows a significant correlation between specific aspects of leadership situation und salutogenic leadership behavior.
Within the frame of a quasi-experimental study (article 4), for the first time, a correlation is shown between salutogenic target-setting processes on executive’s side and the Work-SoC of team members. These results support an essential effect mechanism that is postulated in the SSIM. Furthermore these findings indicate that the SSIM can profitably be used within the context of salutogenic coachings, underlining its practical benefit.
Taken together the empirical findings of this dissertation support the assumption that the new SSIM approach significantly expands the explanatory und predictive potential of the health-oriented leadership concepts so far available. The results also raise a number of new, interesting questions for future research. Furthermore the SSIM broadens the perspective regarding the strategic orientation of human resource and organizational devel-opment. Especially out of the SSIM important guiding principles and innovative concepts for a target-oriented diagnostic und effective interventions can be derived. Thus this dissertation lays the foundation for a coherent, holistic oriented salutogenic leadership research und practice.
In der Vorrede zur ersten Auflage von Die Welt als Wille und Vorstellung legt Arthur Schopenhauer dem Leser seines Werkes seine Absicht nahe, welche in der Mitteilung eines „einzigen Gedankens“ besteht. Doch dieser mitzuteilende Gedanke wird an keiner Stelle des Werkes explizit und direkt als solchen von Schopenhauer ausgesprochen und genannt. Dies gibt bis heute in der Schopenhauer-Forschung Anlass zu kontroversen Auseinandersetzungen: Wie lautet Schopenhauers „einziger Gedanke“? Wo befindet er sich konkret? Und ist er überhaupt mitteilbar?
Trotz zahlreicher Forschungsarbeiten zur Thematik des „einzigen Gedankens“ wurde bisher der Einfluss der indischen Philosophie, genauer des Oupnek’hat, vernachlässigt, obwohl genauestens nachgewiesen und nachgezeichnet werden kann, mit welchen Quellen sich Schopenhauer zum Zeitpunkt der Entstehung seiner Philosophie intensiv beschäftigt hat. Auch verweist er selbst immer wieder auf bestimmte Stellen aus dem Oupnek’hat und zitiert Passagen an ganz wesentlichen Stellen in seinem Werk.
Um den „einzigen Gedanken“ im Werk Schopenhauers erfassen zu können, reicht es nicht aus, nur vom Hauptwerk selbst auszugehen, sondern es müssen ebenfalls die Jahre und Schriften während der Entstehung seiner Philosophie bis zum Hauptwerk berücksichtigt werden, und damit verbunden auch die Quellen, die Schopenhauer beeinflusst haben, wozu insbesondere das Oupnek’hat samt seinen eigenen Randnotizen gehört.
This thesis addresses three different topics from the fields of mathematical finance, applied probability and stochastic optimal control. Correspondingly, it is subdivided into three independent main chapters each of which approaches a mathematical problem with a suitable notion of a stochastic particle system.
In Chapter 1, we extend the branching diffusion Monte Carlo method of Henry-Labordère et. al. (2019) to the case of parabolic PDEs with mixed local-nonlocal analytic nonlinearities. We investigate branching diffusion representations of classical solutions, and we provide sufficient conditions under which the branching diffusion representation solves the PDE in the viscosity sense. Our theoretical setup directly leads to a Monte Carlo algorithm, whose applicability is showcased in two stylized high-dimensional examples. As our main application, we demonstrate how our methodology can be used to value financial positions with defaultable, systemically important counterparties.
In Chapter 2, we formulate and analyze a mathematical framework for continuous-time mean field games with finitely many states and common noise, including a rigorous probabilistic construction of the state process. The key insight is that we can circumvent the master equation and reduce the mean field equilibrium to a system of forward-backward systems of (random) ordinary differential equations by conditioning on common noise events. We state and prove a corresponding existence theorem, and we illustrate our results in three stylized application examples. In the absence of common noise, our setup reduces to that of Gomes, Mohr and Souza (2013) and Cecchin and Fischer (2020).
In Chapter 3, we present a heuristic approach to tackle stochastic impulse control problems in discrete time. Based on the work of Bensoussan (2008) we reformulate the classical Bellman equation of stochastic optimal control in terms of a discrete-time QVI, and we prove a corresponding verification theorem. Taking the resulting optimal impulse control as a starting point, we devise a self-learning algorithm that estimates the continuation and intervention region of such a problem. Its key features are that it explores the state space of the underlying problem by itself and successively learns the behavior of the optimally controlled state process. For illustration, we apply our algorithm to a classical example problem, and we give an outlook on open questions to be addressed in future research.
Traditionell werden Zufallsstichprobenerhebungen so geplant, dass nationale Statistiken zuverlässig mit einer adäquaten Präzision geschätzt werden können. Hierbei kommen vorrangig designbasierte, Modell-unterstützte (engl. model assisted) Schätzmethoden zur Anwendung, die überwiegend auf asymptotischen Eigenschaften beruhen. Für kleinere Stichprobenumfänge, wie man sie für Small Areas (Domains bzw. Subpopulationen) antrifft, eignen sich diese Schätzmethoden eher nicht, weswegen für diese Anwendung spezielle modellbasierte Small Area-Schätzverfahren entwickelt wurden. Letztere können zwar Verzerrungen aufweisen, besitzen jedoch häufig einen kleineren mittleren quadratischen Fehler der Schätzung als dies für designbasierte Schätzer der Fall ist. Den Modell-unterstützten und modellbasierten Methoden ist gemeinsam, dass sie auf statistischen Modellen beruhen; allerdings in unterschiedlichem Ausmass. Modell-unterstützte Verfahren sind in der Regel so konstruiert, dass der Beitrag des Modells bei sehr grossen Stichprobenumfängen gering ist (bei einer Grenzwertbetrachtung sogar wegfällt). Bei modellbasierten Methoden nimmt das Modell immer eine tragende Rolle ein, unabhängig vom Stichprobenumfang. Diese Überlegungen veranschaulichen, dass das unterstellte Modell, präziser formuliert, die Güte der Modellierung für die Qualität der Small Area-Statistik von massgeblicher Bedeutung ist. Wenn es nicht gelingt, die empirischen Daten durch ein passendes Modell zu beschreiben und mit den entsprechenden Methoden zu schätzen, dann können massive Verzerrungen und / oder ineffiziente Schätzungen resultieren.
Die vorliegende Arbeit beschäftigt sich mit der zentralen Frage der Robustheit von Small Area-Schätzverfahren. Als robust werden statistische Methoden dann bezeichnet, wenn sie eine beschränkte Einflussfunktion und einen möglichst hohen Bruchpunkt haben. Vereinfacht gesprochen zeichnen sich robuste Verfahren dadurch aus, dass sie nur unwesentlich durch Ausreisser und andere Anomalien in den Daten beeinflusst werden. Die Untersuchung zur Robustheit konzentriert sich auf die folgenden Modelle bzw. Schätzmethoden:
i) modellbasierte Schätzer für das Fay-Herriot-Modell (Fay und Herrot, 1979, J. Amer. Statist. Assoc.) und das elementare Unit-Level-Modell (vgl. Battese et al., 1988, J. Amer. Statist. Assoc.).
ii) direkte, Modell-unterstützte Schätzer unter der Annahme eines linearen Regressionsmodells.
Das Unit-Level-Modell zur Mittelwertschätzung beruht auf einem linearen gemischten Gauss'schen Modell (engl. mixed linear model, MLM) mit blockdiagonaler Kovarianzmatrix. Im Gegensatz zu bspw. einem multiplen linearen Regressionsmodell, besitzen MLM-Modelle keine nennenswerten Invarianzeigenschaften, so dass eine Kontamination der abhängigen Variablen unvermeidbar zu verzerrten Parameterschätzungen führt. Für die Maximum-Likelihood-Methode kann die resultierende Verzerrung nahezu beliebig groß werden. Aus diesem Grund haben Richardson und Welsh (1995, Biometrics) die robusten Schätzmethoden RML 1 und RML 2 entwickelt, die bei kontaminierten Daten nur eine geringe Verzerrung aufweisen und wesentlich effizienter sind als die Maximum-Likelihood-Methode. Eine Abwandlung von Methode RML 2 wurde Sinha und Rao (2009, Canad. J. Statist.) für die robuste Schätzung von Unit-Level-Modellen vorgeschlagen. Allerdings erweisen sich die gebräuchlichen numerischen Verfahren zur Berechnung der RML-2-Methode (dies gilt auch für den Vorschlag von Sinha und Rao) als notorisch unzuverlässig. In dieser Arbeit werden zuerst die Konvergenzprobleme der bestehenden Verfahren erörtert und anschließend ein numerisches Verfahren vorgeschlagen, das sich durch wesentlich bessere numerische Eigenschaften auszeichnet. Schließlich wird das vorgeschlagene Schätzverfahren im Rahmen einer Simulationsstudie untersucht und anhand eines empirischen Beispiels zur Schätzung von oberirdischer Biomasse in norwegischen Kommunen illustriert.
Das Modell von Fay-Herriot kann als Spezialfall eines MLM mit blockdiagonaler Kovarianzmatrix aufgefasst werden, obwohl die Varianzen des Zufallseffekts für die Small Areas nicht geschätzt werden müssen, sondern als bereits bekannte Größen betrachtet werden. Diese Eigenschaft kann man sich nun zunutze machen, um die von Sinha und Rao (2009) vorgeschlagene Robustifizierung des Unit-Level-Modells direkt auf das Fay-Herriot Model zu übertragen. In der vorliegenden Arbeit wird jedoch ein alternativer Vorschlag erarbeitet, der von der folgenden Beobachtung ausgeht: Fay und Herriot (1979) haben ihr Modell als Verallgemeinerung des James-Stein-Schätzers motiviert, wobei sie sich einen empirischen Bayes-Ansatz zunutze machen. Wir greifen diese Motivation des Problems auf und formulieren ein analoges robustes Bayes'sches Verfahren. Wählt man nun in der robusten Bayes'schen Problemformulierung die ungünstigste Verteilung (engl. least favorable distribution) von Huber (1964, Ann. Math. Statist.) als A-priori-Verteilung für die Lokationswerte der Small Areas, dann resultiert als Bayes-Schätzer [=Schätzer mit dem kleinsten Bayes-Risk] die Limited-Translation-Rule (LTR) von Efron und Morris (1971, J. Amer. Statist. Assoc.). Im Kontext der frequentistischen Statistik kann die Limited-Translation-Rule nicht verwendet werden, weil sie (als Bayes-Schätzer) auf unbekannten Parametern beruht. Die unbekannten Parameter können jedoch nach dem empirischen Bayes-Ansatz an der Randverteilung der abhängigen Variablen geschätzt werden. Hierbei gilt es zu beachten (und dies wurde in der Literatur vernachlässigt), dass die Randverteilung unter der ungünstigsten A-priori-Verteilung nicht einer Normalverteilung entspricht, sondern durch die ungünstigste Verteilung nach Huber (1964) beschrieben wird. Es ist nun nicht weiter erstaunlich, dass es sich bei den Maximum-Likelihood-Schätzern von Regressionskoeffizienten und Modellvarianz unter der Randverteilung um M-Schätzer mit der Huber'schen psi-Funktion handelt.
Unsere theoriegeleitete Herleitung von robusten Schätzern zum Fay-Herriot-Modell zeigt auf, dass bei kontaminierten Daten die geschätzte LTR (mit Parameterschätzungen nach der M-Schätzmethodik) optimal ist und, dass die LTR ein integraler Bestandteil der Schätzmethodik ist (und nicht als ``Zusatz'' o.Ä. zu betrachten ist, wie dies andernorts getan wird). Die vorgeschlagenen M-Schätzer sind robust bei Vorliegen von atypischen Small Areas (Ausreissern), wie dies auch die Simulations- und Fallstudien zeigen. Um auch Robustheit bei Vorkommen von einflussreichen Beobachtungen in den unabhängigen Variablen zu erzielen, wurden verallgemeinerte M-Schätzer (engl. generalized M-estimator) für das Fay-Herriot-Modell entwickelt.