Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (34)
- Bericht (1)
- Arbeitspapier (1)
Sprache
- Deutsch (36) (entfernen)
Schlagworte
- Deutschland (5)
- Nachhaltigkeit (3)
- Imputation (2)
- Marketing (2)
- Mikrosimulation (2)
- Reform (2)
- Simulation (2)
- Strategie (2)
- Strategisches Management (2)
- Umweltbewusstsein (2)
Institut
- Wirtschaftswissenschaften (36) (entfernen)
Auf der Grundlage der Beobachtung, dass Städte und Regionen in Deutschland signifikant unterschiedliche durchschnittliche Lohnniveaus aufweisen, macht es sich die Dissertation zur Aufgabe, die Gründe für die Divergenz regionaler Lohnniveaus in Westdeutschland zu erforschen. Theoretischer Ausgangpunkt der Analyse ist das Konzept der lokalen Humankapitalexternalitäten. Dieses besagt, dass der individuelle Bildungsstand eines Arbeitnehmers nicht nur für diesen selbst produktivitätsbestimmend ist, sondern darüber hinaus auch einen Einfluss auf die Produktivität anderer Arbeitnehmer in räumlicher Nähe ausüben kann. Das Vorliegen von Humankapitalexternalitäten ist für den deutschen Fall potenziell relevant, da sich beträchtliche Unterschiede in den durchschnittlichen regionalen Bildungsniveaus feststellen lassen. Die Dissertation untersucht daher, in welchem Umfang regionale Lohndisparitäten in Deutschland auf externe Produktivitätseffekte des regionalen Bildungsniveaus zurückzuführen sind und durch welche mikroökonomischen Mechanismen derartige Effekte entstehen. Diese Frage wird in vier thematisch eng miteinander verknüpften Artikeln beantwortet. Der erste Artikel stellt eine Überblicksstudie dar, in der die Literaturen zu regionalen Humankapitalexternalitäten und zur städtischen Lohnprämie hinsichtlich ihrer Ergebnisse und Methodik miteinander verglichen werden. Der Literaturvergleich zeigt, dass sowohl Agglomerationseffekte, als auch Humankapitalexternalitäten gültige Erklärungen für regionale Lohnunterschiede darstellen. Weiterhin werden die ökonometrische Methodik und die Identifikationsstrategien, die beiden Literaturen zugrunde liegen, verglichen. Es wird gezeigt, dass ein beträchtliches gegenseitiges Lernpotenzial zwischen beiden Literaturen besteht. Der zweite Artikel untersucht empirisch die Bedeutung von Humankapitalexternalitäten für die Divergenz regionaler Lohnniveaus in Deutschland. Es werden individuelle Lohngleichungen geschätzt, die um regionale Variablen erweitert werden. Einer möglichen Inkonsistenz der Schätzer wird durch den Einsatz von Instrumentvariablen begegnet. Die Ergebnisse weisen darauf hin, dass ebenso wie in anderen Ländern der regionale Humankapitalbestand auch in Deutschland einen signifikanten Einfluss auf die Löhne von Arbeitnehmern ausübt und somit zum Auftreten regionaler Lohndifferenziale beiträgt. Der dritte Artikel untersucht das Auftreten von Matchingeffekten als möglichen mikroökonomischen Mechanismus, durch den Humankapitalexternalitäten individuelle Löhne beeinflussen. Konkret wird überprüft, ob in humankapitalintensiven Regionen stärker ausgeprägte lokale Karrierenetzwerke bestehen, die durch einen besseren Informationsfluss im Hinblick auf Karrierechancen zu einer erhöhten Matchingeffizienz und damit zu höheren Löhnen in regionalen Arbeitsmärkten führen. Hierzu wird untersucht, ob sich signifikante Unterschiede zwischen humankapitaintensiven und humankapitalschwachen Regionen hinsichtlich des Lohnanpassungs- und Arbeitsplatzwechselverhaltens von Arbeitnehmern feststellen lassen. Die empirischen Ergebnisse zeigen, dass regionale Humankapitalexternalitäten unter anderem durch verbesserte Matches zwischen Arbeitnehmern und Unternehmen in humankapitalintensiven Regionen entstehen. Der vierte Artikel untersucht, ob erfolgreicher industrieller Wandel und regionale Humankapitalexternalitäten insoweit zwei Seiten derselben Medaille sind, als dass die produktivitätsbestimmende Wirkung des einen Einen das Vorliegen des Anderen voraussetzt. Die Ergebnisse deuten auf eine Komplementarität dynamischer Arbeitsmärkte und regionaler Humankapitalausstattungen hin. So weisen lokale Industrien eine signifikant höhere Produktivität auf, wenn sie in regionalen Arbeitsmärkten beheimatet sind, die gleichermaßen einen hohen Anteil hochqualifizierter Arbeitnehmer und eine überdurchschnittliche Arbeitsmarktdynamik aufweisen. Die Ergebnisse zeigen weiterhin, dass Humankapitalexternalitäten vor allem dann entstehen, wenn Arbeitnehmer ihren Arbeitsplatz innerhalb einer Region wechseln und damit zum Auftreten von produktivitätssteigernden Wissenspillovers und einer erhöhten Matchingeffizienz beitragen. Die Ergebnisse aus allen vier Artikeln untermauern die Bedeutung regionaler Humankapitalexternalitäten für das Entstehen regional unterschiedlicher Lohnniveaus. Hieraus erwachsen zwei zentrale Implikation für die regionale Bildungs- und Infrastrukturpolitiken, die im Schlusskapitel der Dissertation erörtert werden. So können staatliche Investitionen in Humankapital effizienzsteigernd wirken, da eine Unterinvestition in Bildung eine wahrscheinliche Folge beim Vorliegen von Humankapitalexternalitäten ist. Weiterhin können Infrastrukturinvestitionen zu einem Verschmelzen von humankapitalarmen mit humankapitalintensiven Arbeitsmärkten führen und somit eine größere Zahl an Arbeitnehmern an den positiven Produktivitätseffekten, die durch regionale Humankapitalexternalitäten entstehen, teilhaben lassen.
Im Mittelpunkt der Arbeit Freizeithandeln Jugendlicher - Motive und Bedeutungen stehen die subjektiven Bedeutungen jugendlichen Freizeithandelns. Dazu wurden zentrale Freizeitmotive ermittelt, mit denen Jugendliche ihrer Freizeit Bedeutung verleihen. Ist als Folge der modernen Bedingungen des Aufwachsens Spasserleben zu einem typischen Kennzeichen des Freizeithandelns der heutigen Jugend geworden, wie dies z. B. OPASCHOWSKI zu erkennen glaubt? Die bundesdeutsche Gesellschaft hat sich in den letzten Jahrzehnten in vielerlei Hinsicht gewandelt. Traditionelle Orientierungen und Segmentierungen (z. B. schicht- bzw. milieuspezifische Lebensweisen) haben ihre Verbindlichkeit eingebuesst. In einer komplexer werdenden Umwelt gehen traditionell gegebene Orientierungen des alltaeglichen Lebens verloren. Welche Auswirkungen haben solche Veraenderungen auf Jugendliche? Ist die hohe Bedeutung von Spasserleben die Antwort? Beduerfnisse und Beweggruende fuer Freizeithandeln koennen vielfaeltig sein. Die Arbeit konzentriert sich auf den Lebensbereich der Freizeit und verfolgt das Ziel, ihre subjektive Bedeutung fuer Jugendliche zu analysieren. Hierzu wird zunaechst der Stand der Forschung im Hinblick auf die Besonderheiten der Jugendphase und die Freizeitgestaltung Jugendlicher aufgezeigt. Die subjektive Bedeutung wird ueber die Rekonstruktion von Freizeitmotiven herausgearbeitet. Sie duerften ein zentrales Element der Bedeutungen sein, in denen Menschen den Zusammenhang zwischen innerer und aeusserer Umwelt herstellen und durch die einzelne Aktivitaeten ihren subjektiven Sinn finden. Zentrale Annahmen der Arbeit Der Lebensbereich Freizeit wird aus einer eher marktorientierten Sichtweise analysiert. Allen Akteuren des Freizeitmarktes kann unterstellt werden, dass ihrem Agieren auf dem Markt eine Zielstruktur zugrunde liegt, die sich - allgemein formuliert - handlungsleitend auf ihre jeweiligen Aktivitaeten auswirkt. Diese Zielstruktur muss nach Ansicht d. V. dem jeweiligen Marktakteur und insbesondere den Jugendlichen jedoch nicht notwendigerweise als klar formulierbare Verhaltensabsicht bewusst sein. Die von den Jugendlichen selbst wahrgenommenen Antriebskraefte fuer Nachfrage und Ausuebung ausgewaehlter Freizeittaetigkeiten werden hier als Motive bezeichnet. Ueber spezifische Motive geben sie ihrer Freizeit einen subjektiven Sinn, der fuer sie wiederum handlungsrelevant wird. Dementsprechend wird untersucht, welche Motive von Jugendlichen fuer ihre vielfaeltigen Freizeitaktivitaeten genannt werden. Die Bedeutung von Freizeit kann mit typischen Mustern dargestellt werden, die Einzelaktivitaeten uebergreifen.
Earnings functions are an important tool in labor economics as they allow to test a variety of labor market theories. Most empirical earnings functions research focuses on testing hypotheses about sign and magnitude for the variables of interest. In contrast, there is little attention for the explanation power of the econometric models employed. Measures for explanation power are of interest, however, for assessing how successful econometric models are in explaining the real world. Are researchers able to draw a complete picture of the determination of earnings or is there room for further theories leading to alternate econometric models? This article seeks to answer the question with a large microeconometric data set from Germany. Using linear regression estimated by OLS and R2 as well as adjusted R2 as measures for explanation power, the results show that up to 60 percent of wage variation can be explained using only observable variables.
Weltweit untersuchen viele Wissenschaftler die Ursachen für die Entstehung und Ausdehnung industrieller Cluster. Die Ergebnisse dieser Bemühungen sind in zahlreichen empirischen Studien dokumentiert worden. Die Mehrheit der Arbeiten legt ihren Fokus auf die Entwicklung einer präzisen Messmethodik für die Konzentrationsstärke. Hierzu ist ein breites Instrumentarium an Maßzahlen bereits verfügbar und lässt sich je nach Forschungsziel erkenntnisbringend einsetzen. Dennoch bleibt die Trennung zwischen unterschiedlichen geographischen Grundmustern unzureichend. Insbesondere trifft dies auf unterschiedliche Typen der Konzentration zu. Die vorliegende Arbeit bietet eine umfassende Konzentrationsanalyse des Wirtschaftsstandorts Deutschland auf unterschiedlichen regionalen und sektoralen Aggregationsebenen. Dabei verfolgt sie das Ziel, durch eine detaillierte Untersuchung der räumlichen Verteilungsmuster der wirtschaftlichen Aktivität einen Beitrag zur Erklärung der Ansiedlungsstrukturen der einzelnen Wirtschaftszweige zu leisten. Hierfür wird eine gänzlich neue Methodik entwickelt, die das Identifizieren einer breiteren Palette an geographischen Grundmustern sowohl statisch als auch dynamisch zulässt. Da die Unterscheidung zwischen verschiedenen Typen der Konzentration bisher kaum Gegenstand wissenschaftlicher Untersuchung war, stößt der hier verfolgte Ansatz auf ein relativ neues Forschungsfeld vor. Die Existenz unterschiedlicher Typen bzw. Formen der Konzentration beruht auf einer einfachen Überlegung: Neben städtisch konzentrierten Wirtschaftszweigen muss es zwangsläufig auch ländlich konzentrierte Wirtschaftszweige geben. Hiervon ausgehend werden sieben geographische Grundmuster identifiziert. Neben dem dispersen und dem zufälligen Grundmuster wird zwischen fünf verschiedenen Typen der Konzentration unterschieden. Die Identifikation der einzelnen Grundmuster erfolgt auf Basis des Rangkorrelationskoeffizienten von Goodman-Kruskal. Dem entwickelten Ansatz wird mithilfe bivariater Konfidenzregionen eine exakte und durch statistische Signifikanz fundierte Aussagekraft verliehen. Des Weiteren wird im Rahmen der Arbeit festgestellt, dass ein Vernachlässigen der unterschiedlichen geographischen Grundmuster in inhaltlich irreführenden und fragwürdigen Konzentrationsvergleichen münden kann. Parallel dazu werden acht Indizes zur Erfassung der Konzentrationsstärke behandelt. Sie werden hinsichtlich der Datenanforderungen in drei Gruppen unterteilt und im Hinblick auf ihre Verlässlichkeit und Aussagekraft ausführlich untersucht. Die empirische Konzentrationsanalyse belegt für alle drei Gruppen, dass die durchschnittliche Konzentration der deutschen Wirtschaftsgruppen von 1995 bis 2010 kontinuierlich gefallen ist. Darüber hinaus wird in der Arbeit gezeigt, dass die Wirtschaftszweige in Deutschland sehr unterschiedlichen Konzentrationstypen folgen und dass weder die traditionellen noch die komplexen, distanzbasierten Maßzahlen imstande sind, zwischen verschiedenen Typen der Konzentration zu unterscheiden.
Preisvergleiche zwischen verschiedenen Regionen spielen in zahlreichen wirtschaftlichen und politischen Zusammenhängen eine wichtige Rolle. Unabhängig davon, ob es darum geht, die Wirtschaftskraft von Regionen oder Ländern gegenüber zu stellen, die Lebensverhältnisse innerhalb eines Landes zu vergleichen, oder aber die Wirkungsweise sozial- und lohnpolitischer Entscheidungen einzuschätzen: Interregionale Preisvergleiche dienen in erster Linie als Instrument, um gesamtwirtschaftliche und ökonomische Größen zwischen verschiedenen Regionen oder Ländern real vergleichbar zu machen. Interregionale Preisvergleiche sind allgemeinhin besser bekannt als sogenannte Kaufkraftparitäten. Die enorme Bedeutung von Kaufkraftparitäten wurde in der Vergangenheit lange unterschätzt. Insbesondere bei Preisvergleichen innerhalb eines Landes mangelt es oftmals an einer soliden Datenbasis, sodass verlässliche Schätzungen regionaler Preisniveauunterschiede häufig nicht möglich sind. Die vorliegende Arbeit zeigt allerdings, dass ein breites Angebot verschiedener multilateraler Aggregationsmethoden bereit. Im Mittelpunkt des ersten Teils Arbeit steht die methodische Ausarbeitung verschiedener Aggregationsverfahren, mit deren Hilfe sich erhobene Daten zu verlässlichen und aussagekräftigen Preisvergleichskennzahlen aggregieren lassen. Im Unterschied zu intertemporalen Vergleichen sind gewöhnliche bilaterale Preisindizes für diesen Zweck nur begrenzt einsetzbar. Vielmehr sind spezielle multilaterale methodische Instrumente nötig, die den speziellen Anforderungen regionaler Preisvergleiche gerecht zu werden. Im Rahmen der Arbeit werden die verschiedenen multilateralen Aggregationsverfahren unterschiedlichen Berechnungsansätzen zugeordnet, wobei jeder dieser Ansätze durch bestimmte Eigenschaften charakterisiert ist. Neben den Mitgliedern der Klasse des Gini-Eltetö-Köves-Szulc (GEKS) und Minimum Spannning Tree (MST) Ansatzes sowie des Regressionsansatzes, widmet sich diese Arbeit schwerpunktmäßig den unterschiedlichen Verfahren des sogenannten Standardisierungsansatzes. Es stellt sich heraus, dass der Standardisierungsansatz grundsätzlich sehr dem Konstruktionsprinzip bilateraler Durchschnittswertindizes (GUV-Indizes) ähnelt, weshalb sich die Mitglieder dieser Klasse auch als multilaterale GUV-Indizes auffassen lassen. Darüber hinaus wird eine neue Unterklasse des Standardisierungsansatzes definiert, deren Mitglieder die breite Palette bereits existierender Verfahren ergänzen. Allerdings wird den Aggregationsverfahren des Standardisierungsansatzes nachgesagt, unter den Auswirkungen des sogenannten Gerschenkron-Effekts zu leiden und im Gegensatz zu anderen Aggregationsverfahren häufig verzerrte Preisvergleiche hervorzubringen. Der zweite Teil der Arbeit ist einem empirischen Vergleich der zuvor erörterten Aggregationsverfahren vorbehalten. Grundlage für die Berechnungen (auf und unterhalb der elementaren Güterebene) sind Daten des Europäischen Vergleichsprogramms (EVP). Eine wichtige Erkenntnis des empirischen Teils der Arbeit ist, dass viele der unterschiedlichen Aggregationsmethoden für die Berechnungen auf der Elementarebene sehr ähnliche Ergebnisse für die Preisvergleiche zwischen den Ländern im EVP generieren. Die Sorge verzerrter Preisvergleiche infolge der Auswirkungen des Gerschenkron-Effektes lässt sich auf Grundlage der empirischen Untersuchungen nicht (zweifelsfrei) bestätigen. Ferner zeigen die empirischen Untersuchungen, dass weitaus größere Schwierigkeiten bei der Berechnung von Preisvergleichen unterhalb der Elementarebene bestehen. Die Berechnungen offenbaren, dass die häufig in der Praxis eingesetzten Verfahren der GEKS-Methode in Situationen, in denen nur wenige Daten vorhanden sind, keine plausiblen Ergebnisse liefern. Es stellt sich heraus, dass in diesen Fällen die Verfahren des Regressionsansatzes eine unkompliziertere und verlässlichere Berechnung von Preisvergleichen erlauben. Nichtsdestotrotz decken die Ergebnisse schonungslos die Probleme und Schwächen interregionaler Preisvergleiche auf. Trotz intensiver Anstrengungen der internationalen statistischen Organisationen, eine vergleichbare und fundierte Datenbasis zu schaffen, sind die Dateninformationen einiger Regionen bzw. Länder nach wie vor sehr lückenhaft. Da verlässliche und aussagekräftige Preisvergleiche im Wesentlichen von der Verfügbarkeit und der Qualität der Daten abhängig sind, sollte der Forschungsschwerpunkt zukünftig daher mehr an der Bereitstellung eines soliden Datenfundaments ausgerichtet werden.
Gegenstand der Dissertation ist die Untersuchung der Fragestellung,welchen Einfluss das meist implizit zu Grunde liegende Begriffsverständnis auf die inhaltliche Erschließung von Texten hat. Ausgehend von der Überlegung, dass Begrifflichkeit auf dem Zusammenhang zwischen Sachverhalten beruht, wird die These verfolgt, dass dieser Zusammenhang auch in der schriftlichen Kommunikation wiederzufinden sei. Darauf aufbauend wir eine Vorgehensweise entwickelt, die Texte hinsichtlich auftretender Kommunikationsmuster untersucht, diese extrahiert und anwendet um neue Bezeichner für Begriffe zu identifizieren. Vorteil dieser Vorgehensweise ist, dass keine linguistische Vorverarbeitung und kaum Trainingsdaten nötig sind.
Die vorliegende Arbeit beschäftigt sich mit bankbetrieblichen Kreditrisiken. Es werden dabei zwei Fälle diskutiert: Einerseits behandeln wir den Fall bei einer Geschäftsbank im westlichen Industrieland Frankreich. Andererseits wird der Fall bei einer Geschäftsbank im Entwicklungsland Kamerun analysiert. Im ersten Teil der Arbeit werden die Rahmenbedingungen in beiden Ländern im detail beschrieben. Der zweite Teil beschäftigt sich mit dem theoretischen Hintergrund der Kreditvergabeentscheidung. Bei der Einzelkreditanalyse geht es im ersten Schritt zunächst um die Entscheidung, ob ein Kredit vergeben wird oder nicht. Im nächsten Schritt muss analysiert werden, welche Konditionen für den aktuellen Kreditnehmer gelten müssen. Die Kreditkonditionen werden durch Zins, Sicherheiten, Laufzeiten, Volumen und Prolongations- möglichkeiten charakterisiert. Alle diese Entscheidungen basieren heutzutage auf Analyse von charakteristischen Kennzahlen. Diese Kennzahlen werden aus Daten der Vergangenheit ermittelt. An diese Vorgehensweise kann Kritik geübt werden. Man kann die Elemente eines Kreditvertrages auch einsetzen, um künftige Verhaltensrisiken zu steuern. Dafür müssen alternative Szenarien definiert werden. In der Arbeit werden diese Szenarien für das Design von Identifikationsverträgen und Anreizverträgen durchgeführt. Der dritte Teil der Arbeit behandelt praktische Aspekte der bankbetrieblichen Kreditentscheidung. Hier werden viele Anwendungsbeispiele diskutiert, die sich auf den Theorie-Teil beziehen. Den Abschluss der Arbeit bildet die Diskussion einiger Sonderprobleme aus meinem Heimatland Kamerun.
Die Arbeit behandelt den Zusammenhang von Zinsniveau und Wirtschaftswachstum Ein zusätzlicher Aspekt ist die Wirkung von Geldpolitik auf Wirtschaftswachstum. Im Zentrum steht die Fragestellung, welches Zinsniveau neutral für das Wirtschaftswachstum ist, d.h. welches Zinsniveau sich bei Wirtschaftswachstum in Höhe des Potentialwachstums ergeben würde, bzw. welches Zinsniveau die Zentralbank für den von ihr gesteuerten Geldmarktzins anstreben sollte, um Potentialwachstum zu ermöglichen. Ausgangspunkt sind die theoretischen Zusammenhänge zwischen Zinsniveau und Wirtschaftswachstum in den makroökonomischen Theorien der Klassik-Neoklassik, Keynesianismus und Post-Keynesianismus. Auf dieser theoretischen Basis wird das Konzept des wachstumsneutralen Zinses abgeleitet. Empirische Ergebnisse werden für die Bundesrepublik Deutschland sowie in geringem Umfang für Großbritannien vorgelegt. Für die Bundesrepublik Deutschland scheint demnach der nominale Geldmarktzins dominierend für die realwirtschaftliche Entwicklung zu sein. Der neoklassische Gleichlauf von realem Kapitalmarktzins und Wirtschaftswachstum, für die siebziger Jahre erkennbar, scheint sich seit Mitte der achtziger Jahre aufgelöst zu haben. Die Höhe des neutralen Zinses hängt von der Untersuchungsperiode ab. Zudem wirken nicht-lineare Effekte der Höhe der Inflationsrate auf den Zusammenhang von Zins und Wirtschaftswachstum. Für Großbritannien lassen sich keine erkennbaren Ergebnisse erschließen. Als Ergebnis seiner Arbeit plädiert der Verfasser für eine realwirtschaftliche Orientierung der Geldpolitik, die der Unterstützung durch eine stabilitätsorientierte Lohn- und Fiskalpolitik bedarf, um das Ziel der Preisniveaustabilität nicht zu gefährden.
Das Ziel dynamischer Mikrosimulationen ist es, die Entwicklung von Systemen über das Verhalten der einzelnen enthaltenen Bestandteile zu simulieren, um umfassende szenariobasierte Analysen zu ermöglichen. Im Bereich der Wirtschafts- und Sozialwissenschaften wird der Fokus üblicherweise auf Populationen bestehend aus Personen und Haushalten gelegt. Da politische und wirtschaftliche Entscheidungsprozesse meist auf lokaler Ebene getroffen werden, bedarf es zudem kleinräumiger Informationen, um gezielte Handlungsempfehlungen ableiten zu können. Das stellt Forschende wiederum vor große Herausforderungen im Erstellungsprozess regionalisierter Simulationsmodelle. Dieser Prozess reicht von der Generierung geeigneter Ausgangsdatensätze über die Erfassung und Umsetzung der dynamischen Komponenten bis hin zur Auswertung der Ergebnisse und Quantifizierung von Unsicherheiten. Im Rahmen dieser Arbeit werden ausgewählte Komponenten, die für regionalisierte Mikrosimulationen von besonderer Relevanz sind, beschrieben und systematisch analysiert.
Zunächst werden in Kapitel 2 theoretische und methodische Aspekte von Mikrosimulationen vorgestellt, um einen umfassenden Überblick über verschiedene Arten und Möglichkeiten der Umsetzung dynamischer Modellierungen zu geben. Im Fokus stehen dabei die Grundlagen der Erfassung und Simulation von Zuständen und Zustandsänderungen sowie die damit verbundenen strukturellen Aspekte im Simulationsprozess.
Sowohl für die Simulation von Zustandsänderungen als auch für die Erweiterung der Datenbasis werden primär logistische Regressionsmodelle zur Erfassung und anschließenden wahrscheinlichkeitsbasierten Vorhersage der Bevölkerungsstrukturen auf Mikroebene herangezogen. Die Schätzung beruht insbesondere auf Stichprobendaten, die in der Regel neben einem eingeschränktem Stichprobenumfang keine oder nur unzureichende regionale Differenzierungen zulassen. Daher können bei der Vorhersage von Wahrscheinlichkeiten erhebliche Differenzen zu bekannten Totalwerten entstehen. Um eine Harmonisierung mit den Totalwerten zu erhalten, lassen sich Methoden zur Anpassung von Wahrscheinlichkeiten – sogenannte Alignmentmethoden – anwenden. In der Literatur werden zwar unterschiedliche Möglichkeiten beschrieben, über die Auswirkungen dieser Verfahren auf die Güte der Modelle ist jedoch kaum etwas bekannt. Zur Beurteilung verschiedener Techniken werden diese im Rahmen von Kapitel 3 in umfassenden Simulationsstudien unter verschiedenen Szenarien umgesetzt. Hierbei kann gezeigt werden, dass durch die Einbindung zusätzlicher Informationen im Modellierungsprozess deutliche Verbesserungen sowohl bei der Schätzung der Parameter als auch bei der Vorhersage der Wahrscheinlichkeiten erzielt werden können. Zudem lassen sich dadurch auch bei fehlenden regionalen Identifikatoren in den Modellierungsdaten kleinräumige Wahrscheinlichkeiten erzeugen. Insbesondere die Maximierung der Likelihood des zugrundeliegenden Regressionsmodells unter der Nebenbedingung, dass die bekannten Totalwerte eingehalten werden, weist in allen Simulationsstudien überaus gute Ergebnisse auf.
Als eine der einflussreichsten Komponenten in regionalisierten Mikrosimulationen erweist sich die Umsetzung regionaler Mobilität. Gleichzeitig finden Wanderungen in vielen Mikrosimulationsmodellen keine oder nur unzureichende Beachtung. Durch den unmittelbaren Einfluss auf die gesamte Bevölkerungsstruktur führt ein Ignorieren jedoch bereits bei einem kurzen Simulationshorizont zu starken Verzerrungen. Während für globale Modelle die Integration von Wanderungsbewegungen über Landesgrenzen ausreicht, müssen in regionalisierten Modellen auch Binnenwanderungsbewegungen möglichst umfassend nachgebildet werden. Zu diesem Zweck werden in Kapitel 4 Konzepte für Wanderungsmodule erstellt, die zum einen eine unabhängige Simulation auf regionalen Subpopulationen und zum anderen eine umfassende Nachbildung von Wanderungsbewegungen innerhalb der gesamten Population zulassen. Um eine Berücksichtigung von Haushaltsstrukturen zu ermöglichen und die Plausibilität der Daten zu gewährleisten, wird ein Algorithmus zur Kalibrierung von Haushaltswahrscheinlichkeiten vorgeschlagen, der die Einhaltung von Benchmarks auf Individualebene ermöglicht. Über die retrospektive Evaluation der simulierten Migrationsbewegungen wird die Funktionalität der Wanderdungskonzepte verdeutlicht. Darüber hinaus werden über die Fortschreibung der Population in zukünftige Perioden divergente Entwicklungen der Einwohnerzahlen durch verschiedene Konzepte der Wanderungen analysiert.
Eine besondere Herausforderung in dynamischen Mikrosimulationen stellt die Erfassung von Unsicherheiten dar. Durch die Komplexität der gesamten Struktur und die Heterogenität der Komponenten ist die Anwendung klassischer Methoden zur Messung von Unsicherheiten oft nicht mehr möglich. Zur Quantifizierung verschiedener Einflussfaktoren werden in Kapitel 5 varianzbasierte Sensitivitätsanalysen vorgeschlagen, die aufgrund ihrer enormen Flexibilität auch direkte Vergleiche zwischen unterschiedlichsten Komponenten ermöglichen. Dabei erweisen sich Sensitivitätsanalysen nicht nur für die Erfassung von Unsicherheiten, sondern auch für die direkte Analyse verschiedener Szenarien, insbesondere zur Evaluation gemeinsamer Effekte, als überaus geeignet. In Simulationsstudien wird die Anwendung im konkreten Kontext dynamischer Modelle veranschaulicht. Dadurch wird deutlich, dass zum einen große Unterschiede hinsichtlich verschiedener Zielwerte und Simulationsperioden auftreten, zum anderen aber auch immer der Grad an regionaler Differenzierung berücksichtigt werden muss.
Kapitel 6 fasst die Erkenntnisse der vorliegenden Arbeit zusammen und gibt einen Ausblick auf zukünftige Forschungspotentiale.
Bei synthetischen Simulationsgesamtheiten handelt es sich um künstlichernDaten, die zur Nachbildung von realen Phänomenen in Simulationen verwendetrnwerden. In der vorliegenden Arbeit werden Anforderungen und Methoden zur Erzeugung dieser Daten vorgestellt. Anhand von drei Beispielen wird gezeigt, wie erzeugte synthetische Daten in einer Simulation zur Anwendung kommen.
Ausgangspunkt ist der demographische Wandel und die damit einhergehende älter werdende Erwerbsbevölkerung. Es wird davon ausgegangen, dass aufgrund dieser Entwicklung einige Unternehmen senioritätsorientierte Entgeltstrukturen grundlegend verändern bzw. abschaffen müssen. Es gibt bisher einige wenige theoretische Überlegungen, wie diese veränderten Entgeltstrukturen aussehen könnten. Jedoch wird hierbei nicht berücksichtigt, wie ältere Beschäftigte auf eine derartige Veränderung reagieren könnten. Dieser Frage wird im Rahmen der Dissertation nachgegangen. Ein gesondertes Augenmerk, wird zudem auf die möglichen Reaktionen älterer Arbeitnehmer auf eine Anhebung des Renteneintrittsalters auf 67 Jahre gelegt. Zu diesem Zweck werden aus verschiedenen theoretischen Perspektiven mögliche Verhaltensreaktionen älterer Arbeitnehmer abgeleitet. Grund für die breitangelegte Betrachtung des Sachverhaltes ist die mehrdeutige Bedeutung von Einkommen. Die Höhe der Entlohnung ist nicht nur als Gegenleistung der erbrachten Arbeitsleistung zu sehen, sondern immer auch als Ausdruck von Macht, Prestige, sozialen Status etc. Berücksichtigung finden klassische ökonomische Theorien, Motivationstheorien, Wertwandeltheorien, Theorien zur Arbeitszufriedenheit und Machttheorien. Bei der Behandlung der verschiedenen Theorien wurde des Weiteren der Frage nach alternativen Anreizen zu monetären Anreizen nachgegangen, welche eine spezifische Wirkung auf ältere Arbeitnehmer entwickeln können. Durch eine weiterentwickelte Typologie drei verschiedener Typen der Arbeitsorientierung werden als Ergebnis mögliche Verhaltensreaktionen näher erläutert und auf mögliche alternative Anreize eingegangen.
Ziel des Gutachtens ist es, ein realisierbares Gesundheitssystem für Deutschland zu entwerfen, das einerseits Gerechtigkeitsanforderungen entspricht und andererseits durch Wettbwerb Effizienzpotentiale erschließt. Dazu werden Gerechtigkeitsdefizite in der Finanzierung des deutschen Gesundheitssystems (GKV und PKV) aufgezeigt und ein Steuer-Transfersystem vorgeschlagen, das die aufgezeigten Gerechtigkeitsdefizite behebt. Zur Erreichung des Effizienzziels wird die Einführung von mehr Wettbwerb durch Pauschalprämien vorgeschlagen, wobei die Besonderheiten des Gutes "Krankenversicherung" bei den vorgeschlagenen Regelungen berücksichtigt werden. Zur Höhe des benötigten Transfervolumens und zur Umverteilungswirkung auf unterschiedliche Haushalte werden Modellrechnungen durchgeführt.
In der Arbeit wird untersucht, wie die EU mit Diversität umgeht, wie sich entsprechende Maßnahmen in der Personalpolitik der verschiedenen europäischen Behörden niederschlägt und welche Auswirkungen dies hat. Es wird herausgearbeitet, dass die EU als Institution einige Spezifika aufweist, die diese Frage beeinflussen und die bei einer Beurteilung Berücksichtigung finden müssen. So ist die EU verpflichtet, die Vielfalt der Mitgliedstaaten in den eigenen Institutionen abzubilden. Eine Besonderheit ist auch, dass die Effizienz der Organisation " und damit auch der mögliche Wert von Diversity Management (DiM) " mangels marktinduzierter Kriterien schwer zu bestimmen ist. Die Arbeit gliedert sich in vier Teile. Nach einer überblickartigen Einführung (Teil A) werden in Teil B der Anspruch von DiM und dessen Vor- und Nachteile dargestellt. Als Bezugspunkt für erfolgreiches DiM werden einige Beispiele aus deutschen Großunternehmen angeführt, wo DiM eine relativ bedeutende Rolle spielt. Die Einschätzung, was diese Erfahrungen für die EU bedeuten könnten, schließt den Teil B ab. Dabei werden die Besonderheiten einer Behörde, die durch starke rechtliche Regelungen gebunden ist und für die es kaum eindeutige Effizienzkriterien gibt, besonders hervorgehoben. Der Teil C enthält die empirischen Recherchen, die angestellt wurden. Dazu werden zunächst das Weißbuch des Kinnock Reports und das Statut für die Beamten der Europäischen Gemeinschaften von 2004 ausführlich dargestellt und anschließend gewürdigt. Es stellt sich heraus, dass bei einzelnen Personalmaßnahmen bereits weitgehende Öffnungen und Flexibilitäten vorgesehen sind, die sich unmittelbar zur Implementierung von DiM anbieten. Im Weiteren wurde ein leitender Mitarbeiter des Europäischen Parlaments zu dem Statut ausführlich interviewt. Die Ergebnisse verleihen den vorher geschilderten Regelungen des Statuts Farbe und vermitteln dem Außenstehenden ein lebendiges Bild vom Innenleben einer solchen Behörde. Die Einschätzung der neuen Regelungen durch den Interviewten ist zwar differenziert, aber insgesamt ergibt sich doch ein positives Bild der personalpolitischen Maßnahmen im Hinblick auf die mögliche Implementierung von DiM. Die zweite wesentliche empirische Quelle der Arbeit sind Publikationen der EU selbst zu Problemen der Diversität, Diskriminierung und verwandten Themen. Die dazu erschienenen Broschüren geben Auskunft darüber, welche Ansichten die Mitarbeiter zu Bestrebungen um Diversität und Chancengleichheit äußern, welche Aktionen die EU plant und welche Erfolge man sich erhofft. Die Prüfung dieser Unterlagen ergibt, dass in einer solchen Organisation die Integration von Minderheiten weit fortgeschritten ist und Vorurteile und offene Diskriminierungen weitgehend fehlen. Jedoch werden Umsetzungsprobleme der Maßnahmen zur Chancengleichheit der Geschlechter, zur work-life balance, zur Respektierung von Behinderungen oder sexuellen Orientierungen konstatiert. Um die geschilderten Maßnahmen zu beurteilen, werden sie mit entsprechenden Entwicklungen der im zweiten Teil der Arbeit beschriebenen privatwirtschaftlichen Organisationen, die als Vorreiter des DiM in Europa angesehen werden können, verglichen. In einem weiteren Schritt sollten die Einschätzung der Mitarbeiter zu Diversität und zu den vorher beschriebenen Maßnahmen ergründet werden. Die ins Auge gefasste repräsentative Befragung konnte trotz anfänglicher Ermutigung in einer Behörde der EU, dem Europäischen Parlament (EP), nicht durchgeführt werden, da die EU-Behörden eine offizielle Unterstützung der Untersuchung und damit den Zugang zu anderen Interviewpartnern nicht zustimmten. Daher beschränkte sich die Befragung auf Mitarbeiter, die sich nach Ansprache durch einige leitende Beamte zur Beantwortung gleichsam als Privatpersonen zur Ausfüllung des Fragebogens bereit erklärten. Die Befragung hat also keinerlei repräsentativen, sondern rein explorativen Charakter. Im Teil D der Arbeit wird eine Gesamtbewertung der Recherchen abgegeben. Es wird konstatiert, dass zwar eine Menge an Einzelinitiativen und -maßnahmen in den Behörden der EU zu finden ist, dass aber mit einem übergreifenden Konzept des DiM diese Aktionen koordiniert und in ihrem Nutzen verstärkt werden könnten.
Die Dissertation "Qualitativer Bewusstseins- und Verhaltenswandel im Kontext einer nachhaltigen Entwicklung und ökologischen Ökonomik" ist eine ungewöhnliche wirtschaftswissenschaftliche Arbeit, die mit Hilfe von inter- und transdisziplinärer Forschungsmethodik weit über das Gebiet der Ökonomik hinausgeht, um Eigenschaften und Anforderungen für einen qualitativen Bewusstseins- und Verhaltenswandel zu erforschen. Sie ist dazu in sieben Kapitel inklusive Einleitung und Schluss gegliedert. Zunächst werden im zweiten Kapitel Probleme der Operationalisierung und Umsetzung der offenen Brundtland-Definition von nachhaltiger Entwicklung thematisiert. Sowohl die Abgrenzung von Bedürfnissen als auch von ökologischer Tragfähigkeit stellen hierbei die Nachhaltigkeitsforschung vor Schwierigkeiten. Im dritten Kapitel wird die Notwendigkeit der grundlegenden Veränderung der Sicht- und Lebensweise aus dem Leitbild der nachhaltigen Entwicklung abgeleitet, für das die Wirtschaftswissenschaften zwei Ansätze bieten. Im Vergleich mit der neoklassischen Umwelt- und Ressourcenökonomik, die auf den Prämissen des mechanistisch-objektivistischen Weltbildes der klassischen Physik beruht und die Natur als substitutionalisierbar ansieht, wird der ökologischen Ökonomik der Vorzug gegeben, aus deren Sicht die Betrachtung der Ökonomie als kulturelles Ökosystem unter Irreversibilität und der Anwendung des Vorsichtsprinzips zweckdienlich ist. Mit einer dreifachen Konsistenz-, Effizienz- und Suffizienzstrategie will die ökologische Ökonomik nachhaltige Entwicklung umsetzen, verlässt dabei aber nicht eine materialistische Sichtweise, so dass das Merkmal der Suffizienz unzureichend mit Inhalten ausgefüllt wird. Dies ist der Anknüpfungspunkt für einen qualitativen Bewusstseins- und Verhaltenswandel. Beispiele für einen solchen werden im vierten Kapitel beschrieben, sowohl mit der Quantenphysik aus dem Kernbereich der Naturwissenschaften stammend, als auch aus der Bewusstseinsforschung. Kennzeichen eines neuen Bewusstseins sind die Aufhebung der Trennung von Subjekt und Objekt, Geist und Materie, Innen- und Außenwelt. Zwei Exkurse (Emoto, spirituelle Weltanschauungen) zeigen zusätzliche nicht-materialistische Wahrnehmungen von Welt und Wirklichkeit auf. Im fünften Kapitel folgt die Übertragung der gewonnenen Erkenntnisse auf eine zugleich sowohl ergänzende als auch alternative Form von Wissenschaft, der "komplementären Wissenschaft der Innen- und Außenwelt". Sie berücksichtigt nicht nur die äußere Dimension der Erfahrungswelt, sondern auch die innere, um komplexe Sachverhalte ganzheitlich in ihrem Zusammenwirken von Subjekt und Objekt, Geist und Materie, Innen- und Außenwelt betrachten und erfassen zu können. Dazu ist eine Erweiterung der Methodik um introspektive Einsichten notwendig, sowie die Erweiterung von Welt- und Menschenbild um immaterielle Aspekte, ersteres durch die Wechselwirkungen zwischen Bewusstsein, Geist, Materie und Leben, letzteres durch spirituelle, mentale, emotionale und physische Zusammenhänge des Menschseins. Das sechste Kapitel beinhaltet Anforderungen an eine komplementäre Ökonomik der Innen- und Außenwelt, die die Merkmale eines qualitativen Bewusstseins- und Verhaltenswandels aufweist. Zum einen geschieht dies durch das Modell einer "Ökonomie des Geistes", die in Anlehnung an Bateson mentale Strukturen als grundlegend für materielle ökonomische Prozesse ansieht. Zum anderen bietet eine "Quanten-Ökonomik" die Verbindung einer Außenweltperspektive mit der Innenwelt. Daraus geht auch ein neues Verständnis von Nachhaltigkeit hervor, in dem das Zusammenwirken von Innen- und Außenwelt im Mittelpunkt steht. Die Dissertation schließt mit einem Ausblick der Umsetzungschancen eines derartigen qualitativen Bewusstseins- und Verhaltenswandels in Wissenschaft, Wirtschaft und Gesellschaft.
Mittels Querschnittserhebungen ist es möglich Populationsparameter zu einem bestimmten Zeitpunkt zu schätzen. Jedoch ist meist die Veränderung von Populationsparametern von besonderem Interesse. So ist es zur Evaluation von politischen Zielvorgaben erforderlich die Veränderung von Indikatoren, wie Armutsmaßen, über die Zeit zu verfolgen. Um zu testen ob eine gemessene Veränderung sich signifikant von Null unterscheidet bedarf es einer Varianzschätzung für Veränderungen von Querschnitten. In diesem Zusammenhang ergeben sich oft zwei Probleme; Zum einen sind die relevanten Statistiken meist nicht-linear und zum anderen basieren die untersuchten Querschnittserhebungen auf Stichproben die nicht unabhängig voneinander gezogen wurden. Ziel der vorliegenden Dissertation ist es einen theoretischen Rahmen zur Herleitung und Schätzung der Varianz einer geschätzten Veränderung von nicht-linearen Statistiken zu geben. Hierzu werden die Eigenschaften von Stichprobendesigns erarbeitetet, die zur Koordination von Stichprobenziehungen in einer zeitlichen Abfolge verwendet werden. Insbesondere werden Ziehungsalgorithmen zur Koordination von Stichproben vorgestellt, erarbeitet und deren Eigenschaften beschrieben. Die Problematik der Varianzschätzung im Querschnitt für nicht-lineare Schätzer bei komplexen Stichprobendesigns wird ebenfalls behandelt. Schließlich wird ein allgemeiner Ansatz zur Schätzung von Veränderungen aufgezeigt und es werden Varianzschätzer für die Veränderung von Querschnittschätzern basierend auf koordinierten Querschnittstichproben untersucht. Insbesondere dem Fall einer sich über die Zeit verändernden Population wird eine besondere Bedeutung im Rahmen der Arbeit beigemessen, da diese im Anwendungsfall die Regel darstellen.
Die Breite und Tiefe der zu bewältigenden Aufgaben der Unternehmensführung, der Grad und die Geschwindigkeit der Veränderung der Umwelt der Unternehmung, die Interdependenz von Entscheidungen und ein schier unüberschaubares Netzwerk von Wechselbeziehungen mit den, von den Aktivitäten der Unternehmung betroffenen Individuen und Gruppen resultieren in sich laufend verändernden Ausgangslagen für die Unternehmung und verleihen der Notwendigkeit eines Gestaltungs-, Lenkungs- und Entwicklungsrahmens für das erforderliche Wechselspiel von Stabilisierung und Wandel der Unternehmung ihre Aktualität und Bedeutung. Die Hauptaufgabe der Unternehmensführung im Spannungsfeld komplexer systeminterner und systemexterner Beziehungsgeflechte ist der Umgang und die Bewältigung der sich aus diesen Beziehungsgeflechten bzw. deren Wandel ergebenden Komplexität. Der Paradigmenwechsel von einem reduktionistischen Unternehmensführungsverständnis, welches sich auf die Lenkung der Unternehmung auf Basis monistischer Zielvorstellungen versteht hin zu einem systemisch-evolutorischen Unternehmensführungsverständnis, welches sich auf die Gestaltung und Entwicklung der Unternehmung aufgrund von pluralistischen Zielsystemen und multiplen Kausalitätsbeziehungen versteht, ist noch nicht vollzogen. Auch sieht sich die Unternehmensführung den, im Wettbewerb stehenden Prämissen der opportunistischen Management-Philosophie des Shareholder-Value-Ansatzes und der verpflichteten Management-Philosophie des Stakeholder-Value-Ansatzes gegenüber. Diese Transitionsphase in Wissenschaft und Praxis sieht ein "Ringen zweier Paradigmen um ihre Durchsetzung", wobei diese Entwicklungsdynamik vom Spannungsverhältnis zwischen Bewahrung und Proliferation geprägt ist. Das vorgelegte systemisch-koevolutionäre Modell der strategischen Unternehmensführung stellt einen solchen Beitrag zum Paradigmenwechsel in der Unternehmensführung hin zu einem systemisch-evolutorischen Unternehmensführungsverständnisses auf Basis einer verpflichteten Management-Philosophie dar. Das, auf den dargelegten erkenntnistheoretischen Grundannahmen, Beschreibung von Wirkungszusammenhängen und Handlungsheuristiken der betrachteten Fallstudie aufbauende Modell für die langfristig erfolgreiche Unternehmensführung wird als ein Erklärungsmodell einerseits, welches die Wirkungszusammenhänge erfassen und verstehen helfen soll, und ein Gestaltungsmodell andererseits, welches den Entscheidungsprozess unterstützen soll, verstanden. Die strategische Unternehmensführung - als Prozess der Orientierung und Animation verstanden - soll in diesem Zusammenhang die nachhaltige Sicherung und den Aufbau von Erfolgspositionen, sowie die Aufrechterhaltung der bestehenden Koalitionen bzw. Schaffung der Voraussetzungen für die Bildung zukünftiger, nutzenstiftender Koalitionen zur Sicherung der sinnvollen langfristigen Lebensfähigkeit der Unternehmung, ermöglichen. Die Strategieentwicklung im "10-Stufen-Strategiemodell" wird durch die Komplementarität von marktorientierten und ressourcen- bzw. fähigkeitenorientierten Prozessen und Ansätzen geprägt, um die Wettbewerbsfähigkeit der Unternehmung im Zeitalter der "Hypercompetition" und Streben nach dynamischen und differenzierenden Fähigkeiten zu entwickeln und nachhaltig zu sichern. Dieser Strategieentwicklungsprozess erhält seinen Rahmen durch ein übergelagertes Stakeholdermanagementsystem, welches die Anspruchsbefriedigung und Nutzenoptimierung aller relevanten Stakeholdergruppen zur nutzenstiftenden Verankerung der Unternehmung in seiner Stakeholderumwelt zum Ziel hat. Das so genannte "Strategic Corporate Social Performance Modell" gibt diesem Stakeholdermanagementsystem Namen, Orientierung, Prozesse und Kontrollinstrumente und soll die gegenseitige Anerkennung der Ansprüche der so unterschiedlichen Stakeholdergruppen ermöglichen und zur Sicherung der wirtschaftlichen Basis, zur Wertsteigerung der Unternehmung und der Steigerung der Nutzenbefriedigung aller relevanter Stakeholder führen.
Fehlende Werte und deren Kompensation über Imputation stellen eine große Herausforderung für die Varianzschätzung eines Punktschätzers dar. Dies gilt auch in der Amtlichen Statistik. Um eine unverzerrte Varianzschätzung zu gewährleisten, müssen alle Komponenten der Varianz berücksichtigt werden. Hierzu wird häufig eine Zerlegung der Gesamtvarianz durchgeführt mit dem Ziel, detaillierte Informationen über ihre Komponenten zu erhalten und diese vollständig zu erfassen. In dieser Arbeit stehen Resampling-Methoden im Vordergrund. Es wird ein Ansatz entwickelt, wie neuere Resampling-Methoden, welche alle Elemente der ursprünglichen Stichprobe berücksichtigen, hinsichtlich der Anwendung von Imputation übertragen werden können. Zum Vergleich verschiedener Varianzschätzer wird eine Monte-Carlo-Simulationsstudie durchgeführt. Mit Hilfe einer Monte-Carlo-Simulation findet zudem eine Zerlegung der Gesamtvarianz unter verschiedenen Parameterkonstellationen statt.
Die Markierung zählt zu den ältesten Instrumenten im Marketing und besitzt auch heute noch eine herausragende Bedeutung für den Markterfolg. Allerdings haben die technologischen Entwicklungen auch die Möglichkeiten der Markierung verändert, so dass "klassische" Markierungsmöglichkeiten an Bedeutung verlieren. Eine der ältesten Markierungsformen ist das Wasserzeichen, dessen Bedeutung als Marke bisher wissenschaftlich noch nicht untersucht wurde. Dieses Forschungsdefizit zu verringern, erweitert auf Papierrippungen, Papierprägungen, Markierungsdrucke und Markierungsstrukturen ist das Ziel der vorliegenden Arbeit. Ausführlich beschrieben und gewichtet werden dabei die einzelnen Markierungselemente, differenziert nach Herkunft, Marken-Namen und Marken-Bild, und ihre Auswirkung auf das Verbraucherverhalten. Eine besondere Beachtung erhalten Kuppelmarkierungen, die zusätzliche Synergien für die Kundenbindung entfalten. In der Vielfalt der Markierungen und über 1000 Abbildungen wird das Zusammenspiel von Markierung und Marketing deutlich gemacht.
Die vorliegende empirische Untersuchung nimmt eine gezielte Betrachtung der Auswirkungen des Working Capital Managements als Ganzem sowie seiner Teilkomponenten für die operative Profitabilität und das Bonitätsrating (d.h. im Ergebnis über seine Bedeutung für die Innen- und die Außenfinanzierung) deutscher mittelständischer Unternehmen vor. Darüber hinaus wird untersucht, in wie weit größenspezifische Unterschiede bei der Wirkung der einzelnen Komponenten des Working Capital Managements auf die operative Profitabilität und das Bonitätsrating bestehen, ob also die Stärke der ggf. zu beobachtenden Effekte für kleinere Unternehmen anders ausgeprägt ist als für größere Unternehmen. Zudem wird untersucht, ob sich die Stärke der zu beobachtenden Effekte in unterschiedlichen konjunkturellen Rahmenbedingungen jeweils verändert, um Erkenntnisse darüber zu gewinnen, ob und in wie weit Working Capital Management zur Verbesserung der Krisenresistenz mittelständischer Unternehmen beitragen kann.
Zehn Jahre nach dem Beginn des Eurosystems haben die beteiligten Euro-Zentralbank den Umfang ihrer Gold- und Devisenreserven in der Summe nahezu beibehalten. Hingegen wurde vor der Euro-Einführung erwartet, dass die Europäische Währungsunion einen substanziellen Abbau des Reservevolumens begünstigt. Vor diesem Hintergrund hat die Arbeit das Ziel,die Haltung von Währungsreserven im Eurosystem zu analysieren, deren Höhe, Struktur und Management zu prüfen und strategische Optionen für eine Optimierung aufzuzeigen. Im Ergebnis lässt sich ein signifikanter Abbau von Währungsreserven sowie eine Neuausrichtung im Management der Reservebestände hinsichtlich deren Struktur und Verwaltung begründen. Exemplarisch für das Notenbanksystem der Eurozone werden hierzu die Reservepolitiken der Europäischen Zentralbank und der Deutschen Bundesbank als Fallstudien ausführlich untersucht und Vorschläge für eine Optimierung dieser volkswirtschaftlichen Vermögensbestände aufgezeigt.