Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (845) (entfernen)
Sprache
- Deutsch (493)
- Englisch (341)
- Mehrsprachig (7)
- Französisch (4)
Schlagworte
- Stress (37)
- Deutschland (33)
- Modellierung (19)
- Optimierung (18)
- Fernerkundung (17)
- Hydrocortison (16)
- stress (15)
- Motivation (12)
- Stressreaktion (12)
- cortisol (12)
Institut
- Psychologie (181)
- Raum- und Umweltwissenschaften (148)
- Mathematik (62)
- Wirtschaftswissenschaften (61)
- Fachbereich 4 (60)
- Fachbereich 1 (31)
- Geschichte, mittlere und neuere (28)
- Germanistik (26)
- Informatik (26)
- Kunstgeschichte (22)
- Politikwissenschaft (18)
- Anglistik (17)
- Soziologie (16)
- Fachbereich 2 (14)
- Fachbereich 6 (14)
- Fachbereich 3 (9)
- Philosophie (9)
- Romanistik (9)
- Computerlinguistik und Digital Humanities (7)
- Medienwissenschaft (6)
- Geschichte, alte (5)
- Allgemeine Sprach- und Literaturwissenschaft (4)
- Fachbereich 5 (4)
- Klassische Philologie (4)
- Pädagogik (4)
- Ethnologie (3)
- Japanologie (3)
- Sinologie (3)
- Archäologie (2)
- Rechtswissenschaft (2)
- Phonetik (1)
- Slavistik (1)
- Universitätsbibliothek (1)
Entrepreneurship is a process of discovering and exploiting opportunities, during which two crucial milestones emerge: in the very beginning when entrepreneurs start their businesses, and in the end when they determine the future of the business. This dissertation examines the establishment and exit of newly created as well as of acquired firms, in particular the behavior and performance of entrepreneurs at these two important stages of entrepreneurship. The first part of the dissertation investigates the impact of characteristics at the individual and at the firm level on an entrepreneur- selection of entry modes across new venture start-up and business takeover. The second part of the dissertation compares firm performance across different entrepreneurship entry modes and then examines management succession issues that family firm owners have to confront. This study has four main findings. First, previous work experience in small firms, same sector experience, and management experience affect an entrepreneur- choice of entry modes. Second, the choice of entry mode for hybrid entrepreneurs is associated with their characteristics, such as occupational experience, level of education, and gender, as well as with the characteristics of their firms, such as location. Third, business takeovers survive longer than new venture start-ups, and both entry modes have different survival determinants. Fourth, the family firm- decision of recruiting a family or a nonfamily manager is not only determined by a manager- abilities, but also by the relationship between the firm- economic and non-economic goals and the measurability of these goals. The findings of this study extend our knowledge on entrepreneurship entry modes by showing that new venture start-ups and business takeovers are two distinct entrepreneurship entry modes in terms of their founders" profiles, their survival rates and survival determinants. Moreover, this study contributes to the literature on top management hiring in family firms: it establishes family firm- non-economic goals as another factor that impacts the family firm- hiring decision between a family and a nonfamily manager.
Seit 15. Juli 2004 besteht in Form des Radfernwegs "Via Bavarica Tyrolensis" auf 228 Kilometern eine ringförmige Radfernwegeinfrastruktur südlich von München, einschließlich einer Verbindung nach Österreich hinab ins Tiroler Inntal. Das Erhebungsjahr 2006 zugrunde gelegt, wird die Via Bavarica Tyrolensis von ca. 62.000 Fahrradtouristen pro Radsaison zwischen dem 01. April und dem 31. Oktober genutzt. Den 376 im Juni 2006 auf dem Radfernweg befragten Personen zufolge gehören sie bei einem Altersdurchschnitt von 51,8 Jahren eher dem Segment der (Jung-)Senioren an und sorgen in der Summe für mindestens 1,01 Mio. Euro an Ums ätzen pro Jahr (genau genommen: pro Radsaison) am Wegesrand. Allerdings ist derzeit nur rd. jeder Achte (13%) auf der Via Bavarica Tyrolensis als mehrtägiger Radreisender unterwegs. Somit wird der Status Quo ihren eigentlichen Chancen und Potentialen bei weitem nicht gerecht. Der Anteil dieser in Bezug auf die Wertschöpfung besonders lukrativen radfahrenden Gästegruppe erscheint nämlich durchaus steigerungsfähig. Hierzu bedarf es allerdings eines größeren, für mehrtägige Radreisen attraktiveren Rahmens. Als Lösungsmöglichkeit böte sich die Integration der Via Bavarica Tyrolensis als Teilstück eines .Radfernwegs München . Verona. nach dem Dachmarkenprinzip an. Besonders ermutigend für ein solches alpen- übergreifendes Projektvorhaben ist die Tatsache, dass die Wegeinfrastruktur von München bis hinab ins tiroler Inntal bereits existiert und im Anschluss daran bis nach Südtirol bzw. Verona ebenfalls weitgehend fertig gestellt ist. Das Interesse an einer Alpenüberquerung mit dem Fahrrad wäre bei den derzeitigen Via Bavarica Tyrolensis- Fahrradtouristen jedenfalls schon in sehr großem Maße vorhanden: für etwas mehr als die Hälfte (52%) von ihnen nimmt eine Alpenüberquerung mit dem Fahrrad einen hohen Stellenwert ein, sie erachten diese Option als wichtig oder gar sehr wichtig. Als Ergebnis der SWOT-Analyse erscheint zum einen die Inwertsetzung der reichhaltigen, geschichtlichkulturellen Grundlagen sinnvoll. Zum anderen könnte sich .München . Verona. aufgrund der guten Kombinationsmöglichkeiten mit dem öffentlichen Personenverkehr als Produkt des gemäßigt-sportlichen, alpinen Komfort-Radreisens positionieren. Hierfür bedarf es zur Vernetzung aller Partner sowie zur Sicherstellung von Qualitäts- und Vermarktungsstandards einer Geschäftsstelle mit einer Finanzausstattung in Höhe von jährlich 400.000 Euro auf drei Jahre. Als Rechtsform sollte die .Europäische wirtschaftliche Interessensvereinigung. (EWIV) in Betracht gezogen werden. Dabei ist die Nutzung von Fördermitteln zu prüfen, z.B. aus dem Programmraum .Alpine Space in Interreg IV B der Europäischen Union. Gerade angesichts der aktuellen Diskussion um den Klimawandel würde damit ein sehr lukratives Tourismussegment für die beteiligten Regionen umfassend erschlossen werden . mit dem sog. Zero Emission Vehicle. Fahrrad.
Survey data can be viewed as incomplete or partially missing from a variety of perspectives and there are different ways of dealing with this kind of data in the prediction and the estimation of economic quantities. In this thesis, we present two selected research contexts in which the prediction or estimation of economic quantities is examined under incomplete survey data.
These contexts are first the investigation of composite estimators in the German Microcensus (Chapters 3 and 4) and second extensions of multivariate Fay-Herriot (MFH) models (Chapters 5 and 6), which are applied to small area problems.
Composite estimators are estimation methods that take into account the sample overlap in rotating panel surveys such as the German Microcensus in order to stabilise the estimation of the statistics of interest (e.g. employment statistics). Due to the partial sample overlaps, information from previous samples is only available for some of the respondents, so the data are partially missing.
MFH models are model-based estimation methods that work with aggregated survey data in order to obtain more precise estimation results for small area problems compared to classical estimation methods. In these models, several variables of interest are modelled simultaneously. The survey estimates of these variables, which are used as input in the MFH models, are often partially missing. If the domains of interest are not explicitly accounted for in a sampling design, the sizes of the samples allocated to them can, by chance, be small. As a result, it can happen that either no estimates can be calculated at all or that the estimated values are not published by statistical offices because their variances are too large.
Numerous RCTs demonstrate that cognitive behavioral therapy (CBT) for depression is effective. However, these findings are not necessarily representative of CBT under routine care conditions. Routine care studies are not usually subjected to comparable standardizations, e.g. often therapists may not follow treatment manuals and patients are less homogeneous with regard to their diagnoses and sociodemographic variables. Results on the transferability of findings from clinical trials to routine care are sparse and point in different directions. As RCT samples are selective due to a stringent application of inclusion/exclusion criteria, comparisons between routine care and clinical trials must be based on a consistent analytic strategy. The present work demonstrates the merits of propensity score matching (PSM), which offers solutions to reduce bias by balancing two samples based on a range of pretreatment differences. The objective of this dissertation is the investigation of the transferability of findings from RCTs to routine care settings.
In der Vorrede zur ersten Auflage von Die Welt als Wille und Vorstellung legt Arthur Schopenhauer dem Leser seines Werkes seine Absicht nahe, welche in der Mitteilung eines „einzigen Gedankens“ besteht. Doch dieser mitzuteilende Gedanke wird an keiner Stelle des Werkes explizit und direkt als solchen von Schopenhauer ausgesprochen und genannt. Dies gibt bis heute in der Schopenhauer-Forschung Anlass zu kontroversen Auseinandersetzungen: Wie lautet Schopenhauers „einziger Gedanke“? Wo befindet er sich konkret? Und ist er überhaupt mitteilbar?
Trotz zahlreicher Forschungsarbeiten zur Thematik des „einzigen Gedankens“ wurde bisher der Einfluss der indischen Philosophie, genauer des Oupnek’hat, vernachlässigt, obwohl genauestens nachgewiesen und nachgezeichnet werden kann, mit welchen Quellen sich Schopenhauer zum Zeitpunkt der Entstehung seiner Philosophie intensiv beschäftigt hat. Auch verweist er selbst immer wieder auf bestimmte Stellen aus dem Oupnek’hat und zitiert Passagen an ganz wesentlichen Stellen in seinem Werk.
Um den „einzigen Gedanken“ im Werk Schopenhauers erfassen zu können, reicht es nicht aus, nur vom Hauptwerk selbst auszugehen, sondern es müssen ebenfalls die Jahre und Schriften während der Entstehung seiner Philosophie bis zum Hauptwerk berücksichtigt werden, und damit verbunden auch die Quellen, die Schopenhauer beeinflusst haben, wozu insbesondere das Oupnek’hat samt seinen eigenen Randnotizen gehört.
Educational assessment tends to rely on more or less standardized tests, teacher judgments, and observations. Although teachers spend approximately half of their professional conduct in assessment-related activities, most of them enter their professional life unprepared, as classroom assessment is often not part of their educational training. Since teacher judgments matter for the educational development of students, the judgments should be up to a high standard. The present dissertation comprises three studies focusing on accuracy of teacher judgments (Study 1), consequences of (mis-)judgment regarding teacher nomination for gifted programming (Study 2) and teacher recommendations for secondary school tracks (Study 3), and individual student characteristics that impact and potentially bias teacher judgment (Studies 1 through 3). All studies were designed to contribute to a further understanding of classroom assessment skills of teachers. Overall, the results implied that, teacher judgment of cognitive ability was an important constant for teacher nominations and recommendations but lacked accuracy. Furthermore, teacher judgments of various traits and school achievement were substantially related to social background variables, especially the parents" educational background. However, multivariate analysis showed social background variables to impact nomination and recommendation only marginally if at all. All results indicated differentiated but potentially biased teacher judgments to impact their far-reaching referral decisions directly, while the influence of social background on the referral decisions itself seems mediated. Implications regarding further research practices and educational assessment strategies are discussed. The implications on the needs of teachers to be educated on judgment and educational assessment are of particular interest and importance.
Diese im Frühjahr 2004 fertiggestellte Studie möchte das Wesen der postmodernen Kriegsführung aus einem historischen Ansatz heraus erklären. Denn um verstehen zu können, was den postmodernen Krieg charakterisiert, ist es im Rahmen einer komplexen Kriegstheorie nötig, das Phänomen Krieg und die Auswirkungen technologischer Innovationen aus einer historischen Perspektive mit einer Kombination aus Kriegs- (u.a. Toffler (Dreiwellenmodell), Sun Tzu, Clausewitz) und Medientheorien (u.a. McLuhan, Virilio, Boyd, Bucher) zu erfassen. Diese Analyse möchte darauf aufbauend folgende zentrale Fragen beantworten: Welche Potentiale bieten die Kommunikations- und Informationsverarbeitungstechnologien der postmodernen Informationsgesellschaft den Streitkräften zu Beginn des 21. Jahrhunderts? Wie verändert sich das Verständnis von Krieg unter dem Einfluss dieser Möglichkeiten? Wie verändert sich das Verhältnis von Technik und Strategie, bzw. Krieg und Politik unter dem Einfluss dieser technologischen Innovationen? Welche Rolle werden die bisher zentralen Akteure, die Nationalstaaten, unter den Vorzeichen des postmodernen Informationskrieges spielen? Und bieten diese neuen Technologien Lösungsansätze für die zu Beginn des 21. Jahrhunderts absehbaren Konflikte?
Bei der Realisierung einer nachhaltigen Entwicklung kommt dem Erhalt und der Sanierung des vorhandenen Altbaubestands zentrale Bedeutung zu. Sanierungen versprechen in erster Line Einsparpotentiale beim Energieverbrauch, bei den CO2-Emissionen und den anthropogen induzierten Stoffströmen. Auch im sozialen Bereich sind Verbesserungen möglich, weil sich beispielsweise attraktive und energetisch optimierte Wohnungen positiv auf die Bleibeabsichten der Bewohner auswirken und so Wohnquartiere sozial stabilisiert werden können. In der Arbeit wird untersucht, welchen signifikanten Beitrag Bestandssanierungen zur Realisierung einer global nachhaltigen Entwicklung leisten können. Zudem wird gefragt, warum Altbausanierungen bislang nur zögerlich umgesetzt werden. So soll die Kluft zwischen Wissen und Handeln bei der Realisierung einer nachhaltigen Entwicklung erklärt werden. Um die Forschungsfragen beantworten zu können, werden vier Sanierungsmaßnahmen in den Städten Ludwigshafen und Köln als Einzelfälle untersucht: (1) Ludwigshafen Brunckviertel, (2) Ludwigshafen Ebertsiedlung, (3) Köln Vingst und (4) Köln Zollstock. Gewählt wird ein qualitativer Forschungsansatz. Zur Anwendung kommen die Erhebungsmethoden teilstrukturierte Befragung und Dokumentenanalyse.
Algorithmen als Richter
(2022)
Die menschliche Entscheidungsgewalt wird durch algorithmische
Entscheidungssysteme herausgefordert. Verfassungsrechtlich besonders
problematisch ist dies in Bereichen, die das staatliche Handeln betreffen.
Eine herausgehobene Stellung nimmt durch den besonderen Schutz der
Art. 92 ff. GG die rechtsprechende Gewalt ein. Lydia Wolff fragt daher danach, welche Antworten das Grundgesetz auf digitale Veränderungen in diesem Bereich bereithält und wie sich ein Eigenwert menschlicher Entscheidungen in der Rechtsprechung angesichts technischen Wandels darstellen lässt.
Das Werk erörtert hierzu einen Beitrag zum verfassungsrechtlichen
Richterbegriff und stellt diesen etablierten Begriff in einen Kontext neuer digitaler Herausforderungen durch algorithmische Konkurrenz.
The main focus of this work is to study the computational complexity of generalizations of the synchronization problem for deterministic finite automata (DFA). This problem asks for a given DFA, whether there exists a word w that maps each state of the automaton to one state. We call such a word w a synchronizing word. A synchronizing word brings a system from an unknown configuration into a well defined configuration and thereby resets the system.
We generalize this problem in four different ways.
First, we restrict the set of potential synchronizing words to a fixed regular language associated with the synchronization under regular constraint problem.
The motivation here is to control the structure of a synchronizing word so that, for instance, it first brings the system from an operate mode to a reset mode and then finally again into the operate mode.
The next generalization concerns the order of states in which a synchronizing word transitions the automaton. Here, a DFA A and a partial order R is given as input and the question is whether there exists a word that synchronizes A and for which the induced state order is consistent with R. Thereby, we study different ways for a word to induce an order on the state set.
Then, we change our focus from DFAs to push-down automata and generalize the synchronization problem to push-down automata and in the following work, to visibly push-down automata. Here, a synchronizing word still needs to map each state of the automaton to one state but it further needs to fulfill some constraints on the stack. We study three different types of stack constraints where after reading the synchronizing word, the stacks associated to each run in the automaton must be (1) empty, (2) identical, or (3) can be arbitrary.
We observe that the synchronization problem for general push-down automata is undecidable and study restricted sub-classes of push-down automata where the problem becomes decidable. For visibly push-down automata we even obtain efficient algorithms for some settings.
The second part of this work studies the intersection non-emptiness problem for DFAs. This problem is related to the problem of whether a given DFA A can be synchronized into a state q as we can see the set of words synchronizing A into q as the intersection of languages accepted by automata obtained by copying A with different initial states and q as their final state.
For the intersection non-emptiness problem, we first study the complexity of the, in general PSPACE-complete, problem restricted to subclasses of DFAs associated with the two well known Straubing-Thérien and Cohen-Brzozowski dot-depth hierarchies.
Finally, we study the problem whether a given minimal DFA A can be represented as the intersection of a finite set of smaller DFAs such that the language L(A) accepted by A is equal to the intersection of the languages accepted by the smaller DFAs. There, we focus on the subclass of permutation and commutative permutation DFAs and improve known complexity bounds.
Copositive programming is concerned with the problem of optimizing a linear function over the copositive cone, or its dual, the completely positive cone. It is an active field of research and has received a growing amount of attention in recent years. This is because many combinatorial as well as quadratic problems can be formulated as copositive optimization problems. The complexity of these problems is then moved entirely to the cone constraint, showing that general copositive programs are hard to solve. A better understanding of the copositive and the completely positive cone can therefore help in solving (certain classes of) quadratic problems. In this thesis, several aspects of copositive programming are considered. We start by studying the problem of computing the projection of a given matrix onto the copositive and the completely positive cone. These projections can be used to compute factorizations of completely positive matrices. As a second application, we use them to construct cutting planes to separate a matrix from the completely positive cone. Besides the cuts based on copositive projections, we will study another approach to separate a triangle-free doubly nonnegative matrix from the completely positive cone. A special focus is on copositive and completely positive programs that arise as reformulations of quadratic optimization problems. Among those we start by studying the standard quadratic optimization problem. We will show that for several classes of objective functions, the relaxation resulting from replacing the copositive or the completely positive cone in the conic reformulation by a tractable cone is exact. Based on these results, we develop two algorithms for solving standard quadratic optimization problems and discuss numerical results. The methods presented cannot immediately be adapted to general quadratic optimization problems. This is illustrated with examples.
In einer empirischen Neuroimaging Studie an einer Gruppe von 141 rechts- und linkshändigen Probanden beiderlei Geschlechts wurden fMRT-Korrelate der funktionalen Sprachrepräsentation untersucht. Es fanden sich bedeutsame Unter-schiede in der Sprachverarbeitungskompetenz der beiden Hemisphären sowohl zwischen Rechts- und Linkshändern als auch zwischen Männern und Frauen.
Rinnen werden als effektive Sedimentquellen und als Transportwege für große Sedimentmengen angesehen, zusätzlich agieren sie als bevorzugte Fließwege für den Oberflächenabfluss. Sie können sich zu irreversiblen Formen (Gullys) weiterentwickeln. Trotz Fortschritten in der Modellierung bleibt insbesondere die Modellierung von Rinnenerosion schwierig. Daher ist es wichtig, experimentelle Daten aus Geländeversuchen zu erheben, um das Prozesswissen zu verbessern und bessere Modelle zu entwickeln. In den Experimenten sollte eine standardisierte Methode verwendet werden, um eine gewisse Vergleichbarkeit der Ergebnisse zwischen unterschiedlichen Testgebieten zu gewährleisten. Die meisten Experimente zur Rinnenerosion, die unter Labor- oder Geländebedingungen durchgeführt wurden, verwendeten Substrate mit unterschiedlichen Korngrößen und natürlichen oder simulierten Niederschlag. Ziel war meist die Entstehung von Rinnennetzwerken zu beobachten, Startbedingungen für Rinnenbildung zu definieren, die Entwicklung der Rinnenmorphologie zu untersuchen, die wichtigsten hydraulischen Parameter wie Fließquerschnitt, benetzten Umfang, hydraulischen Radius, mittlere Fließgeschwindigkeit und shear stress abzuschätzen oder mathematische Modelle zu kreieren, um den Bodenabtrag durch Rinnenerosion abschätzen zu können. Aber es fehlen Untersuchungen zum Verhalten von existierenden Rinnen, natürlichen oder anthropogen entwickelten, unter Geländebedingungen. Um diese Lücke zu schließen wurde eine reproduzierbare Versuchsanordnung entworfen und in verschiedenen Rinnen angewendet um folgende Fragen zu beantworten: Wie hoch ist der Anteil der Rinnenerosion am Bodenabtrag? 2) Wie effektiv sind Rinnen beim Transport von Wasser und Sediment durch ihr Einzugsgebiet? In prozess-basierten Modellen werden verschiedene Prozesse durch mathematische Gleichungen beschrieben. Die Grundlage dieser Formeln ist meist ein hydraulischer Parameter, der in Verbindung zum Abtrag gebracht wird. Der am häufigsten verwendete Parameter ist der shear stress, von dem angenommen wird, dass er ein lineares Verhältnis zu Erosionsparametern wie detachment rate, detachment capacity oder Sedimentkonzentration aufweist. Aus dem shear stress lassen sich weitere Parameter wie unit length shear force oder verschiedene Varianten der stream power berechnen. Die verwendeten Erosions- und hydraulischen Parameter ändern sich je nach Forschergruppe. Eine weitere Modellannahme ist, dass die transport rate die trasnport capacity nicht übersteigen kann. Wenn das transport rate vs. transport capacity - Verhältnis 1 übersteigt, verringern Sedimentationsprozesse die Rate bis die transport capacity wieder erreicht ist. Wir untersuchten in Geländeversuchen die folgenden Annahmen: 1) Ist das Verhältnis zwischen transport rate und transport capacity immer kleiner 1? 2) Besteht die lineare Beziehung zwischen verschiedenen hydraulischen Parametern und Bodenabrtagsparametern? 3)Verursachen die selben hydraulischen Parameter, die in verschiedenen Versuchen aufgenommen wurden, auch immer die selben Erosionsparameter?
Die vorliegende Arbeit entstand im Rahmen des INTERREG III B-Projektes WaReLa (Water Retention by Landuse), das sich mit dem Rückhalt von Wasser in der Fläche als Beitrag zum vorbeugenden Hochwasserschutz beschäftigt. Im Vordergrund stehen dabei die so genannten dezentralen Rückhaltemaßnahmen als Alternative bzw. Ergänzung zum technischen Hochwasserschutz. Gegenstand dieser Arbeit ist die Frage nach der Effizienz von Retentionsmaßnahmen in urbanen Räumen und deren Beitrag zum Hochwasserschutz. Es handelt sich um ein relativ junges Forschungsthema, welches die Fachwelt bis heute kontrovers diskutiert. Wie bisherige Untersuchungen zeigen, sind allgemeine Aussagen über die Retentionswirkung nicht möglich, da das Potential der Regenwasserbewirtschaftung und deren Rückhaltewirkung von mehreren gebietsspezifischen Faktoren gesteuert werden. Untersuchungen an einem Retentionssystem im Neubaugebiet Trier-Petrisberg sollten weitere Erkenntnisse bringen. Hierzu wurde zum einen die hydraulische Belastung einzelner Retentionsanlagen untersucht und zum anderen wurden N A-Simulationen mit dem Programm erwin 4.0 durchgeführt. Laut N-A-Simulationen hält das Retentionssystem, welches für ein 100-jährliches Ereignis mit 56 mm Niederschlag und der Dauerstufe 3 Stunden konzipiert wurde, im Vergleich zur Entwässerung des Gebietes über ein Trennsystem zwischen 58 % und 68 % des Jahresniederschlags zurück. Ähnlich hohe Werte (60 80 %) nennen GÖBEL, STUBBE, WEINERT, ZIMMERMANN, FACH, DIERKES, KORIES, MESSER, MERTSCH, GEIGER & COLDEWEY (2004: 270f) und WEGNER (1992: 7f) für die von ihnen untersuchten Anlagen. Sehr hoch erscheint die Scheitel abmindernde Wirkung des Retentionssystems im Vergleich zu einer konventionellen Ableitung. Im Mittel beträgt diese 82 %, so dass der Scheitel der Einleitung in den Vorfluter Brettenbach im Vergleich zur Regenwasserableitung auf 1/5 reduziert wird. Aufschluss über die Scheitelabminderung im Vorfluter selbst kann nur eine Quantifizierung der einzelnen Abflusskomponenten geben. Das Retentionssystem arbeitet im Sommerhalbjahr effektiver als im Winterhalbjahr, da trockene Vorperioden, höhere Lufttemperaturen und die Vegetation im Sommer einen besseren Rückhalt konvektiver Niederschläge begünstigen. Korrespondierende Aussagen machen ASSMANN & KEMPF (2005), GANTNER (2003a) und NIEHOFF (2002). Beobachtungen und Simulationen zeigen, dass das Retentionssystem bisher effektiv arbeitet. Sämtliche Retentionsanlagen entleeren sich innerhalb von 48 Stunden. Die Arbeit wird ergänzt durch Handlungsempfehlungen zu Planung, Bau und Betrieb von Anlagen zur Regenwasserbewirtschaftung auf Privatgrundstücken. Sie sollen helfen, die Akzeptanz naturnaher Maßnahmen zur Bewirtschaftung von Regenwasser zu steigern, Fehler zu vermeiden und Projekte erfolgreich umzusetzen.
Ausgangspunkt der vorliegenden Untersuchung sind die deutlichen Unterschiede in den Ukrainepolitiken Polens und Tschechiens. Das Erkenntnisinteresse ist, worauf diese Unterschiede im außenpolitischen Verhalten zweier Staaten, die in der Außenpolitikforschung meistens als Vertreter einer relativ homogenen Gruppe betrachtet werden, zurückzuführen sind. Die Studie geht auf Basis bisheriger konstruktivistischer Forschung zur polnischen Sicherheitspolitik von der Hypothese aus, dass dies mit kulturellen Faktoren zu tun hat, speziell der unterschiedlichen sicherheitspolitischen Bewertung der Ukraine und Osteuropas im Allgemeinen sowie unterschiedlichen ukrainepolitischen Rollenkonzeptionen, die sich hieraus ergeben. Die Fragestellung lautet daher, welche ukrainebezogenen, sicherheitspolitisch motivierten Rollenkonzeptionen sich in Polen und Tschechien nach 1989 herausgebildet haben.Zur Beantwortung dieser Fragestellung wird zunächst auf Grundlage der Forschung zur politischen und zur strategischen Kultur das Konzept der sicherheitspolitischen Kultur entwickelt und die Rollentheorie als bislang in der diesbezüglichen Forschung kaum rezipiertes Analyseinstrument vorgestellt, das aus mehreren Gründen Vorteile gegenüber anderen Ansätzen hat. Methodisch wird eine wissenssoziologische Diskursanalyse durchgeführt, die als Instrument zur Erfassung von sozial konstruierter Wirklichkeit dient, sich aufgrund derselben metatheoretischen Grundlagen hervorragend in das Modell sicherheitspolitischer Kultur einfügt und daher für eine Analyse der Entstehung von Rollenkonzeptionen geeignet ist. Die Untersuchung ergibt, dass in Polen die Bedrohungskonstruktion einer möglichen Wiederkehr des russischen Imperiums zentral ist und eine unabhängige, stabilisierte Ukraine als Schutz hiergegen aufgefasst wird. Die sich ergebenden ukrainepolitischen Rollenkonzeptionen sind Teil eines weitgehend konsensuellen Komplexes sicherheitspolitischer Rollenkonzeptionen, die abgesehen von rollenspezifischen sicherheitspolitischen Zielen auch zentral durch die Bedrohungskonstruktion der politischen Marginalisierung motiviert und daher häufig als Führungsrollen charakterisierbar sind. Tschechien zeichnet sich hingegen durch das weitgehende Fehlen einer Bedrohungskonstruktion des russischen Imperialismus aus, stattdessen wird die Ukraine stärker als Quelle von Gefahren konstruiert. Zudem ist die sicherheitspolitische Kultur Tschechiens von einer konzeptionellen Unterkomplexität, einem Mangel an Konsens, einer Konstruktion Tschechiens als machtloser Akteur sowie einer Unterordnung der Außenpolitik unter innenpolitische Fragen gekennzeichnet. Daher fehlen im tschechischen Falle nicht nur jegliche ukrainepolitische Rollenkonzeptionen, es ist grundsätzlich ein Mangel an klaren Vorstellungen darüber festzustellen, welche Rollen Tschechien in der internationalen Politik spielen soll.
Cancer diagnosis prototypically represents a critical life event and, thus, requires extensive coping efforts by the patients which may be promoted by support received from their social network members. Quantity and quality of received support can be determined by the patients' self-presentation of their coping behavior ("coping-portrayal") and by their attempts at mobilizing support. Until now, research has indicated that a depressive and ruminative coping-portrayal may especially evoke negative emotional reactions in others. The quasi-experimental study presented here focused on the effects of a ruminative coping-portrayal on willingness of others in providing social support and investigated, in particular, if these effects may be counteracted by more or less direct attempts at support mobilization. A sample of 189 middle-aged subjects received fictitious descriptions of an encounter with a "former schoolmate" (protagonist) who discloses that he has recently been diagnosed with cancer. The protagonist's directness of support mobilization (explicit vs. implicit vs. no request of support) as well as his coping-portrayal (with vs. without rumination) were systematically manipulated. Action tendencies with regard to sustained support (e.g., high time-investment) and short-term encouragement as well as the intensity of specific emotions (e.g., sympathy; fear of one's own distress; joy at the other's trustfulness) were considered as dependent variables. Results showed that a ruminative coping-portrayal evoked less sympathy than a coping-portrayal without rumination; moreover, a ruminative way of presenting one's coping behavior induced action tendencies which were described by momentary encouragement rather than by sustained support endeavors. Explicit requests of support reduced subjects' fear of their own distress and mostly increased joy at the protagonist's trustfulness compared to implicit requests. Furthermore, the negative effects of a ruminative coping-portrayal on the subjects' willingness to provide sustained support were compensated by explicit requests for support provision. In general, these results quite convincingly show that the way of activating supportive actions from others can be crucial for support received when facing a critical life event.
Die Dissertation beschäftigt sich mit einer neuartigen Art von Branch-and-Bound Algorithmen, deren Unterschied zu klassischen Branch-and-Bound Algorithmen darin besteht, dass
das Branching durch die Addition von nicht-negativen Straftermen zur Zielfunktion erfolgt
anstatt durch das Hinzufügen weiterer Nebenbedingungen. Die Arbeit zeigt die theoretische Korrektheit des Algorithmusprinzips für verschiedene allgemeine Klassen von Problemen und evaluiert die Methode für verschiedene konkrete Problemklassen. Für diese Problemklassen, genauer Monotone und Nicht-Monotone Gemischtganzzahlige Lineare Komplementaritätsprobleme und Gemischtganzzahlige Lineare Probleme, präsentiert die Arbeit
verschiedene problemspezifische Verbesserungsmöglichkeiten und evaluiert diese numerisch.
Weiterhin vergleicht die Arbeit die neue Methode mit verschiedenen Benchmark-Methoden
mit größtenteils guten Ergebnissen und gibt einen Ausblick auf weitere Anwendungsgebiete
und zu beantwortende Forschungsfragen.
In jüngerer Zeit wurde in der neuroendokrinologischen Forschung das Phänomen eines Hypocortisolismus bei verschiedenen Störungen, die mit Stress assoziiert sind, beschrieben. Insbesondere bei der Posttraumatischen Belastungsstörung (PTSD) wurde eine verringerte adrenale Aktivität berichtet. Aber auch bei Patienten mit verschiedenen körperlichen Beschwerden wurden ähnliche neuroendokrine Veränderungen gefunden. Dazu zählen unter anderem das Fibromyalgiesyndrom (FMS) und chronische Unterbauchbeschwerden (CUBB). Die Mechanismen, welche dem Hypocortisolismus zugrunde liegen, sind bislang sowohl für die PTSD als auch für stressabhängige körperliche Beschwerden nicht abschließend geklärt. Weiterhin besteht Unklarheit darüber, inwieweit eine Vergleichbarkeit dieser Mechanismen zwischen den verschiedenen Störungsbildern besteht. Die Entstehung und Aufrechterhaltung dieser Erkrankungen scheinen somit ein sehr komplexes Zusammenspiel verschiedener Faktoren darzustellen. Andererseits weisen die Überlappungen hinsichtlich symptomatologischer, psychologischer und endokrinologischer Variablen zwischen PTSD, FMS und CUBB auf die Existenz störungsübergreifender Subgruppen hin. In der vorliegenden Studie wurden psychologische und endokrinologische Auffälligkeiten bei PTSD, FMS und CUBB weiter untersucht. Vorrangiges Ziel war, zu überprüfen, inwieweit störungsübergreifende Subgruppen mit vergleichbaren psychoendokrinologischen Auffälligkeiten bestehen. Insgesamt wurden 59 Patientinnen mittels verschiedener endokrinologischer Tests untersucht und mit 30 gesunden Kontrollfrauen verglichen. Mit einer Clusteranalyse konnten drei unabhängige störungsübergreifende Subgruppen identifiziert werden, die sich hinsichtlich ihrer Reaktionen in den endokrinologischen Tests unterschieden. Es konnte somit gezeigt werden, dass es sich bei den untersuchten Störungsgruppen weder um eine Störungsfamilie mit identischen endokrinen Auffälligkeiten noch um isolierte, d.h. distinkte, von einander unabhängige Erkrankungen handelt. Vielmehr scheinen störungsübergreifende Subgruppen zu bestehen. Weitere Studien sollten die gefunden Muster replizieren und gegebenenfalls erweitern.
Kritische Modalphilosophie
(2000)
Immanuel Kant untersucht in seinem epochemachenden Hauptwerk "Kritik der reinen Vernunft" die allgemeinen Bedingungen menschlicher Erkenntnis. Berühmt geworden ist vor allem die so genannte "kopernikanische Wende", die Kant in der Erkenntnistheorie vollzogen hat: Nicht unsere Erkenntnis muss sich nach der Beschaffenheit der Gegenstände richten, sondern das Erkenntnisvermögen selbst gibt mit seinen Bedingungen, näherhin der Anschauung und des Verstandes, den Gegenständen der Erfahrung eine allgemeine und verbindliche Form vor. Während jedoch die von Kant genannten Erkenntnisbedingungen des Raumes und der Zeit sowie des Verhältnisses von Ursache und Wirkung vielfache Beachtung in der philosophischen Diskussion gefunden haben, blieb unklar, warum die Kritik der reinen Vernunft in dem selben Kontext auch die Modalbegriffe der Möglichkeit, Wirklichkeit und Notwendigkeit erwähnt. Die vorliegende Dissertation unternimmt in direkter Auseinandersetzung mit der einschlägigen Forschungsliteratur des 20. Jahrhunderts den Versuch, die Bedeutung auch dieser Begriffe als vollwertige Erkenntnisbedingungen im Zusammenhang des kantischen Systems zu bestimmen.
Die polare Kryosphäre stellt einen Schlüsselfaktor für die Erforschung des Klimawandels dar. Insbesondere das Meereis und seine Schneebedeckung, die sich durch eine äußerst hohe und Zeitskalen-übergreifende Sensitivität gegenüber atmosphärischen Einflüssen auszeichnen, können als diagnostische Parameter für die Abschätzung von Veränderungen im Klimasystem herangezogen werden. Die komplexen Rückkopplungsmechanismen, durch die das Meereis mit der globalen Zirkulation der Atmosphäre und des Ozeans in Wechselwirkung steht, werden durch eine zusätzliche Schneeauflage deutlich verstärkt. Insofern tragen die saisonalen Veränderungen der physikalischen Eigenschaften des Schnees, und insbesondere der Beginn der Schneeschmelze, massgeblich zur lokalen und regionalen Energiebilanz sowie zur Meereismassenbilanz bei. In dieser Arbeit wird nun erstmals auf der Basis langjähriger Daten der satellitengestützten Mikrowellenfernerkundung, in Kombination mit Feldmessungen aus dem Weddellmeer während des Sommers 2004/2005, die Charakteristik der sommerlichen Schmelzperiode auf antarktischem Meereis untersucht. Die sommertypischen Prozesse zeichnen sich hier durch deutliche Unterschiede im Vergleich zu arktischem Meereis aus. Wie die Messungen vor Ort zeigen, kommt es während des antarktischen Sommers nicht zu einem kompletten Abschmelzen des Schnees. Vielmehr dominieren ausgeprägte Schmelz-Gefrier-Zyklen im Tagesgang, die eine Abrundung und Vergrösserung der Schneekristalle sowie die Bildung interner Eisschichten verursachen. Dies führt radiometrisch zu Mikrowellensignalen, deren Erfassung im Vergleich zu bestehenden Schmelzerkennungs-Methoden neue Ansätze erfordert. Durch den Vergleich von zeitlich hoch aufgelösten in-situ Messungen der physikalischen Schneeeigenschaften mit parallel dazu erfassten Satellitendaten, sowie durch eine Modellierung der mikrowellenradiometrischen Eigenschaften der Schneeauflage, konnte ein neuer Indikator entwickelt werden, über den das Einsetzen der typischen sommerlichen Schmelzperiode auf antarktischem Meereis identifiziert werden kann. Der DTBA-Indikator beschreibt die Tagesschwankung der radiometrischen Eigenschaften des Schnees und zeichnet sich durch ein Werteverhalten aus, das eine eindeutige Hervorhebung der Sommerphase innerhalb eines saisonalen Zyklus erkennen lässt. Der Indikator wurde verwendet, um mittels des neu entwickelten Schwellwertalgorithmus MeDeA das Einsetzen der sommerlichen Schmelzperiode für das gesamte antarktische Meereisgebiet zu bestimmen. Durch die Anwendung der neuen Methode auf die langjährigen Reihen der Satellitenmessungen konnte ein umfassender Datensatz erstellt werden, der für den Zeitraum von 1988 bis 2006 die räumliche und zeitliche Variabilität des Einsetzens der sommerlichen Schmelzperiode auf antarktischem Meereis beinhaltet. Die Ergebnisse zeigen, dass im Untersuchungszeitraum keine signifikanten Trends im Beginn des Schmelzens der Schneeauflage festzustellen sind, und dass das Schmelzen im Vergleich zur Arktis deutlich schwächer ausgeprägt ist. Eine Untersuchung der atmosphärischen Antriebe durch die Auswertung meteorologischer Reanalysen zeigt den grundlegenden Einfluss der zirkumpolaren Strömungsmuster auf die interannualen Schwankungen des Einsetzens und der Stärke der sommerlichen Schneeschmelze.
In this thesis, we investigate the quantization problem of Gaussian measures on Banach spaces by means of constructive methods. That is, for a random variable X and a natural number N, we are searching for those N elements in the underlying Banach space which give the best approximation to X in the average sense. We particularly focus on centered Gaussians on the space of continuous functions on [0,1] equipped with the supremum-norm, since in that case all known methods failed to achieve the optimal quantization rate for important Gauss-processes. In fact, by means of Spline-approximations and a scheme based on the Best-Approximations in the sense of the Kolmogorov n-width we were able to attain the optimal rate of convergence to zero for these quantization problems. Moreover, we established a new upper bound for the quantization error, which is based on a very simple criterion, the modulus of smoothness of the covariance function. Finally, we explicitly constructed those quantizers numerically.
Um die weiterhin ansteigende Weltbevölkerung auch zukünftig mit Nahrungsmitteln und anderen wichtigen Rohstoffen zu versorgen, bedarf es einer immer größeren Nutzungsausweitung der Landwirtschaft auf natürliche Flächen. Im Jahre 2009 wurde ein Drittel der Landoberfläche der Erde bereits landwirtschaftlich genutzt. In jüngster Zeit kommt der Landwirtschaft zusätzlich eine wichtige Bedeutung als Energielieferant zu. Ein weiter steigender Flächenbedarf ist die Konsequenz dieser Entwicklung. Dies führt zum Verlust von Habitaten und somit zu einer starken Fragmentierung der Landschaft. Die direkten und indirekten Auswirkungen dieser Entwicklung auf den weltweiten Biodiversitätsrückgang werden mittlerweile als eine der Hauptursachen für den Rückgang vieler Arten anerkannt. Auch der Gesetzgeber hat dieses Problem erkannt und versucht dem entgegenzuwirken. In der vorliegenden Arbeit wird durch einen multiplen Methodenansatz der Einfluss der Habitatfragmentierung auf die Konnektivität der Populationen von zwei unterschiedlich mobilen Insektenarten untersucht. Als Modelarten wurden eine wenig mobile Heuschreckenart (Chorthippus montanus) und ein hoch mobiler Tagfalter (Brenthis ino) ausgewählt, welche beide an feuchte Grünländer gebunden sind. Für C. montanus wurde gezeigt, dass die Art nur ein sehr eingeschränktes Mobilitätspotenzial besitzt und stark an ihr Habitat gebunden ist. Daher ist eine Durchquerung von ungeeigneten Lebensräumen als äußerst unwahrscheinlich zu erachten. Eine Studie zur Mobilität und dem Verhalten von Brenthis ino belegt eine starke Philopatrie für eine nicht territoriale Insektenart. Zusätzlich zu den Fang-Wiederfang-Untersuchungen im Freiland wurden populations- und landschaftsgenetische Analysen durchgeführt. Die populationsgenetischen Analysen zeigen eine starke Isolation der Populationen von C. montanus, während zwischen den untersuchten Populationen von B. ino eine gute Konnektivität besteht. Mittels der landschaftsgenetischen Analyse wird gezeigt, dass Wälder und bebaute Flächen für beide Arten substanzielle Genefluss-Barrieren darstellen. Basierend auf einer GIS gestützten Analyse wird dargelegt, dass eine lokal ausreichende Vernetzung von Grünländern in Rheinland-Pfalz durch den Biotopverbund existiert. Die Berücksichtigung der Konnektivität bei der Auswahl und Ausgestaltung der Instrumente zur rechtlichen Sicherung und Umsetzung des Biotopverbundes (-§ 21 BNatSchG) bergen großes Potenzial zum Schutz von Grünländern. Ferner wird gezeigt, dass die Landschaftsplanung zwar ein geeignetes Instrument zur Erarbeitung des Biotopverbundes ist, aber kein Instrument zur rechtlichen Sicherung desselbigen im Sinne des -§ 21 Abs. 4 BNatSchG sein kann.
Das Corpus callosum spielt, als die größte interhemisphärische Verbindung, eine entscheidende Rolle bei der Integration und der Koordination von Verarbeitungsprozessen der beiden Großhirnhemisphären. Betrachtet man das Corpus callosum auf mediansagittalen Gehirnschnitten verschiedener Individuen, so wird eine hohe interindividuelle Variabilität in Größe und Form dieser Struktur deutlich, welche die Frage nach der funktionellen Relevanz dieser Differenzen nahe legt. Das Ziel der vorliegenden Arbeit war es daher, mögliche Determinanten und Korrelate dieser Variabilität zu bestimmen und funktionelle Folgen der interindividuellen Unterschiede zu untersuchen. Zur Bearbeitung dieser Fragestellung wurden vier empirische Studien durchgeführt, in denen die interindividuellen Unterschiede im Aufbau des Corpus callosum mit einer Kombination aus herkömmlicher morphologischer Magnet-Resonanz-Tomografie (MRT) und Diffusions-Tensor-Bildgebung (DT-MRT) erfasst wurden. Die Anwendung der DT-MRT ermöglicht es, über die Beschreibung der Diffusion von Wassermolekülen im Gehirngewebe, Aussagen auch über den mikrostrukturellen Aufbau des Gehirngewebes abzuleiten. Der gewählte methodische Ansatz ging somit über die traditionell makroanatomische Vermessung hinaus und führte zur Erfassung der callosalen Variabilität sowohl auf makro- als auch auf mikrostruktureller Ebene. In Studie 1 wurde der Effekt von Geschlecht und Händigkeit auf die Variabilität des Corpus callosum untersucht, da von beiden Variablen bekannt ist, dass sie mit Unterschieden in der funktionellen Organisation und Lateralisierung des Gehirns assoziiert sind. Dabei konnte bei Männern im Vergleich zu Frauen bzw. bei Rechts- im Vergleich zu Linkshändern eine größere mediansagittale Schnittfläche gefunden werden. Zudem sprechen die Unterschiede in den gemessenen Diffusionsparametern für eine höhere Dichte von Gewebekomponenten, wie Axone und Oligodendroglia, im Corpus callosum von Männern und Linkshändern. Die Ergebnisse liefern somit einen indirekten Hinweis auf eine mögliche Bedeutung callosaler Variabilität im Kontext der funktionellen Lateralisierung des Gehirns. Direkte Befunde hierzu liefert Studie 2. Hier konnte ein eigenständiger Einfluss der funktionellen Asymmetrie der Großhirnhemisphären auf den Aufbau des Corpus callosum nachgewiesen werden. Am Beispiel der Sprachproduktion wurde gezeigt, dass eine Zunahme der Asymmetrie von aufgabenbezogener Gehirnaktivität (gemessen mit funktioneller MRT) mit einem stärkeren Vorhandensein von Diffusionshindernissen assoziiert ist. Dies kann sowohl als Anzeichen einer dichteren Packung als auch einer stärkeren Myelinisierung der callosalen Axone interpretiert werden. In den Studien 3 und 4 wurden schließlich deutliche Hinweise auf die Bedeutung der interindividuellen callosalen Variabilität für den Informationsaustausch zwischen den Großhirnhemisphären gefunden. Die Transferzeit, gemessen als interhemisphärische Latenzunterschiede in der ereigniskorrelierten Gehirnaktivität nach lateralisierter visueller Stimulation, korrelierte negativ mit der Stärke der Diffusion im posterioren Corpus callosum (Studie 3). Zudem konnte unter Verwendung der Methode der dichotischen Stimulation demonstriert werden, dass die Qualität des interhemisphärischen Transfers auditiver Informationen substanziell von der Größe und vom mikrostrukturellen Aufbau des Corpus callosum abhängig ist (Studie 4). Des Weiteren spricht die Analyse der Diffusionsparameter für eine bedeutsame Rolle der mikrostrukturellen callosalen Variabilität auch bei der aufmerksamkeitsabhängigen Verarbeitung sensorischer Informationen. In den hier berichteten Arbeiten konnten somit gezeigt werden, dass nicht nur die Schädigung des Corpus callosum (z.B. nach chirurgischer Durchtrennung), sondern auch dessen natürlich auftretende interindividuelle Variabilität eine funktionelle Relevanz besitzt. Vor allem die Betrachtung der mikrostrukturellen Eigenschaften des Corpus callosum hat sich dabei als sehr nützlich erwiesen. Daraus folgt, dass die DT-MRT-Parameter eine wertvolle methodologische Ergänzung darstellen und in Kombination mit der klassischen makrostrukturellen Größenmessung eine umfassende Beurteilung des Corpus callosum erlauben.
Representation Learning techniques play a crucial role in a wide variety of Deep Learning applications. From Language Generation to Link Prediction on Graphs, learned numerical vector representations often build the foundation for numerous downstream tasks.
In Natural Language Processing, word embeddings are contextualized and depend on their current context. This useful property reflects how words can have different meanings based on their neighboring words.
In Knowledge Graph Embedding (KGE) approaches, static vector representations are still the dominant approach. While this is sufficient for applications where the underlying Knowledge Graph (KG) mainly stores static information, it becomes a disadvantage when dynamic entity behavior needs to be modelled.
To address this issue, KGE approaches would need to model dynamic entities by incorporating situational and sequential context into the vector representations of entities. Analogous to contextualised word embeddings, this would allow entity embeddings to change depending on their history and current situational factors.
Therefore, this thesis provides a description of how to transform static KGE approaches to contextualised dynamic approaches and how the specific characteristics of different dynamic scenarios are need to be taken into consideration.
As a starting point, we conduct empirical studies that attempt to integrate sequential and situational context into static KG embeddings and investigate the limitations of the different approaches. In a second step, the identified limitations serve as guidance for developing a framework that enables KG embeddings to become truly dynamic, taking into account both the current situation and the past interactions of an entity. The two main contributions in this step are the introduction of the temporally contextualized Knowledge Graph formalism and the corresponding RETRA framework which realizes the contextualisation of entity embeddings.
Finally, we demonstrate how situational contextualisation can be realized even in static environments, where all object entities are passive at all times.
For this, we introduce a novel task that requires the combination of multiple context modalities and their integration with a KG based view on entity behavior.
Geographic ranges of species and their determinants are of great interest in the field of biogeography and are often studied in terms of the species" ecological niches. In this context, the range of a species is defined by the accessibility of an area, abiotic factors and biotic interactions, which affect a species" distributions with different intensities across spatial scales. Parapatry describes a distributional pattern in which the ranges of two species meet along sharp range limits with narrow contact zones. Such parapatric range limits are determined by changing abiotic conditions along sharp environmental gradients or can result from interspecific resource competition. However, it has been shown that often the interplay of abiotic conditions and species interactions determine parapatry. The geographic ranges of the land salamanders, Salamandra salamandra and S. atra, narrowly overlap in the European Alps with only few syntopic localities and to date, the cause of parapatry is unknown. The goal of this thesis was thus to identify the importance of abiotic and biotic factors for their parapatric range limits at different spatial scales. On a broad spatial scale, the role of climate for the parapatric range limits of the species was investigated within three contact zones in Switzerland. Climatic conditions at species" records were analysed and species distribution modelling techniques were used to explore the species" climatic niches and to quantify the interspecific niche overlap. Furthermore, it was tested whether the parapatric range limit coincides with a strong climatic gradient. The results revealed distinct niches for the species as well as the presence of strong climatic gradients which could explain the parapatric range limits of the species. Yet, there was a moderate interspecific niche overlap in all contact zones indicating that the species may co-occur and interact with each other in areas where they both find adequate conditions. Comparison among contact zones revealed geographic variation in the species" niches as well as in the climatic conditions at their records suggesting that the species can occur in a much wider range of conditions than they actually do. These findings imply that climate represents a main factor for the species" parapatric range limits. Yet, interspecific niche overlap and the geographic variation provide indirect evidence that interspecific interaction may also affect their spatial distribution. To test whether competition restricts the species" ranges on the habitat scale and to understand local syntopic co-occurrence of the salamanders within their contact zones, site-occupancy modelling was used. This approach allowed to find the habitat predictors that best explain the species" local distribution. While the slope of the site positively affected the occupancy probability of S. salamandra, no tested predictor explained that of S. atra. Also, there was no effect of the occurrence of one species on the occupancy probability of the other providing no evidence for competition. Should competition occur, it does not lead to spatial segregation of the species on this scale. Because biotic interactions most significantly affect the ranges of species on small spatial scales, the microhabitat conditions at locations of the species within syntopic contact zones were compared and a null model analysis was applied to determine their niche overlap. Resource selection probability function models were used to assess those attributes that affect the species" habitat selections. The results revealed species-specific microhabitat preferences related to leaf litter cover, tree number and that the species were active at different temperatures as well as times of the day. The high degree of diurnal activity of S. atra may be due to its preference of forest floor microhabitats that long remain suitable during daytime. Besides, there was a great niche overlap for shelters indicating that the species may compete for this resource. Differential habitat selection and the use of the available shelters at different times of the day may minimize species interactions and allow their local co-occurrence within contact zones. To identify whether the potential infection with the pathogenic chytrid fungus could serve as an alternative biotic explanation for the range margins of S. atra, several populations throughout its range were screened for infection. Since the occurrence of this pathogen was detected mostly at lower altitudes of the Alps, it may confine the range of S. atra to higher elevations. Because chytrid was not detected in any of the samples, the pathogen unlikely plays a role in determining its range limits. Overall, these findings underline the complexity of mechanisms that determine the range margins of parapatric species and provide an important basis for subsequent studies regarding the determinants of the parapatric distribution of the two salamander species.
Theodor Fontanes Roman "Unwiederbringlich" ist - so die These dieser Arbeit - ein ganz im Zeichen von Memoria konzipiertes Werk. Fontane erzählt in seinen Geschichten auch immer Geschichte und der Umgang mit Vergangenheit und die Dialektik von Erinnerung und Vergessen spielen eine zentrale Rolle in seinen Texten und in besonderer Weise in Unwiederbringlich. Hier wird ein historischer Raum beschrieben, in dem die traditionellen Formen kultureller Erinnerung ihre Gültigkeit verlieren und die Auseinandersetzung mit kultureller und mit individueller Vergangenheit zunehmend problematisch erscheint. Memoria als identitätsstiftende Kraft konstituiert das Bewusstsein der Figuren in Unwiederbringlich. Das kulturelle Gedächtnis wird zur entscheidenden Handlungsmotivation. Dabei erfährt der Umgang mit Vergangenheit eine Subjektivierung und Perspektivierung durch die einzelnen Figuren und erfüllt nicht mehr die Funktion eines gemeinschaftsstiftenden Gedächtnisses, sondern verursacht gerade auch den Dissens der Figuren. Vor diesem Hintergrund bietet es sich an, Unwiederbringlich vor der Folie aktueller Memoria-Theoreme zu lesen, wie sie z.B. im New Historicism oder in der Diskussion um Archivprozesse thematisiert werden.
Shape optimization is of interest in many fields of application. In particular, shape optimization problems arise frequently in technological processes which are modelled by partial differential equations (PDEs). In a lot of practical circumstances, the shape under investigation is parametrized by a finite number of parameters, which, on the one hand, allows the application of standard optimization approaches, but, on the other hand, unnecessarily limits the space of reachable shapes. Shape calculus presents a way to circumvent this dilemma. However, so far shape optimization based on shape calculus is mainly performed using gradient descent methods. One reason for this is the lack of symmetry of second order shape derivatives or shape Hessians. A major difference between shape optimization and the standard PDE constrained optimization framework is the lack of a linear space structure on shape spaces. If one cannot use a linear space structure, then the next best structure is a Riemannian manifold structure, in which one works with Riemannian shape Hessians. They possess the often sought property of symmetry, characterize well-posedness of optimization problems and define sufficient optimality conditions. In general, shape Hessians are used to accelerate gradient-based shape optimization methods. This thesis deals with shape optimization problems constrained by PDEs and embeds these problems in the framework of optimization on Riemannian manifolds to provide efficient techniques for PDE constrained shape optimization problems on shape spaces. A Lagrange-Newton and a quasi-Newton technique in shape spaces for PDE constrained shape optimization problems are formulated. These techniques are based on the Hadamard-form of shape derivatives, i.e., on the form of integrals over the surface of the shape under investigation. It is often a very tedious, not to say painful, process to derive such surface expressions. Along the way, volume formulations in the form of integrals over the entire domain appear as an intermediate step. This thesis couples volume integral formulations of shape derivatives with optimization strategies on shape spaces in order to establish efficient shape algorithms reducing analytical effort and programming work. In this context, a novel shape space is proposed.
WICHTIGER HINWEIS: Aufgrund eines Computerfehlers bei der Rohdatenaufbereitung, müssen die 5.2.3. Ergebnisse (S. 43 ff.) wie folgt korrigiert werden: Explizite Einstellungsmessung Die Ergebnisse ändern sich inhaltlich: Haupteffekt Wortvalenz F(1, 94) = 51.10, p < .001, η2 = .35, (Mpos= 5.06; Mneg= -28.51); Interaktionseffekt Wortvalenz und kognitive Belastung F(1, 94) = 7.90, p < .01, η2 = .08, (Mpos/load= -5.01; Mpos/kein load= 15.13; Mneg/load= -25.43; Mneg/kein load= -31.75); Haupteffekt Wortnegation F(1, 94) = 8.58, p < .01, η2 = .08, (Mkeine = -7.95; Mnegation= -15.58). Implizite Einstellungsmessung Die Ergebnisse bleiben inhaltlich gleich: Zweifach-Interaktion von Wortvalenz und Prime, F(1, 80) = 4.61, p < .05, η2 = .06, (Mpos/wahr= 20.33; Mpos/falsch= 3.85; Mneg/wahr= 4.44; Mneg/falsch = 14.14). ABSTRACT: Ziel der vorliegenden Arbeit war es Evidenz für die Existenz einer Antonymie-Heuristik bei der Falsifikation valenter Information zu finden. Es wird angenommen, dass die vorherige Ankündigung, dass eine nachfolgende valenzhafte Information falsch ist, zu einer Änderung der Enkodierungsstrategie der valenzhaften Information führt. Dies bedeutet, dass zu der Valenz der gegebenen Information automatisch eine Gegenvalenz oder antonyme Valenz aktiviert werden sollte. Dementsprechend sollten falsche positive Informationen negativer und falsche negative Informationen positiver beurteilt werden als ihre wahren Entsprechungen. In vier Studien konnte dieser Effekt nachgewiesen werden. Die Ankündigung, dass eine valenzhafte Information falsch ist, beeinflusst, unabhängig von kognitiver Belastung, die Valenzübertragung in einem evaluativen Konditionierungsparadigma in vorhergesagter Weise (Experiment1). Ebenso führen generierte Gegenvalenzen, wenn eine Information als falsch angekündigt wurde, zu einem Verarbeitungsvorteil in einer Valenzkategorisierungs-Aufgabe, bei welcher positive Informationen als negativ und negative Informationen als positiv eingeschätzt werden sollten (Experiment 2). Die Ankündigung, dass eine nachfolgende Information falsch ist, führt außerdem dazu, dass positive (negative) Eigenschaften schnell und effizient negativer (positiver) eingeschätzt werden als bei einer Ankündigung der Informationen als wahr (Experiment 3 und 4). Zusammenfassend werden diese Befunde als Evidenz für die Existenz einer Antonymie-Heuristik im Zuge der Falsifikation valenter Information interpretiert.
The overall objective of this thesis was to gain a deeper understanding of the antecedents, processes, and manifestations of uniqueness-driven consumer behavior. To achieve this goal, five studies have been conducted in Germany and Switzerland with a total of 1048 participants across different demographic and socio-economic backgrounds. Two concepts were employed in all studies: Consumer need for uniqueness (CNFU) and general uniqueness perception (GUP). CNFU (Tian, Bearden, & Hunter, 2001), a mainly US"based consumer research concept, measures the individual need, and thus the motivation to acquire, use, and dispose consumer goods in order to develop a unique image. GUP, adapted from the two-component theory of individuality (Kampmeier, 2001), represents a global and direct measure of self-ascribed uniqueness. Study #1 looked at the interrelation of the uniqueness-driven concepts. Therefore, GUP and CNFU were employed in the study as potential psychological factors that influence and predict uniqueness-driven consumer behavior. Different behavioral measures were used: The newly developed possession of individualized products (POIP), the newly developed products for uniqueness display (PFUD), and the already established uniqueness-enhancing behaviors (UEB). Analyses showed that CNFU mediates the relationship between GUP and the behavioral measures in a German speaking setting. Thus, GUP (representing self-perception) was identified as the driver behind CNFU (representing motivation) and the actual consumer behavior. Study #2 examined further manifestations of uniqueness-driven consumer behavior. For this purpose, an extreme form of uniqueness-increasing behavior was researched: Tattooing. The influence of GUP and CNFU on tattooing behavior was investigated using a sample derived from a tattoo exhibition. To do so, a newly developed measure to determine the percentage of the body covered by tattoos was employed. It was revealed that individuals with higher GUP and CNFU levels indeed have a higher tattooing degree. Study #3 further explored the predictive possibilities and limitations of the GUP and CNFU concepts. On the one hand, study #3 specifically looked at the consumption of customized apparel products as mass customization is said to become the standard of the century (Piller & Müller, 2004). It was shown that individuals with higher CNFU levels not only purchased more customized apparel products in the last six months, but also spend more money on them. On the other hand, uniqueness-enhancing activities (UEA), such as travel to exotic places or extreme sports, were investigated by using a newly developed 30-item scale. It was revealed that CNFU partly mediates the GUP and UEA relationship, proving that CNFU indeed predicts a broad range of consumer behaviors and that GUP is the driver behind the need and the behavior. Study #4, entered a new terrain. In contrast to the previous three studies, it explored the so termed "passive" side of uniqueness-seeking in the consumer context. Individuals might feel unique because business companies treat them in a special way. Such a unique customer treatment (UCT) involves activities like customer service or customer relationship management. Study #4 investigated if individuals differ in their need for such a treatment. Hence, with the need for unique customer treatment (NFUCT) a new uniqueness-driven consumer need was introduced and its impact on customer loyalty examined. Analyses, for example, revealed that individuals with high NFUCT levels receiving a high unique customer treatment (UCT) showed the highest customer loyalty, whereas the lowest customer loyalty was found among those individuals with high NFUCT levels receiving a low unique customer treatment (UCT). Study #5 mainly examined the processes behind uniqueness-driven consumer behavior. Here, not only the psychological influences, but also situational influences were examined. This study investigated the impact of a non-personal "indirect" uniqueness manipulation on the consumption of customized apparel products by simultaneously controlling for the influence of GUP and CNFU. Therefore, two equal experimental groups were created. Afterwards, these groups either received an e-mail with a "pro-individualism" campaign or a "pro-collectivism" campaign especially developed for study #5. The conducted experiment revealed that, individuals receiving a "pro-individualism" poster campaign telling the participants that uniqueness is socially appropriate and desired were willing to spend more money on customization options compared to individuals receiving a "pro-collectivism" poster campaign. Hence, not only psychological antecedents such as GUP and CNFU influence uniqueness-driven consumer behavior, but also situational factors.
Diese Dissertation gliedert sich in zehn Kapitel. Nach einem einleitenden Kapitel stelle ich die historischen Rahmenbedingungen der Arbeit der katholischen Missionare in Deutsch-Ostafrika vor (ethnische und soziale Gliederung, wirtschaftliche Lage, Grundzüge der Verwaltung). Dieses Kapitel thematisiert zudem die Situation der in der Kolonie engagierten katholischen Missionsorden und ihrer Missionsmethoden. Das dritte Kapitel untersucht die grundlegenden diskursiven Komponenten des missionarisch-männlichen Selbstverständnisses. Diese Diskurse kontrastieren meistens säkulare Diskurse. Sie bestehen einmal aus der missionarischen Adaption des katholischen Kulturdiskurses, dem christlichen Askesediskurs, modifizierten Rassediskursen, der Übernahme nationalistischer Paradigmen und den diskursiven Abgrenzungsversuchen gegenüber dem geschlechtlichen 'Anderen', repräsentiert durch die Missionsschwestern. Alle die hier untersuchten Diskurse werden in ihrer Entwicklung bestimmt durch eine Wechselwirkung zwischen heimatlichen Vorgaben und kolonialen Erfahrungen. Sie basieren auf einer dichotomischen Unterscheidung zwischen dem religiös, ethnisch und geschlechtlich kodierten 'Eigenen' und 'Anderen' und bilden die Grundlage des missionarischen Eigen- und Fremderlebens. Der vierte Hauptteil der Arbeit untersucht Konstruktionen ethnischer und religiöser Alteritäten auf dem ostafrikanischen Missionsfeld. Zwei Hauptgruppen von Gegnern sind zu unterscheiden: die "Medizinmänner/ Zauberer" und die Vertreter des ostafrikanischen Islam. Teil fünf untersucht die in den Quellen vorgestellten zentralen Methoden der missionarischen Verkündigungsarbeit. Es geht dabei besonders um die Versuche ein konfessionelles Eheideal in einer polygamen Gesellschaft zu verkünden. Zudem werden die Bedeutung der christlichen Caritas für die Konversion der OstafrikanerInnen und die Kinder- und Schulerziehung in den Blick genommen. Das folgende sechste Kapitel behandelt die Frage nach den missionarischen Umwelten und ihrem Einfluss auf die Konstruktion missionarischer Männlichkeiten. Zum einen tritt der Missionar in den Quellen als Eroberer der ostafrikanischen Flora und Fauna auf. Andererseits wird er als ständig Reisender vorgestellt. Zudem zeigen sich in den Quellen diskursive Strategien der symbolischen und repräsentativen Setzung von Heimat (Berichte über die Umstände und Mühen bei Stationsgründungen und über liturgische Feiern). Der siebte Teil der Dissertation untersucht die Wahrnehmung der sozialen Verfasstheiten der traditionellen ostafrikanischen Lebensräume. Wie wurden die OstafrikanerInnen von den Missionaren unter der Perspektive der Intelligenz, ihrer Bildungsfähigkeit und Arbeitsbereitschaft bewertet? Und was waren die Hauptkritikpunkte des missionarischen Moraldiskurses über die Indigenen in der ostafrikanischen Kolonie? Teil acht der Arbeit versucht, die Rolle der eigenen als auch der geschlechtlich und ethnisch anderen Körper für die Konstruktion missionarischer Männlichkeit auszuloten. So soll geklärt werden, wie afrikanische Nacktheit bewertet wurde. Zudem werden traditionelle Körperperformanzen der OstafrikanerInnen wie Gesänge und Tänze im Hinblick auf die Wahrnehmung und Wertung durch die asketisch ausgerichteten Missionare untersucht. Ein dritter Teil dieses Kapitels widmet sich der Bedeutung der Körperhygiene für das missionarische Selbst und den Versuchen, diese Vorgaben auf die koloniale Umwelt zu übertragen. Die Kritik am indigenen Umgang mit dem eigenen Körper findet ihren Höhepunkt in der Beschreibung und moralischen Abwertung afrikanischer Sexualität im Umfeld traditioneller Beschneidungsriten. Eine theoriegeleitete Schlussreflexion wirft einen Blick auf die den Formen missionarischer Männlichkeit zugrunde liegenden Machtkonzepte und ihre Bedeutung im kolonialen System. Dieser Abschnitt der Arbeit versucht eine Zusammenschau der bereits aus den vorhergehenden Kapiteln bekannten Fakten und Ergebnisse. Das letzte Kapitel bietet eine Zusammenfassung der Ergebnisse.
Software and interactive systems that adapt their behavior to the user are often referred to as Adaptive Systems. These systems infer the user's goals, knowledge or preferences by observing the user's actions. A synposis of 43 published studies demonstrated that only few of the existing systems are evaluated empirically. Most studies failed to show an advantage of the user model. A new framework is proposed that categorizes existing studies and defines an evaluation procedure which is able to uncover failures and maladaptations in the user model. It consists of four layers: evaluation of input data, evaluation of inference, evaluation of adaptation decision and evaluation of total interaction. Exemplary, the framework has been applied to the HTML-Tutor, an online-course that adapts to the learners' knowledge. Several empirical studies are described that test the accuracy of the user models, and explore the effects of adaptation to knowledge respectively prior knowledge. Generalization issues of the approach are discussed.
Die Gedächtnispsychologie beschäftigt sich seit geraumer Zeit mit der Erfassung von Bewusstseinszuständen, die Erinnerungen begleiten (Remember/Know Paradigma). Bewusstsein bei sozialer Informationsverarbeitung wurde bisher jedoch kaum thematisiert. Untersucht wurde der Effekt kategorialer Salienz auf das subjektive Erleben von Erinnerungen an Personeneigenschaften, die in verschiedenen Abstufungen mit dem Altersstereotyp kongruent waren (konsistent, inkonsistent, neutral). Die inzidentelle Enkodierung der Eigenschaften erfolgte mittels einer Beurteilungsaufgabe, bei der entweder die Typizität (hohe kategoriale Salienz) oder die Konkretheit des Wortmaterials (niedrige kategoriale Salienz) zu beurteilen war. Es konnten Einflüsse auf das Erinnerungsbewusstsein durch die Salienz der Altersinformation, des Aufmerksamkeitsfokus sowie durch dispositionale Voreingenommenheiten (implizite Personentheorien, Verarbeitungsstile) nachgewiesen werden. Nur bei hoher kategorialer Salienz des Altersstereotyps (Experiment 1) zeigten sich Unterschiede im Erinnerungsbewusstsein. Überdies legt die Untersuchung nahe, dass die stereotypgeleiteten Erinnerungen nach den Prinzipien der Figur/Hintergrund Trennung im Bewusstsein konstruiert werden und der subjektiven Evaluation des Experimentalkontextes eine vermittelnde Rolle zufällt. So ergaben sich die Bewusstseinszustände in Abhängigkeit der Wortgruppierungen (Experiment 2) sowie der Aufmerksamkeitslage während der Enkodierung (Beurteilung der Typizität vs. Untypizität; Experiment 3). Eindrückliche Unterstützung für die Figur/Hintergrund Hypothese konnte in Experiment 4 durch eine perzeptuelle Aufgabe gewonnen werden. Hier sollten die Eigenschaften schnellstmöglich in einem Wortsuchrätsel identifiziert werden. Hohe kategoriale Salienz erleichterte das Auffinden kongruenter Wörter. Sowohl im Rekognitions- als auch im Cued Recall-Test veränderte das aktivierte Stereotyp primär die Remember-Raten. Die Ergebnisse haben damit nicht nur für den Bereich der Personenwahrnehmung neue Erkenntnisse geliefert, sondern auch das psychologische Verständnis von Bewusstsein erweitert. Im Einzelnen erfuhren der Prozessansatz als auch der Distinctiveness/Fluency-Ansatz Bestätigung. Neu konnte ein attributionaler Ansatz formuliert werden, der die subjektive Evaluation des Experimentalkontextes hervorhebt. Hierbei werden unterschiedliche Informationen aus dem experimentellen Geschehen (z.B. spezifische Kognitionen oder das Empfinden von Abrufleichtigkeit) im Sinne einer Heuristik instrumentalisiert, d.h. für die Beurteilung des Alt/Neu-Status und des Bewusstseinszustands eingesetzt. Mit Hilfe von Inhaltsanalysen konnten erstmalig entsprechende Mediatorvariablen identifiziert werden, die den Salienzeffekt auf das Bewusstsein vermitteln (Experiment 3).
Legalisation cannot be fully explained by interest politics. If that were the case, the attitudes towards legalisation would be expected to be based on objective interests and actual policies in France and Germany would be expected to be more similar. Nor can it be explained by institutional agency, because there are no hints that states struggle with different normative traditions. Rather, political actors seek to make use of the structures that already exist to guar-antee legitimacy for their actions. If the main concern of governmental actors really is to accumulate legitimacy, as stated in the introduction, then politicians have a good starting position in the case of legalisation of illegal foreigners. Citizens" negative attitudes towards legalisation cannot be explained by imagined labour market competition; income effects play only a secondary role. The most important explanatory factor is the educational level of each individual. Objective interests do not trigger attitudes towards legalisation, but rather a basic men-tal predisposition for or against illegal immigrants who are eligible for legalisation. Politics concerning amnesties are thus not tied to an objectively given structure like the socio-economic composition of the electorate, but are open for political discretion. Attitudes on legalising illegal immigrants can be regarded as being mediated by beliefs and perceptions, which can be used by political agents or altered by political developments. However, politicians must adhere to a national frame of legitimating strategies that cannot be neglected without consequences. It was evident in the cross-country comparison of political debates that there are national systems of reference that provide patterns of interpretation. Legalisation is seen and incorporated into immigration policy in a very specific way that differs from one country to the next. In both countries investigated in this study, there are fundamental debates about which basic principles apply to legalisation and which of these should be held in higher esteem: a legal system able to work, humanitarian rights, practical considerations, etc. The results suggest that legalisation is "technicized" in France by describing it as an unusual but possible pragmatic instrument for the adjustment of the inefficient rule of law. In Germany, however, legalisation is discussed at a more normative level. Proponents of conservative immigration policies regard it as a substantial infringement on the rule of law, so that even defenders of a humanitarian solution for illegal immigrants are not able to challenge this view without significant political harm. But the arguments brought to bear in the debate on legalisation are not necessarily sound because they are not irrefutable facts, but instruments to generate legitimacy, and there are enough possibilities for arguing and persuading because socio-economic factors play a minor role. One of the most important arguments, the alleged pull effect of legalisation, has been subjected to an empirical investigation. In the political debate, it does not make any dif-ference whether this is true or not, insofar as it is not contested by incontrovertible findings. In reality, the results suggest that amnesties indeed exert a small attracting influence on illegal immigration, which has been contested by immigration friendly politicians in the French par-liament. The effect, however, is not large; therefore, some conservative politicians may put too much stress on this argument. Moreover, one can see legalisation as an instrument to restore legitimacy that has slipped away from immigration politics because of a high number of illegally residing foreigners. This aspect explains some of the peculiarities in the French debate on legalisation, e.g. the idea that the coherence of the law is secured by creating exceptional rules for legalising illegal immigrants. It has become clear that the politics of legalisation are susceptible to manipulation by introducing certain interpretations into the political debate, which become predominant and supersede other views. In this study, there are no signs of a systematic misuse of this constellation by any certain actor. However, the history of immigration policy is full of examples of symbolic politics in which a certain measure has been initiated while the actors are totally aware of its lack of effect. Legalisation has escaped this fate so far because it is a specific instrument that is the result of neglecting populist mechanisms rather than an ex-ample of a superficial measure. This result does not apply to policies concerning illegal immi-gration in general, both with regard to concealing a lack of control and flexing the state- muscles.
Es werden die mathematischen Methoden und algorithmischen Verfahren der Clusteranalyse im Hinblick auf Bedeutungsrepräsentationen untersucht. Im Rahmen der deskriptiven und explorativen Datenanalyse werden die Voraussetzungen und Bedingungen des clusteranalytischen Ansatzes und die Möglichkeiten seiner Anwendung diskutiert, die zur adäquaten Ermittlung und Beschreibung von Gruppierungen von Bedeutungspunkten im semantischen Raum verwendet werden, welche nach räumlicher Lage und topologischen Nachbarschaften den Ähnlichkeiten von Bedeutungen sprachlicher Zeichen in Texten entsprechen. Dabei ist die große Anzahl frei wählbarer Parameter und der Einfluß, den jede Wahl eines der bekannten clusteranalytischen Verfahren in Bezug auf die vorauszusetzenden Vorkenntnisse von der Struktur der zu untersuchenden Daten auf die Güte der erwartbaren Ergebnisse hat, eine bekannte Schwäche der Clusteranalyse. Diese generelle Problematik belastet die Abschätzbarkeit von Erfolg und Adäquatheit unüberwachter Klassifikationsverfahren weit über die quantitativ-linguistischen Untersuchungen in der Gebrauchssemantik hinaus. Deshalb wird ein neues Verfahren entwickelt, welches den analysierten Daten in geringerem Maße als bisher Strukturen aufprägt und in höherem Maße als bisher von den analysierten Daten und ihren Strukturen gesteuert wird.
The daily dose of health information: A psychological view on the health information seeking process
(2021)
The search for health information is becoming increasingly important in everyday life, as well as socially and scientifically relevant Previous studies have mainly focused on the design and communication of information. However, the view of the seeker as well as individual
differences in skills and abilities has been a neglected topic so far. A psychological perspective on the process of searching for health information would provide important starting points for promoting the general dissemination of relevant information and thus improving health behaviour and health status. Within the present dissertation, the process of seeking health information was thus divided into sequential stages to identify relevant personality traits and skills. Accordignly, three studies are presented that focus on one stage
of the process respectively and empirically test potential crucial traits and skills: Study I investigates possible determinants of an intention for a comprehensive search for health information. Building an intention is considered as the basic step of the search process.
Motivational dispositions and self-regulatory skills were related to each other in a structural equation model and empirically tested based on theoretical investigations. Model fit showed an overall good fit and specific direct and indirect effects from approach and avoidance
motivation on the intention to seek comprehensively could be found, which supports the theoretical assumptions. The results show that as early as the formation of intention, the psychological perspective reveals influential personality traits and skills. Study II deals with the subsequent step, the selection of information sources. The preference for basic characteristics of information sources (i.e., accessibility, expertise, and interaction) is related to health information literacy as a collective term for relevant skills and intelligence as a personality trait. Furthermore, the study considers the influence of possible over- or underestimation of these characteristics. The results show not only a different predictive
contribution of health literacy and intelligence, but also the relevance of subjective and objective measurement.
Finally, Study III deals with the selection and evaluation of the health information previously found. The phenomenon of selective exposure is analysed, as this can be considered problematic in the health context. For this purpose, an experimental design was implemented in which a varying health threat was suggested to the participants. Relevant information was presented and the selective choice of this information was assessed. Health literacy was tested
as a moderator in a function of the induced threat and perceived vulnerability, triggering defence motives on the degree of bias. Findings show the importance of the consideration of the defence motives, which could cause a bias in the form of selective exposure. Furthermore, health literacy even seems to amplify this effect.
Results of the three studies are synthesized, discussed and general conclusions are drawn and implications for further research are determined.
Die vorliegende Arbeit untersucht das Bild der "Kernfamilie", das hier definitorisch wie folgt umrissen wurde: Auf einem geschlossenen Bildträger müssen beide Elternteile mit mindestens einem Nachkommen dargestellt sein, in einem reduzierten, nicht-narrativen Kontext. Als Hypothese wurde als Bezeichnung für dieses Bild der Begriff des "dynastischen Familienbildes" gewählt. Der Schwerpunkt lag auf kleinformatigen, nicht-sepulkralen Denkmälern, da gerade bei Grabdenkmälern sowohl regionale Traditionen sowie eine völlig andere Bedeutungsebene zu untersuchen wären. Die Untersuchung der römischen Familie und ihre Beurteilung in literarischen, epigraphischen, juristischen, numismatischen und archäologischen Quellen von der Republik bis in die Spätantike hat ergeben, dass sich einige Entwicklungslinien vom weit gefassten Familienverband der gens hin zur Kernfamilie" fassen lassen. Anders als in der Sepulkralkunst, wo eine ununterbrochene Tradition der Bilder der 'Kernfamilie' von den spätrepublikanischen Freigelassenenreliefs bis zu den Grabmedaillons vor allem in Dakien und Pannonien bis ins 4. Jahrhundert n. Chr. hinein besteht, setzt in der Kleinkunst eine dichte Überlieferung für diese Bilder erst in severischer Zeit ein. Seit dem 3. Jahrhundert wurden nun aber neben den Goldgläsern vor allem Gemmen, Ringe und Kameen mit Bildern der "Kernfamilie" geschaffen. In der Kleinkunst sind Aussagen zur Identifizierung der meist nicht benannten Familien schwierig; trotzdem ist es in den meisten Fällen möglich, die Personen in den Verwandtschaftsverhältnissen zueinander sicher zu bestimmen. Die Bilder folgen klaren Regeln, die in vier Deutungsebenen herausgestellt wurden: Das Deutungsmuster des "formalisierten Familienbildes" verweist auf die Regelhaftigkeit der Bildtypen. Die Anordnung der Personen erfolgte nicht willkürlich, jedem wird der ihm gebührende Platz zugewiesen. Damit ist das Bild auf den ersten Blick erfassbar. Nutzbar gemacht hat man sich bei der Schaffung dieser Bilder bereits bestehende Bildtypen; sie zeigten nämlich Ehepaare, Väter mit Nachkommen, Mütter mit Nachkommen oder nur die Kinder. Die Kleinkunst und die Münzen zeigen die Personen sowohl en face als auch im Profil. Allen gemeinsam ist jedoch die Tatsache, dass die Personen weder mit dem Betrachter, noch untereinander Blickkontakt aufnehmen wollen. Es geht also nicht um die Darstellung einer liebevollen Familie, die sich dem Betrachter präsentieren will und die in irgend einer Form interagiert. Das Bild ist stark repräsentativ und nicht-narrativ; es sollen Werte und Tugenden dargestellt werden. Daher kann von einem "hieratischen Familienbild" gesprochen werden. Der "hierarchische" Charakter zeigt sich, wenn die Rangfolge innerhalb der Familie gezeigt werden sollte. Hierzu dienten nicht nur die Position im Bild, die Anordnung im Verhältnis zu den anderen Familienmitgliedern, sondern auch Tracht und Insignien. Insgesamt kulminieren die Deutungsansätze im "programmatischen Familienbild". Das Bild der "Kernfamilie" ist trotz der sehr reduzierten Form in der Lage, eine Vielzahl an Werten und allgemeingültigen Tugenden zu verdeutlichen; Concordia, aeternitas, fecunditas und pietas sind nur die wichtigsten. Der bedeutsamste hinter den Bildern stehende Gedanke ist der der "Dynastie". Diese Absicht bzw. diese Hoffnung auf Fortdauer der Familie konnte durch das Bild der "Kernfamilie" einfach und wirkungsvoll transportiert werden. Aus diesem Grunde kann von einem "dynastischen Familienbild" gesprochen werden. Es wurde die Hypothese aufgestellt, dass die Bilder der "Kernfamilie" nicht nur als Bilder realer Familien zu deuten sind, sondern auch topischen Charakter haben konnten. Es wird häufig nur ein Familienmitglied benannt, andere Personen werden unter Begriffen wie "cum parentibus" subsummiert. In diesen Fällen ist eine Entscheidung, ob die konkrete Familie gezeigt wird oder ob nur der Wert der Familie allgemein angezeigt werden soll, quasi unmöglich. Nur selten zeigen die dargestellten Personen wirklich individuelle Züge. Es handelt sich dabei aber wohl eher nicht um Porträts, sondern vielmehr um Bilder der "Rolle", welche die jeweilige Person in der Familie inne hatte. Es war also wichtiger, die Eltern von den Kindern unterscheiden zu können, als exakte Gesichtszüge wiederzugeben. Daher scheint es mir legitim zu sein, von einem "Kernfamilientopos" zu sprechen, der aber sehr wohl auch eine reale Familie zeigen kann. Zusammenfassend bleibt festzuhalten, dass es zwar keinen Begriff für die "Kernfamilie" gab, dass man aber nach Auswertung aller Quellen und des "Kernfamilientopos" davon ausgehen kann, dass diese Familieneinheit nicht nur die Lebenswirklichkeit der meisten Menschen darstellte, sondern auch als Symbol für eine ganze Anzahl von Kerntugenden dienen konnte, die für den Fortbestand der Dynastie, nicht nur im kaiserlichen, sondern auch im privaten Bereich, sowie für die Stabilität des Reiches von elementarer Bedeutung waren.
Caenorhabditis elegans Modelsysteme für Freiland und Labor Caenorhabditis elegans ist eines der am intensivsten untersuchten Tiermodelle, dabei weisen die nur unzureichenden Informationen über sein ursprüngliches Habitat eine Vielzahl offener Fragen auf. Deshalb beschäftigt sich der erste Teil vorliegender Arbeit mit einer Überprüfung der Freilandökologie und Biogeographie des Taxons. Nach den Untersuchungen spricht vieles dafür, dass die Ursprungsart der C. elegans Gruppe ein Begleiter von Gastropoden war, welche auch für ihre Ausbreitung häufig verantwortlich sind. Als Folge der Verschleppung durch Wirtstiere (u.a. die Weinbergschnecke Helix aspersa) erreichte sie ihr heutiges Areal, in allen Kontinenten. Ein nicht weniger wichtiges Ziel der vorliegenden Arbeit war die Etablierung von C. elegans als Biotest-System für die Indikation von Chemikalien-Wirkungen. In dieser Arbeit wurden ein ökotoxikologisches Testsystem entwickelt mit den C. elegans als Modellorganismus, das durch Messung von umweltbedingten intrazellulär gebildeten ROS im Gesamtorganismus eine Einschätzung der biologischen Aktivität von Chemikalien und Umweltmedien ermöglichen sollte. Als grundlegender biochemischer Parameter ist eine, die Kapazität der antioxidativen Schutzmechanismen übersteigende, ROS-Bildung ursächlich für oxidative Schädigungen der Zelle verantwortlich und damit Basis für zahlreiche pathologische Effekte. Aus den Resultaten als Bewertungsgrundlage lässt sich folgern, dass sich das erarbeitete Biotestsystem als adäquates Verfahren zur Messung von oxidativem Stress, als Folge exogener Belastung, einsetzen lässt. Damit leistet es einen Beitrag zur Beurteilung des Toxizitätspotentials von Chemikalien und Umweltproben. Zur Eignung des Einsatzes von C. elegans für Toxizitätstest wurden weitere Untersuchungen mit verschiedenen Chemikalien durchgeführt. Dabei ergibt sich bezogen auf molare Einheiten eine immer gleich bleibende Reihenfolge der Sensitivitäten gegenüber BaP > Cu2+ > AcL, ein Ergebnis welches mit Testergebnissen von anderen Versuchsorganismen zu vergleichen war. Die Wirkung von Atrazin auf die Entwicklung von C. elegans wurde auch untersucht. Es wurde festgestellt, dass Atrazin auf Wachstum und Reproduktion von C. elegans konzentrationsabhängig toxisch wirkt. Die bisherigen Ergebnisse zeigen jedoch, dass das Testsystem C. elegans hervorragend geeignet ist, um Chemikalienwirkungen frühzeitig sichtbar zu machen.
The presented research aims at providing a first empirical investigation on lexical structure in Chinese with appropriate quantitative methods. The research objects contain individual properties of words (part of speech, polyfunctionality, polysemy, word length), the relationships between properties (part of speech and polyfunctionality, polyfunctionality and polysemy, polysemy and word length) and the lexical structure composed by those properties. Some extant hypotheses in QL, such as distributions of polysemy and the relationship between word length and polysemy, are tested on the data of Chinese, which enrich the applicability of the laws with a language not tested yet. Several original hypotheses such as the distribution of polyfunctionality and the relationship between polyfunctionality and polysemy are set up and inspected.
Chronische primäre Schmerzen im Kindes- und Jugendalter sind weit verbreitet. Das Risiko für die Chronifizierung von kindlichen Schmerzen erhöht sich, wenn die Eltern selbst unter chronischen Schmerzen leiden. Elterliche kognitiv-affektive und verhaltensbezogene Reaktionen auf die kindlichen Schmerzen spielen eine zentrale Rolle in der Chronifizierung und familialen Transmission der Schmerzen. Welche spezifischen Faktoren die elterlichen Reaktionen auf die kindlichen Schmerzen modulieren, ist bis dato allerdings unklar. Ziel der vorliegenden Dissertation ist daher die Analyse des elterlichen schmerzbezogenen Verhaltens (maladaptive Reaktionen wie Katastrophisieren und Zuwendung) hinsichtlich möglicher modulierender Faktoren sowohl auf Eltern- (top-down-Variablen) als auch auf Kindebene (bottom-up-Variablen). Dafür wurden differenzierende Stichproben generiert und mit Hilfe von validierten Fragebögen befragt. In Studie 1 wurde eine Stichprobe von N = 105 schmerzfreien Elternteilen aus der Allgemeinbevölkerung und N = 80 Elternteilen aus der Allgemeinbevölkerung mit selbstberichteten chronischen Schmerzen erhoben. Die Stichprobe von Studie 2 umfasste N = 118 Elternteile mit chronischen Schmerzen, Angstsymptomen oder beidem sowie deren N = 190 Kinder, in Studie 3 wurden N = 63 Mütter, Väter und Kinder (Eltern-Kind-Triaden mit jeweils N = 21 Müttern, Vätern und Kindern mit der Diagnose einer chronischen Schmerzstörung) befragt. Nach der Überprüfung der Einsetzbarkeit der zentralen Erhebungsinstrumente auch in nicht-klinischen Samples wurden in Studie 1 die Reaktionen von schmerzfreien Eltern und Eltern mit selbstberichteten chronischen Schmerzen auf die Schmerzen ihrer Kinder mit anderen Stichproben sowie untereinander verglichen. Die Analyse der Einflüsse von top-down- und bottom-up-Variablen (elterliche und kindliche Schmerz- und Angstsymptomatik, elterliche und kindliche Somatisierung bzw. schmerzbezogene Beeinträchtigung sowie Alter und Geschlecht von Eltern und Kindern) auf die elterlichen
maladaptiven Reaktionen wurde in Studie 2 und Studie 3 mit Hilfe von hierarchisch linearen Modellen durchgeführt. Die Ergebnisse zeigen, dass Eltern von Kindern mit chronischen
Schmerzen grundsätzlich stärker katastrophisierten als Eltern von gesunden Kindern. Außerdem zeigte sich, dass insbesondere top-down-Variablen wie elterliche Angst das Katastrophisieren und die Zuwendung der Eltern verstärken. Bottom-up-Variablen erwiesen sich ausschließlich in der Interaktion von kindlicher Schmerz- und Angstsymptomatik als verstärkender Faktor für die Katastrophisierungsneigung der Eltern. Demnach scheinen zentrale modulierende Faktoren für kognitiv-affektive und verhaltensbezogene elterliche Reaktionen im Kontext der Chronifizierung von kindlichen chronischen Schmerzen vor allem top-down-Variabeln wie die elterliche Katastrophisierungsneigung und Angstsymptomatik zu sein. Als potentielle Risikogruppen für die Entwicklung von chronischen Schmerzen lassen sich so neben Kindern von Eltern mit eigenen chronischen Schmerzen auch Kinder von Eltern mit Angststörungen und erhöhter Katastrophisierungsneigung benennen. Daher sollte die Elternrolle in Therapien von Erwachsenen eine ausreichende Berücksichtigung finden, um eine Reduktion der maladaptiven Reaktionen auf die Kinder zu erreichen und so einer Entwicklung von chronischen Schmerzen vorzubeugen. Auch die psychoedukative Einbindung der Eltern in die kindliche Schmerztherapie erscheint aufgrund der vorliegenden Ergebnisse unabdingbar, vor allem wenn die Kinder neben den chronischen Schmerzen auch unter komorbiden psychischen Störungen wie beispielsweise Angststörungen leiden.
A big challenge for agriculture in the 21st century is the provision of food safety to fast growing world- population, which not only demands the well utilisation of the available agricultural resources but also to develop new advancements in the mass production of food crops. Wheat is the third largest food crop of the world and Pakistan is the eighth largest wheat producing country globally. Rice is the second most important staple food of Pakistan after wheat, grown in all provinces of the country. Maize is the world- top ranking food crop followed by wheat and rice. The harvested produts have to be stored in different types of storage structures on small or large scale for food as well as seed purpose. In Pakistan, the harvested grains are stored for the whole year till the introduction of fresh produce in order to ensure the regular food supply throughout the year. However, it is this extended storage period making the commodity more vulnerable to insect attacks. Rhyzopertha dominica (Coleoptera: Bostrychidae), Cryptolestes ferrugineus (Coleoptera: Laemophloeidae), Tribolium castaneum (Coleoptera: Tenebrionidae) and Liposcelis spp. (Psocoptera: Liposcelididae) are the major and most damaging insect pests of stored products all around the world. Various management strategies have been adopted for stored grain insect pests mostly relying upon the use of a broad spectrum of insecticides, but the injudicious use of these chemicals raised various environmental and human health related issues, which necessitate the safe use of the prevailing control measures and evaluation of new and alternative control methods. The application of new chemical insecticides, microbial insecticides (particularly entomopathogenic fungi) and the use of inert dusts (diatomaceous earths) is believed amongst the potential alternatives to generally used insecticides in stored grain insect management system. In the current investigations, laboratory bioassays conducted to evaluate the effects of combining Imidacloprid (new chemistry insecticide) with and without Protect-It (diatomaceous earth formulation) against R. dominica, L. paeta, C. ferrugineus and T. castaneum, on three different grain commodities (i.e. wheat, maize and rice) revealed differences in adult mortality levels among grains and insect species tested. Individually, Imidacloprid was more effective as compared with Protect-It alone and the highest numbers of dead adults were recorded in wheat. The insecticidal efficacy of B. bassiana with Protect-It and DEBBM was also assessed against all test insect species under laboratory conditions. The findings of these studies revealed that the more extended exposure period and the higher combined application rate of B. bassiana and DEs provided the highest mortality of the test insect species. The progeny emergence of each insect species was also greatly suppressed where the highest dose rates of the combined treatments were applied. The residual efficacy of all three control measures Imidacloprid, B. bassiana and DEBBM formulation was also evaluated against all test insect species. The bioassays were carried out after grain treatments and monthly for 6 months. The results indicated that the adult mortality of each test insect species was decreased within the six month storage period, and the integarted application of the test grain protectants enhanced the mortality rates than their alone treatments. The maximum mortality was noted in the combined treatment of DEBBM with Imidacloprid. At the end, the effectiveness of B. bassiana, DEBBM and Imidacloprid applied alone as well as in combinations, against all above mentioned test insect species was also evaluated under field conditions in trials conducted in four districts of Punjab, Pakistan. For each district, a significant difference was observed between treatments, while the combined treatments gave better control of test species as compared with them alone. The least number of surviving adults and minimum percentage of grain damage was observed for the DEBBM and Imidacloprid combination, but DEBBM with B. bassiana provided the best long-term protection as compared with the remaining treatments.
Amphibien sind weltweit stark bedroht, was neben anderen Gründen auch durch Umweltverschmutzung bedingt scheint, wobei hier oft der vermehrte Einsatz von Agrochemikalien hervorgehoben wird. Obwohl landwirtschaftlich genutzte Gebiete meistens stark anthropogen verändert sind, beherbergen sie dennoch viele Amphibienpopulationen. Diese müssen hier oftmals persistieren, weil ihre ursprünglichen Lebensräume für die Landwirtschaft umgestaltet wurden und werden. Neben direkter Habitatzerstörung und "degradierung sowie mechanischen Bearbeitungsprozessen in der Landwirtschaft kann sich der Einsatz von Agrochemikalien, insbesondere von Pestiziden, stark negativ auf die dortigen Amphibien auswirken. Zwar sind aufgrund mangelnder Datenlage bisher keine kausalen Zusammenhänge zwischen Populationsrückgängen und Pestizideinsätzen nachgewiesen, jedoch können Amphibien über verschiedene direkte und indirekte Wege geschädigt werden. Eine Vielzahl von Studien zeigte bereits unterschiedlichste adverse Effekte auf der Individualebene. In der vorliegenden Arbeit wurden wichtige Fragestellungen zu diesem Themengebiet aufgegriffen. Der potenzielle Einfluss von Pestizideinsätzen auf Amphibien, besonders im Freiland, stellt ein komplexes Arbeitsfeld dar, so dass verschiedene methodische Ansätze angewendet wurden, um auf verschiedene Fragestellungen einzugehen. Im ersten Teil der vorliegenden Arbeit wurden zwei methodisch unterschiedliche Risikobewertungen durchgeführt. Es wurde auf die Fragestellung eingegangen, welche Effekte von glyphosatbasierten Herbiziden, welche weltweit den größten Absatz besitzen, auf Amphibien dokumentiert sind und welche Endpunkte am besten geeignet sind, um adverse Effekte nachzuweisen. Dazu wurde eine systematische Literaturübersicht und Meta-Analyse aller publizierten Studien durchgeführt. In einer zweiten Risikobewertung wurde ein GIS-basierter Ansatz angewendet, um das Expositionsrisiko der Amphibienarten des Anhangs II der europäischen Fauna-Flora-Habitat-Richtlinie (Arten von gemeinschaftlichem Interesse) gegenüber Pestiziden in ihren speziell ausgewiesenen Schutzgebieten abzuschätzen. Im zweiten Teil der vorliegenden Arbeit wurden Laborexperimente mit Embryonen und Larven zweier Anuren-Modellorganismen und einem, amphibientoxikologisch bisher noch nicht untersuchten und häufig angewendeten, Herbizid durchgeführt. Der dritte Teil der vorliegenden Arbeit beinhaltet die Ergebnisse zweier Freilandstudien. Es wurde überprüft, ob Anurenlarven aufgrund der Wahrscheinlichkeit der Ausbildung von Deformationen (was im Labor einen gut studierten Endpunkt darstellt) als Bioindikatoren für die Belastung von Kleingewässern mit Agrochemikalien geeignet sind. In der zweiten Freilandstudie wurde überprüft, ob drei einheimische Amphibienarten Kleinstgewässer meiden, welche mit umweltrelevanten Konzentrationen verschiedener Stoffe kontaminiert wurden. Im rechtswissenschaftlichen Teil der Arbeit wurde darauf eingegangen, wie hoch die unterschiedlichen Umsetzungsstandards der europäischen Wasserrahmenrichtlinie respektive des nationalen Wasserhaushaltsgesetzes in den Ländern bezüglich des Schutzes von Kleingewässern, welche fast alle heimischen Amphibienarten zur Reproduktion benötigen, durch Gewässerrandstreifenschutz ist.
In der modernen Survey-Statistik treten immer häufifiger Optimierungsprobleme auf, die es zu lösen gilt. Diese sind oft von hoher Dimension und Simulationsstudien erfordern das mehrmalige Lösen dieser Optimierungsprobleme. Um dies in angemessener Zeit durchführen zu können, sind spezielle Algorithmen und Lösungsansätze erforderlich, welche in dieser Arbeit entwickelt und untersucht werden. Bei den Optimierungsproblemen handelt es sich zum einen um Allokationsprobleme zur Bestimmung optimaler Teilstichprobenumfänge. Hierbei werden neben auf einem Nullstellenproblem basierende, stetige Lösungsmethoden auch ganzzahlige, auf der Greedy-Idee basierende Lösungsmethoden untersucht und die sich ergebenden Optimallösungen miteinander verglichen.Zum anderen beschäftigt sich diese Arbeit mit verschiedenen Kalibrierungsproblemen. Hierzu wird ein alternativer Lösungsansatz zu den bisher praktizierten Methoden vorgestellt. Dieser macht das Lösen eines nichtglatten Nullstellenproblemes erforderlich, was mittels desrnnichtglatten Newton Verfahrens erfolgt. Im Zusammenhang mit nichtglatten Optimierungsalgorithmen spielt die Schrittweitensteuerung eine große Rolle. Hierzu wird ein allgemeiner Ansatz zur nichtmonotonen Schrittweitensteuerung bei Bouligand-differenzierbaren Funktionen betrachtet. Neben der klassischen Kalibrierung wird ferner ein Kalibrierungsproblem zur kohärenten Small Area Schätzung unter relaxierten Nebenbedingungen und zusätzlicher Beschränkung der Variation der Designgewichte betrachtet. Dieses Problem lässt sich in ein hochdimensionales quadratisches Optimierungsproblem umwandeln, welches die Verwendung von Lösern für dünn besetzte Optimierungsprobleme erfordert.Die in dieser Arbeit betrachteten numerischen Probleme können beispielsweise bei Zensen auftreten. In diesem Zusammenhang werden die vorgestellten Ansätze abschließend in Simulationsstudien auf eine mögliche Anwendung auf den Zensus 2011 untersucht, die im Rahmen des Zensus-Stichprobenforschungsprojektes untersucht wurden.
Die Renaissance und die frühe Neuzeit sind entscheidende Phasen für die Entstehung der modernen Naturwissenschaften " und weisen gleichzeitig Merkmale auf, die zunächst ganz und gar nicht wissenschaftlich erscheinen. Dies gilt insbesondere für die Weltbilder, denen die Forscher dieser Zeit verhaftet waren und für die Methoden, mit denen sie zu wissenschaftlichen Erkenntnissen gelangten. Nachvollziehen lässt sich dieser Befund bei Paracelsus, Robert Boyle und Isaac Newton. Sie alle haben die Wissenschaft vorangetrieben und ihr zu neuen Einsichten verholfen. Ihre Vorgehensweise war dabei weder einheitlich noch im heutigen Sinne streng wissenschaftlich " es genügt zu sagen, dass alle drei sich ernsthaft mit der Alchemie beschäftigt haben. Der Alchemie liegt eine ganz andere Weltanschauung zugrunde als der sich entwickelnden modernen Naturwissenschaft: Magische Wechselwirkungen, Entsprechungen und Ähnlichkeiten sowie Kräfte wie Sympathien und Antipathien sind unumstrittene Grundelemente. Das Weltbild der modernen Naturwissenschaften wird dagegen zunehmend mechanisiert und quantifiziert " mit dem Ziel, alles auf rein mechanische Wechselwirkungen zwischen den atomaren Bausteinen der Materie zu reduzieren. Die naturwissenschaftlichen Erklärungen und Hypothesen, die innerhalb dieser beiden unterschiedlichen Weltbilder entstanden sind, waren demzufolge grundsätzlich voneinander verschieden. Gleiches gilt für die Methoden, die jeweils als adäquate Mittel des Erkenntniserwerbs akzeptiert wurden. Die Beurteilung von Forschern, die sich mit Alchemie beschäftigt haben, ist daher nicht immer einfach. Gerade das Verhältnis von alchemistischer und anerkannt wissenschaftlicher Forschung verlangt eine differenzierte Untersuchung. Wie kann man sowohl Newtons Interesse für Alchemie als auch seinen quantitativ-mathematischen Erkenntnissen Rechnung tragen und dennoch zu einem einheitlichen Bild kommen? Müssen beide Bereiche getrennt betrachtet werden " und damit eindeutig in "wissenschaftlich" und "unwissenschaftlich" geschieden werden " oder kann es sein, dass sich beides gegenseitig befruchtet hat? Die vorliegende Dissertation versucht zu zeigen, dass der eigentümliche weltanschauliche und methodologische Pluralismus der Renaissance und der frühen Neuzeit die Wissenschaft in vieler Hinsicht bereichert hat. So verschieden die zur Debatte stehenden Weltbilder waren, so reich war auch das Repertoire an unterschiedlichen Erfahrungstatsachen, Erklärungsmustern, theoretischen Begriffen und wissenschaftlichen Methoden, das sie zur Verfügung stellten. In diesem Sinne lässt sich feststellen, dass Paracelsus, Boyle und Newton nicht wissenschaftliche Erfolge erzielten, obwohl sie Alchemisten waren, sondern auch weil sie es waren.
Sample surveys are a widely used and cost effective tool to gain information about a population under consideration. Nowadays, there is an increasing demand not only for information on the population level but also on the level of subpopulations. For some of these subpopulations of interest, however, very small subsample sizes might occur such that the application of traditional estimation methods is not expedient. In order to provide reliable information also for those so called small areas, small area estimation (SAE) methods combine auxiliary information and the sample data via a statistical model.
The present thesis deals, among other aspects, with the development of highly flexible and close to reality small area models. For this purpose, the penalized spline method is adequately modified which allows to determine the model parameters via the solution of an unconstrained optimization problem. Due to this optimization framework, the incorporation of shape constraints into the modeling process is achieved in terms of additional linear inequality constraints on the optimization problem. This results in small area estimators that allow for both the utilization of the penalized spline method as a highly flexible modeling technique and the incorporation of arbitrary shape constraints on the underlying P-spline function.
In order to incorporate multiple covariates, a tensor product approach is employed to extend the penalized spline method to multiple input variables. This leads to high-dimensional optimization problems for which naive solution algorithms yield an unjustifiable complexity in terms of runtime and in terms of memory requirements. By exploiting the underlying tensor nature, the present thesis provides adequate computationally efficient solution algorithms for the considered optimization problems and the related memory efficient, i.e. matrix-free, implementations. The crucial point thereby is the (repetitive) application of a matrix-free conjugated gradient method, whose runtime is drastically reduced by a matrx-free multigrid preconditioner.
Die vorliegende Meta-Analyse zeigt eindeutig, dass von Familienmitgliedern geführte Familienunternehmen eine schlechtere Performance aufweisen als Unternehmen, die von Managern geleitet werden, die der Inhaberfamilie nicht angehören. Basierend auf uni- und multivariaten Analysen von 270 wissenschaftlichen Publikationen aus 42 verschiedenen Ländern, wurde die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen untersucht. Das erste robuste Ergebnis zeigt eindeutig, dass Familienunternehmen hinsichtlich der Performance Nicht-Familienunternehmen übertreffen. Dieses Ergebnis ist im Einklang mit den meisten Primärstudien und früheren Meta-Analysen. Das zweite Ergebnis dieser Arbeit kann dem "Finance"-Forschungszweig zugeordnet werden und basiert auf der Unterscheidung von Markt- und Accounting-Performance-Kennzahlen. Markt-Performance-Kennzahlen, welche durch Analysten errechnet werden, zeigen, dass Familienunternehmen Nicht-Familienunternehmen hinsichtlich der Performance unterlegen sind. Dieses Ergebnis steht im Gegensatz zu den Accounting-Performance-Kennzahlen, welche von den Familienunternehmen selbst in ihren von Wirtschaftsprüfern freigegebenen Bilanzen veröffentlicht wurden. Die dritte Forschungsfrage untersucht im Detail, ob die Zusammensetzung des Datensatzes in Primärstudien das Gesamtergebnis in eine bestimmte Richtung verzerrt. Das Ergebnis wird nicht durch Datensätzen mit Unternehmen, welche öffentlich gelistet, im produzieren Gewerbe tätig oder Technologie getriebene Unternehmen, sind getrieben. Kleine und Mittlere Unternehmen (KMU) veröffentlichen kleinere Kennzahlen und reduzieren somit die Höhe der abhängigen Variable. Das vierte Ergebnis gibt eine Übersicht über die Art und Weise der Beteiligung der Familie an der Aufsicht oder dem operativen Geschäft des Unternehmens. Dieses Ergebnis zeigt klar, dass Manager aus Familien einen signifikanten negativen Einfluss auf die Performance des Unternehmens haben. Dies kann auf die Erhaltung des Wohlstandes der Familienmitglieder zurückzuführen sein und somit spielen finanzielle Kennzahlen keine vordergründige Rolle. Die letzte Forschungsfrage untersucht, ob die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen auch durch institutionelle Faktoren beeinflusst wird. In Europa zeigen die Familienunternehmen im Vergleich zu Nordamerika eine geringere Performance hinsichtlich der Kennzahlen. Das ist darauf zurückzuführen, dass europäische Unternehmen im Vergleich zu nordamerikanischen unterbewertet sind (Caldwell, 07.06.2014). Darüber hinaus zeigen Familienunternehmen im Vergleich zu Nicht-Familienunternehmen eine bessere Performance in eher maskulin geprägten Kulturen. Maskulinität, ist nach Hofstede, gekennzeichnet durch höhere Wettbewerbsorientierung, Selbstbewusstsein, Streben nach Wohlstand und klar differenzierte Geschlechterrollen. Rechtsregime hingegen (Common- oder Civil-Law) spielen im Performance-Zusammenhang von Familienunternehmen keine Rolle. Die Durchsetzbarkeit der Gesetze hat jedoch einen signifikanten positiven Einfluss auf die Performance von Familienunternehmen im Vergleich zu Nicht-Familienunternehmen. Dies ist damit zu begründen, dass die Kosten für Kredite in Länder mit einer sehr guten Durchsetzbarkeit von Gesetzen für Familienunternehmen geringer sind.
In dieser Abhandlung wird die Stellung der Mädchenbildung in der staatlichen Bildungspolitik in der Phase verdichteter staatlicher Reformbestrebungen an der Wende vom 18. zum 19. Jahrhundert untersucht. Dazu wird ein Vergleich zwischen der preußischen Kurmark und dem Land Österreich unter der Enns in Österreich durchgeführt.
Optimal control problems are optimization problems governed by ordinary or partial differential equations (PDEs). A general formulation is given byrn \min_{(y,u)} J(y,u) with subject to e(y,u)=0, assuming that e_y^{-1} exists and consists of the three main elements: 1. The cost functional J that models the purpose of the control on the system. 2. The definition of a control function u that represents the influence of the environment of the systems. 3. The set of differential equations e(y,u) modeling the controlled system, represented by the state function y:=y(u) which depends on u. These kind of problems are well investigated and arise in many fields of application, for example robot control, control of biological processes, test drive simulation and shape and topology optimization. In this thesis, an academic model problem of the form \min_{(y,u)} J(y,u):=\min_{(y,u)}\frac{1}{2}\|y-y_d\|^2_{L^2(\Omega)}+\frac{\alpha}{2}\|u\|^2_{L^2(\Omega)} subject to -\div(A\grad y)+cy=f+u in \Omega, y=0 on \partial\Omega and u\in U_{ad} is considered. The objective is tracking type with a given target function y_d and a regularization term with parameter \alpha. The control function u takes effect on the whole domain \Omega. The underlying partial differential equation is assumed to be uniformly elliptic. This problem belongs to the class of linear-quadratic elliptic control problems with distributed control. The existence and uniqueness of an optimal solution for problems of this type is well-known and in a first step, following the paradigm 'first optimize, then discretize', the necessary and sufficient optimality conditions are derived by means of the adjoint equation which ends in a characterization of the optimal solution in form of an optimality system. In a second step, the occurring differential operators are approximated by finite differences and the hence resulting discretized optimality system is solved with a collective smoothing multigrid method (CSMG). In general, there are several optimization methods for solving the optimal control problem: an application of the implicit function theorem leads to so-called black-box approaches where the PDE-constrained optimization problem is transformed into an unconstrained optimization problem and the reduced gradient for these reduced functional is computed via the adjoint approach. Another possibilities are Quasi-Newton methods, which approximate the Hessian by a low-rank update based on gradient evaluations, Krylov-Newton methods or (reduced) SQP methods. The use of multigrid methods for optimization purposes is motivated by its optimal computational complexity, i.e. the number of required computer iterations scales linearly with the number of unknowns and the rate of convergence, which is independent of the grid size. Originally multigrid methods are a class of algorithms for solving linear systems arising from the discretization of partial differential equations. The main part of this thesis is devoted to the investigation of the implementability and the efficiency of the CSMG on commodity graphics cards. GPUs (graphic processing units) are designed for highly parallelizable graphics computations and possess many cores of SIMD-architecture, which are able to outperform the CPU regarding to computational power and memory bandwidth. Here they are considered as prototype for prospective multi-core computers with several hundred of cores. When using GPUs as streamprocessors, two major problems arise: data have to be transferred from the CPU main memory to the GPU main memory, which can be quite slow and the limited size of the GPU main memory. Furthermore, only when the streamprocessors are fully used to capacity, a remarkable speed-up comparing to a CPU is achieved. Therefore, new algorithms for the solution of optimal control problems are designed in this thesis. To this end, a nonoverlapping domain decomposition method is introduced which allows the exploitation of the computational power of many GPUs resp. CPUs in parallel. This algorithm is based on preliminary work for elliptic problems and enhanced for the application to optimal control problems. For the domain decomposition into two subdomains the linear system for the unknowns on the interface is solved with a Schur complement method by using a discrete approximation of the Steklov-Poincare operator. For the academic optimal control problem, the arising capacitance matrix can be inverted analytically. On this basis, two different algorithms for the nonoverlapping domain decomposition for the case of many subdomains are proposed in this thesis: on the one hand, a recursive approach and on the other hand a simultaneous approach. Numerical test compare the performance of the CSMG for the one domain case and the two approaches for the multi-domain case on a GPU and CPU for different variants.
Verfuegen die USA ueber eine Sicherheitsstrategie fuer Suedostasien? Die grosse Mehrheit der Experten vertritt die Auffassung, dass sich die Politik Washingtons vor allem an tagespolitischen Erfordernissen orientiert. Entscheidungen werden demnach ad hoc gefaellt. Unklar ist dabei, von welchen Kriterien solche Bewertungen abhaengig gemacht werden: Was ist eine Strategie? An diesem Punkt setzt die vorliegende Abhandlung an und kommt zu dem Ergebnis, dass das Verhalten der USA in Suedostasien sicherheitsstrategischen Kriterien gerecht wird. Die Dissertation soll in drei Gebieten einen Beitrag zum Forschungsstand der politikwissenschaftlichen Teildisziplin der Internationalen Beziehungen leisten: Fuer den Begriff der Strategie werden, erstens, konkrete Messkriterien entwickelt. Innerhalb des realistischen Paradigmas wird, zweitens, der Forschungsstrang des funktionalen offensiven Realismus herausgearbeitet. Gezeigt wird, dass eine Akteursoeffnung auch unter systemischen Bedingungen moeglich ist, wozu methodisch die Instrumente der Impulsverarbeitung und Impulsumsetzung entwickelt werden. Der dabei entstandene idealtypische, theoretisch aufgeladene Strategiebegriff wird so formuliert, dass er fuer weitere Arbeiten, die sich mit staatlicher Sicherheitspolitik befassen, verwendbar ist. Empirisch traegt die Dissertation, drittens, zur Aufarbeitung des amerikanisch-chinesischen Wettbewerbs um Macht und Einfluss in Suedostasien bei. Dabei werden saemtliche bilateralen Beziehungen Chinas und der USA im ASEAN-Raum analysiert und aufeinander bezogen.
Erschöpfung ist ein prominentes, unspezifisches Symptom mit vielfältigen Begleitsymptomen (z. B. Schmerzen, Schlafstörungen, Reizbarkeit, Niedergeschlagenheit). Gängige Konzepte erschöpfungsbezogener Erkrankungen und Syndrome werden häufig in Bezug auf ihre Differenzierungskraft oder Struktur kritisiert. Die Ursachen für die Entstehung von Erschöpfung sind vielfältig und die Behandlung kann nur mit gründlicher Differentialdiagnostik erfolgen. Anhand adaptionsbezogener Stressmodelle kann die Entstehung von Erschöpfung beschrieben und in drei Formen eingeteilt werden (I: reversibel, II: prädispositioniert und III: emotional-dysregulativ). Poststress-Symptome (z. B. "Wochenend-Migräne", "UrlaubsInfekte") stellen möglicherweise eine Erschöpfungsform dar, welche durch eine zentrale Entleerung der Noradrenalin-Spiegel bedingt ist. In der vorliegenden Arbeit wurden die Verlässlichkeit der Neuropattern-Erschöpfungsskala, sowie der Zusammenhang von Erschöpfung, Stress, dem Langzeit-Gesundheitsstatus und Poststress-Symptomen geprüft. Hierzu wurden Daten ambulanter und stationärer Patienten und Mitarbeitern verwendet, die an einer randomisierten klinischen Studie zur Neuropattern-Diagnostik teilnahmen. Zusätzlich wurden Daten von gesunden Personen zur Erhebung einer Normstichprobe verwendet. Die Neuropattern-Erschöpfungsskala zeigte sich als reliables und valides Maß. Sie war Indikator für direkte, indirekte und intangible Gesundheitskosten (z. B. erhöhte Arzt-, Therapeutenbesuche, Medikamenteneinnahme und Arbeitsunfähigkeit, reduziertes psychisches und physisches Wohlbefinden). Es zeigte sich, dass sowohl Stress, als auch Erschöpfung den Gesundheitszustand über den Verlauf von zwölf Monaten vorhersagt. Bemerkenswert ist, dass der Zusammenhang zwischen Stress und dem Langzeit-Gesundheitszustand vornehmlich durch Erschöpfung vermittelt wurde. Schließlich wurde die Prävalenz von Poststress-Symptomen bei gesunden Personen (2.9%), ambulanten (20%) und stationären Patienten (34,7%) bestimmt. Auch hier war nicht Stress der stärkste Prädiktor für das Auftreten von Poststress-Symptomen, sondern Erschöpfung. Modelle der psychophysiologischen Stressreaktion können die Entstehung von Erschöpfung erklären und die Diagnostik und Behandlung stressbezogener Gesundheitsstörungen verbessern. Die vorgestellte Neuropattern-Erschöpfungsskala ist dabei ein verlässliches und für die Praxis gut geeignetes Instrument, welches zur Indikation und Validierung präventiver und therapeutischer Maßnahmen eingesetzt werden kann. Je nach Erschöpfungsform bieten sich verschiedene Maßnahmen des regenerativen, instrumentellen oder kognitiven Stressmanagements, Nahrungsergänzungsmittel und Pharmakotherapie an.