Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (831)
- Wissenschaftlicher Artikel (219)
- Buch (Monographie) (113)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (108)
- Arbeitspapier (62)
- Teil eines Buches (Kapitel) (22)
- Ausgabe (Heft) zu einer Zeitschrift (22)
- Konferenzveröffentlichung (17)
- Sonstiges (16)
- Rezension (10)
Sprache
- Deutsch (840)
- Englisch (517)
- Französisch (75)
- Mehrsprachig (15)
- Russisch (1)
Schlagworte
- Deutschland (82)
- Luxemburg (52)
- Stress (40)
- Schule (37)
- Schüler (33)
- Politischer Unterricht (29)
- Modellierung (28)
- Fernerkundung (25)
- Geschichte (24)
- Demokratie (23)
Institut
- Raum- und Umweltwissenschaften (213)
- Psychologie (212)
- Politikwissenschaft (132)
- Universitätsbibliothek (82)
- Rechtswissenschaft (77)
- Wirtschaftswissenschaften (66)
- Mathematik (65)
- Fachbereich 4 (57)
- Medienwissenschaft (57)
- Fachbereich 6 (50)
- Geschichte, mittlere und neuere (45)
- Fachbereich 1 (36)
- Fachbereich 3 (34)
- Informatik (31)
- Germanistik (28)
- Fachbereich 2 (26)
- Kunstgeschichte (23)
- Anglistik (21)
- Soziologie (20)
- Computerlinguistik und Digital Humanities (10)
- Philosophie (10)
- Romanistik (9)
- Fachbereich 5 (6)
- Pädagogik (6)
- Allgemeine Sprach- und Literaturwissenschaft (5)
- Ethnologie (5)
- Geschichte, alte (5)
- Klassische Philologie (4)
- Sinologie (4)
- Japanologie (3)
- Archäologie (2)
- Phonetik (2)
- Servicezentrum eSciences (2)
- Forschungszentrum Europa (1)
- Pflegewissenschaft (1)
- Slavistik (1)
- Theologische Fakultät (1)
Das Intranet als Forum der innerbetrieblichen Kommunikation in wissenschaftlichen Bibliotheken
(2005)
Das Intranet als Kommunikationsmittel in wissenschaftlichen Bibliotheken wird hier hinsichtlich der Einsatzmöglichkeiten, der Vor- und Nachteile beleuchtet und aus der Sicht der Leitung und Führung bewertet. Als ein Anwendungsbeispiel wird das Intranet der Universitätsbibliothek Trier auf dem Stand November 2005 vorgestellt.
The allergic contact dermatitis (ACD) to small molecular weight compounds is a common inflammatory skin reaction. ACD is restricted to industrialized countries, has an enormous sociomedical and socioeconomic impact. About 2,800 compounds from the six million chemicals known in our environment are believed to have allergic, and to a lesser degree also contact-sensitizing or immunogenic properties causing allergic contact dermatitis. ACD results from T cell responses to harmless, low molecular weight chemicals (haptens) applied to the skin. Haptens are not directly recognized by the cells of the immune system. They need to be presented by subsets of antigen presenting cells to the cells of the immune system. In this regard, epidermal Langerhans cells (LC) and the cells into which they mature (dendritic cells) are believed to play a pivotal role in the sensitization process for ACD. LC are able to bind the haptens, internalize them, and present them to naive T cells and induce thereby the development of effector T cells. They are so-called professional antigen presenting cells. This process is initiated and maintained by the release of several mediators, which are released by various cells after their contact with the haptens. One of the first proteins secreted into the environment is interleukin (IL)-1ß. This cytokine is produced and secreted minutes after an antigen enters the cell. It is commonly believed that the large amounts of this protein and other cytokines such as granulocyte-colony stimulation factor (GM-CSF) and tumor necrosis factor alpha (TNF-ï¡) needed for the initiation and activation of ACD are coming first from other cells residing in the skin, e.g., keratinocytes, monocytes and macrophages. These cytokines provide the danger signals needed for the activation of the Langerhans cell (LC), which then produce via a positive feedback loop various cytokines themselves. In addition, other proteins such as chemokines influence the generation of danger signals, migration, homing of T cells in the local lymph nodes as well as the recruitment of T cells into the skin. Thus, a small molecular compounds or hapten needs to be able to induce danger signals in order to become immunogenic. In this study, we investigated whether para-phenylenediamine (PPD), an arylamine and common contact allergen, is able to induce danger signals and likely provide the signals needed for an initiation of an immune response[162, 163]. PPD is used as an antioxidant, an ingredient of hair dyes, intermediate of dyestuff, and PPD is found in chemicals used for photographic processing. But up to date, it has not been clearly demonstrated if PPD itself is a sensitizing agent. Thus, this study aimed on the potential of PPD to provide the danger signals by studying IL-1β, TNF-ï¡, and monocyte chemoattractant proteins (MCP-1) in human monocytes, peripheral blood mononuclear cells (PBMC) from healthy volunteers, and also in two human monocyte cell lines namely U937, and THP-1. This study found that PPD decreased dose- and time-dependently the expression and release of three relevant mediators involved in the generation of danger signals. Namely, PPD reduced the mRNA and protein levels for IL-1ß, TNF-ï¡, and MCP-1 in primary human monocytes from various donors. These findings were extended and validated by investigations using the cell line U937. The data were highly specific for PPD, and no such results were gained for its known auto oxidation product called Bandrowski- base or for meta-phenylenediamine (MPD), and ortho-phenylenediamine (OPD). Therefore, we can speculate that this effect is likely to be dependent on the para-substitution. Based on these results we conclude that PPD itself is not able to mount a cascade for the induction of danger signals. It should be mentioned that it is still possible that PPD induces danger signals for sensitization by other unknown processes. Therefore, more research is still needed focusing on this subject especially in professional antigen presenting cells in order to solve the still open question whether PPD itself sensitizes naive T cells or if PPD is solely an allergen. Independently we found unexpectedly that PPD as well as other haptens such as 2, 4-Dinitrochlorobenzene, nickelsulfate, as well as some terpenoide increased clearly the expression of CC chemokin receptor 2 (CCR2), the receptor for the chemokine MCP-1. Up to date, the main importance for the CCR2 receptor comes from results demonstrating that CCR2 is critical for the migration of monocytes after encounter with bacterial lipopolysaccharides. Under these circumstances the receptor disappears from the cell surface and is down regulated. An up regulation of CCR2 has not been reported for haptens, and deserves further investigations.
Medienpolitische Verflechtungen in Italien seit 1945 - Entwicklungslinien, Akteure, Konfliktfelder
(2007)
Der Schwerpunkt der Arbeit basiert auf einer retrospektiven Betrachtung des seit Jahrzehnten in Italien etablierten komplexen Beziehungsnetzwerkes zwischen Medien und Politik. Von seinen Anfängen im 19. Jh. bis einschließlich Mitte September 2006 werden die Konsequenzen dieser medienpolitischen Interdependenzen analysiert und kritisch hinterfragt. Ein weiterer Forschungsschwerpunkt liegt dabei auf der seit dem letzten Jahrzehnt virulent geführten Debatte über den Einfluss des italienischen Medienmoguls und Spitzenpolitikers Silvio Berlusconi auf die mediale Politikberichterstattung Italiens. Die vorhandenen Sprachbarrieren machen es allerdings oft nicht leicht, die Komplexität der italienischen Medien- und Politiklandschaft zu verstehen. Bei oberflächlicher Betrachtung kann dies rasch zu Fehleinschätzungen und -interpretationen führen, die in der gegenwärtigen Studie korrigiert werden. Neben einer fundierten Analyse der existierenden Fachliteratur zur Entwicklung der italienischen Massenmedien gründet die Studie auf einer detaillierten Berücksichtigung journalistischer Publikationen unterschiedlicher italienischer Tageszeitungen. Bei diesem literature review werden insgesamt 335 italienischsprachige Quellen berücksichtigt, von denen 128 Fachpublikationen sind. Mehrheitlich handelt es sich um soziologische, politik- und kommunikationswissenschaftliche Veröffentlichungen aus den vergangenen 15 Jahren. In Form eines chronologisch-deskriptiven Überblicks wird vor allem die Entwicklung des italienischen Fernsehsektors seit seiner Einführung 1954 bis zur Gegenwart nachgezeichnet. In diesem Kontext wird der Aufstieg Berlusconis zum Medienmogul und zum zweimaligen Ministerpräsidenten Italiens vor dem gesellschaftspolitischen Hintergrund skizziert und mit Interpretationen der italienischen Vergangenheit und Gegenwart abgeglichen. Dies erklärt letztlich auch die Herausbildung des Medienmonopols von Silvio Berlusconi und dessen Instrumentalisierungsversuche der Medien für seine politischen Zwecke. Die Arbeit gliedert sich in zwei Teile. Der erste Teil beinhaltet eine historisch-deskriptive Darstellung der seit Jahrzehnten bestehenden symbiotischen Verquickung von Medien und Politik in Italien (Kap. 1 bis 7). Hierbei finden politische, ökonomische, soziale und rechtliche Aspekte Berücksichtigung. Zudem stehen die unterschiedlichen Akteure des Mediensektors wie politische Parteien, Politiker, Journalisten, Medienunternehmen, Wähler sowie die katholische Kirche im Zentrum der Arbeit. Zum besseren Verständnis werden sie nicht isoliert, sondern in ihren vielfältigen Wechselwirkungen betrachtet. Da Berlusconi in den vergangenen vier italienischen Parlamentswahlen stets der Anwärter auf das Präsidentschaftsamt des Mitte-Rechts-Lagers war, werden die relevanten medienpolitischen Aspekte aller vier Wahlen zusammengefasst und erstmalig zueinander in Beziehung gesetzt. Im zweiten Teil werden Perspektiven für ein zukünftiges Forschungsvorhaben präsentiert, um die Qualität italienischer Hauptabendnachrichten in Bezug auf ihren tendenziösen Charakter zum Vor- bzw. Nachteil politischer Akteure bestimmen zu können (Kap. 8). Auf Basis des identifizierten Forschungsdefizits italienischer Studien wird ein idealtypisches Analysekonzept für künftige Studien entwickelt, das auf der empirischen Methode der Inhaltsanalyse beruht. Ein exemplarisch vorgestelltes Forschungsdesign soll dazu beitragen, zukünftig Erkenntnisse über die Qualität der politischen Fernsehberichterstattung in Italien gewinnen zu können. Dies erfolgt unter Rückgriff auf die kommunikationswissenschaftlichen Theorien: gatekeeper-, agendasetting-, framing-, bias-Ansatz und instrumentelle Aktualisierung. Das Ziel der Arbeit ist es, das Wechselspiel und die Einflussversuche unterschiedlicher Akteure des italienischen Mediensektors in ihrem historischen Kontext darzustellen. Hierbei interessieren vor allem die zentralen Konfliktfelder und Entwicklungslinien, die im Rahmen der medienpolitischen Verflechtungen Italiens zu konstatieren sind. Mittels eines umfassenden reviews der italienischen Literatur sollen die vorhandenen Sprachbarrieren überwunden und der deutschsprachigen Leserschaft gezielt soziopolitische Zusammenhänge des modernen italienischen Journalismus und seiner historischen Entwicklung zugänglich gemacht werden. Ein weiteres Ziel besteht darin, den Kenntnisstand über italienische Studien zum engen Netzwerk aus Medien und Politik zu erhöhen. Insgesamt wird eine systematische Aufarbeitung der medienpolitischen Charakteristika Italiens sowohl aus inländischer als auch aus ausländischer Sicht geliefert.
Der Radtourismus hat in den letzten 15 bis 20 Jahren eine dynamische Entwicklung genommen, die ihn zu einer wichtigen Tourismusart für viele Regionen in vor allem ländlich geprägten Regionen werden ließ. Die Konsequenz war und ist ein erheblicher Ausbau der radtouristischen Infrastruktur, die hauptsächlich aus öffentlichen Mitteln finanziert wurde. Die radtouristische Nachfrage umfasst in Deutschland - je nach zu Grunde gelegten Daten - zwischen 4,2 und 7,9 Mio. Bundesbürger. Dabei ist die Entwicklung dieser Nachfrage in den letzten Jahren eher stagnierend verlaufen, trotzdem steht ihr ein weiter wachsendes radtouristisches Angebot gegenüber. Die Frage, ob sich diese Investitionen über die durch den Radtourismus ausgelösten regionalwirtschaftlichen Effekte bezahlt machen, steht im Zentrum dieser Arbeit und wurde mit Hilfe einer empirischen Erhebung untersucht. Für das Bundesland Rheinland-Pfalz insgesamt konnte eine Spannweite von 4,2 bis 7,7 Mio. Radtouristen pro Jahr ermittelt werden, wovon zwischen 2,9 und 6,0 Mio. Tagesgäste sind. Auf Grund der während der Radurlaube getätigten Ausgaben lassen sich die durch den Radtourismus induzierten regionalwirtschaftlichen Effekte in einer Größenordnung von 275 Mio. € bis 327 Mio. € bestimmen, was rund 10% der gesamttouristischen Wertschöpfung in Rheinland-Pfalz entspricht. Werden die Investitionskosten für die vier untersuchten Radwege " Mosel-Radweg, Nahe-Radweg, Maare-Mosel-Radweg und Kraut und Rüben-Radweg " der jährlich auf diesen Wegen erzielten Wertschöpfung in Höhe von ca. 62 Mio. € gegenübergestellt, muss festgestellt werden, dass sich die Investitionen schon nach kurzer Zeit über die positiven, indirekten wirtschaftlichen Effekte in den Regionen bezahlt gemacht haben. Insgesamt gesehen stellt sich somit der Radtourismus als attraktives, wirtschaftlich tragfähiges touristisches Segment dar, welches in der Lage ist, auch in peripheren Regionen touristische Wertschöpfung zu erzeugen. Voraussetzung hierfür ist aber die Beachtung der dargestellten Anforderungen, welche die Nachfrage an das Produkt Radtourismus stellt und die Einhaltung von verschiedenen Qualitätsanforderungen. Erst wenn Radtourismus als Qualitätsprodukt verstanden wird, hinter dem auch die touristischen Leistungsträger einer Region stehen, kann Radtourismus zu einem wichtigen Wirtschaftsfaktor innerhalb einer Region entwickelt werden.
Weibliches Publikum, Programmgestaltung und Rezeptionshaltung im frühen deutschen Kino (1906-1918)
(2009)
Die vorliegende Dissertation analysiert die wechselseitigen Einflussnahmen von weiblichem Publikum und der Kino-Programmgestaltung in der Zeit von der Gründung erster ortsfester Kinos um 1906 bis zum Ende des 1. Weltkrieges. Dabei bilden der Kinobesuch von Frauen, die Konstruktion von Geschlechteridentität im und durch das Kinoprogramm und der wechselseitige Einfluss von weiblichem Publikum und Programmgestaltung, sowie die Veränderung von Filmgenres und -längen und die Veränderung des Rezeptionsverhaltens das Paradigma der Analyse. Der Fokus auf das weibliche Publikum ist bewusst gewählt, da Frauen auch zu Beginn des 20. Jahrhunderts einen großen Anteil am Kino-Publikum ausmachten. Dies ist besonders bemerkenswert unter der Prämisse, dass Frauen traditionell aufgrund der bürgerlichen Trennung zwischen privater und öffentlicher Sphäre nicht Teil eines öffentlichen Publikums waren. Daher liegt es nahe zu vermuten, dass das Auftreten dieses völlig neuen Publikumssegments nicht spurlos am Kino vorbeigegangen ist. Es hat Einfluss genommen auf die Filme, aber auch auf das Kino als Ort und die Programmierung seiner Filme. Das Aufkommen eines weiblichen Publikums bewirkte, so die Leitthese der vorliegenden Dissertation, eine Veränderung der Kinoprogrammstruktur weg vom diversen Nummerprogramm des "cinema of attractions", das kürzere Slapstick-Filme, Trickfilme sowie kurze Filme mit Spielhandlungen mit dokumentarischem Material verband hin zu einem Programm, dessen Hauptattraktion ein, oder maximal zwei lange Filme mit fiktionalem Inhalt waren. Auf der Grundlage zweier Lokalstudien zum Kinoprogramm zweier mittelgroßer deutscher Städte analysiert die vorliegende Arbeit den Prozess, in dem das von klassen- und geschlechtsspezifischer sowie kultureller Diversität geprägte frühe Kino, dem Heide Schlüpmann eine heimliche Komplizenschaft mit der weiblichen Emanzipationsbewegung des Wilhelminischen Deutschlands zuspricht, abgelöst wird durch ein stabilisiertes, institutionalisiertes, nationalisiertes deutsches Kino. Eingeführt und ergänzt wird die tiefergehende Analyse der Kinoprogramme der untersuchten Städte durch eine auf historischen Quellen beruhende Untersuchung der Struktur und Wahrnehmung des weiblichen Publikums und der Programm- und Aufführungsmodalitäten in der Zeit zwischen 1906 und 1913 sowie während des Ersten Weltkriegs.
Cinema programming, the composition of films to make a specific "show," remains a neglected way to research the relation between audiences and film form. As a mode of exhibition " advertised, promoted, and circulating in the public sphere even before an audience is gathered " the program can be seen as an active social relation between cinema managers and their audiences. Changes in the composition of film programs, in my case the years before the First World War in Mannheim, Germany, are thus not taken as part of a teleological evolution of film form, but instead reveal emerging practices of cinema-going, a changing relation among showmen, distributors, audiences, and the city they are all part of. The category of "the audience" becomes a compliment to narrative, economic and technical influences. Selecting the city of Mannheim further allows me to draw upon the pioneering German sociological study of cinema audiences, conducted there by Emilie Altenloh in 1911 and 1912. Thus, I am able to compare her survey data to the film programs that were actually advertised and offered to the public at the time, and also include knowledge of the social history of the city, to approximate a description of the historical audiences she studied. Here I follow the findings of Miriam Hansen and Heide Schlüpmann, who both stress the importance of the female audience in Imperial Germany. I account for a reciprocal relation between female spectators and the film industry- local programming practice to describe the transitional period from the short film programme of the "cinema of attractions" to the dominance of the long feature film, i.e. from 1906-1918. Looking closely at the advertised programmes of Mannheim I show that almost all of the first multiple-reel feature films deal with women- topics, i.e. with the fate and fortune of women, concluding that the presence of women in the audience helped established the long feature as central to the institutionalized cinema program. The film program and the specific feature films represented female identity on the screen, responding to the perceived wishes and needs of the women who gathered as audiences. Taking this "program analysis" approach, because it provides a synopsis of the social relation between audience, industry, and film form, is a valuable tool for comparing the social place of film comparatively, across many films, and potentially across regions, countries, and cultures.
In my paper I will talk about the mutual influences between the female spectators and the programming practices of Imperial Germany- cinema. I will focus on the period of the transition from the short film programme of the "cinema of attractions" to the dominance of the long feature film, i.e. from 1906-1918. I will ask questions how the presence of women in the cinema (the place where they first entered the public sphere) influenced the practice of programming. So I will deal with the relatively new topic of the programme (and its structural changes) as a mode of exhibition and I will try to connect this to the role the female audience played in shaping this format: how does the female audience affect the changes of the programme patterns, the modification of genres and their meaning within the structure of the programme and does it finally bring about a change in the mode of reception. And on the other hand how does the cinematographical programme represent and influence the female identity, and women- wishes and needs. One must ask for the reasons why the early cinema, that was characterised by diversity concerning class, gender and cultural issues and that built a kind of alternative public sphere, was displaced by an institutionalised, state monitored and nationalised German cinema. Taking into account that this change of film forms was not a teleological evolution, "gender" might be a more useful and insightful category than "class" is to explain the changes of the programme and the essence of early cinema. First I am going to present the main ideas of my project, then I"ll talk about the composition of the audience and the relation between audience and program, after that I"ll make some remarks on the reform movement and what the reformers thought about women in the cinema and about the programming practices, and as a last part, we"ll have a look at what actually happened in the cinema and at the program of the year 1911/1912 and how this program catered to the interests of the female audience. I"ll conclude with a short outlook on the changes that occurred during WW I.
Evaluative conditioning (EC) refers to changes in liking that are due to the pairing of stimuli, and is one of the effects studied in order to understand the processes of attitude formation. Initially, EC had been conceived of as driven by processes that are unique to the formation of attitudes, and that occur independent of whether or not individuals engage in conscious and effortful propositional processes. However, propositional processes have gained considerable popularity as an explanatory concept for the boundary conditions observed in EC studies, with some authors going as far as to suggest that the evidence implies that EC is driven primarily by propositional processes. In this monograph I present research which questions the validity of this claim, and I discuss theoretical challenges and avenues for future EC research.
Die Dissertation beschäftigt sich mit der Wahrnehmung ländlicher Armut als räumlichem Phänomen und untersucht die Maßnahmen der Agrar-, Sozial- und Raumordnungspolitik, die als strukturpolitisch wirksam zur Bekämpfung sowie Vermeidung ländlicher Armut in den zeitgenössischen Diskursen angenommen wurden. Im Mittelpunkt der Analyse stehen dabei die traditionell landwirtschaftlich geprägten Bundesländer Rheinland-Pfalz und Baden-Württemberg. Untersucht wird, wie das ländliche Armutsproblem in Aussagen von Agrar- und Sozialpolitikern sowie Experten definiert und beschrieben wurde und welche Maßnahmen aufgrund dieser Annahmen als geeignet erschienen, Armut in den agrarwirtschaftlich geprägten Regionen zu bekämpfen. Die Forschungsarbeit basiert auf der Analyse und Bewertung von Förderprogrammen und Förderungshilfen von Bund, Ländern und Kommunen und untersucht diese auf ihre Wirksamkeit hinsichtlich der Existenzsicherung landwirtschaftlicher Betriebe im südwestdeutschen Raum zwischen 1949 und 1974. Ländliche Armut wird so als vor allem bäuerliche Armut beschrieben, die in den zeitgenössischen Diskursen als räumlich abgrenzbare Existenzgefährdung in sogenannten "strukturschwachen" Räumen konstruiert wurde. Im Zusammenhang mit der Untersuchung wirtschaftspolitischer Debatten werden die sozialpolitischen Probleme diskutiert, gesetzliche Durchführungsbestimmungen der Sozialpolitik auf ihre konkreten Ziele hinsichtlich Armutsbekämpfung auf dem Land untersucht sowie die Verflechtungen von Wirtschafts- und Sozialpolitik analysiert.
In der vorliegenden Dissertation wurde Belohnungssensitivität mit Spielverhalten und elektrophysiologischen Korrelaten wie dem Ruhe-EEG und ereigniskorrelierten Potenzialen auf Feedback-Reize in Verbindung gebracht. Belohnungssensitivität ist nach der zugrundeliegenden Definition als Konstrukt mit mehreren Facetten zu verstehen, die eng mit Extraversion, positiver Affektivität, dem Behavioral Activation System, Novelty Seeking, Belohnungsabhängigkeit und Selbstwirksamkeit assoziiert sind. Bei der Untersuchung einer spezifischen Spielsituation, in der 48 gesunde Studentinnen durch eigene Entscheidungen Belohnungen erhalten konnten, zeigte sich, dass das Spielverhalten mit den während des Spiels erfassten ereigniskorrelierten Potentialen (hier: FRN (feedback related negativity)und P300) auf die Belohnungssignale in Form eines Feedbacks korreliert. Belohnungssensitive Personen zeigen tendenziell nach einem Gewinn-Feedback eine weniger negative FRN-Amplitude, die wiederum positiv mit der gewählten Einsatzhöhe assoziiert ist. Auch die Amplitude der P300 scheint mit dem Spielverhalten zusammenzuhängen. So zeigte sich ein positiver Zusammenhang zwischen typisch belohnungssensitivem Verhalten und der mittleren Amplitude der P300: Gewinne gehen mit einer größeren P300-Positivierung und schnelleren Entscheidungen im Spiel einher. Dagegen konnte weder das Spielverhalten noch die über diverse Fragebögen erfasste Ausprägung der Belohnungssensitivität in der kortikalen Grundaktivierung im Ruhezustand einer Person abgebildet werden. Die vorliegenden Ergebnisse deuten darauf hin, dass Belohnungssensitivität ein Persönlichkeitsmerkmal ist, das sich sowohl im Verhalten, als auch in der elektrokortikalen Aktivität in belohnungsrelevanten Situationen widerspiegelt.
Many people are aware of the negative consequences of plastic use on the environment. Nevertheless, they use plastic due to its functionality. In the present paper, we hypothesized that this leads to the experience of ambivalence—the simultaneous existence of positive and negative evaluations of plastic. In two studies, we found that participants showed greater ambivalence toward plastic packed food than unpacked food. Moreover, they rated plastic packed food less favorably than unpacked food in response evaluations. In Study 2, we tested whether one-sided (only positive vs. only negative) information interventions could effectively influence ambivalence. Results showed that ambivalence is resistant to (social) influence. Directions for future research were discussed.
When humans encounter attitude objects (e.g., other people, objects, or constructs), they evaluate them. Often, these evaluations are based on attitudes. Whereas most research focuses on univalent (i.e., only positive or only negative) attitude formation, little research exists on ambivalent (i.e., simultaneously positive and negative) attitude formation. Following a general introduction into ambivalence, I present three original manuscripts investigating ambivalent attitude formation. The first manuscript addresses ambivalent attitude formation from previously univalent attitudes. The results indicate that responding to a univalent attitude object incongruently leads to ambivalence measured via mouse tracking but not ambivalence measured via self-report. The second manuscript addresses whether the same number of positive and negative statements presented block-wise in an impression formation task leads to ambivalence. The third manuscript also used an impression formation task and addresses the question of whether randomly presenting the same number of positive and negative statements leads to ambivalence. Additionally, the effect of block size of the same valent statements is investigated. The results of the last two manuscripts indicate that presenting all statements of one valence and then all statements of the opposite valence leads to ambivalence measured via self-report and mouse tracking. Finally, I discuss implications for attitude theory and research as well as future research directions.
Due to the breath-taking growth of the World Wide Web (WWW), the need for fast and efficient web applications becomes more and more urgent. In this doctoral thesis, the emphasis will be on two concrete tasks for improving Internet applications. On the one hand, a major problem of many of today's Internet applications may be described as the performance of the Client/Server-communication: servers often take a long time to respond to a client's request. There are several strategies to overcome this problem of high user-perceived latencies; one of them is to predict future user-requests. This way, time-consuming calculations on the server's side can be performed even before the corresponding request is being made. Furthermore, in certain situations, also the pre-fetching or the pre-sending of data might be appropriate. Those ideas will be discussed in detail in the second part of this work. On the other hand, a focus will be placed on the problem of proposing hyperlinks to improve the quality of rapid written texts, at first glance, an entirely different problem to predicting client requests. Ultra-modern online authoring systems that provide possibilities to check link-consistencies and administrate link management should also propose links in order to improve the usefulness of the produced HTML-documents. In the third part of this elaboration, we will describe a possibility to build a hyperlink-proposal module based on statistical information retrieval from hypertexts. These two problem categories do not seem to have much in common. It is one aim of this work to show that there are certain, similar solution strategies to look after both problems. A closer comparison and an abstraction of both methodologies will lead to interesting synergetic effects. For example, advanced strategies to foresee future user-requests by modeling time and document aging can be used to improve the quality of hyperlink-proposals too.
Formen direkter Demokratie tragen über schulrechtlich verankerte Mitbestimmungsmöglichkeiten von Schüler*innen und Lehrer*innen hinaus dazu bei, eine unmittelbare Teilhabe an schulischen und gesellschaftlichen Entscheidungs- und Entwicklungsprozessen zu verwirklichen. Sie eröffnen Perspektiven, unabhängig von Mandat oder Funktion Schulkultur zu gestalten und Selbstwirksamkeit zu ermöglichen. Traditionelle Hierarchien in der Institution Schule können progressiv reflektiert und direkte Teilhabe als individuelle und institutionelle Entwicklungschance erfahren werden. Just Community und Aushandlungsprozesse sind inspirierende Bauformen, die Entwicklung der Schule insgesamt und gemeinsam direktdemokratisch zu gestalten sowie Empowerment zu fördern.
Les formes de démocratie directe contribuent à mettre en oeuvre des processus de décision et de développement scolaires et sociaux au-delà des possibilités de participation directe des élèves et des enseignant·e·s ancrées dans le droit scolaire. Elles ouvrent des perspectives pour façonner la culture de l’école et favoriser l’auto-efficacité indépendamment du mandat ou de la fonction. Les élèves peuvent discuter progressivement des hiérarchies traditionnelles de l’école en tant qu’institution et vivre la participation directe comme une opportunité de développement individuel et institutionnel. Le concept de la Just Community et les processus de négociation sont des méthodes d’éducation inspirantes qui permettent de façonner le développement de l’école dans son ensemble par un processus de démocratie directe commun et de promouvoir l’autonomisation.
The fragmentation of landscapes has an important impact on the conservation of biodiversity. The genetic diversity is an important factor for a population- viability, influenced by the landscape structure. However, different species with differing ecological demands react rather differently on the same landscape pattern. To address this feature, we studied ten xerothermophilous butterfly species with differing habitat requirements (habitat specialists with low dispersal power in contrast to habitat generalists with low dispersal power and habitat generalists with higher dispersal power). We analysed allozyme loci for about 10 populations (Ã 40 individuals) of each species in a western German study region with adjoining areas in Luxemburg and north-eastern France. The genetic diversity and genetic differentiation between local populations was discussed under conservation genetic aspects. For generalists we detected a more or less panmictic structure and for species with lower abundance and sedentarily behaviour the effect of isolation by distance. On the other hand, the isolation of specialists was mostly reflected by strong genetic differentiation patterns between the investigated populations. Parameters of genetic diversity were mostly significantly higher in generalists, compared to specialists. Substructures within populations as an answer of low intrapatch migration, low population densities and high population fluctuations could be shown as well. Aspects of landscape history (the historical distribution of habitats resulting of the presence of limestone areas) and the changes of extensive sheep pasturing and the loss of potential habitats in the last few decades (recent fragmentation) are discussed against the gained genetic data-set of the ten butterflies.
The main goal of this publication is the development and application of an empirical method, which allows to forecast the transport of radionuclides in soils ad sediments. The calculations are based on data published in the literature. 10 case studies, comprising 30 time series, deal with the transport of Cs-134, Cs-137, Sr-85, Sr-90, and Ru-106. Transport in undisturbed soils and experimental systems like lysimeters and columns in laboratories are dealt with. The soils involved cover a large range of soils, e. g. podsols, cambisols (FAO), and peaty soils. Different speciations are covered, namely ions, aerosols, and fuel particles. Time series analysis centres around the Weibull-distribution. All theoretical models failed to forecast the transport of radionuclides. It can be shown that the parameters D and v, the dispersion coefficient and the advection velocity, appearing in solutions of the advection-dispersion equation (ADE), have no real physical meaning. They are just fitting parameters. The calculation of primary photon fluence rates, caused by Cs-137 in the soil, stresses the unreliability of forecasts based on theoretical models.
Das israelische Religionsrecht ist gegenwärtig trotz des jüdischen Charakters des Staates Israel grundsätzlich als System der Trennung von Staat und Religion bei gleichzeitiger Kooperation des Staates mit den Religionen beziehungsweise Religionsgemeinschaften zu charakterisieren. Mit Blick auf den aktuellen Verfassungsentwurf des israelischen Parlaments stellt sich die Frage, welche Konsequenzen seine Annahme für das Religionsrecht haben würde: Würde Israel Züge eines religiösen Staates annehmen, oder bildet das Regelungswerk lediglich den Ist-Zustand ab? Die Beantwortung dieser Frage hängt zum einen von dem Charakter der neuen Regelungen ab, die der Entwurf enthält, und zum anderen davon, ob die bestehende Rechtssubstanz durch die Transponierung in eine formelle Verfassung ihr Wesen verändern würde.
Die Arbeit beschäftigt sich mit der Interaktion zwischen den Juden des Regnum Teutonicum und den verschiedenen Herrschaftsträgern, mit denen die Juden in Kontakt kamen. Dies waren neben dem König auch geistliche und weltliche Landes- und Stadtherren. Chronologisch an vier Herrschaftsphasen Rudolfs ausgerichtet, analysiert die Studie sämtliche überlieferte schriftliche Zeugnisse, um insbesondere der Frage nach der Bedeutung der Kammerknechtschaft im Reich nachzugehen. Diese stellt sich als höchst ambivalente und keinesfalls nur negative Beziehungsform heraus, die zudem nur in einem europäischen Kontext verständlich wird.
By means of complex interaction-processes sea ice not only modifies the regional climate in the ocean-atmosphere-sea-ice system but also the general circulation of the atmosphere and the ocean's circulation. Besides a strong interannual variability sea-ice extent shows an arcticwide significant negative trend during the last two decades with maximum rates in spring and summer. These are often linked to (small-scale) processes in the Siberian Arctic and the Laptev Sea, respectively. The objective of this thesis is the expansion of the understanding of the processes concerning atmosphere-sea-ice interactions on the regional scale during the summer from 1979 to 2002 in the Arctic with a special emphasis on the Laptev Sea. To achieve this, numerical simulations of the regional climate model HIRHAM4 are used in conjunction with ground- and satellite-based observational data. A precondition for the numerical experiments and the realistic reproduction of atmospheric processes is an improved lower boundary forcing dataset for HIRHAM4 based on observational datasets, which is developed, validated and described. To investigate the effects of the sea-ice distribution, its properties and small-scale features on the atmosphere, HIRHAM4 is used in sensitivity studies systematically with different model settings, each of which incorporates the lower boundary forcing data in a different manner. Even little changes in the lower boundary forcing fields, while retaining the lateral boundary forcing, are sufficient to cause the model to produce significantly different atmospheric circulation patterns relative to the control simulations which use standard forcings and settings. Cyclone activity, which is a special focus of this study, is also altered. The mean atmospheric circulation patterns and the near-surface air temperature distribution can be reproduced more realistically with the new forcing dataset, which is shown by validation experiments with observational data. The biggest relative impact, besides an altered sea-ice coverage and distribution, can be reached by using sea-ice concentrations instead of a binary sea-ice mask. By utilizing sea-ice drift data, dynamic and thermodynamic processes can be partially separated from each other to investigate the development of sea-ice anomalies in the Laptev Sea. They depend on a time-critical succession of atmospheric conditions and the properties of sea ice during May and August. Positive air temperature anomalies are identified to be the key driving factors for the development of negative sea-ice anomalies. They are found to be a result of enhanced short-wave radiation balances, which are coupled to high pressure areas and intermediate anticyclones. The polynyas during early summer seem to have an important influence too. Because of lower process rates, the wind-induced sea-ice drift is enhancing and damping the development of the sea-ice area anomalies, but it cannot cause an anomaly all by itself. A precise separation of the effectiveness of the sea-ice transport and the melting rates is not possible due to the available data.
In dieser Arbeit wird ein Middlewaremodell für Anwendungen in mobilen ad-hoc Netzwerken vorgestellt. Der primäre Fokus liegt dabei auf Netzen, die auf Basis von mobilen Endbenutzergeräten wie PDAs, PocketPCs oder Smartphones gebildet werden und die über eine drahtlose Kommunikationstechnik wie WLAN oder Bluetooth verfügen. Zur Identifizierung der Ansprüche an eine Middleware in diesen Netzen wurden Anwendungen aus dem universitären Umfeld untersucht. Da die Kommunikation in drahtlosen Netzen nicht immer so transparent wie in drahtgebundenen Infrastrukturnetzen erfolgen kann, enthält die Middleware ein Kommunikationsframework, welches die Adaption und auch die Kombination von Kommunikationsmechanismen ermöglicht. Neben der direkten Auslieferung von Nachrichten werden auch Mechanismen zur sukzessiven Weitergabe von Nachrichten, die so genannte Store-and-Forward Kommunikation, angeboten. Hier steht insbesondere die Weitergabe von Informationen im Vorbeigehen (En-Passant) im Vordergrund. Die Komponenten der Middleware und darauf basierenden Applikationen werden als interagierende mobile Objekte modelliert. Die Interaktion dieser Objekte erfolgt aufgrund der Dynamik der mobilen ad-hoc Netze ereignisorientiert. Sowohl die Interaktion, als auch die Adaption und Wahl von Kommunikationsmechanismen erfolgt auf Basis von Informationen über das direkte Umfeld, Applikationswissen über das Netzwerk und Erfahrungen aus der Vergangenheit. Diese Informationen, die von Objekten verbreitet und gesammelt werden können, werden als Spuren bezeichnet. Da eine Aufhebung der Transparenz der Middlewarekomponenten einen höheren Entwicklungsaufwand bedeutet, wird eine Realisierung der Objektinteraktion in Objektrepräsentanten vorgeschlagen. Objektrepräsentanten ermöglichen die Kommunikation mit entfernten Objekten, das lokale Verwalten von Informationen über diese Objekte und schließlich die Repräsentierung von Objekten ohne reale Objektinstanz. Objekte ohne Objektinstanz werden verwendet, um Gerätegruppen mit bestimmten Eigenschaften zusammenzufassen, beispielsweise Objekte an einem bestimmten geographischen Ort. Somit ist auch das Wissen über geographische Orte und deren Identifizierung ein wichtiger Aspekt des Modells. Aufgrund der Anwendungsuntersuchungen ist sukzessive ein Middlewareprototyp entstanden, der in eine Simulationsumgebung für mobile ad-hoc Netze integriert ist. Die Umgebung erlaubt neben der reinen Simulation mobiler ad-hoc Netze und der zu untersuchenden Anwendung auch die Integration realer Geräte und die Ausführung der Anwendungen auf realen Geräten. Somit konnte, neben einer simulativen Untersuchung, auch eine praktische Evaluation der Anwendungen in Feldversuchen durchgeführt werden.
Die Arbeit verteidigt zwei Thesen: 1. Der Realismus ist eine semantische These; 2. Religiöse Sprache muß realistisch interpretiert werden. Der erste Teil von Kapitel 1 bis 4 widmet sich der ersten These, der zweite Teil in Kapitel 5 und 6 der zweiten. Zuerst wird ein Überblick über die Problematik von Realismus und Antirealismus in der Philosophie überhaupt geben und erläutert, was das Kernproblem dieser Debatten ist, das eine adäquate Interpretation der realistischen These lösen muß. Dann wird eine Lösung mit Michael Dummetts Theorie des semantischen Realismus entwickelt, so daß sich die metaphysischen Probleme in sprachphilosophische übersetzen lassen und eine semantische Formulierung des Realismus möglich wird. Danach werden verschiedene Einwände gegen diese Theorie diskutiert, um in der Folge eine eigene, verbesserte Formulierung des semantischen Realismus zu entwickeln, die fähig ist, der Kritik standzuhalten. Schließlich werden zwei von Dummett selbst vorgebrachte Argumente gegen den Realismus behandelt und widerlegt. Mit diesen sprachphilosophischen Werkzeugen wird dann gezeigt, wie sich die religionsphilosophischen Debatten mit den Mitteln des semantischen Realismus beschreiben und klassifizieren lassen und wie sich anhand semantischer Kriterien Klarheit schaffen läßt, was genau einen religiösen Antirealismus charakterisiert und was nicht. Abschließend werden die bisher in der Debatte für und wider den religiösen Antirealismus vorgebrachten Argumente analysiert und dann auf der Basis der semantischen Interpretation des Realismus einige eigene Argumente entwickelt, um die Unmöglichkeit eines religiösen Antirealismus nachzuweisen.
High-resolution projections of the future climate are required to assess climate change realistically at a regional scale. This is in particular important for climate change impact studies since global projections are much too coarse to represent local conditions adequately. A major concern is thereby the change of extreme values in a warming climate due to their severe impact on the natural environment, socio-economical systems and the human health. Regional climate models (RCMs) are, however, able to reproduce much of those local features. Current horizontal resolutions are about 18-25km, which is still too coarse to directly resolve small-scale processes such as deep-convection. For this reason, projections of a possible future climate were simulated in this study with the regional climate model COSMO-CLM at horizontal resolutions of 4.5km and 1.3km for the region of Saarland-Lorraine-Luxemburg and Rhineland-Palatinate for the first time. At a horizontal scale of about 1km deep-convection is treated explicitly, which is expected to improve particularly the simulation of convective summer precipitation and a better resolved orography is expected to improve near surface fields such as 2m temperature. These simulations were performed as 10-year long time-slice experiments for the present climate (1991"2000), the near future (2041"2050) and the end of the century (2091"2100). The climate change signals of the annual and seasonal means and the change of extremes are analysed with respect to precipitation and 2m temperature and a possible added value due to the increased resolution is investigated. To assess changes in extremes, extreme indices have been applied and 10- and 20-year return levels were estimated by "peak-over-threshold" models. Since it is generally known that model output of RCMs should not directly be used for climate change impact studies, the precipitation and temperature fields were bias-corrected with several quantile-matching methods. Among them is a new developed parametric method which includes an extension for extreme values and is hence expected to improve the correction. In addition, the impact of the bias-correction on the climate change signals and on the extreme value statistics was investigated. The results reveal a significant warming of the annual mean by about +1.7 -°C until 2041"2050 and +3.7 -°C until 2091"2100, but considerably stronger signals of up to +5 -°C in summer in the Rhine Valley. Furthermore, the daily variability increases by about +0.8 -°C in summer but decreases by about -0.8 -°C in winter. Consequently, hot extremes increase moderately until the mid of the century but strongly thereafter, in particular in the Rhine Valley. Cold extremes warm continuously in the complete domain in the next 100 years but strongest in mountainous areas. The change signals with regard to annual precipitation are of the order -±10% but not significant. Significant, however, are a predicted increase of +32% of the seasonal precipitation in autumn until 2041"2050 and a decrease of -28% in summer until 2091-2100. No significant changes were found for days with intensities > 20 mm/day, but the results indicate that extremes with return periods ≤2 years increase as well as the frequency and duration of dry periods. The bias-corrections amplified positive signals but dampened negative signals and considerably reduced the power of detection. Moreover, absolute values and frequencies of extremes were altered by the correction but change signals remained approximately constant. The new method outperformed other parametric methods, in particular with regard to extreme value correction and related extreme indices and return levels. Although the bias correction removed systematic errors, it should be treated as an additional layer of uncertainty in climate change studies. Finally, the increased resolution of 1.3km improved predominantly the representation of temperature fields and extremes in terms of spatial heterogeneity. The benefits for summer precipitation were not as clear due to a severe dry-bias in summer, but it could be shown that in principle the onset and intensity of convection improves. This work demonstrates that climate change will have severe impacts in this investigation area and that in particular extremes may change considerably. An increased resolution provides thereby an added value to the results. These findings encourage further investigations, for other variables as for example near-surface wind, which will be more feasible with growing computing resources. These analyses should, however, be repeated with longer time series, different RCMs and anthropogenic scenarios to determine the robustness and uncertainty of these results more extensively.
In diesem Band sind einige der Beiträge zusammengefasst, die im Rahmen und in der Folge der chinesisch-deutschen Fachkonferenz zu Aspekten der Studienvorbereitung und Studienbegleitung entstanden sind, die vom 21. bis 22. Mai 2007 mit Unterstützung des Deutschen Akademischen Austauschdienstes (DAAD) am Deutschkolleg - Zentrum zur Studienvorbereitung der Tongji-Universität in Shanghai veranstaltet wurde. Schwerpunkte bilden die Bereiche: Wissenschaftskommunikation, Interkulturelle Kommunikation / Landeskundekonzepte und " als Ausblick " Fachsprache. Der Band enthält Beiträge von: Gutjahr, Jacqueline / Yu, Xuemei (S. 1-4 = Dokument 1); Gutjahr, Jacqueline / Porsche, Sabine / Yu, Xuemei (S. 5-22 = Dokument 2); Bärenfänger, Olaf (S. 23-43 = Dokument 3); Li, Yuan (S. 44-56 = Dokument 4); Yu, Xuemei (S. 57-67 = Dokument 5); Burkhardt, Armin (S. 68-87 = Dokument 6); Dahlhaus, Barbara (S. 88-106 = Dokument 7); Freudenberg-Findeisen, Renate / Schröder, Jörg (S. 107-134 = Dokument 8); Dege, Christopher P. / Timmermann, Waltraud (S. 135-151 = Dokument 9); Brandl, Heike (S. 152-167 = Dokument 10) und Liu, Fang (S. 168-178 = Dokument 11).
Die vorliegende Dissertation "Wortwahl, Grammatik und Aussage. Eine strukturelle Analyse der Dramen Три ÑеÑтры, Вишневый Ñад und ВлаÑÑ‚ÑŒ тьмы" befaßt sich mit einer Analyse dieser ausgewählten Dramen von ÄŒechov und Tolstoj. Ausgehend von Fragestellungen, die im Å’uvre der Dichter implizit und explizit problematisiert werden, sind diejenigen Themenbereiche abgeleitet worden, die sich aus Inhalt und Gestaltung der literarischen Werke ergeben. Auf der Grundlage bestimmter Einteilungskriterien, die aus den Disziplinen der Psychologie, Soziologie, Medizin, Theologie und Philosophie übernommen wurden, wird in der Untersuchung eine Subsumierung der Dramenlexik unter bestimmte Oberbegriffe bzw. Sinnbereiche (Emotionen, Alltag, Leben und Tod, Folklore, Volks- und Aberglauben, Religion, menschlicher Körper, physiologische Phänomene und Krankheit) vorgenommen. Vor diesem Hintergrund wird - ausgehend vom literaturwissenschaftlichen Begriff des russischen Realismus - der Fragestellung nachgegangen, inwieweit eine Literaturströmung sich in der vom Autoren verwendeten Lexik widerspiegelt. Insofern lotet die Studie am Beispiel von Dramentexten die Möglichkeit aus, mit Hilfe eines linguistischen Instrumentariums (Grammatik, Semantik, Pragmatik, Morphologie) einen Beitrag für eine literaturwissenschaftliche Untersuchung zu liefern, um damit einen die literaturwissenschaftlichen Interpretationszugänge ergänzenden methodischen Zugang unter linguistischem Blickwinkel vorzustellen. Jost Trier als Begründer der Wortfeldtheorie hat die methodologische Grundlage dafür geschaffen, daß auch die Literaturwissenschaft durch die Verbindung von Wort und Vorstellung (Sinnbezirke) Aussagen über den semantischen Kern und Umfang treffen kann. Diesem Ansatz ist nicht nur Elisabeth Weis, die sich mit Sinnbereichen der Freude und Traurigkeit im Bereich der deutschen und französischen Sprache beschäftigt hat, sondern auch Henning Bergenholtz, der das Wortfeld Angst aus lexikographischer Sicht untersucht, verpflichtet. Auch die vorliegende Dissertation folgt diesen Überlegungen. Die Beschäftigung mit literarischen Texten und der besonderen Form des Dramas macht es notwendig, über die genannten Forschungsansätze insofern hinauszugehen, als Literatur eine eigene Welt mit eigenen Vorstellungen schafft, die durch die Betrachtung einzelner Sinnbereiche nicht umfassend erschlossen werden kann. Um der ästhetischen Rezeption poetischer Werke umfassend Rechnung zu tragen und eine Beurteilungsgrundlage eines literarischen Kunstwerkes vorzuschlagen, zeigt die vorliegende Untersuchung Begriffsnetze auf, durch die die Funktionsweise eines literarischen Textes im Rezipienten deutlich gemacht wird. Die in der Untersuchung vorgeschlagene Methode unterstützt das Erkennen der rezipienteneigenen Vorstellungswelt durch eine werkimmanente, lexikgestützte Konstruktion der Weltinterpretation der Autoren ÄŒechovs und Tolstojs.
This work is concerned with two kinds of objects: regular expressions and finite automata. These formalisms describe regular languages, i.e., sets of strings that share a comparatively simple structure. Such languages - and, in turn, expressions and automata - are used in the description of textual patterns, workflow and dependence modeling, or formal verification. Testing words for membership in any given such language can be implemented using a fixed - i.e., finite - amount of memory, which is conveyed by the phrasing finite-automaton. In this aspect they differ from more general classes, which require potentially unbound memory, but have the potential to model less regular, i.e., more involved, objects. Other than expressions and automata, there are several further formalisms to describe regular languages. These formalisms are all equivalent and conversions among them are well-known.However, expressions and automata are arguably the notions which are used most frequently: regular expressions come natural to humans in order to express patterns, while finite automata translate immediately to efficient data structures. This raises the interest in methods to translate among the two notions efficiently. In particular,the direction from expressions to automata, or from human input to machine representation, is of great practical relevance. Probably the most frequent application that involves regular expressions and finite automata is pattern matching in static text and streaming data. Common tools to locate instances of a pattern in a text are the grep application or its (many) derivatives, as well as awk, sed and lex. Notice that these programs accept slightly more general patterns, namely ''POSIX expressions''. Concerning streaming data, regular expressions are nowadays used to specify filter rules in routing hardware.These applications have in common that an input pattern is specified in form a regular expression while the execution applies a regular automaton. As it turns out, the effort that is necessary to describe a regular language, i.e., the size of the descriptor,varies with the chosen representation. For example, in the case of regular expressions and finite automata, it is rather easy to see that any regular expression can be converted to a finite automaton whose size is linear in that of the expression. For the converse direction, however, it is known that there are regular languages for which the size of the smallest describing expression is exponential in the size of the smallest describing automaton.This brings us to the subject at the core of the present work: we investigate conversions between expressions and automata and take a closer look at the properties that exert an influence on the relative sizes of these objects.We refer to the aspects involved with these consideration under the titular term of Relative Descriptional Complexity.
Properties Evaluation of Composite Materials Based on Gypsum Plaster and Posidonia Oceanica Fibers
(2023)
Estimating the amount of material without significant losses at the end of hybrid casting is a problem addressed in this study. To minimize manufacturing costs and improve the accuracy of results, a correction factor (CF) was used in the formula to estimate the volume percent of the material in order to reduce material losses during the sample manufacturing stage, allowing for greater confidence between the approved blending plan and the results obtained. In this context, three material mixing schemes of different sizes and shapes (gypsum plaster, sand (0/2), gravel (2/4), and Posidonia oceanica fibers (PO)) were created to verify the efficiency of CF and more precisely study the physico-mechanical effects on the samples. The results show that the use of a CF can reduce mixing loss to almost 0%. The optimal compressive strength of the sample (S1B) with the lowest mixing loss was 7.50 MPa. Under optimal conditions, the addition of PO improves mix volume percent correction (negligible), flexural strength (5.45%), density (18%), and porosity (3.70%) compared with S1B. On the other hand, the addition of PO thermo-chemical treatment by NaOH increases the compressive strength (3.97%) compared with PO due to the removal of impurities on the fiber surface, as shown by scanning electron microscopy. We then determined the optimal mixture ratio (PO divided by a mixture of plaster, sand, and gravel), which equals 0.0321 because Tunisian gypsum contains small amounts of bassanite and calcite, as shown by the X-ray diffraction results.
Addition of Phosphogypsum to Fire-Resistant Plaster Panels:
A Physic–Mechanical Investigation
(2023)
Gypsum (GPS) has great potential for structural fire protection and is increasingly used in construction due to its high-water retention and purity. However, many researchers aim to improve its physical and mechanical properties by adding other organic or inorganic materials such as fibers, recycled GPS, and waste residues. This study used a novel method to add non-natural GPS from factory waste (phosphogypsum (PG)) as a secondary material for GPS. This paper proposes to mix these two materials to properly study the effect of PG on the physico-mechanical properties and fire performance of two Tunisian GPSs (GPS1 and GPS2). PG initially replaced GPS at 10, 20, 30, 40, and 50% weight percentage (mixing plan A). The PGs were then washed with distilled water several times. Two more mixing plans were run when the pH of the PG was equal to 2.4 (mixing plan B), and the pH was equal to 5 (mixing plan C). Finally, a comparative study was conducted on the compressive strength, flexural strength, density, water retention, and mass loss levels after 90 days of drying, before/after incineration of samples at 15, 30, 45, and 60 min. The results show that the mixture of GPS1 and 30% PG (mixing plan B) obtained the highest compressive strength (41.31%) and flexural strength (35.03%) compared to the reference sample. The addition of 10% PG to GPS1 (mixing plan A) improved fire resistance (33.33%) and the mass loss (17.10%) of the samples exposed to flame for 60 min compared to GPS2. Therefore, PG can be considered an excellent insulating material, which can increase physico-mechanical properties and fire resistance time of plaster under certain conditions.
Umweltschutz wird in dieser Arbeit als Soziales Dilemma betrachtet. Es wird mittels eines experimentellen Online-Spiels (N = 182) primär überprüft, inwieweit unkooperatives Verhalten von Akteuren zu genuinem Ungerechtigkeitserleben bei anderen Personen führt und ob diese in Folge u. a. das eigene kooperative Verhalten reduzieren. Somit wird im Gegensatz zu Erklärungen der Rational-Choice-Theorien angenommen, dass ein Teil des phänotypisch unkooperativen, umweltschädigenden Verhaltens nicht auf Egoismus, sondern auf einem genuinen Gerechtigkeitsmotiv beruht. Zur Erhöhung der internen Validität wird ebenfalls der moderierende Einfluss der Persönlichkeitseigenschaften "Eigeninteresse" und "Gerechtigkeitszentralität" untersucht. Die Hypothesentestungen zeigen, dass unkooperatives Verhalten anderer Akteure in Sozialen Dilemmata bei vielen Personen Ungerechtigkeitserleben auslöst, was sich u. a. in Emotionen der Empörung, Ungerechtigkeitskognitionen, Bestrafungsverhalten und einer Reduktion des eigenen kooperativen Verhaltens niederschlägt. Hierbei spielen interindividuelle Unterschiede hinsichtlich der Stärke des Gerechtigkeitsmotivs bei etlichen gefundenen Effekte eine moderierende Rolle. Es wird somit ein motivpluralistischer Ansatz bestätigt, der die Rolle des Gerechtigkeitsmotivs bei der Vorhersage und Veränderung von Verhalten in Sozialen Dilemmata hervorhebt. Implikationen in Hinblick auf Theorie, zukünftige Forschung und Interventionen in Sozialen-Dilemma-Situationen werden erörtert.
Background: The growing production and use of engineered AgNP in industry and private households make increasing concentrations of AgNP in the environment unavoidable. Although we already know the harmful effects of AgNP on pivotal bacterial driven soil functions, information about the impact of silver nanoparticles (AgNP) on the soil bacterial community structure is rare. Hence, the aim of this study was to reveal the long-term effects of AgNP on major soil bacterial phyla in a loamy soil. The study was conducted as a laboratory incubation experiment over a period of 1 year using a loamy soil and AgNP concentrations ranging from 0.01 to 1 mg AgNP/kg soil. Effects were quantified using the taxon-specific 16S rRNA qPCR.
Results: The short-term exposure of AgNP at environmentally relevant concentration of 0.01 mg AgNP/kg caused significant positive effects on Acidobacteria (44.0%), Actinobacteria (21.1%) and Bacteroidetes (14.6%), whereas beta-Proteobacteria population was minimized by 14.2% relative to the control (p ≤ 0.05). After 1 year of exposure to 0.01 mg AgNP/kg diminished Acidobacteria (p = 0.007), Bacteroidetes (p = 0.005) and beta-Proteobacteria (p = 0.000) by 14.5, 10.1 and 13.9%, respectively. Actino- and alpha-Proteobacteria were statistically unaffected by AgNP treatments after 1-year exposure. Furthermore, a statistically significant regression and correlation analysis between silver toxicity and exposure time confirmed loamy soils as a sink for silver nanoparticles and their concomitant silver ions.
Conclusions: Even very low concentrations of AgNP may cause disadvantages for the autotrophic ammonia oxidation (nitrification), the organic carbon transformation and the chitin degradation in soils by exerting harmful effects on the liable bacterial phyla.
Reconstructing invisible deviating events: A conformance checking approach for recurring events
(2022)
Conformance checking enables organizations to determine whether their executed processes are compliant with the intended process. However, if the processes contain recurring activities, state-of-the-art approaches unfortunately have difficulties calculating the conformance. The occurrence of complex temporal rules can further increase the complexity of the problem. Identifying this limitation, this paper presents a novel approach towards dealing with recurring activities in conformance checking. The core idea of the approach is to reconstruct the missing events in the event log using defined rules while incorporating specified temporal event characteristics. This approach then enables the use of native conformance checking algorithms. The paper illustrates the algorithmic approach and defines the required temporal event characteristics. Furthermore, the approach is applied and evaluated in a case study on an event log for melanoma surveillance.
Due to the transition towards climate neutrality, energy markets are rapidly evolving. New technologies are developed that allow electricity from renewable energy sources to be stored or to be converted into other energy commodities. As a consequence, new players enter the markets and existing players gain more importance. Market equilibrium problems are capable of capturing these changes and therefore enable us to answer contemporary research questions with regard to energy market design and climate policy.
This cumulative dissertation is devoted to the study of different market equilibrium problems that address such emerging aspects in liberalized energy markets. In the first part, we review a well-studied competitive equilibrium model for energy commodity markets and extend this model by sector coupling, by temporal coupling, and by a more detailed representation of physical laws and technical requirements. Moreover, we summarize our main contributions of the last years with respect to analyzing the market equilibria of the resulting equilibrium problems.
For the extension regarding sector coupling, we derive sufficient conditions for ensuring uniqueness of the short-run equilibrium a priori and for verifying uniqueness of the long-run equilibrium a posteriori. Furthermore, we present illustrative examples that each of the derived conditions is indeed necessary to guarantee uniqueness in general.
For the extension regarding temporal coupling, we provide sufficient conditions for ensuring uniqueness of demand and production a priori. These conditions also imply uniqueness of the short-run equilibrium in case of a single storage operator. However, in case of multiple storage operators, examples illustrate that charging and discharging decisions are not unique in general. We conclude the equilibrium analysis with an a posteriori criterion for verifying uniqueness of a given short-run equilibrium. Since the computation of equilibria is much more challenging due to the temporal coupling, we shortly review why a tailored parallel and distributed alternating direction method of multipliers enables to efficiently compute market equilibria.
For the extension regarding physical laws and technical requirements, we show that, in nonconvex settings, existence of an equilibrium is not guaranteed and that the fundamental welfare theorems therefore fail to hold. In addition, we argue that the welfare theorems can be re-established in a market design in which the system operator is committed to a welfare objective. For the case of a profit-maximizing system operator, we propose an algorithm that indicates existence of an equilibrium and that computes an equilibrium in the case of existence. Based on well-known instances from the literature on the gas and electricity sector, we demonstrate the broad applicability of our algorithm. Our computational results suggest that an equilibrium often exists for an application involving nonconvex but continuous stationary gas physics. In turn, integralities introduced due to the switchability of DC lines in DC electricity networks lead to many instances without an equilibrium. Finally, we state sufficient conditions under which the gas application has a unique equilibrium and the line switching application has finitely many.
In the second part, all preprints belonging to this cumulative dissertation are provided. These preprints, as well as two journal articles to which the author of this thesis contributed, are referenced within the extended summary in the first part and contain more details.
Traditional workflow management systems support process participants in fulfilling business tasks through guidance along a predefined workflow model.
Flexibility has gained a lot of attention in recent decades through a shift from mass production to customization. Various approaches to workflow flexibility exist that either require extensive knowledge acquisition and modelling effort or an active intervention during execution and re-modelling of deviating behaviour. The pursuit of flexibility by deviation is to compensate both of these disadvantages through allowing alternative unforeseen execution paths at run time without demanding the process participant to adapt the workflow model. However, the implementation of this approach has been little researched so far.
This work proposes a novel approach to flexibility by deviation. The approach aims at supporting process participants during the execution of a workflow through suggesting work items based on predefined strategies or experiential knowledge even in case of deviations. The developed concepts combine two renowned methods from the field of artificial intelligence - constraint satisfaction problem solving with process-oriented case-based reasoning. This mainly consists of a constraint-based workflow engine in combination with a case-based deviation management. The declarative representation of workflows through constraints allows for implicit flexibility and a simple possibility to restore consistency in case of deviations. Furthermore, the combined model, integrating procedural with declarative structures through a transformation function, increases the capabilities for flexibility. For an adequate handling of deviations the methodology of case-based reasoning fits perfectly, through its approach that similar problems have similar solutions. Thus, previous made experiences are transferred to currently regarded problems, under the assumption that a similar deviation has been handled successfully in the past.
Necessary foundations from the field of workflow management with a focus on flexibility are presented first.
As formal foundation, a constraint-based workflow model was developed that allows for a declarative specification of foremost sequential dependencies of tasks. Procedural and declarative models can be combined in the approach, as a transformation function was specified that converts procedural workflow models to declarative constraints.
One main component of the approach is the constraint-based workflow engine that utilizes this declarative model as input for a constraint solving algorithm. This algorithm computes the worklist, which is proposed to the process participant during workflow execution. With predefined deviation handling strategies that determine how the constraint model is modified in order to restore consistency, the support is continuous even in case of deviations.
The second major component of the proposed approach constitutes the case-based deviation management, which aims at improving the support of process participants on the basis of experiential knowledge. For the retrieve phase, a sophisticated similarity measure was developed that integrates specific characteristics of deviating workflows and combines several sequence similarity measures. Two alternative methods for the reuse phase were developed, a null adaptation and a generative adaptation. The null adaptation simply proposes tasks from the most similar workflow as work items, whereas the generative adaptation modifies the constraint-based workflow model based on the most similar workflow in order to re-enable the constraint-based workflow engine to suggest work items.
The experimental evaluation of the approach consisted of a simulation of several types of process participants in the exemplary domain of deficiency management in construction. The results showed high utility values and a promising potential for an investigation of the transfer on other domains and the applicability in practice, which is part of future work.
Concluding, the contributions are summarized and research perspectives are pointed out.
Currently, new business models created in the sharing economy differ considerably and they differ in the formation of trust as well. If and how trust can be created is shown by a comparison of two examples which diverge in their founding philosophy. The chosen example of community-based economy, Community Supported Agriculture (CSA), no longer trusts the capitalist system and therefore distances itself and creates its own environment including a new business model. It is implemented within rather small groups where trust is created by personal relations and face-to-face communication. On the contrary, the example of a platform economy, the accommodation-provider company Airbnb, shows trust in the system and pushes technological innovations through the use of platform applications. It promotes trust and confidence in the progress of technology. For the conceptual analysis, the distinction between personal trust and system trust defined by Niklas Luhmann is adopted. The analysis describes two different modes of trust formation and how they push distrust or improve trust. Grounded on these analyses, assumptions on the process of trust formation within varying models of the sharing economy are formulated as well as a hypothesis about possible developments is introduced for further research.
This thesis is divided into three main parts: The description of the calibration problem, the numerical solution of this problem and the connection to optimal stochastic control problems. Fitting model prices to given market prices leads to an abstract least squares formulation as calibration problem. The corresponding option price can be computed by solving a stochastic differential equation via the Monte-Carlo method which seems to be preferred by most practitioners. Due to the fact that the Monte-Carlo method is expensive in terms of computational effort and requires memory, more sophisticated stochastic predictor-corrector schemes are established in this thesis. The numerical advantage of these predictor-corrector schemes ispresented and discussed. The adjoint method is applied to the calibration. The theoretical advantage of the adjoint method is discussed in detail. It is shown that the computational effort of gradient calculation via the adjoint method is independent of the number of calibration parameters. Numerical results confirm the theoretical results and summarize the computational advantage of the adjoint method. Furthermore, provides the connection to optimal stochastic control problems is proven in this thesis.
Die in einem Einzugsgebiet herrschende räumliche Inhomogenität wird im Wasserhaushaltsmodell LARSIM (Large Area Runoff Simulation Modell) in den einzelnen Modellkomponenten unterschiedlich stark berücksichtigt. Insbesondere die räumliche Verteilung der Abflussprozesse wurde bisher nicht berücksichtigt, weil keine flächenhaft verfügbare Information über eben diese Verteilung vorlag. Für das Einzugsgebiet der Nahe liegt nun seit dem Jahr 2007 eine Bodenhydrologische Karte vor, die flächenhaft den bei ausreichenden Niederschlägen zu erwartenden Abflussprozess ausweist. In der vorliegenden Dissertation wird die Nutzung dieser Prozessinformation bei der Parametrisierung des Bodenmoduls von LARSIM beschrieben: Für drei Prozessgruppen " gesättigter Oberflächenabfluss, Abfluss im Boden, Tiefenversickerung " werden mittels zweier neuer Parameter P_Bilanz und P_Dämpfung inhomogene Parametersätze aus empirisch ermittelten Kennfeldern gewählt, um die Prozessinformation bei der Abflussbildung im Modell zu berücksichtigen. Für die Abbildung der Prozessintensitäten in den Gebietsspeichern werden zwei unterschiedliche Ansätze vorgestellt, die sich in ihrer Komplexität unterscheiden. In der ersten Variante werden fünf Oberflächenabflussspeicher für unterschiedlich schnell reagierende Prozessgruppen eingeführt, in der zweiten Variante wird der erste Ansatz mit dem ursprünglichen Schwellenwert zur Aufteilung in schnelle und langsame Oberflächenabflusskomponenten kombiniert. Es wird gezeigt, dass die Parametrisierung mit den beiden neuen Parametern P_Bilanz und P_Dämpfung einfacher, effektiver und effizienter ist, da beide Parameter minimale Interaktionen aufweisen und in ihrer Wirkungsweise leicht verständlich sind, was auf die ursprünglichen Bodenparameter nicht zutrifft. Es wird ein Arbeitsfluss vorgestellt, in dem die neuen Parameter in Kombination mit Signature Measures und unterschiedlichen Darstellungen der Abflussdauerlinie gemeinsam genutzt werden können, um in wenigen Arbeitsschritten eine Anpassung des Modells in neuen Einzugsgebieten vorzunehmen. Die Methode wurde durch Anwendung in drei Gebieten validiert. In den drei Gebieten konnte in wenigen Kalibrierungsschritten die Simulationsgüte der ursprünglichen Version erreicht und " je nach Zielsetzung " übertroffen werden. Hinsichtlich der Gütemaße zeigte sich bei der Variante, in der die Gebietsspeicher nicht modifiziert wurden, aber kein eindeutiges Bild, ob die ursprüngliche Parametrisierung oder die neue grundsätzlich überlegen ist. Neben der Auswertung der Validierungszeiträume wurden dabei auch die simulierten Ganglinien in geschachtelten Gebieten betrachtet. Die Version, in der die Gebietsspeicher modifiziert wurden, zeigt hingegen vor allem im Validierungszeitraum tendenziell bessere Simulationsergebnisse. Hinsichtlich der Abbildung der Abflussprozesse ist das neue Verfahren dem alten deutlich überlegen: Es resultiert in plausiblen Anteilen von Abflusskomponenten, deren Verteilung und Abhängigkeit von Speicherkapazitäten, Landnutzungen und Eingangsdaten systematisch ausgewertet wurden. Es zeigte sich, dass vor allem die Speicherkapazität des Bodens einen signifikanten Einfluss hat, der aber im hydrologischen Sinn richtig und hinsichtlich der Modellannahmen plausibel ist. Es wird deutlich gemacht, dass die Einschränkungen, die sich ergeben haben, aufgrund der Modellannahmen zustande kommen, und dass ohne die Änderung dieser Annahmen keine bessere Abbildung möglich ist. Für die Zukunft werden Möglichkeiten aufgezeigt, wie die Annahmen modifiziert werden können, um eine bessere Abbildung zu erzielen, indem der bereits bestehende Infiltrationsansatz in die Methode integriert wird.
A matrix A is called completely positive if there exists an entrywise nonnegative matrix B such that A = BB^T. These matrices can be used to obtain convex reformulations of for example nonconvex quadratic or combinatorial problems. One of the main problems with completely positive matrices is checking whether a given matrix is completely positive. This is known to be NP-hard in general. rnrnFor a given matrix completely positive matrix A, it is nontrivial to find a cp-factorization A=BB^T with nonnegative B since this factorization would provide a certificate for the matrix to be completely positive. But this factorization is not only important for the membership to the completely positive cone, it can also be used to recover the solution of the underlying quadratic or combinatorial problem. In addition, it is not a priori known how many columns are necessary to generate a cp-factorization for the given matrix. The minimal possible number of columns is called the cp-rank of A and so far it is still an open question how to derive the cp-rank for a given matrix. Some facts on completely positive matrices and the cp-rank will be given in Chapter 2. Moreover, in Chapter 6, we will see a factorization algorithm, which, for a given completely positive matrix A and a suitable starting point, computes the nonnegative factorization A=BB^T. The algorithm therefore returns a certificate for the matrix to be completely positive. As introduced in Chapter 3, the fundamental idea of the factorization algorithm is to start from an initial square factorization which is not necessarily entrywise nonnegative, and extend this factorization to a matrix for which the number of columns is greater than or equal to the cp-rank of A. Then it is the goal to transform this generated factorization into a cp-factorization. This problem can be formulated as a nonconvex feasibility problem, as shown in Section 4.1, and solved by a method which is based on alternating projections, as proven in Chapter 6. On the topic of alternating projections, a survey will be given in Chapter 5. Here we will see how to apply this technique to several types of sets like subspaces, convex sets, manifolds and semialgebraic sets. Furthermore, we will see some known facts on the convergence rate for alternating projections between these types of sets. Considering more than two sets yields the so called cyclic projections approach. Here some known facts for subspaces and convex sets will be shown. Moreover, we will see a new convergence result on cyclic projections among a sequence of manifolds in Section 5.4. In the context of cp-factorizations, a local convergence result for the introduced algorithm will be given. This result is based on the known convergence for alternating projections between semialgebraic sets. To obtain cp-facrorizations with this first method, it is necessary to solve a second order cone problem in every projection step, which is very costly. Therefore, in Section 6.2, we will see an additional heuristic extension, which improves the numerical performance of the algorithm. Extensive numerical tests in Chapter 7 will show that the factorization method is very fast in most instances. In addition, we will see how to derive a certificate for the matrix to be an element of the interior of the completely positive cone. As a further application, this method can be extended to find a symmetric nonnegative matrix factorization, where we consider an additional low-rank constraint. Here again, the method to derive factorizations for completely positive matrices can be used, albeit with some further adjustments, introduced in Section 8.1. Moreover, we will see that even for the general case of deriving a nonnegative matrix factorization for a given rectangular matrix A, the key aspects of the completely positive factorization approach can be used. To this end, it becomes necessary to extend the idea of finding a completely positive factorization such that it can be used for rectangular matrices. This yields an applicable algorithm for nonnegative matrix factorization in Section 8.2. Numerical results for this approach will suggest that the presented algorithms and techniques to obtain completely positive matrix factorizations can be extended to general nonnegative factorization problems.
Ziegel waren im 19. und 20. Jahrhundert der bevorzugte Baustoff. Sie wurden für den Ausbau der Städte in heute kaum noch vorstellbaren Mengen nachgefragt, da sie preiswert und in Massen verfügbar waren. Das stabile Baumaterial erwies sich zudem in Form, Farbe und Ornamentik als vielseitig einsetzbar. Die Bedeutung des Ziegels lässt sich besonders gut an den Fassaden der gründerzeitlichen Berliner Stadtquartiere able-sen. Im Rahmen der vorliegenden Arbeit wird die städtebauliche Entwicklung Berlins einführend dargestellt, um aufzuzeigen, welche Auswirkungen sich daraus für das bran-denburgische Umland ergaben. Das an der oberen Havel in Nordbrandenburg gelegene Zehdenicker Revier profitierte von dieser Entwicklung und nahm als Standort der Ziegelindustrie im Deutschen Reich eine besondere Stellung ein. Handwerkliche Verfahren der Ziegelherstellung waren Ende des 19. Jahrhunderts zunehmend durch industrielle Massenproduktion abgelöst worden. 1887 wurden nördlich der Kleinstadt Zehdenick zufällig reichhaltige Tonlagerstätten an der Havel entdeckt. Die neugeborene Industriestadt stieg innerhalb weniger Jahre zum Zentrum der Märkischen Ziegelindustrie auf. Bis 1913 wurden 63 Hoffmannsche Ring-öfen nördlich von Zehdenick errichtet, mit denen bis zu 500 Millionen Ziegel pro Jahr gebrannt werden konnten. Nach dem Zweiten Weltkrieg entwickelte sich der VEB Zie-gelwerke Zehdenick zum bedeutendsten Ziegelhersteller in der DDR. Noch bis 1990 be-stimmten historische Ringofenziegeleien das Landschaftsbild im Revier. Die Ziegelferti-gung endete mit der Wiedervereinigung Deutschlands. Untersuchungsgegenstand der Dissertation ist das Erbe der Zehdenicker Ziegelindustrie und die von ihr geprägte Kulturlandschaft, die nicht nur erhebliche geschichtliche Bedeu-tung für den Aufbau Berlins vor 1945 sondern auch für die Baustoffindustrie in der der DDR hat. Bislang wurde dieses Kulturgut kaum erforscht. Aus diesem Grund erfolgte zunächst eine grundlegende Inventarisierung der persistenten Relikte, die erfasst, be-schrieben, in ihrer Erscheinung erklärt und hinsichtlich ihrer touristischen Verwendbarkeit bewertet wurden. Es konnte dadurch festgestellt werden, dass derzeit noch ein reichhal-tiges bauliches Erbe der Ziegelindustrie im Untersuchungsraum existiert. Dieses bedeutende Erbe wird bislang erst in Ansätzen durch den Tourismus genutzt, zumal in den westlichen Industrieländern nur noch wenige Hoffmannsche Ringöfen erhal-ten geblieben sind. Die Arbeit zeigt auf, dass die mittlerweile vollständig gefluteten Ton-tagebauten und Teile der historischen Kulturlandschaft mit ihrem Formenschatz - Relikte der Aufbereitung, der Freilufttrocknung, Produktions- und Wohngebäude oder Häfen - eine hohe Relevanz für den Erholungs- und Kulturtourismus aufweisen. Kulturtouristisch erschlossen wurde bislang einzig der Ziegeleipark Mildenberg, der pro Jahr etwa 40.000 Besucher zählt. Sein besucherorientiertes Angebot wurde im Rahmen der Dissertation analysiert und bewertet. Er stellt bislang eine inselartige Erschließung dar, die den histo-rischen Dimensionen des Reviers mit seinen vielen Standorten nicht entspricht. Die Arbeit liefert wesentliche Grundlagen für die Konzeption einer kulturtouristischen Erschließung der gesamten Zehdenicker Tonstichlandschaft unter Nutzung und Wahrung ihrer authentischen Relikte und regionalen Spezifik. Sie schließt mit konkreten Vorschlä-gen für eine gezielte Erhaltung und Pflege dieses Erbes unter besonderer Berücksichti-gung des Kulturtourismus. Dabei fließen Erfolgsmuster tourismusrelevanter Nutzungs-formen vergleichbarer Standorte in Deutschland und in Belgien, die durch eigene Re-cherchen und Expertengespräche mit Vertretern bedeutender Ziegeleimuseen ermittelt wurden, mit ein. Noch wäre es möglich, den seit 1990 fortschreitenden Verfall dieses Kulturgutes aufzu-halten, vor weiterer Zerstörung zu schützen und die wertvolle Substanz der industriellen Vergangenheit inwertzusetzen.
Preisvergleiche zwischen verschiedenen Regionen spielen in zahlreichen wirtschaftlichen und politischen Zusammenhängen eine wichtige Rolle. Unabhängig davon, ob es darum geht, die Wirtschaftskraft von Regionen oder Ländern gegenüber zu stellen, die Lebensverhältnisse innerhalb eines Landes zu vergleichen, oder aber die Wirkungsweise sozial- und lohnpolitischer Entscheidungen einzuschätzen: Interregionale Preisvergleiche dienen in erster Linie als Instrument, um gesamtwirtschaftliche und ökonomische Größen zwischen verschiedenen Regionen oder Ländern real vergleichbar zu machen. Interregionale Preisvergleiche sind allgemeinhin besser bekannt als sogenannte Kaufkraftparitäten. Die enorme Bedeutung von Kaufkraftparitäten wurde in der Vergangenheit lange unterschätzt. Insbesondere bei Preisvergleichen innerhalb eines Landes mangelt es oftmals an einer soliden Datenbasis, sodass verlässliche Schätzungen regionaler Preisniveauunterschiede häufig nicht möglich sind. Die vorliegende Arbeit zeigt allerdings, dass ein breites Angebot verschiedener multilateraler Aggregationsmethoden bereit. Im Mittelpunkt des ersten Teils Arbeit steht die methodische Ausarbeitung verschiedener Aggregationsverfahren, mit deren Hilfe sich erhobene Daten zu verlässlichen und aussagekräftigen Preisvergleichskennzahlen aggregieren lassen. Im Unterschied zu intertemporalen Vergleichen sind gewöhnliche bilaterale Preisindizes für diesen Zweck nur begrenzt einsetzbar. Vielmehr sind spezielle multilaterale methodische Instrumente nötig, die den speziellen Anforderungen regionaler Preisvergleiche gerecht zu werden. Im Rahmen der Arbeit werden die verschiedenen multilateralen Aggregationsverfahren unterschiedlichen Berechnungsansätzen zugeordnet, wobei jeder dieser Ansätze durch bestimmte Eigenschaften charakterisiert ist. Neben den Mitgliedern der Klasse des Gini-Eltetö-Köves-Szulc (GEKS) und Minimum Spannning Tree (MST) Ansatzes sowie des Regressionsansatzes, widmet sich diese Arbeit schwerpunktmäßig den unterschiedlichen Verfahren des sogenannten Standardisierungsansatzes. Es stellt sich heraus, dass der Standardisierungsansatz grundsätzlich sehr dem Konstruktionsprinzip bilateraler Durchschnittswertindizes (GUV-Indizes) ähnelt, weshalb sich die Mitglieder dieser Klasse auch als multilaterale GUV-Indizes auffassen lassen. Darüber hinaus wird eine neue Unterklasse des Standardisierungsansatzes definiert, deren Mitglieder die breite Palette bereits existierender Verfahren ergänzen. Allerdings wird den Aggregationsverfahren des Standardisierungsansatzes nachgesagt, unter den Auswirkungen des sogenannten Gerschenkron-Effekts zu leiden und im Gegensatz zu anderen Aggregationsverfahren häufig verzerrte Preisvergleiche hervorzubringen. Der zweite Teil der Arbeit ist einem empirischen Vergleich der zuvor erörterten Aggregationsverfahren vorbehalten. Grundlage für die Berechnungen (auf und unterhalb der elementaren Güterebene) sind Daten des Europäischen Vergleichsprogramms (EVP). Eine wichtige Erkenntnis des empirischen Teils der Arbeit ist, dass viele der unterschiedlichen Aggregationsmethoden für die Berechnungen auf der Elementarebene sehr ähnliche Ergebnisse für die Preisvergleiche zwischen den Ländern im EVP generieren. Die Sorge verzerrter Preisvergleiche infolge der Auswirkungen des Gerschenkron-Effektes lässt sich auf Grundlage der empirischen Untersuchungen nicht (zweifelsfrei) bestätigen. Ferner zeigen die empirischen Untersuchungen, dass weitaus größere Schwierigkeiten bei der Berechnung von Preisvergleichen unterhalb der Elementarebene bestehen. Die Berechnungen offenbaren, dass die häufig in der Praxis eingesetzten Verfahren der GEKS-Methode in Situationen, in denen nur wenige Daten vorhanden sind, keine plausiblen Ergebnisse liefern. Es stellt sich heraus, dass in diesen Fällen die Verfahren des Regressionsansatzes eine unkompliziertere und verlässlichere Berechnung von Preisvergleichen erlauben. Nichtsdestotrotz decken die Ergebnisse schonungslos die Probleme und Schwächen interregionaler Preisvergleiche auf. Trotz intensiver Anstrengungen der internationalen statistischen Organisationen, eine vergleichbare und fundierte Datenbasis zu schaffen, sind die Dateninformationen einiger Regionen bzw. Länder nach wie vor sehr lückenhaft. Da verlässliche und aussagekräftige Preisvergleiche im Wesentlichen von der Verfügbarkeit und der Qualität der Daten abhängig sind, sollte der Forschungsschwerpunkt zukünftig daher mehr an der Bereitstellung eines soliden Datenfundaments ausgerichtet werden.
Die Versuche, das Funktionieren von Sprache zu beschreiben oder gar zu erklären, sind zahlreich und vielfältig. Das ist hinlänglich bekannt. Tatsächlich mangelt es jedoch erheblich an solchen Beschreibungen, die nicht nur Symbol und Referenz, sondern auch Kontext und Gelingensbedingungen erfassen und in einen historischen Vergleich stellen. So soll folgende Fragestellung diese Untersuchung prägen: "Wie?" wird "Was?" genannt und "Wann?" geschieht dies "Wo?" mit welchem Erfolg? Im Fall der Liebe ist die erste Frage diejenige nach dem "Was?": Welche Referenz wird hier überhaupt verhandelt? Und wenn es keine Referenz gibt, über was reden wir, wenn wir Symbole wie "Liebe" oder ähnliche Zeichen verwenden? "Wie?" und "Wo?" sind nur ausschnitthaft zu beschreiben, das liegt in der Natur der Sache. Aus verschiedenen Gründen erschien das Format Doku-Soap in diesem Zusammenhang geeignet. Immerhin handelt es sich hier um eine Textsorte, die sich seit kurzer Zeit stets wachsender Beliebtheit beim Fernsehpublikum erfreut, und deren Funktionsweisen sich stark von anderen unterscheidet. Außerdem lässt sich die Frage nach dem Erfolg in der Doku-Soap gut erfassen: Wie in kaum einer anderen Textsorte werden hier im Fall des Misserfolges Sanktionen verhängt in Form von Nominierung und Abwahl. Um Schlüsse über die gegenwärtige Symbolverwendung ziehen zu können wird immer wieder die Frage nach dem "Wann?" zu stellen sein: Nur wenn Entwicklungen mit Tendenzen und Richtungen beschrieben werden können lassen sich Aussagen über die gegenwärtige Konfiguration dieser Linien machen. Nur wenn ein historischer Vergleich gezogen wird lässt sich die Gegenwart ansatzweise einordnen.
Die Arbeit versucht einen Beitrag zum besseren Verständnis von Identitifikations- und Migrationsprozessen von Russlandddeutschen zu leisten. Dabei werden die folgenden zentralen Froschungsfragen behandelt:rnGibt es die Gruppe der Russlanddeutschen aus einer Binnenperspektive? Was führt dazu, dass sich jemand als Mitglied der Gemeinschaft der Russlanddeutschen fühlt? Welche Parameter üben entscheidenden Einfluss auf Migrationsprozesse aus? Welchen Einfluss üben Identitätskonstrukte auf soziale Handlungen, wie Migration aus?
Rotary, Kiwanis, Lions, Zonta, Soroptimist und Round Table. Bereits seit 100 Jahren setzen sich Service Clubs mit den verschiedensten Service-Projekten weltweit für sozialen Frieden und Menschenrechte ein. Heute gibt es unzählige Service Clubs mit unterschiedlichen Entstehungsgeschichten und Denkweisen. Obwohl Service Clubs insbesondere auf der Gemeinde-Ebene durch soziales und ökonomisches Engagement, aber auch über die Nutzung sozialer Netzwerke wichtigen Einfluss ausüben, sind sie bislang, zumindest in Europa, kaum wissenschaftlich untersucht worden. Dieses Defizit versucht Sebastian Gradinger im Rahmen einer Studie auszuräumen. Die Studie stellt vor diesem Hintergrund die historische Entstehung der traditionellen Service Clubs dar und widmet sich der Frage nach der Funktion von Service Clubs für unterschiedliche Ebenen der Gesellschaft wie auch für ihre individuellen Mitglieder. Schließlich wird die Zukunftsperspektive der Clubs in einer gewandelten Gesellschaft diskutiert.
Tagungsband des DAAD-Fachseminars 2005 in Bordeaux zum Thema "Mehrsprachigkeit". Themengebiete: "Mehrsprachigkeit und Literatur", "Mehrsprachigkeit und Sprachdidaktik", "Mehrsprachigkeit und Spracherwerb". Mit Texten von: Eva Kastenhuber & Daniel Grabis (S. 3-6 = Dokument 1); Nicole Pelletier (S. 7-16 = Dokument 2); Yoko Tawada (S. 17-20 = Dokument 3); Jacqueline Gutjahr (S. 21-42 = Dokument 4); Rolf Ehnert (S. 43-58 = Dokument 5); Myriam Geiser (S. 59-92 = Dokument 6); Karl-Richard Bausch (S. 93-98 = Dokument 7); Frank Günther-Spohr (S. 99-124 = Dokument 8); Jeannine Gerbault (S. 125-150 = Dokument 9); Jean-Claude Quentel (S. 151-180 = Dokument 10); Michael Herrmann (S. 181-204 = Dokument 11); Dirk Deissler (S. 205-224 = Dokument 12); Christian Tremmel (S. 225-248 = Dokument 13)
"Ärztenetzwerke" als Reformmodell für den ambulanten Sektor? Diese Frage steht im Mit-telpunkt der vorliegenden Arbeit. Ausgangspunkt der Untersuchung ist die Feststel-lung, daß die institutionelle Fragmentierung des ambulanten Sektors, die aus einer organisato-rischen, rechtlichen und finanziellen Trennung zwischen hausärztlicher und fachärztlicher Versorgung resultiert, zu erheblichen Qualitätseinbußen und Kostensteigerungen in der Gesundheits-versorgung führt. Als Antwort auf diese institutionellen Schwachstellen werden in der derzeitigen Reformdebatte zwei konkurrierende Modelle diskutiert: Ärztenetzwerke und integrierte Versorgungsformen nach Vorbild der amerikanischen Health Maintenance Organizations (HMO's). Vor diesem Hintergrund sind zwei Fragestellungen Gegenstand der folgenden Untersu-chung. Zum einen wird näher analysiert, ob Ärztenetzwerke aus ökonomischer Perspektive geeignet sind, die Fragmentierung der Versorgungsstrukturen im ambulanten Sektor zu beheben. Wenn Ärztenetzwerke als Alternative zur derzeitigen Organisation der ambulanten Versorgung zu empfehlen sind, so wird zum anderen die Frage des effizienten Netzwerkaufbaus und -arrangements beantwortet. Da keine umfassenden theoretischen oder empirischen Studien über Gesundheitsnetzwerke vorliegen, ist das Vorgehen in dieser Arbeit weitestgehend explorativ. Inwiefern Netzwerke zur Verringerung der institutionellen Schwachstellen im ambulanten Sektor beitragen können, ist abhängig von den konkreten Ursachen der Leistungsver-schlechterungen. Daher erfolgt zunächst eine eingehende Darstellung des ambulanten Sektors und eine Ursachenanalyse. Hierauf aufbauend wird aus theoretischer Perspektive näher untersucht, inwiefern Netzwerke zu einer Verringerung dieser Leistungsverschlechterungen beitragen können. Zu diesem Zweck wird die netzwerkliche Organisationsform aus zwei Gründen der marktlichen sowie der hierarchischen bzw. inte-grierten Organisation gegenübergestellt. Auf der einen Seite stellen Netzwerke aus institutio-nenökonomischer Sicht eine Synthese der beiden "Idealtypen" Markt und Hierarchie bzw. Integration dar, so daß über eine netzwerkliche Organisation theoretisch jene Elemente der beiden Systeme miteinander kombiniert werden können, die für die Organisation der Gesund-heitsversorgung als besonders effizient angesehen werden können. Auf der anderen Seite erfolgt ein Vergleich der Effizienz von Netzwerken und integrierten Versor-gungsformen, da diese in der aktuellen Reformdiskussion als Alternative zum derzeitigen System präferiert werden. Bei der Gegenüberstellung der beiden "Idealtypen" stehen vor allem fünf Strukturmerkmale im Vordergrund: die räumliche Organisation der Leistungserstellung, die Koordinations- und Kontrollmechanismen, die Verteilung der Eigentums--rechte und die Kosten der Vertragsausgestaltung zwischen Versicherern und Anbietern. Hieran anschließend wird dargestellt, daß über eine netz-werkliche Organisation die Vorteile der beiden idealtypischen Formen kombiniert werden können. Unter der Annahme, daß das Netzwerkarrangement, das sich aus verschiedenen Netzwerk-regelungen und der Netzwerkstruktur zusammensetzt, Einfluß auf den Anreiz zur Einhaltung der Netzwerkverpflichtungen und die Wahrscheinlichkeit opportunistischen Verhaltens ausüben können, steht im weiteren Verlauf der Arbeit die Frage des effizienten Arrangements im Mittelpunkt. Im Gegensatz zur ersten Fragestellung wird diese sowohl theoretisch als auch empirisch untersucht werden. Unter Berücksichtigung ver-schiedener soziologischer sowie institutionenökonomischer Theorieansätze werden Hypo-thesen über einen optimalen Netzwerk--aufbau abgeleitet. Diese theoretischen Ableitungen werden anhand von Gesundheitsnetzwerken in der Schweiz näher überprüft.
Debatten führen nicht immer zu einem Konsens. Selbst die Vorlage von Beweisen bewirkt nicht immer eine Überzeugung der Gegenseite. Dies zeigt sich nicht nur in der Geschichte der Wissenschaften (vgl. Ludwik Fleck, Bruno Latour), sondern auch in der in unterschiedlichen Disziplinen geführten zeitgenössischen Debatte unter dem Label ‚science wars‘ zwischen einem Realismus und Konstruktivismus beziehungsweise Relativismus. Unterschiede in ihren Legitimierungen zeigen systematisch verschiedene Wirklichkeits- und Wahrheitsverständnisse, die sich aus den vom Seinsstandort der Perspektive abhängigen Grundannahmen konstituieren. Über einen wissenssoziologischen Zugriff wird es möglich die (sozio-)strukturlogische Konstitution von Perspektivität zu analysieren, die eine epistemologisch vorstrukturierte Revolvierung untereinander inkommensurabler Beiträge in der Debatte aufdeckt, was als Erklärung für ungelöste Debatten in Wissenschaft, Politik und Alltag überhaupt fungieren kann.
Die vorliegende Arbeit orientiert sich in ihrem Vorgehen an dem von Paul Boghossian veröffentlichten Werk ‚Angst vor der Wahrheit‘ als zeitgenössischen Vertreter eines Neuen Realismus. Hierbei werden zum einen den direkten Bezügen von Boghossian die Aussagen der kritisierten Perspektiven (v.a. Latour und Goodman) gegenübergestellt, als auch zum anderen weitere Spielarten eines Konstruktivismus (kognitionstheoretischer Konstruktivismus nach Maturana und Varela, soziologischer Konstruktivismus nach Berger und Luckmann, Wissenschaftssoziologie am Beispiel von Bloor und Latour, die Systemtheorie von Luhmann sowie postkonstruktivistische Positionen) in den Dimensionen ‚Wissensverständnis‘, ‚Subjektrelevanz‘ und ‚Einstellung zu einer naturalistischen Grundlage‘ vorgestellt. Es wird eine systematische und beidseitige Fehlinterpretation in der Debatte zwischen Realismus und Konstruktivismus sichtbar. Diese wird auf die Seinsgebundenheit von Perspektiven nach dem Verständnis einer mannheimschen Wissenssoziologie zurückgeführt. Anhand einer Rekonstruktion der Erkenntnistheorie des frühen Mannheims (1922: ‚Strukturanalyse der Erkenntnistheorie‘) wird die (sozio-)strukturlogische Konstitution erkenntnistheoretischer Elemente von Grundwissenschaften herausgearbeitet, wodurch denkstilgemäße Objektivierungen (und damit Wahrheitsverständnisse) unterschieden werden können. Diese Unterschiede erklären nicht nur die Inkommensurabilität von heterogenen Perspektiven in Debatten, sondern zeigen auf, dass das Aufeinandertreffen der Debattierenden vorstrukturiert sind. Der Ablauf einer Debatte ist soziostrukturell determiniert. Abschließend wird in der vorliegenden Arbeit diskutiert, inwiefern der verfahrenen Situation einer Debatte entgegengewirkt werden kann und auf welche Weise eine wissenssoziologische Analyse zu einem gegenseitigen Verständnis zwischen debattierenden Parteien beitragen kann.
Betriebswirtschaftlich ausgerichtete Reformen zur Verbesserung der Effizienz und Effektivität werden zunehmend auch in der Rechtsprechung eingesetzt. Dort stoßen sie vor dem Hintergrund der Gewährleistung der richterlichen Unabhängigkeit zum Teil auf erhebliche Vorbehalte. Bei richtigem Verständnis der Reformmaßnahmen ist dies aber unbegründet. Die Maßnahmen erstrecken sich insbesondere auf Modelle zur Erfolgsmessung, auf die Gestaltung der Geschäftsprozesse sowie auf betriebswirtschaftliche Instrumente (Balanced Scorecard und Kosten- und Leistungsrechnung). Sie müssen nicht nur auf die speziellen Bedingungen der Rechtsprechung abgestimmt sein. Zu den Faktoren für eine erfolgreiche Anwendung gehört vor allen Dingen die Vermittlung betriebswirtschaftlichen Wissens in der Aus- und Fortbildung der Mitarbeiter.
For grape canopy pixels captured by an unmanned aerial vehicle (UAV) tilt-mounted RedEdge-M multispectral sensor in a sloped vineyard, an in situ Walthall model can be established with purely image-based methods. This was derived from RedEdge-M directional reflectance and a vineyard 3D surface model generated from the same imagery. The model was used to correct the angular effects in the reflectance images to form normalized difference vegetation index (NDVI)orthomosaics of different view angles. The results showed that the effect could be corrected to a certain scope, but not completely. There are three drawbacks that might restrict a successful angular model construction and correction: (1) the observable micro shadow variation on the canopy enabled by the high resolution; (2) the complexity of vine canopies that causes an inconsistency between reflectance and canopy geometry, including effects such as micro shadows and near-infrared (NIR) additive effects; and (3) the resolution limit of a 3D model to represent the accurate real-world optical geometry. The conclusion is that grape canopies might be too inhomogeneous for the tested method to perform the angular correction in high quality.
Thema der vorliegenden Arbeit ist eine Analyse alltäglicher Rachereaktionen und rachebezogener Reaktionen unter gerechtigkeitspsychologischen Aspekten. Rache wird als eine Bewältigungsreaktion verstanden, welche mit Hilfe eines handlungstheoretischen Rahmenmodells beschrieben werden kann. Diese Konzeption will sich bewusst von jenen (vor allem in der Rechtsphilosophie vertretenen) Ansätzen, nach denen Rache eine destruktive, affektgesteuerte, irrationale Form der Vergeltung sei, abgrenzen. Besonderes Augenmerk wird auf die Frage gelegt, wo und wie sich der Einfluss gerechtigkeitsbezogener Persönlichkeitseigenschaften (Glaube an eine gerechte Welt, Sensibilität für widerfahrene Ungerechtigkeit, Soziale Verantwortung) sowie gerechtigkeitsbezogener Kognitionen und Emotionen im Prozessmodell einer Rachehandlung verorten lässt. Es wird erstens argumentiert, dass gerechtigkeitsbezogene Persönlichkeitseigenschaften (a) auf die subjektive Bedeutsamkeit gerechtigkeitsbezogener Ziele, (b) auf die Wahrscheinlichkeit, mit der von einer verfügbaren Racheaktion Gebrauch gemacht wird, (c) auf den Einsatz sekundärer Bewältigungsstrategien sowie (d) auf die Bewertung rachebezogener Ereignisse Einfluss nehmen. Zweitens wird argumentiert, dass Racheaktionen zumindest begrenzt rational in dem Sinne sind, als ihnen (im Sinne von "Erwartung-´Wert-Theorien") spezifische Kosten-Nutzen-Überlegungen zugrunde liegen. Drittens wird untersucht, inwiefern die Beobachtung eines Schicksalsschlages zu Lasten des "Täters" aus der Perspektive des "Opfers" ebenso funktional sein (d.h. aversive Emotionen reduzieren und zum Erleben von Genugtuung, Zufriedenheit und wiederhergestellter Gerechtigkeit beitragen) kann wie eine erfolgreich ausgeführte Racheaktion. Es werden vier Studien beschrieben, die die im theoretischen Teil der Arbeit entwickelten Hypothesen konsekutiv prüfen. Bei zwei Studien wird mit Vignetten gearbeitet, bei den beiden anderen handelt es sich um laborexperimentelle Untersuchungen. Die Ergebnisse dieser vier Studien zeigen, dass Rachereaktionen zumindest zu einem gewissen Anteil durch antizipatorische Kognitionen sowie durch gerechtigkeitsbezogene Persönlichkeitseigenschaften vorhergesagt werden können. Ebenso kann der Einfluss gerechtigkeitsbezogener Persönlichkeitseigenschaften auf die subjektive Bedeutsamkeit gerechtigkeitsbezogener Ziele sowie auf sekundäre Bewältigungsstrategien nachgewiesen werden. Ein beobachteter Schicksalsschlag zu Lasten des "Täters" kann zwar Ärger und Frustration auf Seiten des "Opfers" dämpfen, nicht aber Zufriedenheit, Genugtuung und die Wahrnehmung wiederhergestellter Gerechtigkeit signifikant erhöhen. Die Befunde werden vor dem Hintergrund aggressions-, gerechtigkeits- und bewältigungspsychologischer Konzepte diskutiert. Aus einer vertieften methodischen Diskussion der verwendeten Untersuchungsansätze ergeben sich darüber hinaus konkrete Vorschläge dahingehend, wie Racheaktionen und rachebezogene Reaktionen in zukünftigen Studien untersucht werden sollten.
Seit Beginn der Wirtschaftsreformen hat sich in der Volksrepublik China ein tiefgreifender Wandel vollzogen, der alle Bereiche des gesellschaftlichen, wirtschaftlichen und politischen Lebens erfasst zu haben scheint. Infolgedessen ist der Staat - mittlerweile Mitglied der Welthandelsorganisation - zu einem global player geworden, dessen Entwicklung im Westen besonders aufgrund sprunghaft ansteigender Wachstumszahlen im wirtschaftlichen Bereich mit großem Interesse verfolgt wird. Daraus resultierend wird die Volksrepublik in den ausländischen Medien zunehmend - und nicht nur in ökonomischer Hinsicht - als ein Land der Superlative dargestellt. Mit großer Euphorie wird auch das Wachstum des chinesischen Internetsektors beobachtet. Dies gilt insbesondere für den rasanten Anstieg der Nutzerzahlen und die damit verbundenen steigenden Einnahmen nationaler Internetunternehmen. So liest man einerseits häufig von einem Telekommunikations- und Internet-Boom in der Volksrepublik. Andererseits wird die westliche Metadebatte seit Beginn der privaten Internetnutzung in China vom Thema der staatlichen Zensur und Kontrolle des Mediums dominiert. Aufgrund der Dominanz dieser beiden Themenblöcke wird in gewisser Weise der Eindruck vermittelt, die Besonderheiten des Internet in China seien auf enorme Wachstumszahlen und staatliche Restriktion reduzierbar. So widmet sich auch ein Großteil der bisher erschienenen wissenschaftlichen Arbeiten zum Thema "Internet und China" schwerpunktmäßig diesen beiden Aspekten. Unter Berücksichtigung der gesellschaftlichen und institutionellen Realitäten, in deren direktem Zusammenhang Internetnutzung und -angebot in der Volksrepublik stehen, scheint diese eingeschränkte Sichtweise jedoch äußerst fragwürdig. Ziel dieser Arbeit ist es daher, unter Berücksichtigung einer ganzheitlichen Perspektive der Frage nachzugehen, wie sich regionale Ausprägung oder "Chineseness" im chinesischen Internet abzeichnet. Hauptfragestellungen: (1) Was ist unter regionaler Ausprägung des Internet in der Volksrepublik China zu verstehen? (2) Wie und auf welchen Ebenen kann regionale Ausprägung untersucht und bewertet werden? Schlagwörter: China, Internet, Telekommunikation, Reformpolitik, Metadebatte, Chineseness, Jugendkultur, Portale, Zensur, Sprache, Online-Games, Sina, Sohu, Netease, Internetnutzer
Ein gut funktionierendes Umweltmanagementsystem strebt im Allgemeinen nach einer kontinuierlichen Verbesserung der Umweltleistung. Diese kontinuierliche Verbesserung setzt bei den beteiligten Unternehmen einmal die Identifizierung der Umweltaspekte voraus. Die Umweltaspekte beziehen sich vor allem auf den Produktionsprozess und somit auf die Umwelteinwirkungen und - auswirkungen des Produktionsstandortes. Das Potential für kontinuierliche Verbesserung ist nicht immer offensichtlich, wie auch Schwachstellen nicht immer sofort erkannt werden. Beides äußert sich in der Umweltleistung eines Unternehmens. Das vorliegende Bewertungssystem ermöglicht es nun, diese Umweltleistung zu messen und im Sinne des Benchmarking die daraus erlangten Kenntnisse zu nutzen. In dieser Arbeit wird dargestellt, wo die Darstellung der Umweltleistung mit Kennzahlen seine Grenzen hat. Für den operativen Bereich werden daraufhin neue operative Umweltleistungskriterien entwickelt, und es wird gezeigt, wie die Killerargumente gegen einen Vergleich "unterschiedliche Fertigungstiefen und unterschiedlicher Produktoutput" ausgeschaltet werden können. Das Ergebnis sind operative Umweltleistungskriterien, die zwar mit Fehlern belastet sind, aber sie wurden analysiert und auf ein Minimum reduziert. Parallel dazu wird ein Katalog qualitativer Kriterien für den Managementbereich vorgestellt. Hiermit soll der organisatorische Teil, also die "Soft Skills" des Umweltmanagementsystems, abgedeckt werden. Zunächst wurde versucht, diesen Katalog von managementbezogenen Umweltleistungskriterien durch eine Delphi-Befragung zusammenzustellen. Nach einer Analyse der bestehenden Checklisten und Literatur musste dieser jedoch ergänzt werden. Nach dem betriebswirtschaftlichen Grundsatz: "What you cannot measure, you cannot manage." gibt der vorliegende Ansatz die Möglichkeit, durch die Vergabe von Zielerfüllungsgraden auch hier quantitative Aussagen zu machen. Dann wurde der Versuch, unternommen beide Umweltleistungskriterienpakete in einem naturwissenschaftlichen Bewertungsverfahren zu einem Bewertungssystem für Umweltmanagementsysteme zu vereinen. Dieser Versuch mündet in einem praktikablen Ansatz der Umweltleistungsbewertung zugeschnitten, auf die Automobilindustrie. Allerdings wird darauf verzichtet, eine Gesamt- Umweltleistungskennzahl über alle Kriterien zu kreieren, da die Aussage für den Anwender nicht detailliert genug wäre und eine so starke Aggregierung aus bewertungstheoretischer Sicht sehr problematisch ist.
Even though in most cases time is a good metric to measure costs of algorithms, there are cases where theoretical worst-case time and experimental running time do not match. Since modern CPUs feature an innate memory hierarchy, the location of data is another factor to consider. When most operations of an algorithm are executed on data which is already in the CPU cache, the running time is significantly faster than algorithms where most operations have to load the data from the memory. The topic of this thesis is a new metric to measure costs of algorithms called memory distance—which can be seen as an abstraction of the just mentioned aspect. We will show that there are simple algorithms which show a discrepancy between measured running time and theoretical time but not between measured time and memory distance. Moreover we will show that in some cases it is sufficient to optimize the input of an algorithm with regard to memory distance (while treating the algorithm as a black box) to improve running times. Further we show the relation between worst-case time, memory distance and space and sketch how to define "the usual" memory distance complexity classes.
Die sich entwickelnden mittelalterlichen Städte waren Triebfedern für vielfältige sprachliche Entwicklungen. Der in dieser Arbeit gewählte Untersuchungszeitraum von 1388 bis 1500 beleuchtet eine Zeit, in der sich in vielen Städten ein völlig neues System der Namengebung entwickelte. Dies wurde nötig, weil es in einer heterogenen Gesellschaft zunehmend schwieriger wurde, Individuen über ihren Rufnamen eindeutig zu identifizieren, was vor allem im Bereich des Rechts und der Verwaltung zu Problemen führte. Somit mussten neue Wege gefunden werden, um einen Namen in einem schriftlich verfassten und rechtsgültigen Dokument eindeutig einer Person zuordnen zu können. Basis dieser Untersuchung sind die Rechnungsbücher der Stadt Luxemburg, die in jährlichen Berichten penibel die Einnahmen und Ausgaben der Stadt verzeichnen. Tätigkeiten im Dienst der Stadtgemeinschaft wurde entlohnt und die Kosten für jeden einzelnen Arbeiter in den Büchern vermerkt. Somit sind Rechnungsbücher ein reicher Fundus für namenkundliche Analysen. Sie werfen ein Licht auf eine Zeit, in der sich im Bereich der Personennamen ein grundlegend neues System der Namengebung beginnt herauszubilden, dessen Auswirkungen uns bis heute prägen. Die Arbeit besteht aus einem nach verschiedenen Gesichtspunkten gegliederten und kommentierten Namenbuch sowie einer onomastischen Analyse des Bestands.
Die vorliegende Dissertation befasst sich mit der Bildung der Modelle der Komposita in der englischen Sprache.Um eine linguistische Theorie richtig zu bilden, stellen wir 7 Hypothesen auf, die auf umfangreiches englisches Sprachmaterial basieren. Wir schaffen den Regelkreis, der die Möglichkeiten für weitere Untersuchungen in diesem Bereich gibt. In unserem Fall ist diese Untersuchung ein begrenzter Bereich, der als die Bereicherung des Regelkreises von Köhler (2005) gilt (synergetisch-linguistische Modellierung).
Dargestellt werden die Ergebnisse einer Studie zur Raucherprävention bei Schülerinnen und Schülern der 6. Jahrgangsstufe an Gymnasien. Das durchgeführte Programm wird in Manualform genau beschrieben. Es besteht aus einem medizinischen Teil mit den Themen Ernährung, Herz-, Kreislauf- und Lungenfunktion und Sport und Gesundheit sowie einem psychologischen Teil mit den Unterrichtseinheiten Gründe für und gegen das Rauchen, Widerstand gegen das Rauchen und Werbung und Wirklichkeit. Die Ergebnisse einer anonymisiert durchgeführten Begleitstudie beschreiben die Prävalenz des Zigaretten- und Alkoholkonsums vor Beginn und fünf Monate nach der Durchführung des Präventionsprogramms und geben erste Hinweise auf die Effekte des Programms.
Auf der Mikroebene einer durch verwandtschaftliche Kohäsion verbundenen Personengruppe werden in einer prosopographischen Fallstudie Konsistenz und Persistenz sozialer Rangbildung im rheinisch-maasländischen Adel des späten Mittelalters untersucht. Ausgehend von dem wohl berühmtesten Vertreter der Familie von Schönau/von Schönforst, Reinhard von Schönau (ca. 1305-1376), dessen Karriere bereits in der zeitgenössischen Chronistik in Anbetracht seiner sozialen und wirtschaftlichen Ausgangsbedingungen als außergewöhnlich qualifiziert wurde, greift die Themenstellung sowohl auf dessen genealogische Aszendenz wie auch auf seine Deszendenz aus, um in mehr als 35 Biogrammen aus dem Zeitraum von ca. 1250 bis ca. 1450 in einem Längsschnitt über acht Generationen hinweg das überaus disparate Quellenmaterial für die einzelnen Familienmitglieder zusammenzutragen und in seinem historischen Kontext darzustellen. Der innerhalb verschiedener Stratifikationsdimensionen " wirtschaftliche Stellung, politische Position, Konnubium, administrative Funktionen in den miteinander konkurrierenden Landesherrschaften im Westen des Reiches sowie Selbst- und Fremdbezeichnungen " differenziert evaluierte soziale Status der einzelnen Familienmitglieder jenseits einer schematischen Zuweisung in 'hohen' und 'niederen' Adel erlaubt es, strukturelle von individuellen statusbildenden Faktoren zu unterscheiden und deren unterschiedliche Bedeutung für die Persistenz sozialen Ranges darzustellen. Diese Analyse mündet in die These, daß sich die Weitergabe sozialen Ranges in der Generationenabfolge im Rahmen eines Modells hierarchisierter statusbildender Faktoren beschreiben läßt. Dieses Modell ist nicht nur auf andere genealogisch definierte Personengruppen übertragbar, sondern kann im Ergebnis auch Gültigkeit über die Familie von Schönau/von Schönforst und den Rhein-Maas-Raum hinaus beanspruchen.
Im Mittelpunkt der Arbeit steht der spätgotische Kirchenbau der 2. Hälfte des 15. Jahrhunderts im alten Erzbistum Trier. Dabei soll besonderes Augenmerk auf die unter Erzbischof und Kurfürst Johann II. von Baden (1456-1503) neu entstandenen und/oder umgebauten bzw. "modernisierten" Kirchen gelegt werden. Diese wurden in der bisherigen Forschung, bis auf Einzelmonographien, nicht in einer Zusammenschau betrachtet. Auch auf die Bau- und Stiftungspolitik Johanns II. von Baden, der scheinbar sämtliche in seiner Regierungszeit entstandenen Baumaßnahmen durch sein Wappen kennzeichnete, und deren Hintergründe, soll näher eingegangen werden. Neben den bekannteren Bauten in den Zentren des Erzstiftes Trier " Trier und Koblenz - entstanden in der 2. Hälfte des 15. Jahrhunderts im gesamten Erzbistum bedeutende spätgotische Bauten, so etwa in St. Wendel, in Klausen oder die Kirche des ehem. Kreuzherrenklosters Helenenberg. Neben den allgemein bekannteren Bauten sollen in der geplanten Dissertation aber vor allem auch die zahlreichen ländlichen Pfarrkirchen in Eifel, Hunsrück, Westerwald und Rhein-Lahn-Kreis gewürdigt werden. Diese blieben in der bisherigen kunsthistorischen Forschung außen vor, obwohl sie zum Teil von großer künstlerischer Qualität zeugen und einen wesentlichen Beitrag der Kunst- und Kulturgeschichte des Trierer Raumes leisten. Mit einer solchen Arbeit könnte eine Lücke der bisherigen Forschung zum spätmittelalterlichen Kirchenbau in Westdeutschland geschlossen werden, was nicht nur aus kunsthistorischer Sicht, sondern auch aus lokal-historischer, sozial- und kirchengeschichtlicher Sicht dringend erforderlich wäre.
Intensiv diskutierte Aspekte der Politikwissenschaft heben zunehmend die Bedeutung von Strategiefähigkeit zur erfolgreichen Durchführung von Wahlkämpfen für Parteien hervor. Der Widerspruch der mit den Implikationen der modernen Mediengesellschaft eingehergehenden unterstellten Akteursfähigkeit der Parteien und ihrer kollektiven heterogenen Interessens- und Organisationsvielfalt bleibt dabei bestehen. Die Fokussierung der Parteien auf das Ziel der Stimmenmaximierung bringt unter den sich wandelnden Rahmenbedingungen Veränderungen der Binnenstrukturen mit sich. So diskutieren Parteienforscher seit Längerem die Notwendigkeit eines vierten Parteitypus als Nachfolger von Kirchheimers Volkspartei (1965). Verschiedene dieser Ansätze berücksichtigen primär die Wahlkampffokussierung der Parteien, während andere vor allem auf den gesteigerten Strategiebedarf abzielen. Auch die Wechselwirkungen mit den Erfordernissen der Mediengesellschaft sowie Auswirkungen des gesellschaftlichen Wandels stehen im Vordergrund zahlreicher Untersuchungen. Die Arbeit von Uwe Jun (2004), der mit dem Modell der professionalisierten Medienkommunikationspartei auch die organisatorischen und programmatischen Transformationsaspekte des Parteiwandels beleuchtet, liefert einen bemerkenswerten Beitrag zur Party-Change-Debatte und bietet durch die angeschlossene vergleichende exemplarische Fallstudie eine praxisnahe Einordnung. Die geringe empirische Relevanz, die Jun seinem Parteityp anhand der Untersuchung von SPD und New Labor zwischen 1995 und 2005 bestätigt, soll in dieser Arbeit versucht werden zu relativieren, in dem der Parteiwandel der deutschen Großparteien seit der Wiedervereinigung durch die Untersuchung ihrer Wahlkampffähigkeit aufgezeigt wird. Anhand eines längsschnittlichen Vergleiches der Bundestagswahlkämpfe von SPD und CDU zwischen 1990 und 2013 soll die Plausibilität dieses vierten Parteitypus überprüft werden. Hierdurch soll die Entwicklung der Strategie- und Wahlkampffähigkeit beider Großparteien in den Bundestagswahlkämpfen seit 1990 untersucht und die Ergebnisse miteinander verglichen und in Bezug auf den Parteiwandel eingeordnet werden.
Dass sich Parteien genau wie ihre gesellschaftliche und politische Umwelt im Wandel befinden, ist nicht zu bestreiten und seit Langem viel diskutierter Gegenstand der Parteienforschung. „Niedergangsdiskussion“, Mitgliederschwund, Nicht- und Wechselwähler, Politik- und Parteienverdrossenheit, Kartellisierung und Institutionalisierung von Parteien sind nur einige der in diesem Kontext geläufigen Schlagwörter. Prozesse der Individualisierung, Globalisierung und Mediatisierung führen zu veränderten Rahmenbedingungen, unter denen Parteien sich behaupten müssen. Diese Veränderungen in der äußeren Umwelt wirken sich nachhaltig auf das parteipolitische Binnenleben, auf Organisationsstrukturen und Programmatik aus. Die Parteienforschung hat daher schon vor zwanzig Jahren begonnen, ein typologisches Nachfolgemodell der Volkspartei zu diskutieren, das diesen Wandel berücksichtigt. Verschiedene typologische Konstruktionen von z. B. Panebianco (1988), Katz und Mair (1995) oder von Beyme erfassen (2000) wichtige Facetten des Strukturwandels politischer Parteien und stellen mehrheitlich plausible typologische Konzepte vor, die die Parteien in ihrem Streben nach Wählerstimmen und Regierungsmacht zutreffend charakterisieren. Die Parteienforschung stimmt bezüglich des Endes der Volksparteiära mehrheitlich überein. Bezüglich der Nachfolge konnte sich unter den neueren vorgeschlagenen Typen jedoch kein vierter Typ als verbindliches Leitmodell etablieren. Bei genauerer Betrachtung weichen die in den verschiedenen Ansätzen für einen vierten Parteitypen hervorgehobenen Merkmale (namentlich Professionalisierung des Parteiapparates, die Berufspolitikerdominanz, Verstaatlichung und Kartellbildung sowie die Fixierung auf die Medien) wenig von jüngeren Modellvorschlägen ab und bedürfen daher mehr einer Ergänzung. Die in der Regel mehrdimensionalen entwicklungstypologischen Verlaufstypen setzten seit den 1980er Jahren unterschiedliche Schwerpunkte und warten mit vielen Vorschlägen der Einordnung auf. Einer der jüngsten Ansätze von Uwe Jun aus dem Jahr 2004, der das typologische Konzept der professionalisierten Medienkommunikationspartei einführt, macht deutlich, dass die Diskussion um Gestalt und Ausprägungen des vierten Parteityps noch in vollem Gang und für weitere Vorschläge offen ist – der „richtige“ Typ also noch nicht gefunden wurde. Jun bleibt in seiner Untersuchung den zentralen Transformationsleitfragen nach der Ausgestaltung der Parteiorganisation, der ideologisch-programmatischen Orientierung und der strategisch-elektoralen Wählerorientierung verhaftet und setzt diese Elemente in den Fokus sich wandelnder Kommunikationsstrategien. Die bisher in parteitypologischen Arbeiten mitunter vernachlässigte Komponente der strukturellen Strategiefähigkeit als Grundlage zur Entwicklung ebensolcher Reaktionsstrategien wird bei Jun angestoßen und soll in dieser Arbeit aufgegriffen und vertieft werden.
Der aktuellen Partychange-Diskussion zum Trotz scheint die Annahme, dass Parteien, die sich verstärkt der Handlungslogik der Massenmedien unterwerfen, deren strategischen Anforderungen durch interne Adaptionsverfahren auch dauerhaft gerecht zu werden vermögen, nicht immer zutreffend. Die Veränderungen der Kommunikationsstrategien als Reaktion auf gesamtgesellschaftliche Wandlungsprozesse stehen zwar im Zentrum der Professionalisierungsbemühungen der politischen Akteure, bleiben aber in ihrer Wirkung eingeschränkt. Wenngleich das Wissen in den Parteien um die Notwendigkeiten (medialer) Strategiefähigkeit besteht und die Parteien hierauf mit Professionalisierung, organisatorischen und programmatischen Anpassungsleistungen und der Herausbildung strategischer Zentren reagieren, so ist mediengerechtes strategisches Agieren noch lange keine natürliche Kernkompetenz der Parteien. Vor allem in Wahlkampfzeiten, die aufgrund abnehmender Parteibindungen und zunehmender Wählervolatilität für die Parteien zum eigentlich zentralen Moment der Parteiendemokratie werden, wird mediengerechtes Handeln zum wesentlichen Erfolgsfaktor. Strategiefähigkeit wird hierbei zur entscheidenden Voraussetzung und scheint zudem in diesen Phasen von den Parteien erfolgreicher umgesetzt zu werden als im normalen politischen Alltag. Die wahlstrategische Komponente findet in Juns typologischer Konstruktion wenig Beachtung und soll in dieser Arbeit daher als ergänzendes Element hinzugefügt werden. Arbeitshypothese Die beiden deutschen Großparteien berufen sich auf unterschiedliche Entstehungsgeschichten, die sich bis in die Gegenwart auf die Mitglieder-, Issue- und Organisationsstrukturen von SPD und CDU auswirken und die Parteien in ihren Anpassungsleistungen an die sich wandelnde Gesellschaft beeinflussen. Beide Parteien versuchen, auf die veränderten sozialen und politischen Rahmenbedingungen und den daraus resultierenden Bedeutungszuwachs von politischer Kommunikationsplanung mit einem erhöhten Maß an Strategiefähigkeit und kommunikativer Kompetenz zu reagieren. Diese Entwicklung tritt seit der deutschen Wiedervereinigung umso stärker in Augenschein, als dass nach 1990 die Bindekraft der Volksparteien nochmals nachließ, sodass die Parteien sich zunehmend gezwungen sehen, die „lose verkoppelten Anarchien“ in wahlstrategische Medienkommunikationsparteien zu transformieren. Diesen vierten Parteityp kennzeichnet vor allem die zunehmende Bemühung um Strategiefähigkeit, die mittels Organisationsstrukturen und programmatischer Anpassungsleistungen die Effizienz der elektoralen Ausrichtung verbessern soll. Insgesamt geht die Party-Change-Forschung davon aus, dass die Parteien sich zunehmend angleichen. Dies gilt es in dieser Studie zu überprüfen. Unter Berücksichtigung unterschiedlicher Entwicklungspfade kann vermutet werden, dass auch die Transformationsprozesse bei SPD und CDU in unterschiedlicher Weise verlaufen. Wenngleich die SPD über einen höheren Strategiebedarf und die größere Innovationsbereitschaft zu verfügen scheint, werden auf Seiten der Union potentiell strategiefähigere Strukturen vermutet, die die erfolgreiche Umsetzung von Wahlkampfstrategien erleichtern. Die historische Entwicklung und der Aspekt der Historizität spielen in diesem Kontext eine Rolle.
Zusätzlich spielen individuelle Führungspersönlichkeiten eine zentrale Rolle in innerparteilichen Transformationsprozessen, welche für die Ausprägung strategiefähiger Strukturen oftmals von größerer Bedeutung sind als institutionalisierte Strukturen. Im Vordergrund steht die Untersuchung des Parteiwandels anhand der Veränderung der Kommunikationsstrategien der Parteien im Allgemeinen sowie der Strategiefähigkeit in Wahlkämpfen im Besonderen, da diese als zentrale Merkmale für den vierten Parteityp in Anlehnung an die Professionelle Medienkommunikationspartei (Jun 2004) gewertet werden sollen. Strategiefähigkeit soll dabei anhand der Kriterien des Umgangs der Parteien mit Programmatik, Organisation und externen Einflussfaktoren in Wahlkämpfen operationalisiert werden. Die Analyse untersucht sowohl das Handeln einzelner Personen wie auch die Rolle der Partei als Gesamtorganisation. Die Arbeit besteht aus zehn Kapiteln und gliedert sich in zwei Blöcke: einen theoretisch konzeptionellen Teil, der die in der Perspektive dieser Arbeit zentralen Grundlagen und Rahmenbedingungen zusammenführt sowie die sich daran anschließende Untersuchung der Konzeption und Implementation von Kommunikationskampagnen im Wahlkampf seit 1990. Das aktuell in die politikwissenschaftliche Diskussion eingebrachte Feld der politischen Strategiefähigkeit (Raschke/Tils 2007) wird in ausführlicher theoretischer Grundlegung bisher zwar mit den Implikationen der Medienkommunikation und damit einhergehend auch den organisatorischen und programmatischen Strukturmerkmalen der Parteien verknüpft, diese erfolgte allerdings oft ohne vertiefte Berücksichtigung des Parteiwandels. Dies soll in diesem Beitrag daher versucht werden. Der Diskursanalyse des Strategiebegriffes in Wahlkampfsituationen folgt die detaillierte Darstellung der drei Operationalisierungsparameter, die in die Festlegung des Parteityps münden. Die Diskussion idealtypischer Wahlkampfmodelle als theoretischer Bezugsrahmen für die Bewertung der Wahlkampagnen ergänzt den theoretisch-konzeptionellen Bezugsrahmen. Die insgesamt in der Literatur in ihren Ausführungen oftmals normativ gestalteten Darstellungen idealtypischer politischer Strategie sollen im letzten Teil der Arbeit auf ihre Umsetzbarkeit im parteipolitischen Alltag überprüft werden und dies nicht nur anhand einzelner, mit einander nicht in Zusammenhang stehender Ereignisse, sondern anhand der sich periodisch unter vergleichbaren Bedingungen wiederholenden Wahlkämpfe. Dafür werden die jeweiligen Ausgangs- und Rahmenbedingungen der einzelnen Wahlkämpfe sowie die zuvor dargelegten Elemente professionalisierter Wahlkampagnen für die Wahlkampagnen von SPD und CDU seit 1990 dargestellt. Aus diesen Gegenüberstellungen soll im Anschluss der längsschnittliche Vergleich der Strategiefähigkeit und Kommunikationskompetenz von SPD und CDU abgeleitet werden
Im März 196 v. Chr. erließ eine in Memphis versammelte Synode von Priestern aus den Tempeln Ägyptens ein Ehrendekret in drei verschiedenen Sprachen für den amtierenden Herrscher Ptolemaios V. Epiphanes: Der klassischen Sprache des pharaonischen Ägypten, geschrieben in altägyptischen Hieroglyphen, dem Demotischen, der damals gesprochenen Sprachstufe des Altägyptischen und dem hellenistischen Griechisch des 2 Jh.. Von dieser Textsorte sind bisher insgesamt nur vier relativ vollständig erhaltene Beispiele auf uns gekommen. Diese folgen sämtlich in ihrem Formular in hohem Maße der im griechischen Bereich ubiquitären Psephismata und setzen alle im jeweiligen Beschlussteil Ehrungen fest, die die Rolle des ptolemäisch-hellenistischen Herrschers im Kontext der altägyptischen Kulte betreffen. Die vorliegende Arbeit will zum einen in ihrem Kommentarteil eine Grundlage für die weitere Beschäftigung mit allen drei Sprachfassungen des Dekrets von Memphis durch die ptolemaistisch-althistorische Forschung leisten. Zum anderen möchte sie auf Grundlage des Textes die Rolle des Herrschers aus Sicht der beschließenden Priesterschaft beleuchten. Es kann gezeigt werden, dass das Dekret - anders als bisher angenommen - nicht zur eigentlichen Thronbesteigung, sondern anlässlich eines späteren Thronjubiläums erlassen wurde und gleichwohl die Fiktion eines innenpolitischen Neuanfangs (vermutlich im Sinne des Hofes) angesichts erster, bescheidener Erfolge gegen innere Aufstände der indigenen Bevölkerung in Unter- und Oberägypten inszeniert. Die kultische Herrscherverehrung hellenischer Provenienz erscheint in diesem Text ggü. den früheren Dekreten von Kanobos und Raphia relativ vollständig in den altägyptischen religiösen Kontext übersetzt, sodass hier durchaus von einem "ägyptischen Herrscherkult" gesprochen werden kann. Dabei wird der sehr junge fünfte Ptolemäerkönig sehr auffällig mit Kindformen des Gottes Horus (Harendotes, Harsiese) gleichgesetzt, was zum einen die legitime Machtübernahme durch den Sohn des verstorbenen Herrschers von einer im ägyptischen Kontext religiös definierten Sieghaftigkeit gegen die "Götterfeinde" abhängig erscheinen lässt, zum anderen den König in den Kontext der spätzeitlichen Verehrung von Kindgottheiten und Götterttriaden setzt. Alles in allem scheint die ägyptische Priesterschaft mittels einer für die eigenen Bedürfnisse flexibel adaptierten ursprünglich griechischen Textform den eigenen Anspruch auf Definition religiös legitimierter Königsmacht erhoben und im Diskurs um Privilegien und Unterstützung im ptolemäischen Ägypten kommuniziert zu haben.
Floods are hydrological extremes that have enormous environmental, social and economic consequences.The objective of this thesis was a contribution to the implementation of a processing chain that integrates remote sensing information into hydraulic models. Specifically, the aim was to improve water elevation and discharge simulations by assimilating microwave remote sensing-derived flood information into hydraulic models. The first component of the proposed processing chain is represented by a fully automated flood mapping algorithm that enables the automated, objective, and reliable flood extent extraction from Synthetic Aperture Radar images, providing accurate results in both rural and urban regions. The method operates with minimum data requirements and is efficient in terms of computational time. The map obtained with the developed algorithm is still subject to uncertainties, both introduced by the flood mapping algorithm and inherent in the image itself. In this work, particular attention was given to image uncertainty deriving from speckle. By bootstrapping the original satellite image pixels, several synthetic images were generated and provided as input to the developed flood mapping algorithm. From the analysis performed on the mapping products, speckle uncertainty can be considered as a negligible component of the total uncertainty. In the final step of the proposed processing chain real event water elevations, obtained from satellite observations, were assimilated in a hydraulic model with an adapted version of the Particle Filter, modified to work with non-Gaussian distribution of observations. To deal with model structure error and possibly biased observations, a global and a local weight variant of the Particle Filter were tested. The variant to be preferred depends on the level of confidence that is attributed to the observations or to the model. This study also highlighted the complementarity of remote sensing derived and in-situ data sets. An accurate binary flood map represents an invaluable product for different end users. However, deriving from this binary map additional hydraulic information, such as water elevations, is a way of enhancing the value of the product itself. The derived data can be assimilated into hydraulic models that will fill the gaps where, for technical reasons, Earth Observation data cannot provide information, also enabling a more accurate and reliable prediction of flooded areas.
Die Dissertation mit dem Thema "Cross-Border-Leasing als Instrument der Kommunalfinanzierung " Eine finanzwirtschaftliche Analyse unter besonderer Berücksichtigung der Risiken - befasst sich am Beispiel des primär steuerinduzierten, grenzüberschreitenden Cross-Border-Leasings (CBL) mit einem innovativen, strukturierten Finanzierungsinstrument, das sich im Spannungsfeld von Rechtsstaatlichkeit und privatwirtschaftlichem Management öffentlicher Akteure befindet. Dazu werden bereits finanzierte und sich im Betrieb befindliche Assets in Variationen von langfristigen Leasingverträge eingebracht. Durch die geschickte Ausnutzung steuerlicher Zurechnungskriterien werden unter Einbindung mehrerer Jurisdiktionen Gewinnverschiebungsmöglichkeiten und Steueroptimierungspotenziale geschaffen, wobei die generierten Zusatzerträge unter den Akteuren aufgeteilt werden. Die Untersuchung orientiert sich an einem umfassenden forschungsleitenden Fragenkatalog, der sehr vielschichtig und zudem interdisziplinär die komplexen Aspekte des CBLs theoretisch sowie praktisch an einem Fallbeispiel untersucht. Zunächst erfolgt die Einbettung des CBLs in den kommunalen Hintergrund. Daran schliesst sich eine Darstellung des Untersuchungsgegenstands im Hinblick auf seine elementare Grundstruktur, Zahlungsströme, Vertragsparteien und deren bilateralen Verpflechtungen an. Daneben erfolgt eine Analyse der öffentlich-rechtlichen Implikationen des CBLs sowie der regulatorischen kommunalaufsichtsrechtlichen Anforderungen. Im zentralen empirischen Teil der Dissertation wird eine idealtypische CBL-Transaktion einer bundesdeutschen Metropole als Fallstudie analysiert: im Rahmen einer erstmaligen wissenschaftlichen Analyse einer Orginaldokumentation werden zunächst die strukturellen Rahmenparameter untersucht, um dann den Finanzierungsvorteil der Transaktion zu ermitteln. Eine Klassifikation erfolgt dabei in diejenigen Risken, die sich unmittelbar im Einflussbereich der Kommune befinden und somit direkt, d.h. durch aktives eigenes Handeln, minimiert oder vermieden werden können und in solche, die aus ihrer Sicht extern sind. Abgerundet wird die Risikoanalyse durch eine Abschätzung der maximalen Risikoposition in Form der Schadensersatzzahlungen, die die Kommune in vertraglich vereinbarten Fällen leisten muss. Dabei ermittelt die Verfasserin den Break-Even der Transaktion und setzt Szenarien sowie mathematische Modelle ein, um die inhärenten Risiken aufgrund ihrer Kostenfolgen sorgfältig gegenüber dem vereinnahmten kurzfristigen Vorteil abzuwägen. Die Untersuchung bedient sich dem anerkannten mathematisch-statistischen Value-at-Risk-Verfahren (VaR), das unter Verwendung von Ansätzen der Wahrscheinlichkeitsverteilung das Marktpreisrisiko zu quantifizieren vermag. Um zu validen Ergebnissen zu gelangen, werden zur Ermittlung des VaRs die beiden bekanntesten (nicht-parametrischen) Tools des VaR-Ansatzes angewendet, um die potenziellen Performanceschwankungen des Depotwertes unter Zugrundelegung bestimmter Wahrscheinlichkeiten abschätzen zu können. Dies ist das Verfahren der Historischen Simulation sowie die als mathematisch sehr anspruchsvoll eingestufte Monte-Carlo-Simulation. Als Weiterentwicklung des VaR-Modells wird zudem der Conditional VaR berechnet, der Aussagen über das Ausmaß der erwarteten Verluste zulässt. Anhand dieser Ergebnisse wird die maximale finanzielle Risikoposition der Kommune, bezogen auf das Kapitaldepot, abgeleitet. Darüber hinaus wird das CBL im Rahmen eines mathematischen Modells insgesamt beurteilt, indem eine Gegenüberstellung von vereinnahmtem Finanzierungsvorteil und den mit Eintrittswahrscheinlichkeiten gewichteten Ausfallrisiken, unter Berücksichtigung des jeweiligen Eintrittszeitpunktes, durchgeführt wird. Diese Vorgehensweise führt zu einer Symbiose aus Finanzierungsvorteil und den Risikomaßzahlen VaR, Expected Shortfall und Expected Loss. Die ermittelten finanzwirtschaftlichen Risikomaßzahlen führen zu überraschenden Ergebnissen, die die propagierte Risikolosigkeit und das vermeintlich attraktive Renditepotenzial derartiger Transaktionen eindeutig verneinen. Aus den gewonnenen Erkenntnissen leitet die Verfasserin praktische Handlungsempfehlungen und Absicherungsmöglichkeiten für kommunale Entscheidungsträger ab. Die sich aufgrund der US-Steuerrechtsänderung vom Februar 2005 ergebenden Auswirkungen auf bestehende Transaktionen wie auch auf Neugeschäfte werden im Ausblick dargelegt.
With the ongoing trend towards deep learning in the remote sensing community, classical pixel based algorithms are often outperformed by convolution based image segmentation algorithms. This performance was mostly validated spatially, by splitting training and validation pixels for a given year. Though generalizing models temporally is potentially more difficult, it has been a recent trend to transfer models from one year to another, and therefore to validate temporally. The study argues that it is always important to check both, in order to generate models that are useful beyond the scope of the training data. It shows that convolutional neural networks have potential to generalize better than pixel based models, since they do not rely on phenological development alone, but can also consider object geometry and texture. The UNET classifier was able to achieve the highest F1 scores, averaging 0.61 in temporal validation samples, and 0.77 in spatial validation samples. The theoretical potential for overfitting geometry and just memorizing the shape of fields that are maize has been shown to be insignificant in practical applications. In conclusion, kernel based convolutions can offer a large contribution in making agricultural classification models more transferable, both to other regions and to other years.
In order to discuss potential sustainability issues of expanding silage maize cultivation in Rhineland-Palatinate, spatially explicit monitoring is necessary. Publicly available statistical records are often not a sufficient basis for extensive research, especially on soil health, where risk factors like erosion and compaction depend on variables that are specific to every site, and hard to generalize for larger administrative aggregates. The focus of this study is to apply established classification algorithms to estimate maize abundance for each independent pixel, while at the same time accounting for their spatial relationship. Therefore, two ways to incorporate spatial autocorrelation of neighboring pixels are combined with three different classification models. The performance of each of these modeling approaches is analyzed and discussed. Finally, one prediction approach is applied to the imagery, and the overall predicted acreage is compared to publicly available data. We were able to show that Support Vector Machine (SVM) classification and Random Forests (RF) were able to distinguish maize pixels reliably, with kappa values well above 0.9 in most cases. The Generalized Linear Model (GLM) performed substantially worse. Furthermore, Regression Kriging (RK) as an approach to integrate spatial autocorrelation into the prediction model is not suitable in use cases with millions of sparsely clustered training pixels. Gaussian Blur is able to improve predictions slightly in these cases, but it is possible that this is only because it smoothes out impurities of the reference data. The overall prediction with RF classification combined with Gaussian Blur performed well, with out of bag error rates of 0.5% in 2009 and 1.3% in 2016. Despite the low error rates, there is a discrepancy between the predicted acreage and the official records, which is 20% in 2009 and 27% in 2016.
Agricultural monitoring is necessary. Since the beginning of the Holocene, human agricultural
practices have been shaping the face of the earth, and today around one third of the ice-free land
mass consists of cropland and pastures. While agriculture is necessary for our survival, the
intensity has caused many negative externalities, such as enormous freshwater consumption, the
loss of forests and biodiversity, greenhouse gas emissions as well as soil erosion and degradation.
Some of these externalities can potentially be ameliorated by careful allocation of crops and
cropping practices, while at the same time the state of these crops has to be monitored in order
to assess food security. Modern day satellite-based earth observation can be an adequate tool to
quantify abundance of crop types, i.e., produce spatially explicit crop type maps. The resources to
do so, in terms of input data, reference data and classification algorithms have been constantly
improving over the past 60 years, and we live now in a time where fully operational satellites
produce freely available imagery with often less than monthly revisit times at high spatial
resolution. At the same time, classification models have been constantly evolving from
distribution based statistical algorithms, over machine learning to the now ubiquitous deep
learning.
In this environment, we used an explorative approach to advance the state of the art of crop
classification. We conducted regional case studies, focused on the study region of the Eifelkreis
Bitburg-Prüm, aiming to develop validated crop classification toolchains. Because of their unique
role in the regional agricultural system and because of their specific phenologic characteristics
we focused solely on maize fields.
In the first case study, we generated reference data for the years 2009 and 2016 in the study
region by drawing polygons based on high resolution aerial imagery, and used these in
conjunction with RapidEye imagery to produce high resolution maize maps with a random forest
classifier and a gaussian blur filter. We were able to highlight the importance of careful residual
analysis, especially in terms of autocorrelation. As an end result, we were able to prove that, in
spite of the severe limitations introduced by the restricted acquisition windows due to cloud
coverage, high quality maps could be produced for two years, and the regional development of
maize cultivation could be quantified.
In the second case study, we used these spatially explicit datasets to link the expansion of biogas
producing units with the extended maize cultivation in the area. In a next step, we overlayed the
maize maps with soil and slope rasters in order to assess spatially explicit risks of soil compaction
and erosion. Thus, we were able to highlight the potential role of remote sensing-based crop type
classification in environmental protection, by producing maps of potential soil hazards, which can
be used by local stakeholders to reallocate certain crop types to locations with less associated
risk.
In our third case study, we used Sentinel-1 data as input imagery, and official statistical records
as maize reference data, and were able to produce consistent modeling input data for four
consecutive years. Using these datasets, we could train and validate different models in spatially
iv
and temporally independent random subsets, with the goal of assessing model transferability. We
were able to show that state-of-the-art deep learning models such as UNET performed
significantly superior to conventional models like random forests, if the model was validated in a
different year or a different regional subset. We highlighted and discussed the implications on
modeling robustness, and the potential usefulness of deep learning models in building fully
operational global crop classification models.
We were able to conclude that the first major barrier for global classification models is the
reference data. Since most research in this area is still conducted with local field surveys, and only
few countries have access to official agricultural records, more global cooperation is necessary to
build harmonized and regionally stratified datasets. The second major barrier is the classification
algorithm. While a lot of progress has been made in this area, the current trend of many appearing
new types of deep learning models shows great promise, but has not yet consolidated. There is
still a lot of research necessary, to determine which models perform the best and most robust,
and are at the same time transparent and usable by non-experts such that they can be applied
and used effortlessly by local and global stakeholders.
One of the current issues in psycholinguistics is how the frequency of syntactic structures influences the mental processing of sentences, especially in the case of ambiguous constructions. The present work attempts to shed light on this issue from the perspective of computational and corpus linguistics. Existing theories of human sentence processing assign different roles to frequency, varying from certain 'principle-based' models that completely ignore it to 'experience-based' models relying on frequency alone. The present work develops a frequency-based parsing component that may be combined with other factors influencing disambiguation. This module, named the Optimized Frequency Constraint (OFC), addresses questions largely left open by existing frequency-based models: How are the frequencies of syntactic structures stored mentally? When does the human sentence processing mechanism access this stored information, and in what sequence? OFC is then applied to a range of syntactic constructions in German (licensing, attachment of phrases and relative clauses, word order, etc.) that have been used in psycholinguistic experiments. The settings of OFC's parameters are determined by analyzing German corpus data. The predictions based on OFC are confirmed by the results reported in the psycholinguistic literature in most cases, indicating that OFC offers psychologically valid predictions of the influence of frequency in human parsing.
Seit den frühen siebziger Jahren ist im anglo-amerikanischen Raum eine große Anzahl an Romanen erschienen, die alle auf einer bzw. zwei eng verwandten schottischen Feenballaden ("Thomas the Rhymer" und "Tam Lin") basieren. Die vorliegende Arbeit untersucht eine Auswahl dieser Romane in vergleichender Perspektive. Der erste Teil beschäftigt sich mit Feenglauben und -literatur im Allgemeinen, während der zweite Teil der Analyse von zehn auf den Balladen basierenden Romanen gewidmet ist. Da im Ausgangsmaterial Elemente keltischen Volksglaubens eine zentrale Rolle spielen, untersucht das erste Kapitel die Grundlagen und möglichen Ursprünge des keltischen Feenglaubens. Um neben einer Einführung in die volkskundlichen Grundlagen auch eine Verankerung der Arbeit in aktuellen literaturwissenschaftlichen Theorien zu gewährleisten, gibt das zweite Kapitel einen Überblick über Theorien der phantastischen Literatur. Vorgestellt werden strukturalistische und funktionale Ansätze, die sich chronologisch von J.R.R. Tolkien (1948) über Tzvetan Todorov (1970) bis hin zu Farah Mendlesohn (2005) bewegen. Um die Bearbeitungen der frühmodernen Balladen literaturgeschichtlich einzuordnen, zeichnet das nächste Kapitel die Geschichte der literarischen Bearbeitungen des Elfenstoffes in der Literatur vom Mittelalter bis ins späte 20. Jahrhundert nach, mit Schwerpunkt auf englischsprachigen Werken. Von im Mittelalter noch stark vom Volksglauben beeinflussten, moralisch ambivalenten Figuren entwickeln sich die Elfen seit dem 16. Jahrhundert zu satirisierten, miniaturisierten und verniedlichten Gestalten; die Fantasyromane des späten 20. Jahrhunderts scheinen jedoch wieder zu stärker bedrohlichen Elfen zurück zu finden. Das nächste Kapitel widmet sich der Darstellung des Ausgangsmaterials, der zwei Balladen, die als Nr. 37 bzw. 39 in der Balladensammlung von Francis James Child zu finden sind. Erläutert werden die Entstehungsgeschichte der traditionellen Ballade (traditional ballad) im Allgemeinen und von Child Nr. 37 und 39 im Besonderen, sowie Varianten, Symbolik und Besonderheiten der zwei Balladen. Die anschließenden Analysekapitel beschäftigen sich jeweils schwerpunktmäßig mit einer Balladenadaption in Romanform: - Dahlov Ipcar: The Queen of Spells (1973) - Elizabeth Marie Pope: The Perilous Gard (1974) - Diana Wynne Jones: Fire and Hemlock (1984) - Ellen Kushner: Thomas the Rhymer (1990) - Pamela Dean: Tam Lin (1991) - Terry Pratchett: Lords and Ladies (1992) und The Wee Free Men (2003) - Patricia McKillip: Winter Rose (1996) Alle Analysekapitel sind ähnlich strukturiert: Nach kurzer Vorstellung des Autors folgt eine Zusammenfassung der Romanhandlung. Da alle Romane mehr oder weniger stark intertextuell sind, werden daraufhin Einflüsse und intertextuelle Anspielungen untersucht. Besonderes Augenmerk liegt dabei auf der Verarbeitung der zwei Child-Balladen. Da nahezu alle untersuchten Romane ähnliche Hauptcharaktere aufweisen (junges Mädchen, junger Mann, Elfenkönigin) untersuchen die Analysekapitel diese Figurenkonstellation sowie die hier verarbeiteten folkloristischen Einflüsse. Trotz der großen zeitlichen und geographischen Bandbreite der Schauplätze sind sich die Romane erstaunlich ähnlich, vor allem in der Darstellung ihrer Hauptfiguren. Die weibliche Heldin ist meist jung, eigenwillig und unterscheidet sich oft durch eine negative Charaktereigenschaft oder Umweltbedingung von ihren Altersgenossinnen. Nahezu alle Romane werden aus der Perspektive der weiblichen Hauptfigur erzählt. Dies führt dazu, dass die männliche Hauptfigur weniger zentral und oft durch eine gewisse Passivität gekennzeichnet ist. Infolgedessen ist die zweite aktive Figur der Konstellation ebenfalls eine Frau " die Elfenkönigin. Auch in ihrer Darstellung lassen sich in allen Romanen große Gemeinsamkeiten finden: Sie ist attraktiv und grausam, kühl und oft überheblich. Insgesamt werden die Elfen in den Romanen deutlich unsympathisch geschildert. Sie sind eine Spezies schöner, (fast) unsterblicher, oft übernatürlich intelligenter und mit magischen Fähigkeiten begabter Wesen, doch sind sie auch kalt, grausam und vollkommen fremdartig und unverständlich für die Menschen. Ein möglicher Grund für die negative Darstellung der Elfen scheint didaktischer Art zu sein, da die Botschaft aller Adaptionen an die Leser lauten könnte: "Akzeptiere deine Unvollkommenheit und lass dich nicht von vermeintlich überlegenen Gegnern einschüchtern " auch sie haben Schwächen". Auch in Richtung Gender-Diskurs scheinen viele der Autoren eine Aussage machen zu wollen. Sie zeichnen ihre Heldinnen als "starke Mädchen", die in einer Umkehrung des "damsel in distress"-Schemas einen Mann aus der Gefangenschaft der Elfen retten. Als feministisch kann man die Adaptionen jedoch nicht bezeichnen, da sie hierzu eher zu konservativ sind, was sich vor allem darin zeigt, dass die einzige Frau im Roman, die wirklich über Macht verfügt " nämlich die Elfenkönigin " am Ende die Verliererin ist.
Zu den klassischen Verteilungen der mathematischen Statistik zählen die zentralen F- und t-Verteilungen. Die vorliegende Arbeit untersucht Verallgemeinerungen dieser Verteilungen, die sogenannten doppelt nichtzentralen F- und t-Verteilungen, welche in der statistischen Testtheorie von Bedeutung sind. Die Tatsache, dass die zugehörigen Wahrscheinlichkeitsdichten nur in Form von Parameterintegral- bzw. Doppelreihendarstellungen gegeben sind, stellt eine große Herausforderung bei der Untersuchung analytischer Eigenschaften dar. Unter Verwendung von Techniken aus der Theorie der vorzeichenregulären Funktionen gelingt es, die bisher vermutete, jedoch lediglich aus Approximationen abgeleitete, strikt unimodale Gestalt der Dichtefunktion für eine große Klasse doppelt nichtzentraler Verteilungen zu zeigen. Dieses Resultat gestattet die Untersuchung des eindeutig bestimmten Modus als Funktion gewisser Nichtzentralitätsparameter. Hier erweist sich die Theorie der vorzeichenregulären Funktionen als wichtiges Hilfsmittel, um monotone Abhängigkeiten nachzuweisen.
Die vorliegende Dissertation präsentiert sich im Rahmen einer Synopse des Buches Laozi bestehend aus der Wang-Bi-Ausgabe, den beiden Mawangdui-Seidentexten sowie den drei Guodian-Bambustexten. Diese verschiedenen Textversionen werden einzeln ins Deutsche übersetzt und kommentiert. Zusätzlich zu meinen eigenen Übersetzungen ins Deutsche werden auch die älteren englischen Übersetzungen D.C. Laus und Wing-Tsit Chans - und zum Teil auch die weiterer bekannter Übersetzer - zur Verfügung gestellt, um weiteres Nachdenken anzuregen über die Bedeutung einzelner Zeichen, ja selbst ganzer Sätze, aber auch über die Interpretation grammatikalischer Strukturen. Die im direkten Anschluß an die chinesischen Textversionen und ihre Übersetzungen zu findende Kommentierung bezieht sich sowohl auf einzelne Zeichen, auf ganze Ausdrücke als auch auf das im Buch Laozi zu findende gesellschaftskritische Gedankengut - denn Hauptaugenmerk dieser Arbeit ist auf der Grundlage philologischer Kleinarbeit speziell die das Buch Laozi charakterisierende gesellschaftskritische Grundhaltung. Die vorliegende Dissertation bemüht sich durch zahlreiche werkimmanente Querverweise, durch die Betonung bestimmter bisher nicht erstellter Querverbindungen innerhalb des Buches Laozi und mit Hilfe von Textbeispielen aus einem weltanschaulich teilweise verwandten Text, dem Buch Zhuangzi (ca. 4./3. Jh.v.Chr.), einen in sich geschlossenen gesell-schaftskritischen Gesamtzusammenhang herauszuarbeiten und diesen zu verdeutlichen. In der abschließenden Auswertung zeigt sie, daß die im Buch Laozi vorgetragenen gesellschaftskritischen Bedenken gegen eine zivilisatorische Entwicklungsrichtung und eine Konzentration auf Wissen auch von einem "modernen" Standpunkt aus nicht automatisch als naiv zu betrachten sind.
Während die Ziele "Sicherheit" und "Europa" der polnischen Außenpolitik nach 1989 mit dem Beitritt zu Europarat, NATO und EU bereits nahezu gelöst sind und die in diesem Zusammenhang auftretenden Probleme in den Rechts- und Sozialwissenschaften in West und Ost schon in breiterem Rahmen diskutiert wurden, steht vor allem die westliche systematische Forschung zur polnischen Ostpolitik nach 1989 noch am Anfang. Dies mag zum Teil an in Westeuropa fehlenden profunden Sprach- und Landeskenntnissen oder vermeintlich fehlender tagespolitischer Aktualität liegen. Jedoch ist offensichtlich, dass das Thema nach dem EU-Beitritt Polens und der damit einhergehenden direkten Nachbarschaft der Union mit Weißrussland und der Ukraine auf der Brüsseler Agenda weit nach vorne gelangen wird. Theoretisch-methodisch stützt sich die Arbeit auf moderat-konstruktivistische Ansätze (PAFE-Ansatz der Universität Trier), verfolgt einen qualitativen Ansatz und stützt sich bewusst auf den wichtigsten außenpolitischen Akteur eines Staates " die Regierung. Im Falle Polens verdienen neben dem Ministerrat vor allem der Präsident und der Senat, die zweite Kammer des polnischen Parlamentes, besondere Aufmerksamkeit. Ferner konzentriert sich die Dissertation auf eine Analyse des (nicht notwendig entgegengesetzt gerichteten) Diskurses und Verhaltens. Die empirischen Ergebnisse der Dissertation sind insbesondere Resultat eines zweijährigen Forschungsaufenthaltes in Warschau mit Studienreisen nach Kaliningrad, Vilnius, Minsk, Grodno, Lemberg und Kiev. Die Dissertation präsentiert ihre Ergebnisse in drei Fallstudien: zur polnischen Minderheit in Litauen, Weißrussland und der Ukraine, zur polnischen Außenwirtschaftsförderung nach Osteuropa und zu den Regelungen und der Bedeutung des Schengener Übereinkommens für die polnische Ostgrenze nach Polens EU-Beitritt. Dabei ergab sich insbesondere ein bis heute offener Diskurs zu Minderheitenfragen sowie im Verhalten eine nur schwache Rolle des Ministerrates, der in dieser Hinsicht eindeutig vom Senat dominiert wird. In Fragen der Außenwirtschaftsförderung ergab sich ein leichtes Übergewicht für die Verfechter der "strategischen Partnerschaften" mit der Ukraine und Litauen und gegen eine Ökonomisierung der bilateralen Beziehungen mit osteuropäischen Staaten um jeden Preis. In der Praxis zerstob indes aufgrund der fortdauernden instabilen Lage in Osteuropa rasch die Hoffnung, dass die GUS-Staaten ein vielversprechender Zukunftsmarkt werden würden. Ferner blieb die Eigenkapitalknappheit polnischer Firmen ein Kernhindernis. Die Studie über das Schengener Übereinkommen ergab, dass sich der Diskurs nur zögerlich öffnete. Im Verhalten erwies sich Warschau dagegen als sehr aktiv und akzeptierte bereits 1993 (mit der Ukraine) bzw. 1997 (mit Litauen) den visumfreien Reiseverkehr mit zwei seiner vier östlichen Nachbarn, lehnte jedoch den von Russland und Weißrussland geforderten visumfreien Reiseverkehr ohne Rücknahmeabkommen ab. Gegenüber der EU konnte Polen für die Zeit nach dem EU-Beitritt zumindest die Einreise für Ukrainer nach Polen mit einem gebührenfreien Visum durchsetzen. Im Unterschied zur Zwischenkriegszeit, als Polen von Ost und West bedroht war, selbst regionale Vormacht werden wollte, keine allseits anerkannten Grenzen hatte und gerne in der Rolle des "Zivilisators" oder "Retters" auftrat, erscheint das heutige Polen aus westlicher Sicht als so "europäisch" wie noch nie zuvor in seiner Geschichte.
In einer Fragebogenstudie (N = 694) wurden vollzeitbeschäftigte Arbeitnehmer online oder klassisch schriftlich befragt, welche Verzichte zugunsten der Schaffung neuer Arbeitsplätze in Deutschland sie aus welchen Motiven leisten würden. Die Arbeit geht in Abgrenzung zu dominierenden Rational-Choice-Modellen von einem Motivpluralismus aus, der das Spannungsfeld zwischen Eigeninteresse und Gemeinwohl fokussiert. Die Befunde zeigen, dass beide Motivgruppen unabhängig voneinander zur Prädiktion der Bereitschaften beitragen. Überdies zeigt sich eine systematische Überschätzung des Eigeninteresses für das Handeln anderer. Bei anderen wahrgenommene Motivationen haben nachweislich Einfluss auf die eigenen Handlungsbereitschaften. Eine spezifische Form der Ausbeutung gemeinsinnigen Handelns ist das Trittbrettfahren als Profitieren vom Engagement und Einsatz anderer, ohne selbst etwas beizutragen. Die Untersuchung zeigt, dass phänotypisch eigennütziges Verhalten wie Trittbrettfahren aus dem Motiv resultieren kann, individuelle Ungerechtigkeit gegenüber anderen zu vermeiden oder unsolidarisches Handeln anderer zu bestrafen.
Der Aufsatz ist eine Gemeinschaftsarbeit zweier renommierter Gelehrten auf dem Gebiet der christlichen Ikonographie (Gerhardt) und der Goethe-Philologie (Reinhardt). Sie spannt einen weiten Bogen: Von einer Notiz des Italienreisenden Goethe, der 1786 im Dom von Verona seinen ersten Tizian betrachtet und – in Verkennung des tatsächlich dargestellten Motivs – sein Gefallen daran notiert, dass "die Himmelfahrende Maria nicht hinaufwärts sondern nach ihren Freunden niederwärts" blickt; über die mittelalterlichen Tradition der (tatsächlich dargestellten) sogenannten Gürtelspende Marias an den Apostel Thomas und Goethes produktives Missverständnis im Sinne der Weltzugewandtheit der Madonna (als Beispiel einer säkularisierten Wendung eines religiösen Bildthemas); bis hin zur Fernwirkung der Veroneser Madonna in der Mater Gloriosa und ihrem Retterblick in der Schluss-Szene des Faust.
Die exempelhafte Kurzerzählung 'Der Welt Lohn' mit Contemptus Mundi-Thematik (Frau Welt-Motiv) des mittelhochdeutschen Dichters Konrad von Würzburg, entstanden wohl um 1250, war ausweislich ihrer Überlieferung in Handschriften des 13. bis 15. Jahrhunderts außerordentlich beliebt. Die Studie geht der Frage nach, welchem Publikum und welcher Lesehaltung sich dieser Erfolg verdankte.
Erörterung grundsätzlicher Fragen der Textkritik volkssprachlicher mittelalterlicher Literatur an dem äußerst seltenen Fall einer autographen Überlieferung, die insbesondere Anlass gibt, die traditionelle textkritische Voraussetzung eines fehlerfreien Originals im Unterschied zum fehlerbehafteten Archetypus der Überlieferung in Frage zu stellen
Den Begriff 'Fabelwesen' konnte es in der mittelalterlichen Naturkunde nicht geben, weil sie wesentlich von literarischer Tradtion und christlicher Naturdeutung geleitet war, nicht von moderner Naturbeobachtung und empirischer Naturwissenschaft. Der Aufsatz illustriert dies auf ebenso unterhaltsame wie lehrreiche Weise an einer Vielzahl von Beispielen und in einem Durchgang durch zentrale lateinisch-theologische Autoritäten wie volkssprachlichen Äußerungen in Literatur für/von Laien.
Die nachträgliche Ergänzung der mittelhochdeutschen Weltchronik-Handschrift Cgm 5 aus dem Ende des 14. Jahrhunderts um einen Faszikel mit der Exempelerzählung 'Udo von Magdeburg' wird als bewusster eschatologischer Abschluss der Weltchronik interpretiert, wobei der zentrale Inhalt der Erzählung, das Partikulargericht über den sündigen Erzbischof nach seinem Tod, seine Verdammung und grausame Bestrafung, der spätmittelalterlichen Verlagerung des Interesses an den Letzten Dingen vom allgemeinen Jüngsten Gericht auf das Individualgericht unmittelbar nach dem Tod entspricht.
"In dem überaus prächtig illuminierten zweiten Band der Arnsteiner Riesenbibel (London, British Library, Harley Ms. 2799; 547 x 371 mm) ist eine Reihe von (Kreis-) Schemata und Zeichnungen überliefert, die, nach dem Eindruck der Schrift zu urteilen, in unmittelbarer zeitlicher Nachbarschaft zu dem Entstehungsdatum der Amsteiner Bibel selbst ( ca. 1172) noch in den siebziger Jahren des 12. Jahrhunderts entstanden sein könnten. […] Diese Federzeichnungen sind mit äußerster Sorgfalt gezeichnet, ja mit ästhetischer Qualität und alles andere als Fingerübungen oder Blattfüllsel. Dass sie in der Amsteiner Bibel dennoch auf den ersten Blick ein Fremdkörper sind, steht auf einem anderen Blatt. Das Miteinander von Bibelprachthandschrift und schematischen Zeichnungen zu Themen aus dem Bereich der Komputistik, Kosmologie, Astronomie und Universalkartographie ist ungewöhnlich, aufregend und fordert eine Erklärung."
Abbildungen der besprochenen vier Seiten 1r, 241v-243r online im Catalogue of Illuminated Manuscripts der British Library:
http://www.bl.uk/catalogues/illuminatedmanuscripts/ILLUMIN.ASP?Size=mid&IllID=32355
http://www.bl.uk/catalogues/illuminatedmanuscripts/ILLUMIN.ASP?Size=mid&IllID=20317
http://www.bl.uk/catalogues/illuminatedmanuscripts/ILLUMIN.ASP?Size=mid&IllID=20319
http://www.bl.uk/catalogues/illuminatedmanuscripts/ILLUMIN.ASP?Size=mid&IllID=20321