Filtern
Erscheinungsjahr
- 2024 (26)
- 2023 (61)
- 2022 (80)
- 2021 (75)
- 2020 (90)
- 2019 (84)
- 2018 (77)
- 2017 (50)
- 2016 (39)
- 2015 (36)
- 2014 (45)
- 2013 (47)
- 2012 (56)
- 2011 (49)
- 2010 (55)
- 2009 (49)
- 2008 (42)
- 2007 (61)
- 2006 (45)
- 2005 (52)
- 2004 (62)
- 2003 (54)
- 2002 (45)
- 2001 (30)
- 2000 (28)
- 1999 (11)
- 1998 (6)
- 1997 (4)
- 1996 (6)
- 1995 (8)
- 1994 (3)
- 1993 (2)
- 1992 (3)
- 1991 (1)
- 1990 (2)
- 1989 (2)
- 1988 (2)
- 1987 (2)
- 1986 (3)
- 1985 (1)
- 1984 (4)
- 1983 (2)
- 1980 (3)
- 1979 (1)
- 1978 (1)
- 1976 (1)
- 1973 (1)
- 1972 (3)
- 1970 (4)
- 1969 (1)
- (31)
Dokumenttyp
- Dissertation (831)
- Wissenschaftlicher Artikel (219)
- Buch (Monographie) (113)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (108)
- Arbeitspapier (62)
- Teil eines Buches (Kapitel) (22)
- Ausgabe (Heft) zu einer Zeitschrift (22)
- Konferenzveröffentlichung (17)
- Sonstiges (15)
- Rezension (10)
Sprache
- Deutsch (838)
- Englisch (517)
- Französisch (75)
- Mehrsprachig (15)
- Russisch (1)
Volltext vorhanden
- ja (1446) (entfernen)
Schlagworte
- Deutschland (84)
- Luxemburg (52)
- Stress (40)
- Schule (37)
- Schüler (33)
- Politischer Unterricht (29)
- Modellierung (28)
- Fernerkundung (25)
- Geschichte (24)
- Demokratie (23)
Institut
- Psychologie (212)
- Raum- und Umweltwissenschaften (212)
- Politikwissenschaft (132)
- Universitätsbibliothek (81)
- Rechtswissenschaft (77)
- Wirtschaftswissenschaften (66)
- Mathematik (65)
- Fachbereich 4 (57)
- Medienwissenschaft (57)
- Fachbereich 6 (50)
Das Recht der Europäischen Union erfasst Religion, Kirchen und Religionsgemeinschaften in zunehmendem Maße. Längst hat sich ein eigenes und eigenständiges Religionsrecht der Europäischen Union entwickelt, ein europäisches Religionsrecht im Werden.rnDie Sammlung der unmittelbar einschlägigen Normen dieses europäischen Religionsrecht spiegelt den gegenwärtigen Stand eines dynamischen Prozesses.
Untersucht wurde der Zusammenhang zwischen körperlichen sowie psychischen Beschwerden und kulturellen Wertvorstellungen, Akkulturationsorientierungen, Kompetenz- und Kontrollüberzeugungen, Vertrauen in direkte Bezugspersonen und Hoffnungslosigkeit bei 172 türkischstämmigen Menschen in Deutschland im Alter von 16 bis 73 Jahren. Die deutschen Erhebungsinstrumente wurden mit Ausnahme eines Fragebogens, der bereits in türkischer Sprache vorlag, von der Autorin und einer staatlich anerkannten Dolmetscherin in die türkische Sprache übersetzt. Für die deutschen und türkischen Messinstrumente wurden anschließend Item- und Skalenanalysen durchgeführt, um sie hinsichtlich ihrer psychometrischen Tauglichkeit zu überprüfen. Weiterhin wurde die türkischstämmige Gesamtstichprobe in eine türkisch orientierte und eine deutsch orientierte Subgruppe unterteilt, zwischen denen einige Mittelwertsvergleiche berechnet wurden, um einerseits inhaltlich relevante Unterschiede explorativ zu erforschen und um andererseits zu überprüfen, ob die Variablen Nationalität, Sprache oder Geburtsort für die stärkere Symptomausprägung bei in Deutschland lebenden Türken entscheidend sind.
Öffentlichkeitsarbeit ist in der politischen Arbeit unabdingbar geworden, die Wirkungen von Kommunikationsmaßnahmen in die Bevölkerung sind Gegenstand zahlreicher Untersuchungen. Die Wirkungen auf die Durchführenden selber, also auf die Politik und die Verwaltung, sind hingegen noch nicht untersucht worden. Hier setzt diese Arbeit an. Im Zentrum der Untersuchung steht dementsprechend die "interne" Wirkung (auf Verwaltung, Politik) einer Kommunikationsmaßnahme, weniger die "externe" (in die Bevölkerung). Zentrale These ist, dass eine an die Öffentlichkeit gerichtete Maßnahme eine interne Wirkung entfaltet, die die politischen, gesellschaftlichen und verwaltungstechnischen Rahmenbedingungen wesentlich zugunsten des beworbenen Themas verändert. Am Beispiel des Radverkehrs wird diese These überprüft. Als Untersuchungsrahmen dient die "Kopf-an" Kampagne des Bundesumweltministeriums, welche, durchgeführt in neun Kommunen Deutschlands, die Förderung des Alltagsradverkehrs zum Ziel hatte. Mittels einer vergleichenden Untersuchung von Hemmnissen und Erfolgsfaktoren kommunaler Radverkehrspolitik werden Erfolgsfaktoren für den kommunalen Radverkehr extrahiert, die die Kernthesen der Untersuchung bilden. Inwieweit diese Erfolgsfaktoren durch die "Kopf an" Kampagne positiv beeinflusst werden konnten, wird mittels Experteninterviews untersucht. Es wird gezeigt, dass eine Reihe von Faktoren positiv beeinflusst wurde und sich so aufgrund der Kampagne ein positiveres Klima für den Radverkehr in Politik und Verwaltung entwickelt hat.
Die Auswirkungen von Rahmenfehlern in Zensen werden bereits seit vielen Jahren untersucht. Eine Methode, um aktuelle Bevölkerungszahlen zu gewinnen, basiert auf Fortschreibung. Wegen Ungenauigkeiten in der Fortschreibung wurden aber auch andere Modelle entwickelt - die capture-recapture-Modelle. Am 29. August 2006 hat die Bundesregierung beschlossen, dass in Deutschland 2011 ein registergestützter Zensus durchgeführt wird. Der Schwerpunkt dieser Dissertation liegt in der Anwendung des capture-recapture-Modelles im deutschen Zensus 2011. Die Dissertation vergleicht den dual system estimator (DSE) und alternative Schätzer (Verallgemeinerter-Regressionsschätzer, Verhältnis-synthetischer Schätzer, Schätzer basierend auf dem Unit-level Modell) für die Schätzung der Anzahl der tatsächlich vorhandenen Personen. Die empirische Untersuchung der Güte der Schätzer basiert auf Monte Carlo Simulationen synthetischer Populationen des Bundeslandes Saarland.
Mit der Einführung der Schuldenbremse ist eine wesentliche Entscheidung zur Begrenzung der Staatsschulden getroffen worden. Das wirft die Frage auf, ob und inwieweit auch Art und Umfang sozialstaatlicher Aufgaben verändert werden müssen. Sozialpolitische und finanzpolitische Handlungsmöglichkeiten sind vor dem Hintergrund einer Sozialordnung abzuwägen, die auf soziale Sicherheit, die Herstellung menschenwürdiger Lebensbedingungen und den Ausgleich sozialer Gegensätze ausgerichtet ist.
Der Beitrag zeichnet die jüngere öffentliche Debatte über die Spannungen in der Europäischen Union und insbesondere innerhalb der Europäischen Währungsunion nach, die durch die Folgen der Finanzkrise und der Staatsverschuldung in mehreren Mitgliedsländern der Europäischen Union entstanden sind. Es wird deutlich, dass die Grundsätze der Solidarität und der Solidität etwa im Hinblick auf die äußerst schwierige Lage in Griechenland mit einer enormen Beanspruchung des gemeinschaftlichen Zusammenhalts verbunden sind. Der Unterstützungsbedarf mehrerer Mitgliedsländer der Euro-Zone hat auf fast schmerzhafte Weise Grundsatzfragen demokratischer Legitimität aufgeworfen. Europa steht möglicherweise an einem Schweideweg.
This thesis centers on formal tree languages and on their learnability by algorithmic methods in abstractions of several learning settings. After a general introduction, we present a survey of relevant definitions for the formal tree concept as well as special cases (strings) and refinements (multi-dimensional trees) thereof. In Chapter 3 we discuss the theoretical foundations of algorithmic learning in a specific type of setting of particular interest in the area of Grammatical Inference where the task consists in deriving a correct formal description for an unknown target language from various information sources (queries and/or finite samples) in a polynomial number of steps. We develop a parameterized meta-algorithm that incorporates several prominent learning algorithms from the literature in order to highlight the basic routines which regardless of the nature of the information sources have to be run through by all those algorithms alike. In this framework, the intended target descriptions are deterministic finite-state tree automata. We discuss the limited transferability of this approach to another class of descriptions, residual finite-state tree automata, for which we propose several learning algorithms as well. The learnable class by these techniques corresponds to the class of regular tree languages. In Chapter 4we outline a recent range of attempts in Grammatical Inference to extend the learnable language classes beyond regularity and even beyond context-freeness by techniques based on syntactic observations which can be subsumed under the term 'distributional learning', and we describe learning algorithms in several settings for the tree case taking this approach. We conclude with some general reflections on the notion of learning from structural information.
Die ältesten bekannten jüdischen Grabsteine in den Rheinlanden befinden sich in Mainz und Worms. Ihre Inschriften werden dem 11. Jahrhundert n. Chr. zugeordnet und sind meistens datiert. Möglicherweise noch früher ist die undatierte Inschrift von Heilbronn anzusetzen, die aber vielleicht gar kein Epitaph ist. In dieser Untersuchung wird nach der Einleitung (Vorstellung eines namenkundlich-geschichtswissenschaftlichen Projekts) zunächst der Wert jüdischer Epitaphe für die onomastische Forschung aufgezeigt, die regionale Verteilung der rheinischen jüdischen Grabsteine des Mittelalters beschrieben und die Abgrenzung historischer Phasen erörtert. Bei der Prüfung der Heilbronner Inschrift und ihres Umfelds ergaben sich bisher unbeachtete Aspekte, deren Bedeutung für die Einordnung dieses Epigraphs aufgezeigt wird. Die anschließenden Analysen und Erörterungen richten sich nach einer Abfolge, die auch bei der Untersuchung der datierten Grabinschriften beachtet wird: Nach der Behandlung von Datierungsfragen wird der Blick auf die onomastischen Felder Name(n), Attribut(e), Bindeglied(er), Schrift(en), Sprache(n) und Kette(n) gerichtet. Der jeweils angefügte Vergleich mit antiken jüdischen Inschriften ist nach ebendiesem Muster aufgebaut. So wird beispielsweise nicht nur die Verbreitung des mit der Heilbronner Inschrift überlieferten Namens Nathan im Mittelalter skizziert, sondern auch konstatiert, daß dieser biblische Name in dem betreffenden Vergleichsmaterial der Antike nicht zu finden ist. Aus arbeits- und darstellungsökonomischen Gründen wird bei der Behandlung der erwähnten Grabsteine in Mainz und Worms unterschieden zwischen denjenigen Teilaufgaben, die alle diesbezüglichen Inschriften der Zeit vor dem Ersten Kreuzzug betreffen, und denjenigen, die sich auf die speziellen Angaben des einzigen bekannten Epitaphs der Phase Ia (bis ca. a. 1050) beziehen. Die erstgenannten Teilaufgaben werden in dieser Grundlegung erörtert, dagegen die speziellen Angaben der Epitaphe der Phase Ib (ca. a. 1050-1100) erst in einer künftigen Publikation ausführlicher besprochen. Zu den generellen Beobachtungen bei den Vergleichen nicht nur mit antiken, sondern auch mit späteren jüdischen (Grab-)Inschriften u. a. in Italien (bes. Venosa), Spanien und Frankreich gehört, dass man sich in der Antike bei der Zählung der Jahre auf die nichtjüdische Herrschaftsausübung (wie römische Konsuln) bezog, während man im Mittelalter spezifisch jüdisch ("nach der Zerstörung des Tempels", "nach der Erschaffung der Welt") zählte. Weiterhin ist z. B. bemerkenswert, dass die jüdischen Epitaphe nach ca. 750 ausschließlich mit hebräischen Buchstaben geschrieben wurden ("Schriftgrenze") und dass von den untersuchten nur rheinische den Zusatz Lifrat "nach der Zählung" aufweisen. Eine rheinische Spezialität ist zudem die auffällige Häufigkeit des biblischen Namens Jehuda und die Verbreitung von Senior/Schneior, wobei, von dem lateinischen Wort ausgehend, in der Untersuchung verschiedene Positionen zur sprach- und regionalhistorischen Einordnung dieses Namens erwogen und linguistische Fakten und Faktoren besonders aus der Perspektive der germ.-deutschen Majoritätskomponente des Jiddischen und aus romanistischer Sicht erörtert werden. Spezifika der jüdischen Namenwelt werden bei der Darstellung onomastischer Ketten erstmals in angemessener Detailbeachtung berücksichtigt, was entsprechende Vergleiche entscheidend befördert. Ergänzt wird die Abhandlung nicht nur u. a. durch Kontextwiedergaben und 28 Tabellen, sondern auch durch sechs umfangreiche Exkurse, in denen neben philologischen (z. B. Diminutivbildungen) und literarischen Fragen auch solche anderer Disziplinen wie archäologisch-historischer in den Blick genommen werden.
Eine Vielzahl hydrophiler Xenobiotika wird in kommunalen Kläranlagen nur unvollständig abgebaut und stellt ein potentielles Risiko für aquatische Ökosysteme dar. Die Eliminationsleistung von Kläranlagen hat sich deshalb während des letzten Jahrzehnts zu einem Schwerpunkt in der aquatischen Umweltchemie entwickelt. Die vorliegende Arbeit untersucht in diesem Zusammenhang die Variation biologischer Abbauleistungen kommunaler Kläranlagen für polare Xenobiotika. Es soll überprüft werden, ob die Abbauleistung von Xenobiotika mit derer klassischer Nährstoffe in Beziehung gesetzt werden kann. Als zusätzlicher Faktor zur Erklärung von unterschiedlichen Eliminationsleistungen wurden Probenahmestrategien hinsichtlich der Erstellung von Massenbilanzen analysiert. Fünf Pharmaka sowie drei Aminopolycarbonsäuren wurden als Testsubstanzen ausgewählt. Diese umfassen ein Spektrum an mikrobiologischer Abbaubarkeit bedingt durch die Reaktivität ihrer unterschiedlichen molekularen Strukturen. Ein kombinierter Versuchsaufbau aus Respirometrie und Abbautests ermöglichte, neben der Bestimmung von Abbaukinetiken, auch die Charakterisierung von Belebtschlamm. Der Einfluss von Mischungsprozessen auf die Abbauleistungen von Kläranlagen wurde mittels hydraulischer Aufenthaltszeitverteilungen modelliert. Darauf basierend wurde eine Methode zur Beurteilung und Erstellung von Eliminationsleistungen aus Zulauf-Ablauf Massenbilanzen entwickelt. Die Resultate zeigen deutliche Unterschiede in den Belebtschlammcharakteristika und dem Abbaupotential von Xenobiotika zwischen verschiedenen Kläranlagen. Die aktive heterotrophe Biomasse wurde als steuernder Faktor für die Biodegradation der untersuchten leicht und moderat abbaubaren Xenobiotika identifiziert. Dies kann als Hinweis auf kometabolische Abbauprozesse durch unspezifische Enzymaktivitäten gewertet werden. Die beobachtete Abnahme der Eliminationsleistung mit steigendem Schlammalter konnte anhand modifizierter Kinetiken pseudo-erster Ordnung beschrieben werden. Die Modellierung von Mischungsprozessen mittels hydraulischer Aufenthaltszeitverteilungen macht deutlich, mit welcher Unsicherheit Massenbilanzen in Kläranlagen behaftet sind. Die Ergebnisse demonstrieren, dass dies vor allem auf inadäquate Probenahmestrategien zurückzuführen ist. Insbesondere Massenbilanzen auf der Basis von kurzen Probenahmezeiträumen und 24-h Mischproben resultieren in fehlerhafte Eliminationsraten. Der vorgestellte Ansatz benutzt die Verteilungen von Aufenthaltszeiten als Leitprinzip, um Zulauf- und Ablauffrachten zueinander in Beziehung zu setzen. Die Methode kann als Grundlage zur akkuraten Schätzung von Eliminationsleistungen herangezogen werden und bietet eine Erklärung für das Vorkommen negativer Eliminationsleistungen.
The 23rd Annual Congress of the European Consortium for Church and State Research took place in Oxford, United Kingdom from 29 September to 2 October 2011. Founded in 1989, the Consortium unites experts in law and religion from Member States of the European Union. The Oxford conference took as its theme Religion and Discrimination Law focusing on the manner in which State governments had sought to implement the non-discrimination policy of the EU by legislation and through courts and tribunals. The proceedings comprise three introductory papers considering the historical, cultural and social background; the prohibition on discrimination, and the exemptions to the general prohibition. This is followed by national reports from twenty-three countries describing the reach of discrimination law in the field of religion. These are supplemented by further papers analysing the jurisprudence of the Strasbourg Court and the background to EU Directive 2000/78/EC and by some concluding reflections. The proceedings begin with the text of a public lecture given at the opening of the Congress by Sir Nicolas Bratza, President of the European Court of Human Rights on the subject of freedom of religion under Article 9 of the Convention.
Psychiatric/Behavioral disorders/traits are usually polygenic in nature, where a particular phenotype is the manifestation of multiple genes. However, the existence of large families with numerous members who are affected by these disorders/traits steers us towards a Mendelian (or monogenic) possibility, where the phenotype is caused by a single gene. In order to better understand the genetic architecture of general psychiatric/behavioral disorders/traits, this thesis investigates large pedigrees that display a Mendelian pattern for attention-deficit/hyperactivity disorder, schizophrenia and bipolar disorder. Numerous challenges in the field of psychiatric and behavioral sciences have impeded the genetic investigation of such disorders/traits. Examples include frequent cross-disorders, genetic heterogeneity across subjects as well as the use of diagnostic tools that can be subjective at times. To overcome these challenges, this thesis investigates large multi-generational pedigrees, which comprise a significant number of members who exhibit specific psychiatric/behavioral phenotypes. These pedigrees provide high-resolution experimental setups that can dissect the genetic complexities of psychiatric/behavioral disorders/traits. This thesis adopts a classical two-stage genetic approach to investigate the various psychiatric/behavioral disorders/traits in large pedigrees. The classical two-stage genetic approach is commonly used by many human geneticists to study a wide spectrum of human physiological disorders but is only being applied to the field of psychiatric and behavioral genetics recently. Through the study of large pedigrees, this thesis discovers the genomic regions that may play a causative role in the expression of certain psychiatric/behavioral disorders/traits within the vast genome.
In addition to the well-recognised effects of both, genes and adult environment, it is now broadly accepted that adverse conditions during pregnancy contribute to the development of mental and somatic disorders in the offspring, such as cardiovascular disorders, endocrinological disorders, metabolic disorders, schizophrenia, anxious and depressive behaviour and attention deficit hyperactivity disorder (ADHD). Early life events may have long lasting impact on tissue structure and function and these effects appear to underlie the developmental origins of vulnerability to chronic diseases. The assumption that prenatal adversity, such as maternal emotional states during pregnancy, may have adverse effects on the developing infant is not new. Accordant references can be found in an ancient Indian text (ca. 1050 before Christ), in biblical texts and in documents originating during the Middle Ages. Even Hippocrates stated possible effects of maternal emotional states on the developing fetus. Since the mid-1950s, research examining the effects of maternal psychosocial stress during pregnancy appeared in the literature. Extensive research in this field has been conducted since the early 1990s. Thus, the relationship between early life events and long-term health outcomes was already postulated over 20 years ago. David Barker and colleagues demonstrated that children of lower birth weight - which represents a crude marker of an adverse intrauterine environment - were at increased risk of high blood pressure, cardiovascular disorders, and type-2 diabetes later in life. These provocative findings led to a large amount of subsequent research, initially focussing on the role of undernutrition in determining fetal outcomes. The phenomenon of prenatal influences that determine in part the risk of suffering from chronic disease later in life has been named the "fetal origins of health and disease" paradigm. The concept of "prenatal programming" has now been extended to many other domains, such as the effects of prenatal maternal stress, prenatal tobacco exposure, alcohol intake, medication, toxins, as well as maternal infection and diseases. During the process of prenatal programming, environmental agents are transmitted across the placenta and act on specific fetal tissues during sensitive periods of development. Thus, developmental trajectories are changed and the organisation and function of tissue structure and organ system is altered. The biological purpose of those "early life programming" may consist in evolutionary advantages. The offspring adapts its development to the expected extrauterine environment which is forecast by the clues available during fetal life. If the fetus receives signals of a challenging environment, e.g. due to maternal stress hormones or maternal undernutrition, its survival may be promoted due to developmental adaptation processes. However, if the expected environment does not match with the real environment, maladapation and later disease risk may result. For example, a possible indicator of a "response ready" trait, such as hyperactivity/inattention may have been advantageous in an adverse ancient environment. However, it is of disadvantage when the postnatal environment demands oppositional skills, such as attention and concentration " e.g. in the classroom, at school, to achieve academic success. Borderline personality disorder (BPD) is a prevalent psychiatric disorder, characterized by impulsivity, affective instability, dysfunctional interpersonal relationships and identity disturbance. Although many studies report different risk factors, the exact etiologic mechanisms are not yet understood. In addition to the well-recognised effects of genetic components and adverse childhood experiences, BPD may potentially be co-determined by further environmental influences, acting very early in life: during pre- and perinatal period. There are several hints that may suggest possible prenatal programming processes in BPD. For example, patients with BPD are characterized by elevated stress sensitivity and reactivity and dysfunctions of the neuroendocrine stress system, such as the hypothalamic pituitary adrenal (HPA) axis. Furthermore, patients with BPD show a broad range of somatic comorbidities " especially those disorders for which prenatal programming processes have been described. During infancy and childhood, BPD patients already show behavioural and emotional abnormalities as well as pronounced temperamental traits, such as impulsivity, emotional dysregulation and inattention that may potentially be co-determined by prenatal programming processes. Such temperamental traits - similar to those, seen in patients with ADHD - have been described to be associated with low birthweight which indicates a suboptimal intrauterine environment. Moreover, the functional and structural alterations in the central nervous system (CNS) in patients with BPD might also be mediated in part by prenatal agents, such as prenatal tobacco exposure. Prenatal adversity may thus constitute a further, additional component in the multifactorial genesis of BPD. The association between BPD and prenatal risk factors has not yet been studied in such detail. We are not aware of any further study that assessed pre- and perinatal risk factors, such as maternal psychoscocial stress, smoking, alcohol intake, obstetric complications and lack of breastfeeding in patients with BPD.
Diese Dissertation befasst sich mit anreiztheoretischen Konsequenzen der Reform der Professorenbesoldung. Dabei stehen vor allem die besonderen Leistungsbezüge im Mittelpunkt, die ökonomisch als relative Leistungsturniere zu betrachten sind. Das erste Papier mit dem Titel "Stufenmodell oder Leistungspunkte? Die Vergabe besonderer Leistungsbezüge an deutschen Universitäten" beschäftigt sich mit den Vergabeverfahren für besondere Leistungsbezüge auf Universitätsebene und zeigt, dass die existierenden Systeme unterschiedliche Turniertypen darstellen: Bei dem Stufenmodell handelt es sich um ein U-Typ Turnier, während das Leistungspunkte-Modell als J-Typ Turnier aufzufassen ist. Ein Vergleich dieser beiden Typen liefert modelltheoretische Empfehlungen für die Umsetzung. Diese werden empirisch für 60 deutsche Universitäten überprüft. Das zweite Papier "Searching for the best? Clubs and their admission decision" beschäftigt sich mit strategischen Entscheidungen in Berufungskommissionen. Mit der Einführung der W-Besoldung an deutschen Universitäten werden Professoren stärker leistungsabhängig entlohnt. Die so genannten besonderen Leistungsbezüge werden durch relative Leistungsturniere auf Fachbereichsebene vergeben. Im Zusammenspiel mit der Auswahl neuer Hochschullehrer in Berufungskommissionen können adverse Anreize entstehen, nicht den besten Bewerber auszuwählen. Die Fachbereiche sehen sich bei der Einstellungsentscheidung einem Trade-off gegenüber: Die Berufung eines sehr guten Kandidaten erzeugt Spill-over-Effekte. Zum einen können durch Kooperationen mit anderen (guten) Forschern des Fachbereichs neue Projekte entstehen, die Forschungsgelder und Drittmittel einbringen und somit auch die Reputation des Fachbereichs insgesamt (oder dieser Forschergruppe) steigern. Zum anderen führt diese Berufungsentscheidung dazu, dass bei der Vergabe der besonderen Leistungsbezüge die zusätzliche Konkurrenz durch einen besonders erfolgreichen Professor bedeutet, dass weniger erfolgreiche Fakultätsmitglieder geringere besondere Leistungsbezüge erhalten. Dieser Effekt kann als relative Deprivation verstanden werden. Welcher Effekt überwiegt, wird mit Hilfe eines zweistufigen Spiels untersucht. Das dritte Papier "Kooptation und Wettbewerb - Experimentelle Analyse" analysiert das Zusammenwirken von relativen Leistungsturnieren und Team-Arbeit experimentell. Dazu wird das Design von Irlenbusch/Ruchala (2008) um das Element der Kooptation eines neuen Mitspielers und Turniergegners erweitert. Es zeigt sich, dass die Anreizwirkung von Wettbewerben mit nur einem Preis (Stufenmodell) größer ist als bei mehreren, relativ vergebenene Preisen (Leistungspunkte-Verfahren). Bei der Zuwahl-Entscheidung gibt es zwei Spiel-Strategien: Neben der typischen Auszahlungsmaximierung gibt es Spieler, die bereit sind auf Einkommen zu Gunsten von Status zu verzichten. Diese Spieler wählen einen Bewerber, der ihre eigene Position im internen Ranking nicht gefährdet. Besonders anfällig für dieses Verhalten ist das Stufenmodell mit nur einem Siegerpreis. Das Leistungspunkte-Verfahren schneidet hier besser ab, da es dort nur wenige Fälle von Status sichernden Zuwahl-Entscheidungen gibt.
Wilhelm Windelband (1848-1915) gilt als ein wegbereitender Denker, der die wertphilosophische Ausrichtung der sogenannten Südwestdeutschen Schule vorzeichnet. Aufgrund dieser Vorreiterrolle sowie seiner fragmentarischen Denkweise gerät die Eigenständigkeit seines Philosophierens oft in Vergessenheit oder wird meistens im Schatten der Rezeptionsgeschichte gesehen. Die vorliegende Arbeit macht sich zur Aufgabe, Windelbands Philosophie zunächst in ihrer Eigentümlichkeit wiederherzustellen, um anschließend nach ihrer systematischen Bedeutung fragen zu können. Neben den entwicklungsgeschichtlichen Aspekten, anhand derer Windelbands gedanklicher Werdegang in drei Phasen (Psychologismus, Wertphilosophie und Kulturphilosophie) eingeteilt wird, geht die vorliegende Arbeit vor allem der Frage nach, in wie fern die von ihm konzipierte Wertphilosophie als Kulturphilosophie zu verstehen ist. Die Forderung des späten Windelbands, den Kantischen Kritizismus zu einer umfassenden Kulturphilosophie zu erweitern, dient dabei als roter Faden dieses Interpretationsversuchs. Die Herausarbeitung möglicher systematischer Ansatzpunkte innerhalb seiner Werttheorie, die dieser Forderung genügen, soll Windelbands Status als Kulturphilosoph untermauern.
Variational inequality problems constitute a common basis to investigate the theory and algorithms for many problems in mathematical physics, in economy as well as in natural and technical sciences. They appear in a variety of mathematical applications like convex programming, game theory and economic equilibrium problems, but also in fluid mechanics, physics of solid bodies and others. Many variational inequalities arising from applications are ill-posed. This means, for example, that the solution is not unique, or that small deviations in the data can cause large deviations in the solution. In such a situation, standard solution methods converge very slowly or even fail. In this case, so-called regularization methods are the methods of choice. They have the advantage that an ill-posed original problem is replaced by a sequence of well-posed auxiliary problems, which have better properties (like, e.g., a unique solution and a better conditionality). Moreover, a suitable choice of the regularization term can lead to unconstrained auxiliary problems that are even equivalent to optimization problems. The development and improvement of such methods are a focus of current research, in which we take part with this thesis. We suggest and investigate a logarithmic-quadratic proximal auxiliary problem (LQPAP) method that combines the advantages of the well-known proximal-point algorithm and the so-called auxiliary problem principle. Its exploration and convergence analysis is one of the main results in this work. The LQPAP method continues the recent developments of regularization methods. It includes different techniques presented in literature to improve the numerical stability: The logarithmic-quadratic distance function constitutes an interior point effect which allows to treat the auxiliary problems as unconstrained ones. Furthermore, outer operator approximations are considered. This simplifies the numerical solution of variational inequalities with multi-valued operators since, for example, bundle-techniques can be applied. With respect to the numerical practicability, inexact solutions of the auxiliary problems are allowed using a summable-error criterion that is easy to implement. As a further advantage of the logarithmic-quadratic distance we verify that it is self-concordant (in the sense of Nesterov/Nemirovskii). This motivates to apply the Newton method for the solution of the auxiliary problems. In the numerical part of the thesis the LQPAP method is applied to linearly constrained, differentiable and nondifferentiable convex optimization problems, as well as to nonsymmetric variational inequalities with co-coercive operators. It can often be observed that the sequence of iterates reaches the boundary of the feasible set before being close to an optimal solution. Against this background, we present the strategy of under-relaxation, which robustifies the LQPAP method. Furthermore, we compare the results with an appropriate method based on Bregman distances (BrPAP method). For differentiable, convex optimization problems we describe the implementation of the Newton method to solve the auxiliary problems and carry out different numerical experiments. For example, an adaptive choice of the initial regularization parameter and a combination of an Armijo and a self-concordance step size are evaluated. Test examples for nonsymmetric variational inequalities are hardly available in literature. Therefore, we present a geometric and an analytic approach to generate test examples with known solution(s). To solve the auxiliary problems in the case of nondifferentiable, convex optimization problems we apply the well-known bundle technique. The implementation is described in detail and the involved functions and sequences of parameters are discussed. As far as possible, our analysis is substantiated by new theoretical results. Furthermore, it is explained in detail how the bundle auxiliary problems are solved with a primal-dual interior point method. Such investigations have by now only been published for Bregman distances. The LQPAP bundle method is again applied to several test examples from literature. Thus, this thesis builds a bridge between theoretical and numerical investigations of solution methods for variational inequalities.
The role of cortisol and cortisol dynamics in patients after aneurysmal subarachnoid hemorrhage
(2011)
Spontaneous aneurysmal subarachnoid hemorrhage (SAH) is a form of stroke which constitutes a severe trauma to the brain and often leads to serious long-term medical and psychosocial sequels which persist for years after the acute event. Recently, adrenocorticotrophic hormone deficiency has been identified as one possible consequence of the bleeding and is assumed to occur in around 20% of all survivors. Additionally, a number of studies report a high prevalence of post-SAH symptoms such as lack of initiative, fatigue, loss of concentration, impaired quality of life and psychiatric symptoms such as depression. The overlap of these symptoms and those of patients with untreated partial or complete hypopituitarism lead to the suggestion that neuroendocrine dysregulations may contribute to the psychosocial sequels of SAH. Therefore, one of the aims of this work is to gain insights into the role of neuroendocrine dysfunction on quality of life and the prevalence of psychiatric sequels in SAH-patients. Additionally, as data on cortisol dynamics after SAH are scarce, diurnal cortisol profiles are investigated in patients in the acute and chronic phase, as well as the cortisol awakening response and feedback sensitivity in the chronic phase after SAH. As a result, it can be shown that some SAH patients exhibit lower serum cortisol levels but at the same time a higher cortisol awakening response in saliva than healthy controls. Also, patients in the chronic phase after SAH do have a stable diurnal cortisol rhythm while there are disturbances in around 50% of all patients in the acute phase, leading to the conclusion that a single baseline measurement of cortisol is of no substantial use for diagnosing cortisol dysregulations in the acute phase after SAH. It is assumed that in SAH patients endocrine changes occur over time and that a combination of adrenal exhaustion and a subsequent downregulation of corticosteroid binding globulin may be the most probable causes for the dissociation of serum cortisol concentrations and salivary cortisol profiles in the investigated SAH patients. These changes may be an emergency response after SAH and, as elevated free cortisol levels are connected to a better psychosocial outcome in patients in the chronic phase after SAH, this reaction may even be adaptive.
The demand for reliable statistics has been growing over the past decades, because more and more political and economic decisions are based on statistics, e.g. regional planning, allocation of funds or business decisions. Therefore, it has become increasingly important to develop and to obtain precise regional indicators as well as disaggregated values in order to compare regions or specific groups. In general, surveys provide the information for these indicators only for larger areas like countries or administrative divisions. However, in practice, it is more interesting to obtain indicators for specific subdivisions like on NUTS 2 or NUTS 3 levels. The Nomenclature of Units for Territorial Statistics (NUTS) is a hierarchical system of the European Union used in statistics to refer to subdivisions of countries. In many cases, the sample information on such detailed levels is not available. Thus, there are projects such as the European Census, which have the goal to provide precise numbers on NUTS 3 or even community level. The European Census is conducted amongst others in Germany and Switzerland in 2011. Most of the participating countries use sample and register information in a combined form for the estimation process. The classical estimation methods of small areas or subgroups, such as the Horvitz-Thompson (HT) estimator or the generalized regression (GREG) estimator, suffer from small area-specific sample sizes which cause high variances of the estimates. The application of small area methods, for instance the empirical best linear unbiased predictor (EBLUP), reduces the variance of the estimates by including auxiliary information to increase the effective sample size. These estimation methods lead to higher accuracy of the variables of interest. Small area estimation is also used in the context of business data. For example during the estimation of the revenues of specific subgroups like on NACE 3 or NACE 4 levels, small sample sizes can occur. The Nomenclature statistique des activités économiques dans la Communauté européenne (NACE) is a system of the European Union which defines an industry standard classification. Besides small sample sizes, business data have further special characteristics. The main challenge is that business data have skewed distributions with a few large companies and many small businesses. For instance, in the automotive industry in Germany, there are many small suppliers but only few large original equipment manufacturers (OEM). Altogether, highly influential units and outliers can be observed in business statistics. These extreme values in connection with small sample sizes cause severe problems when standard small area models are applied. These models are generally based on the normality assumption, which does not hold in the case of outliers. One way to solve these peculiarities is to apply outlier robust small area methods. The availability of adequate covariates is important for the accuracy of the above described small area methods. However, in business data, the auxiliary variables are hardly available on population level. One of several reasons for that is the fact that in Germany a lot of enterprises are not reflected in business registers due to truncation limits. Furthermore, only listed enterprises or companies which trespass specific thresholds are obligated to publish their results. This limits the number of potential auxiliary variables for the estimation. Even though there are issues with available covariates, business data often include spatial dependencies which can be used to enhance small area methods. Next to spatial information based on geographic characteristics, group-specific similarities like related industries based on NACE codes can be used. For instance, enterprises from the same NACE 2 level, e.g. sector 47 retail trade, behave more similar than two companies from different NACE 2 levels, e.g. sector 05 mining of coal and sector 64 financial services. This spatial correlation can be incorporated by extending the general linear mixed model trough the integration of spatially correlated random effects. In business data, outliers as well as geographic or content-wise spatial dependencies between areas or domains are closely linked. The coincidence of these two factors and the resulting consequences have not been fully covered in the relevant literature. The only approach that combines robust small area methods with spatial dependencies is the M-quantile geographically weighted regression model. In the context of EBLUP-based small area models, the combination of robust and spatial methods has not been considered yet. Therefore, this thesis provides a theoretical approach to this scientific and practical problem and shows its relevance in an empirical study.
Edition und Kommentar von 27 Texten auf Papyrus aus den französisch-italienischen Grabungen in Tebtynis (Umm el-Breigât), Ägypten. Alle Texte stammen aus römischer Zeit und sind in Tebtynis gefunden worden. Sie werden hier erstmals mit Abschrift, Übersetzung und Kommentar herausgegeben und beleuchten diverse Aspekte des täglichen Lebens, so auf Verwaltung, Wirtschaft, Rechtsangelegenheiten, Bevölkerung, Religion, Steuerwesen, Arbeitsalltag, Vertragswesen, geschäftliche und erbrechtliche Angelegenheiten. Es handelt sich somit um Quellenmaterial für alle altertumswissenschaftlichen Nachbarsdisziplinen. Folgende Texte sind enthalten: 1. Rundschreiben des Praefectus Aegypti; 2. Monatsbericht der Sitologen von Kerkesis; 3. κατ'ἄνδρα-Bericht der Sitologen von Kerkesis (Verso von Nr. 2); 4. Fragment eines Amtlichen Schreibens; 5. Verhandlungsprotokoll; 6. Liste von Dörfern und Geldsummen; 7. Liturgie-Vorschlagsliste (?); 8. Personenliste; 9. Aufstellung über Naturalien; 10. Tempelabrechnung; 11. Zensusdeklaration; 12. Schluß einer Eingabe mit Namenliste; 13. Eingabe der Thenherakleia?; 14. Quittungsbogen für verschiedene Steuern; 15. Quittungen für Dammsteuer; 16. Fragment einer Lohnquittung für Arbeiten auf einem Kleros (?); 17. Fragment einer Lohnquittung; 18. Liste von Zahlungen in Weizen; 19. Abrechnung von Außenständen in Naturalien und Geld; 20. Agoranomischer Vertrag über ein Geld- und Getreidedarlehen; 21. Donatio mortis causa; 22. Geschäftsbrief: Heron an Heron; 23. Geschäftsbrief: Heron an Heron; 24. Geschäftsbrief: Heron an Sabinos; 25. Brief; 26. Brief; 27. Fragment mit Erwähnung von Dörfern und Immobilien (descr.)
The complicated human alternative GR promoter region plays a pivotal role in the regulation of GR levels. In this thesis, both genomic and environmental factors linked with GR expression are covered. This research showed that GR promoters were susceptible to silencing by methylation and the activity of the individual promoters was also modulated by SNPs. E2F1 is a major element to drive the expression of GR 1F transcripts and single CpG dinucleotide methylation cannot mediate the inhibition of transcription in vitro. Also, the distribution of GR first exons and 3" splice variants (GRα and GR-P) is expressed throughout the human brain with no region-specific alternative first exon usage. These data mirrored the consistently low levels of methylation in the brain, and the observed homogeneity throughout the studied regions. Taken together, the research presented in this thesis explored several layers of complexity in GR transcriptional regulation.
There is a lot of evidence for the impact of acute glucocorticoid treatment on hippocampus-dependent explicit learning and memory (memory for facts and events). But there have been few studies, investigating the effect of glucocorticoids on implicit learning and memory. We conducted three studies with different methodology to investigate the effect of glucocorticoids on different forms of implicit learning. In Study 1, we investigated the effect of cortisol depletion on short-term habituation in 49 healthy subjects. 25 participants received oral metyrapone (1500 mg) to suppress endogenous cortisol production, while 24 controls received oral placebo. Eye blink electromyogram (EMG) responses to 105 dB acoustic startle stimuli were assessed. Effective endogenous cortisol suppression had no effect on short-term habituation of the startle reflex, but startle eye blink responses were significantly increased in the metyrapone group. The latter findings are in line with previous human studies, which have shown that excess cortisol, sufficient to fully occupy central nervous system (CNS) corticosteroid receptors, may reduce startle eye blink. This effect may be mediated by CNS mechanisms controlling cortisol feedback. In Study 2, we investigated delay or trace eyeblink conditioning in a patient group with a relative hypocortisolism (30 patients with fibromyaligia syndrome/FMS) compared to 20 healthy control subjects. Conditioned eyeblink response probability was assessed by EMG. Morning cortisol levels, ratings of depression, anxiety and psychosomatic complaints as well as general symptomatology and psychological distress were assessed. As compared to healthy controls FMS patients showed lower morning cortisol levels, and trace eyeblink conditioning was facilitated whereas delay eyeblink conditioning was reduced. Cortisol measures correlate significantly only with trace eyeblink conditioning. Our results are in line with studies of pharmacologically induced hyper- and hypocortisolism, which affected trace eyeblink conditioning. We suggest that endocrine mechanisms affecting hippocampus-mediated forms of associative learning may play a role in the generation of symptoms in these patients.rnIn Study 3, we investigated the effect of excess cortisol on implicit sequence learning in healthy subjects. Oral cortisol (30 mg) was given to 29 participants, whereas 31 control subjects received placebo. All volunteers performed a 5-choice serial reaction time task (SRTT). The reaction speed of every button-press was determined and difference-scores were calculated as a proof of learning. Compared to the control group, we found a delayed learning in the cortisol group at the very beginning of the task. This study is the first human investigation, indicating impaired implicit memory function after exogenous administration of the stress hormone cortisol. Our findings support a previous neuroimaging study, which suggested that the medial temporal lobe (including the hippocampus) is also active in implicit sequence learning, but our results may also depend on the engagement of other brain structures.
This work is concerned with two kinds of objects: regular expressions and finite automata. These formalisms describe regular languages, i.e., sets of strings that share a comparatively simple structure. Such languages - and, in turn, expressions and automata - are used in the description of textual patterns, workflow and dependence modeling, or formal verification. Testing words for membership in any given such language can be implemented using a fixed - i.e., finite - amount of memory, which is conveyed by the phrasing finite-automaton. In this aspect they differ from more general classes, which require potentially unbound memory, but have the potential to model less regular, i.e., more involved, objects. Other than expressions and automata, there are several further formalisms to describe regular languages. These formalisms are all equivalent and conversions among them are well-known.However, expressions and automata are arguably the notions which are used most frequently: regular expressions come natural to humans in order to express patterns, while finite automata translate immediately to efficient data structures. This raises the interest in methods to translate among the two notions efficiently. In particular,the direction from expressions to automata, or from human input to machine representation, is of great practical relevance. Probably the most frequent application that involves regular expressions and finite automata is pattern matching in static text and streaming data. Common tools to locate instances of a pattern in a text are the grep application or its (many) derivatives, as well as awk, sed and lex. Notice that these programs accept slightly more general patterns, namely ''POSIX expressions''. Concerning streaming data, regular expressions are nowadays used to specify filter rules in routing hardware.These applications have in common that an input pattern is specified in form a regular expression while the execution applies a regular automaton. As it turns out, the effort that is necessary to describe a regular language, i.e., the size of the descriptor,varies with the chosen representation. For example, in the case of regular expressions and finite automata, it is rather easy to see that any regular expression can be converted to a finite automaton whose size is linear in that of the expression. For the converse direction, however, it is known that there are regular languages for which the size of the smallest describing expression is exponential in the size of the smallest describing automaton.This brings us to the subject at the core of the present work: we investigate conversions between expressions and automata and take a closer look at the properties that exert an influence on the relative sizes of these objects.We refer to the aspects involved with these consideration under the titular term of Relative Descriptional Complexity.
Durch Bodendegradation werden jedes Jahr weltweit große Schäden verursacht. Die beiden Hauptverursacher für die globale Bodendegradation sind die Wind- und die Wassererosion. Für die Planung von effizienten Schutzmaßnahmen oder regionalen Managementplänen ist es deshalb wichtig zu verstehen, dass die beiden Prozesse nicht nur als abgekoppelte Phänomene auftreten. Auch wenn seit einiger Zeit das Bewusstsein hierfür zugenommen hat und eine steigende Anzahl von Bodenerosionsstudien auf diesen Sachverhalt eingehen, so bestehen vor allem bei der Abschätzung der relativen Bedeutung und dem Verständnis der vorhandenen Interaktionen zwischen der Wind- und Wassererosion noch substantielle Wissenslücken. Da indirekte Messverfahren, wie beispielsweise die Luftbildauswertung oder die Fernerkundung, für mikro-skalige Prozessstudien ungeeignet sind, beschränken sich die Studien zur Erfassung der Interaktion beider Prozesse zumeist auf die direkten und/oder experimentellen Messungen. Ein Vergleich der Abtragsraten und eine Untersuchung der Interaktionen zwischen der Wind- und der Wassererosion ist jedoch sehr schwierig, da es bislang kein Messinstrument gibt, dass einfach und schnell, die durch Wind, Wasser oder deren Zusammenwirken verursachten Erosionsraten auf natürlichen Oberflächen bestimmen kann. Aus diesem Grund wurde im Rahmen dieses Dissertationsprojekts erstmals, ein mobiler Windkanal mit integrierter Beregnungsanlage konzipiert und umgesetzt. Seine simulierten Wind- und Niederschlagseigenschaften wurden in Labormessungen mit einem Laserdistrometer, Niederschlagssammlern, Anemometern und Nebelversuchen bestimmt. Die beim Einsatz der Anlage in unterschiedlichen Messkampagnen gewonnenen Erkenntnisse zu seinem Aufbau flossen stetig in die Weiterentwicklung des Kanals ein. Die Qualität der simulierten Bedingungen im Kanal können nach den Modifikationen und unter Einbeziehung der Anforderungen an einen geländefähigen Kanal mit guter Mobilität, als sehr gut bezeichnet werden. Insbesondere die Reproduzierbarkeit der simulierten Bedingungen treten hier positiv hervor. Die angestrebten Ziele dieser Arbeit konnten weitestgehend erfüllt werden. Mit dem mobilen Windkanal mit integrierter Beregnungsanlage steht in Zukunft eine Anlage zur Verfügung, mit der die Abtragsraten der Wind- und Wassererosion im Gelände, getrennt und in ihrer gemeinsamen Wirkung, gemessen werden können. Durch den Einsatz der Anlage ist es möglich, einige der noch offenen wissenschaftlichen Fragen zur relativen Bedeutung und Interaktion der beiden Prozesse zukünftig zu untersuchen, um weitere Erkenntnisse über Ihren Einfluss auf die Bodendegradation, in Abhängigkeit von Landnutzungsänderungen und dem Klimawandel, zu erhalten.
By rodent studies it has been shown that the mineralocorticoid receptor (MR) is a candidate gene for the investigation of cognitive functions comparable to human executive function. The present work addresses the question if polymorphisms in the MR gene can act as a "probe" to explain a part of the interindividual variance of human executive functions. For this purpose, 72 healthy young participants were assigned to four equally sized groups, concerning their particular MR genotype for two common MR polymorphisms. They were investigated in an electroencephalogram (EEG) test session, accomplishing two cognitive tests while delivering saliva samples for subsequent cortisol measures. The two tests chosen for the assessment of executive functions were the Attention Network Task (ANT) and a modified version of the Wisconsin Card Sorting Test (WCST).Chapter 1 of the present work reports of the rational bases for the empirical approach, which were built up on a broad theoretical background presented in Chapter 2. In the third chapter, the investigation and results of the statistical analysis for behavioral data (i.e. reaction times, accuracy/error rates) are presented. No association with MR polymorphisms was found for the reaction times of both tests. For the accuracy rate, differences between genotype groups were found for ANT and WCST, indicating an association of MR polymorphisms and accuracy in the Alertness and Executive Control network of the ANT and during the detection of an intradimensional shift in the WCST. Data acquisition and the results for EEG data analyses are presented in Chapter 4. The results show that groups differing for MR genotype show different activity over prefrontal motor areas during the process of answering to the ANT. Those group differences again were prominent for the Alertness and Executive Control network. A tendency for further significant group differences was found for activity on frontopolar positions in extradimensional rule switching. Chapter 5 summarizes the findings for the analysis of salivary free cortisol, showing a tendency for an association between MR polymorphisms and a mildly stimulated Hypothalamus-pituitary-adrenal (HPA) axis during the test situation. The results of the different measures are integrated and discussed in Chapter 6 within the scope of novel findings in investigating the functionality of the chosen MR polymorphisms. Finally, Chapter 7 gives an outlook on the methodology and constraints of future research strategies to further describe the role of the MR in human cognitive function.
The article deals with the untenable overloading of German criminal trial court judges presenting the overloading in detail and analyzing its reasons and consequences. In this context, serious failures by the German federal and state executive and legislative organs as well as undesirable developments of the Federal Constitutional Court's (BVerfG and the Federal Supreme Court of Justice's BGH) case law.
Die Dissertation zur "Pfälzischen Phraseologie" greift in den letzten Jahren für den deutschsprachigen Raum mehrfach thematisierte Forschungsdesiderate der (dialektalen) Phraseologie und Lexikographie auf: die genauere Analyse des phraseologischen Systems eines Dialekts sowie die Darstellung von Phraseologismen in Dialektwörterbüchern. In der vorliegenden Arbeit wird hierfür das Pfälzische ausgewählt, da es bisher in phraseologischer Hinsicht kaum untersucht wurde. Die Studie erweitert insofern die wenigen bereits vorhandenen Analysen dialektaler Phraseologie um eine zusätzliche Regionalsprache. Ziel der Arbeit ist es, die Besonderheiten der pfälzischen Phraseologie auf lexikographischer, kultureller und stilistisch-pragmatischer Ebene herauszuarbeiten. Die Phraseologie des Pfälzischen wird somit in dieser Studie unter verschiedenen Gesichtspunkten betrachtet und analysiert. In einem ersten Schritt wird das zugrunde gelegte Korpus, eines der großlandschaftlichen Dialektwörterbücher, das Pfälzische Wörterbuch, aus Sicht der enthaltenen Phraseologiekomponenten unter makro- und mikrostrukturellen Gesichtspunkten ausgewertet und beurteilt. Dadurch können detaillierte Aussagen zur Repräsentation der Phraseologie innerhalb eines Wörterbuchtypus gewonnen werden, wie sie bisher nur in Ansätzen und für andere Dialektwörterbücher vorhanden sind. Außerdem wird die Verwendbarkeit von Dialektwörterbüchern als Datengrundlage für die dialektale Phraseologie diskutiert. Die aus dem Wörterbuch erhobene Materialsammlung von Phrasemen bildet die Grundlage für den zweiten Hauptteil der Arbeit, die genauere Analyse der pfälzischen Phraseologie unter verschiedenen Aspekten (v. a. der sprachlich-kulturellen Wissensstrukturen, die die bildliche Motivation der Phraseologismen bestimmen, und die damit eng verbundenen stilistisch-pragmatischen Kennzeichen). Hierbei können innerhalb des pfälzischen phraseologischen Inventars unterschiedliche Merkmale herausgestellt werden: Unter anderem Übereinstimmungen mit der Phraseologie des Standarddeutschen und z. T. gesamteuropäische Bezüge, aber auch Eigenständiges in einzelnen Subkategorien.
Monatelange Wartezeiten auf einen ambulanten Psychotherapieplatz sind der Regelfall im deutschen Gesundheitssystem. Die Veränderung der Symptombelastung der Patienten in der Wartezeit ist bislang allerdings kaum empirisch untersucht worden. In der vorliegenden Arbeit wurden an einer Stichprobe ambulanter Psychotherapiepatienten die Ausprägungen und Veränderungen der allgemeinen psychischen Symptombelastung während der durchschnittlich sechsmonatigen Wartezeit auf den Psychotherapieplatz untersucht. Zudem wurde überprüft, mit welchen Merkmalen die Symptombelastungen zum Zeitpunkt der Anmeldung zur Therapie und zum Zeitpunkt des Erstgesprächs sowie ihre Veränderungen in der Wartezeit zusammenhängen. Die dabei untersuchten Persönlichkeitsmerkmale wurden aus theoretischen Rahmenmodellen abgeleitet. Hierzu gehören die aktionale Entwicklungspsychologie, das handlungstheoretische Partialmodell der Persönlichkeit mit der darin eingeordneten Vertrauens-Trias und das Androgynie-Modell der psychischen Gesundheit. Nach einem direkten Veränderungskriterium zeigten 48 % der Patienten in der Wartezeit keine bedeutsame Veränderung, 29 % eine Verbesserung und 23 % eine Verschlechterung. Durch die bei der Anmeldung erfassten Persönlichkeitsmerkmale konnten Verbesserungen, Verschlechterungen und gleichbleibende Symptombelastungen in der Wartezeit anhand einer multinomialen logistischen Regressionsanalyse für 60 % der Patienten korrekt vorausgesagt werden. Eine traditionelle normative Geschlechtsrollen-Orientierung stellt einen negativen Prädiktor für eine Verbesserung dar. Soziales Vertrauen konnte Verschlechterungen negativ vorhersagen. Bei Hoffnungslosigkeit handelt es sich um einen marginal negativen Prädiktor für eine Verbesserung. Ein hoch ausgeprägtes Selbstkonzept eigener Fähigkeiten ist ein positiver Prädiktor für eine Verschlechterung. Hinsichtlich der soziodemografischen und störungsbezogenen Merkmale konnten das Alter, das Geschlecht und die Anzahl der Diagnosen die Veränderungen der Symptombelastung in der Wartezeit zu 54 % korrekt vorhersagen. Das Alter ist ein positiver Prädiktor für eine Verschlechterung. Weibliches Geschlecht und die Anzahl an Diagnosen sind negative Prädiktoren für eine Verbesserung. Darüber hinaus wurden differenzierte Zusammenhänge zwischen den Persönlichkeitsmerkmalen und der Symptombelastung exploratorisch untersucht.
Primo ist ein Softwareprodukt der Firma Ex Libris und ermöglicht eine einheitliche Einschlitz-Suche im Bibliothekskatalog, Artikeldatenbanken und anderen Datenquellen wie etwa digitalen Repositorien. An der Universitätsbibliothek Trier wird Primo eingeführt und die Artikeldatenbank Primo Central lizenziert mit dem primären Ziel, Zeitschriftenartikel und Bibliotheksbestand über eine Suchoberfläche zu erschließen. Im Folgenden wird insbesondere auf diese Implementierung eingegangen und einige Beobachtungen aus der Projektphase wiedergegeben. Die Arbeiten an Primo laufen bei uns momentan noch und eine öffentlichernVersion zur Ablösung des Online-Katalogs ist für 2012 geplant. Nach einer kurzen Einführung und Beschreibung der Funktionsweise von Primo werde ich folgende Thesen weiter ausführen: (1) Eine einheitliche Einschlitz-Suche wird aufgrund der Heterogenität derrnMetadatenqualität nur bedingt erreicht. (2) Die Auswertung großer Treffermengen wird mit Primo insbesondere durch diernFacettierungen in einem großen Masse unterstützt. Allerdings suggerieren diernFacettenwerte eine Vollständigkeit, die in dieser Weise nicht gewährleistet wird. Ebenfalls können Facettenwerte abhängig von der Sortierreihenfolge verloren gehen. (3) Die Darstellung der Daten kann man auf vielseitige Weise anpassen, so dass auch lokale Besonderheiten abgebildet werden können. Es wird als Beispiel gezeigt, wie wir die lokalen Signaturen in Primo zur Anzeige gebracht haben.
The 22nd annual conference of the European Consortium for Church and State Research took place from 11 to 14 November 2010 in Trier, Germany. Founded in 1989, the Consortium unites experts of law and religion of all Member States of the European Union. In annual meetings, various topics of the relations between religions and states within the European Union are discussed. This year- conference was dedicated to the topic "Religion in Public Education". Scholars from 27 European countries discussed inter alia the role of religion in the European member states" educational systems, opting out of school obligations for religious reasons, home schooling as well as religious dress and symbols in public schools. The present proceedings contain the opening lectures, all country reports and a report on the European Union law.
Stress represents a significant problem for Western societies inducing costs as high as 3-4 % of the European gross national products, a burden that is continually increasing (WHO Briefing, EUR/04/5047810/B6). The classical stress response system is the hypothalamic-pituitary-adrenal (HPA) axis which acts to restore homeostasis after disturbances. Two major components within the HPA axis system are the glucocorticoid receptor (GR) and the mineralocorticoid receptor (MR). Cortisol, released from the adrenal glands at the end of the HPA axis, binds to MRs and with a 10 fold lower affinity to GRs. Both, impairment of the HPA axis and an imbalance in the MR/GR ratio enhances the risk for infection, inflammation and stress related psychiatric disorders. Major depressive disorder (MDD) is characterised by a variety of symptoms, however, one of the most consistent findings is the hyperactivity of the HPA axis. This may be the result of lower numbers or reduced activity of GRs and MRs. The GR gene consists of multiple alternative first exons resulting in different GR mRNA transcripts whereas for the MR only two first exons are known to date. Both, the human GR promoter 1F and the homologue rat Gr promoter 1.7 seem to be susceptible to methylation during stressful early life events resulting in lower 1F/1.7 transcript levels. It was proposed that this is due to methylation of a NGFI-A binding site in both, the rat promoter 1.7 and the human promoter 1F. The research presented in this thesis was undertaken to determine the differential expression and methylation patterns of GR and MR variants in multiple areas of the limbic brain system in the healthy and depressed human brain. Furthermore, the transcriptional control of the GR transcript 1F was investigated as expression changes of this transcript were associated with MDD, childhood abuse and early life stress. The role of NGFI-A and several other transcription factors on 1F regulation was studied in vitro and the effect of Ngfi-a overexpression on the rat Gr promoter 1.7 in vivo. The susceptibility to epigenetic programming of several GR promoters was investigated in MDD. In addition, changes in methylation levels have been determined in response to a single acute stressor in rodents. Our results showed that GR and MR first exon transcripts are differentially expressed in the human brain, but this is not due to epigenetic programming. We showed that NGFI-A has no effect on endogenous 1F/1.7 expression in vitro and in vivo. We provide evidence that the transcription factor E2F1 is a major element in the transcriptional complex necessary to drive the expression of GR 1F transcripts. In rats, highly individual methylation patterns in the paraventricular nucleus of the hypothalamus (PVN) suggest that this is not related to the stressor but can rather be interpreted as pre-existing differences. In contrast, the hippocampus showed a much more uniform epigenetic status, but still is susceptible to epigenetic modification even after a single acute stress suggesting a differential "state‟ versus "trait‟ regulation of the GR gene in different brain regions. The results of this thesis have given further insight in the complex transcriptional regulation of GR and MR first exons in health and disease. Epigenetic programming of GR promoters seems to be involved in early life stress and acute stress in adult rats; however, the susceptibility to methylation in response to stress seems to vary between brain regions.
Contents: I. History of the Korean Civil Code II. Background for Initiation of the Amendment of the Civil Code (Property Law) and their Progress III. Fundamental Direction of the Amendment of the Civil Code (Property Law) IV. Major Foreign Statutes Used as Reference for the Amendment of the Civil Code (Property Law) V. Major Details of the Amendment of the Civil Code (Property Law) VI. Concluding Remarks: Evaluation
Rechtspolitik und Medien
(2001)
Der Begriff "Rechtspolitik" stellt die Kombination von einander Widerstreitendem dar: Politik als Bewegung in Richtung auf ein Ziel, das Recht als Fixierung des erreichten Zustandes. Rechtspolitik in der Demokratie ist an bestimmte Legitimierungsmerkmale gebunden. Bei der Formulierung und Fixierung dieser Ziele spielen die Medien eine bestimmte Rolle. Sie bereiten Erwartungen im Volk vor, die sie den Politikern vermitteln, die wiederum in dem von den Medien konsistent aufgezeigten Stimmungen eine die Zeit zwischen den Wahlen füllende Legitimation, auch einen Ansporn finden. Der Bezug zwischen den von Übereinstimmungen oder Gegnerschaften gekennzeichneten Medien und rechtspolitischem Handeln wird an einigen Beispielen gezeigt.
Der terroristische Anschlag auf das World Trade Center in New York am 11. September 2001 hat nicht nur den Themenkatalog der internationalen Politik durcheinandergebracht, sondern auch das Völkerrecht vor erhebliche Herausforderungen gestellt. Traditionell versteht man das Völkerrecht als ein Recht der zwischenstaatlichen Beziehungen. Terroristen werden als Kriminelle gesehen, die es mit allen Mitteln des Strafrechts zu bekämpfen gilt. Freilich versagen die üblichen Methoden der internationalen Zusammenarbeit, wenn ein Staat terroristischen Handlungen seine Rückendeckung gibt. Es bereitet erhebliche Schwierigkeiten, ein derartiges Komplizentum richtig einzuordnen. Im Mittelpunkt aller Überlegungen steht heute die Frage, ob Afghanistan durch die Usama bin Laden gewährte Unterstützung selbst einen bewaffneten Angriff gegen die USA geführt hat, der die USA nach Artikel 51 der UNO-Charta zur Selbstverteidigung berechtigt.
"Culture", in addition to its ethnic signification, can also express various groups' and communities' political and economic situation in society. As well as signifying the accommodation of ethnic diversity, the integration of dissimilar cultures in South Africa has to do with both the former oppressors and the formerly oppressed coming to terms with the oppression of the past, and with the equitable distribution of material means. Constitutional and other legal means have been designed to facilitate a process of integration dealing with the abovementioned issues. Some of these measures will be looked at. The speaker will argue that the integration of different cultures in South Africa cannot and will not be achieved if the law is invoked, in a strong arm fashion, trying to concoct a melting pot. The law can do no more than aiding the facilitation of a process of consolidation as precondition to nation building. Deep-seated, cultural differences among various sections of the population cannot and should not be denied or simply thought away.
An der Schwelle zum 21. Jahrhundert eröffnet die Verbindung von Fertilisationsmedizin und Humangenetik neue Möglichkeiten der Manipulation menschlichen Lebens. Die Diskussion um Wert und Grenzen der sich ergebenden Optionen führt in zahlreichen Staaten zu einer Auseinandersetzung mit grundlegenden gesellschaftlichen Prinzipien. Der Konflikt ethischer und wirtschaftlicher Werte kann dabei in einer zunehmend globalisierten Welt nicht ausschließlich auf nationaler Ebene gelöst werden. Der Handlungsspielraum des nationalen Gesetzgebers im Spannungsfeld von Menschenwürde, Gesundheitsschutz, Wissenschaft und Wirtschaft ist durch internationale und europäische Normen begrenzt. Akteure, Instrumente und Prinzipien dieses rechtlichen Rahmens werden in diesem Beitrag nachgezeichnet. Im Überblick werden die Positionen der internationalen Rechtsgemeinschaft zur Stammzellenforschung, Klonierungstechnik, Präimplantationsdiagnostik und Zelltherapie dargestellt. Zusammenfassungen maßgeblicher Normtexte sollen den Einstieg erleichtern.
Die rechtspolitische Diskussion um den rechtlichen Rahmen der Gentechnologie verlangt den Blick über die Grenzen, insbesondere zu den europäischen Nachbarstaaten. Diese Sammlung enthält wesentliche Dokumente der französischen Debatte in französischer und deutscher Zusammenfassung.
Die Europäische Integration ist weit fortgeschritten. Das wirft die Frage nach einem Europäischen Zivilgesetzbuch auf: Welche Gebiete des Zivilrechts könnte oder sollte ein solches Gesetzbuch abdecken? In welchen Bereichen besteht ein echtes Bedürfnis nach der Vereinheitlichung des Rechts der Mitgliedstaaten? Gibt es eine Gemeinschaftskompetenz für die Schaffung eines Europäischen Zivilgesetzbuches? Wenn ja: Wie weit reicht diese? Welche Auswirkungen auf das Verhältnis zu Nichtmitgliedstaaten sind in Bezug auf eine solche regional begrenzte Rechtsvereinheitlichung denkbar? Diesen und anderen Fragestellungen geht der vorliegende Beitrag nach.
Seit Ende der sechziger Jahre ist in Deutschland der Bereich verdeckter Ermittlungen kontinuierlich ausgeweitet worden. Dies geschah zunächst zur Bekämpfung des Terrorismus, später zur Bekämpfung der Organisierten Kriminalität. Unter dem Eindruck der Terroranschläge vom 11. September 2001 hat insbesondere in den betroffenen USA, aber auch in Deutschland eine erhebliche Intensivierung des Kampfes gegen den internationalen Terrorismus begonnen. Dabei sollen die rechtlichen Ermittlungsinstrumente im Allgemeinen und der Bereich verdeckter Ermittlungen im Besonderen erweitert werden. Mit der Frage "Kriminalitätsbekämpfung um jeden Preis?" will der Autor eine Übersicht und Analyse der wichtigsten Verdeckten Ermittlungsmaßnahmen bieten. Dabei will er weder ein kämpferisches Plädoyer "pro" noch ein weltfernes Plädoyer "contra" halten; vielmehr möchte er ein differenzierendes Bild zeichnen und zu einer ausgewogeneren Betrachtung beitragen.
Im Zeitalter der Globalisierung wachsen Märkte über Staatsgrenzen hinweg zusammen. Die Rede vom "globalen Dorf" ist aber nirgends treffender als für die internationalen Finanzbeziehungen. Die Frage lautet, welche Konsequenzen sich hieraus ergeben, auch für die internationale Rechtsordnung. Freilich ist hierüber nicht nachzusinnen, wenn deregulierte Finanzmärkte sich selbst regeln und deshalb zu effizienten Ergebnissen gelangen. Gerade das aber ist nicht der Fall. Und deshalb gibt es Handlungsbedarf für ein den Bedingungen der Globalisierung angemessenes Design der internationalen Finanzbeziehungen, deshalb auch der internationalen Rechtsordnung. Ziel sollte es sein, die Globalisierung der Finanzbeziehungen zum Vorteil aller zu nutzen, ohne der Gefahr zu unterliegen, das System des offenen Welthandels, liberalisierter Finanzbeziehungen und offene Gesellschaften aufs Spiel zu setzen. Eine wichtige Aufgabe in diesem Zusammenhang ist es, das institutionelle Vakuum zu füllen, das sich aus der Entnationalisierung von Wirtschaft und Wirtschaftspolitik im Zuge der Globalisierung aufgetan hat. Ohne sehr viel stärkere wirtschaftspolitische Kooperationen und Abstimmung der hierfür erforderlichen juristischen Voraussetzungen ist dieses Ziel als Vorbedingung einer stabilen internationalen Finanzarchitektur nicht zu erreichen.
Der Vortrag stellt die Arbeit der vom Referenten geleiteten Regierungskommission "Corporate Governance" und ihre Empfehlungen dar, erörtert den Inhalt des inzwischen verabschiedeten "Corporate Governance-Kodex" für börsennotierte Unternehmen und geht auf einige damit verbundene Rechtsfragen ein. Den Abschluss bildet ein Ausblick auf geplante Reformvorhaben im Bereich des Aktienrechts.
Die heute in Wissenschaft und Praxis stark beachteten Nichtregierungsorganisationen(NGOs) sind entgegen verbreiteter öffentlicher Meinung keineswegs ein neues Phänomen; ihre Wurzeln reichen vielmehr bis in das 17. Jhdt. zurück. Damals wie heute sind viele der NGOs im humanitären Bereich tätig. Inzwischen haben sich die Arbeitsfelder jedoch stark erweitert. Abgesehen davon haben die NGOs aus unterschiedlichen Gründen, insbesondere aufgrund des Globalisierungsprozesses, an sozialer und politischer Bedeutung zugenommen. Dies hat sich auch auf die Struktur des Völkerrechts ausgewirkt. Während das klassische Völkerrecht allein die Staaten als Rechtssubjekte anerkannte, lockert sich im Zuge der Internationalisierung öffentlicher Aufgaben der sog. numerus clausus der Völkerrechtssubjekte. Ferner sind aufgrund der Globalisierung, also der Entstaatlichung der internationalen Beziehungen und dem Rückzug des Staates aus der Wahrnehmung bisher als ausschließlich staatlich verstandener Aufgaben, NGOs in ehemals staatliche Handlungsräume vorgedrungen mit der Folge, dass auch ihnen zunächst eine beschränkte Rechtsstellung im Völkerrecht zuerkannt wurde.
Der Beitrag von Professor Basedow beschäftigt sich mit dem Wesen und den wirtschaftlichen sowie rechtlichen Grenzen wirtschaftlicher Regulierung. Zu diesem Zweck werden zunächst der Begriff der Regulierung erläutert und politische Erklärungen zu dieser Thematik erörtert. Danach folgt eine Untersuchung der Frage, wie wirtschaftliche Regulierungen gerechtfertigt werden können und wie sich eine entsprechende Politik zu gegenläufigen Prinzipien des höherrangigen Rechts verhält. Daran schließt sich eine Bestandsaufnahme des zur Zeit praktizierten Nebeneinander von Deregulierung und Regulierung sowie eine Auswertung aller dargestellten Befunde an.
Rechtsdogmatik ist ein schillernder, vieldeutiger Begriff. Wie alle zentralen juristischen Begriffe, ist er auch dem gesellschaftlichen und politischen Wandel ausgesetzt. Das wird an der Zeitgebundenheit juristischer Dogmen augenfällig. Besonders anschaulich werden die Strukturen der Dogmatik durch den schleichenden Verfassungswandel vom Gesetzesstaat (Rechtsstaat) zum Richterstaat betroffen. Damit ändert sich auch die traditionelle Rolle der Rechtswissenschaft. Sie übernimmt, als Bewahrerin rechtshistorischer und -politischer Erfahrungen, verstärkte Dienst-, Angebots- und Kritikfunktionen bei der Entstehung und Stabilisierung neuer Rechtsgrundsätze im Bereich der richterlichen Rechtsfortund Rechtsumbildung. Rechtsdogmatik und Rechtspolitik erweisen sich aus der Sicht des Verfassers als ein untrennbarer Zusammenhang. Rechtsdogmatik kann als "kristallisierte" Rechtspolitik verstanden werden. Sie wird durch ein systemwidrig wucherndes Richterrecht von Erosion bedroht.
Das in Indien geltende Religionsrecht ist ganz überwiegend in staatlichen Kodifikationen normiert, neben die in beschränktem Umfange Normen der verschiedenen Religionsgemeinschaften selbst treten. Die vorliegende Veröffentlichung möchte einen Überblick über die staatlichen Kodifikationen des indischen Religionsrechtes geben. Diese finden sich in den verschiedensten Rechtsbereichen und liegen teilweise in der Gesetzgebungszuständigkeit der Indischen Union, zum Teil aber auch in der der 28 Einzelstaaten. Eine vollständige Darstellung aller einzelstaatlichen Gesetze war im Umfang dieser Sammlung nicht möglich, doch wurde bei der Zusammenstellung eine möglichst repräsentative Auswahl vorgenommen.
Im Unterschied zu vielen, europäischen Staaten definiert sich die kanadische Identität nicht über eine gemeinsame, ethnische Herkunft. Vielmehr leitet sie sich bereits in ihrer Wurzel von einer jeweils eigenständigen, englischen und französischen Gründungsgeneration ab. Ferner werden inzwischen auch die Aboriginals als eines der Gründungsvölker Kanadas anerkannt. Diese Multikulturalität, zusammen mit der großen landschaftlichen und klimatischen Vielfältigkeit des Landes, hat dazu geführt, dass Kanada eine besondere Sensibilität für die Unterschiedlichkeit seiner Bevölkerungsgruppen und, damit verbunden, auch vermehrt gesellschaftliche und rechtliche Instrumente entwickelt hat, die sowohl auf der nationalen als auch auf der internationalen Ebene dazu beitragen sollen, gemeinsame Werte zu schützen, ohne eine der beteiligten Gruppen zur Aufgabe ihrer Identität zu zwingen.
Der vorliegende Beitrag stellt die aktuellen Entwicklungen und Problemfelder in der Medienwirtschaft dar. Dabei wird insbesondere den mit den Rundfunkgebühren verbundenen Fragestellungen nachgegangen sowie der Funktionsauftrag des öffentlich-rechtlichen Rundfunks und die Selbstbindungsmechanismen der Medien näher erläutert. Ferner nimmt der Verfasser zur Online-Präsenz sowie zur Diskussion um ein Werbe- und Sponsoringverbot für den öffentlich-rechtlichen Rundfunk Stellung. Schließlich behandelt der Autor die Frage, ob nationale Medienpolitik über die Europäische Kommission betrieben wird.
The United States insisted that the International Criminal Court would not have jurisdiction to prosecute American nationals. It was to be a court for others, not for them. The Rome Conference insisted on upholding the principle of equal justice for all and consequently rejected American exceptionalism. The Clinton administration nevertheless signed the ICC Statute and remained involved in the post Rome proceedings of the Preparatory Commission for the International Criminal Court. However, when President Bush took office, his administration embarked on a world wide campaign to discredit the ICC. It cancelled the American signing of the ICC Statute, it enacted hostile legislation aimed at frustrating the functioning of the ICC, and it concluded agreements with approximately 50 States that place those States under an obligation not to surrender American nationals for trial in the ICC. The difference of opinion between the United States and the European Union cannot be resolved by diplomatic means since the United States administration is obligated by an American statute to discredit the ICC and to prevent it from operating according to its Statute. The European Union and its Member States will therefore have to embark on a policy of confrontation.
Die Reform der Zivilprozessordnung von 2001 brachte erhebliche Veränderungen für das Berufungs- und Revisionsverfahren mit sich. Ihre Ziele waren vor allem die Stärkung der ersten Instanz, die Abschaffung der zweiten Instanz als Tatsacheninstanz sowie die Erleichterung der Revision auch für kleine Sachen. Damit ist jetzt selbst bei Bagatellsachen der Weg vom Amtsgericht zum Bundesgerichtshof möglich. Dieser Beitrag untersucht, ausgehend von der Lage, die der Gesetzgeber 2001 vorfand, die maßgeblichen Änderungen auf ihre Zweck- und Verfassungsmäßigkeit. Dabei wird die neueste Rechtsprechung des Bundesverfassungsgerichts berücksichtigt und auf die Frage eingegangen, ob durch die Reform tatsächlich ein Fortschritt erzielt wurde.
In jedem demokratischen Staat besteht ein Dilemma zwischen Freiheit und Sicherheit. Zwar ist Sicherheit die Voraussetzung für Freiheit, doch insbesondere Sicherheit vor Kriminalität kann nur gewährleistet werden durch Maßnahmen, die auch in Freiheitsrechte der Bürger eingreifen. Diesem Dilemma muß durch ständigen Ausgleich zwischen beiden Bedürfnissen Rechnung getragen werden. Gerade im Zuge einer erhöhten öffentlichen Wahrnehmung der organisierten Kriminalität und neuerdings des Terrorismus stellt sich die Frage nach der Ausgewogenheit zwischen Sicherheit und Freiheit verstärkt. So hat beispielsweise die Gesetzgebung zur Terrorismusbekämpfung eine nicht unerhebliche Verschärfung polizeilicher und strafprozessualer Eingriffsbefugnisse mit sich gebracht. Der Verfasser geht in seinem Beitrag, ausgehend von der Entstehung des individuellen Menschenrechtsschutzes, der Frage nach, ob die Abwendung vom Individualrechtsschutz hin zur wirksameren Verbrechenskontrolle durch eine neue, verschärfte Sachlage gerechtfertigt ist und untersucht unter anderem das Vorhandensein absoluter Eingriffsgrenzen und die Begründungserfordernisse für vorgenommene Einschränkungen.
Der Beitrag setzt sich mit dem Scheitern der Regierungskonferenz im Dezember 2003 auseinander. Zunächst erläutert er die Ergebnisse des Vertrages von Nizza und geht anschließend auf den Verfassungsentwurf, den der Konvent zur Zukunft Europas im Juli 2003 verabschiedete, ein. In den Differenzen dieser beiden Dokumente sind nach Ansicht des Verfassers auch die Antworten auf das Scheitern der Regierungskonferenz zu sehen. Im Anschluss daran werden die weiteren Schritte auf dem Weg hin zu einer gemeinsamen Verfassung für Europa dargelegt.
Der Beitrag beschäftigt sich mit dem Verhältnis zwischen Deutschland und dem Völkerrecht nach dem Irak-Konflikt. Zunächst erläutert der Verfasser drei erkennbare Trends in der Völkerrechtsentwicklung, nämlich die Dominanz der USA, die Konstitutionalisierung des Völkerrechts und den Bedeutungsverlust des Staates in einigen Regionen der Welt. Zimmermann geht dann auf die Relevanz dieser Entwicklungen für Deutschland ein. In einem zweiten Teil widmet sich der Autor gezielt dem völkerrechtlichen Gewaltverbot und Deutschlands Rolle bei der Entwicklung in diesem Bereich. Der Irak-Konflikt dient ihm in allen Feldern dazu, die gegenwärtigen Entwicklungen zu verdeutlichen.
In der Nacht vom 17. auf den 18. Juli 1998 wurde das Römische Statut des Internationalen Strafgerichtshofs (IStGH-Statut) auf der Diplomatischen Bevollmächtigtenkonferenz der Vereinten Nationen zur Errichtung des Internationalen Strafgerichtshofs verabschiedet. Das IStGH-Statut ist am 01.07.2002 in Kraft getreten. Der Internationale Strafgerichtshof (IStGH) ist zuständig für schwerste Verbrechen: Völkermord, Verbrechen gegen die Menschlichkeit und Kriegsverbrechen, zudem " wenn auch erst zukünftig - Verbrechen der Aggression. Hierbei ersetzt der IStGH allerdings nicht die nationale Strafgewalt, sondern wird nur ergänzend zu den nationalen Gerichten tätig (Grundsatz der Komplementarität). Das IStGH-Statut ist bisher von 93 Staaten ratifiziert worden. Deutschland hat das Statut am 10.12.1998 unterschrieben und am 11.12.2000 ratifiziert. Die Verfasserin zeigt auf, wie die Verfahrensordnung des IStGH einerseits durch das Common Law, andererseits aber auch stark vom kontinental-europäischen Rechtssystem beeinflusst wurde und warum gerade der durch diese wechselseitige Beeinflussung entstandene Kompromiss die Verfahrensordnung des IStGH zu einem Modell eines universalen Strafverfahrensrechts qualifizieren könnte.
Verschleiernde Rechtssprache
(2004)
Rechtssprache verschleiert praktisch immer. Bloss das Wie und Warum, die handelnden Personen und ihre Motive sind zu differenzieren. Der Terminus "verschleiernde Rechtssprache" darf nicht im Sinn einer pauschalen Distanzierung oder Diskriminierung verstanden werden. Tatsachen sind zu analysieren, die wir uns zu oft zu wenig bewusst machen, die wir darum auch oft nicht präzis und umfassend genug einordnen können. Positive oder negative Wertungen sind für den jeweiligen Zusammenhang möglich, nicht vorschnell und simplifizierend darüber hinaus. Der Autor befasst sich anhand zahlreicher Beispiele mit der Unschärfe von Sprache im rechtlichen Gebrauch. Insbesondere die Auslegung und deren Instrumentalisierung ist Gegenstand des Beitrages.
The Constitution of Latvia
(2004)
The article offers a concise view on the constitution of the Baltic state of Latvia. After an introduction focusing on constitutional history, the author explores basic principles and human rights in the text of the constitution and explains the main constitutional bodies and their functions in legislative, executive and judiciary. Chapters on citizenship and religious rights round up this introduction to the Latvian Constitution.
Islamismus, Kulturkonflikt, Terrorismus - was sind die Bedingungen von Eskalation und Deeskalation?
(2005)
In dem öffentlichen Diskurs über Gewalteskalation konkurrieren bislang zwei Erklärungsmuster: die deprivationstheoretische Erklärung, derzufolge wahrgenommene Benachteiligung für die Gewaltbereitschaft ursächlich, und die kulturalistische Erklärung, derzufolge unverträgliche kulturelle Traditionen zu fortschreitenden Spannungen und Konflikten führen, die schließlich auch mit Mitteln des Terrorismus ausgetragen werden können. Nun wissen wir, dass Benachteiligung in vielen Fällen nicht zur Revolte führt und ganz unterschiedliche kulturelle Traditionen durchaus friedlich nebeneinander existieren können. Hier soll darum eine dritte konflikt- theoretische Erklärung vorgestellt werden: Gruppenkonflikte, wie immer sie entstanden sind und worum immer sie gehen, enden in der Gewalt, wenn sie nicht in Institutionen aufgefangen werden.
Im Jahre 1898, während des Krieges der USA gegen Spanien, besetzten die USA die Bucht von Guantánamo, eine bedeutende Hafenanlage. Gemäß dem sog. Platt-Amendment, das die kubanische Verfassungsgebende Versammlung unter Druck akzeptieren musste (sonst wäre die vierjährige amerikanische Besetzung nicht beendet worden), sollte den Amerikanern eine oder mehrere Stützpunkte zugesprochen werden. Dies geschah im Pachtvertrag vom 23. Februar 1903, wodurch Kuba die Bucht von Guantánamo "for coaling and naval purposes, and for no other purpose" an die USA verpachtete. Bis 1934 bezahlten die USA $ 2.000 pro Jahr. Seit 1938 wurde die Summe auf $ 4.085 erhöht. Jedoch akzeptiert Kuba seit 1959 die amerikanische Präsenz auf kubanischem Boden nicht mehr und löst die Schecks nicht ein. Wie ist die amerikanische Präsenz in Guantánamo heute völkerrechtlich zu beurteilen?
Rationale Rechtspolitik ist ein einleuchtendes Postulat. Man bestimmt einen normativen Maßstab, etwa Effizienz. Man stellt fest, dass ein Ausschnitt der Wirklichkeit hinter diesem Ziel zurückbleibt. Man listet die Interventionen auf, mit deren Hilfe die Wirklichkeit dem Ziel näher gebracht werden kann. Man wählt die Intervention, die den größten Fortschritt erwarten lässt. Bei näherem Zusehen ist jedes dieser Elemente problematisch. Es gibt eine Vielzahl normativer Währungen, die untereinander nicht kompatibel sind. Das rechtspolitische Problem lässt sich nicht aus dem größeren Zusammenhang herausschälen. Die Menge denkbarer Interventionen ist überreich. Ihre Wirkungen sind schwer zu prognostizieren. Was tun?
Die Kernaufgaben der Justiz
(2005)
Die Herbstkonferenz der Justizministerinnen und Justizminister der Länder hat am 25.11.2004 die Entwicklung des Gesamtkonzepts für eine Große Justizreform beschlossen. Deregulierung durch Vereinheitlichung der Prozessordnungen und generelle Beschränkung auf eine Tatsacheninstanz, Aufgabenübertragung und Aufgabenauslagerung, Konzentration und Qualitätssicherung lauten die nahezu einstimmig beschlossenen Kernaussagen. Dem Beschluss liegt das Konzept zugrunde, der Justiz die notwendige Leistungsstärke und Zukunftsfähigkeit langfristig zu sichern. Da die Ressourcen in Zeiten wirtschaftlicher Umbrüche, von Sparzwängen der öffentlichen Haushalte und Einschnitten in die sozialen Sicherungssysteme nicht beliebig vermehrbar sind, soll die Justiz zu diesem Zweck auf ihre Kernaufgaben zurückgeführt werden. Hiermit gerät der Inhalt der Kernaufgaben von Rechtsprechung in das Zentrum der Diskussion. Was sind die für einen funktionierenden Rechtsstaat notwendigen Funktionen von Justiz? Welche Folgerungen ergeben sich hieraus für ihre Ausgestaltung? Diese grundlegenden Fragen, die in der rechtspolitischen Debatte meist vorausgesetzt, aber nicht reflektiert werden, sind Gegenstand des Vortrags.
Das Streben nach besserer Gesetzgebung ist ebenso alt wie die Klage über die unzureichende Qualität und die schier haltlose Flut der erlassenen Vorschriften. Symptomatisch für die vielfältigen Defizite heutiger Gesetzgebung auf nationaler Ebene sind systematische Unstimmigkeiten und oftmals kaum auflösbare innere Widersprüche von Gesetzen. Die Probleme und Herausforderungen, die sich aus der europäischen Rechtsetzung für die Verwirklichung der Zielsetzung einer guten Gesetzgebung ergeben, sind bis dato weitgehend unbehandelt. Der Beitrag befasst sich mit den Schwierigkeiten der gemeinschaftlichen Rechtsetzung, der Mitwirkung der Mitgliedstaaten und der Umsetzung in nationales Recht.
Betriebswirtschaftlich ausgerichtete Reformen zur Verbesserung der Effizienz und Effektivität werden zunehmend auch in der Rechtsprechung eingesetzt. Dort stoßen sie vor dem Hintergrund der Gewährleistung der richterlichen Unabhängigkeit zum Teil auf erhebliche Vorbehalte. Bei richtigem Verständnis der Reformmaßnahmen ist dies aber unbegründet. Die Maßnahmen erstrecken sich insbesondere auf Modelle zur Erfolgsmessung, auf die Gestaltung der Geschäftsprozesse sowie auf betriebswirtschaftliche Instrumente (Balanced Scorecard und Kosten- und Leistungsrechnung). Sie müssen nicht nur auf die speziellen Bedingungen der Rechtsprechung abgestimmt sein. Zu den Faktoren für eine erfolgreiche Anwendung gehört vor allen Dingen die Vermittlung betriebswirtschaftlichen Wissens in der Aus- und Fortbildung der Mitarbeiter.
Am 03.03.2004 verkündete das Bundesverfassungsgericht sein Urteil zum Großen Lauschangriff, in dem es die akustische Wohnraumüberwachung unter eng begrenzten Umständen für zulässig erklärte. Der Beitrag setzt sich, beginnend mit rechtsgleichenden Betrachtungen, eingehend mit dem Urteil auseinander und beleuchtet die Entscheidung ebenso wie die abweichenden Voten kritisch. Dabei zeigt der Autor Probleme auf, die sich bei der Anwendung des Urteils in der Praxis ergeben und plädiert für die Normierung auch des sog. kleinen Lauschangriffs.
Der moderne Terrorismus hat sich weltweit zur Bewährungsprobe für die Rechtsstaatlichkeit entwickelt. Einerseits haben terroristisch motivierte Anschläge mittlerweile eine fast unübersehbare Anzahl von Menschenleben gefordert. Insbesondere der islamistischfundamentalistische Terror hat eine globale Gefahrenlage herbeigeführt, in der die Sicherheitsbehörden vor schwierigste Aufgaben gestellt sind. Andererseits ist der Eindruck entstanden, dass sich manche Strategien der Gefahrenabwehr und der Verfolgung mutmaßlicher Täter verselbständigt haben. Eine der Folgen scheint die systematische Missachtung grundlegender Freiheitsrechte zu sein. Zudem werden Techniken und Mittel der Kriegsführung zur Verbrechensbekämpfung eingesetzt. Der Beitrag setzt sich kritisch mit der Frage auseinander, ob Folter und Entführung legitime Mittel der Verteidigung einer Rechtsordnung gegen schwerste Angriffe sein dürfen. Er erinnert auch an die Europäische Tradition der Menschenrechte und versucht Gesichtspunkte zu entwickeln, die für die notwendige Unterscheidung zwischen Staatsraison und Regierungskriminalität nützlich sein könnten.
"Scharia". Dieses Einzige ist an sich weder uniform, noch evident. Einförmigkeit und Eindeutigkeit sind aber Weisen unseres Verständnisses von gesichertem Wissen. Doch fehlt dem Ausdruck Scharia, zumindest dem ersten Anschein nach, diese Klarheit und Eindeutigkeit. Dass dem nicht so ist, dass sie ein historisch erwachsenes Ereignis darstellt, welches einen näher bestimmbaren Anfang, eine rekonstruierbare Entwicklung und schließlich einen präzisierbaren Abschluss gehabt hat, dass die zeitgenössische Auffassung von Scharia eigentlich wiederum etwas Neuartiges zu sein scheint, dies ist das Thema dieser Explikationen. Denn die sogenannte hermeneutische Situiertheit des Gegebenen oder Gegenwärtigen ist von größter Bedeutung. Fehlt seine hermeneutische Situation, so kann geschichtlich Existierendes nicht erkannt, verstanden und eigentlich erlebt werden. Ohne eine vorausgehende historisch-hermeneutische Analytik jedoch, lässt sich weder die sogenannte gottgesetzte Ordnung, noch der geschichtliche Sinn einer islamischen Normativität verstehen. Den Sinn von Scharia verstehen wir nur, wenn sie innerhalb eines sinnstiftenden historischen Rahmens ins Bewusstsein getragen wird.
Der Autor führt in das taiwanesische Strafverfahrensrecht unter Darstellung der Rechtsgrundlagen und der Entstehungsgeschichte ein, welches maßgeblich durch kontinental-europäische Einflüsse geprägt war. Ferner analysiert er die aktuellen Entwicklungstendenzen in Richtung des anglo-amerikanischen Rechtssystems, welche insbesondere im Rahmen der Beweiserhebung deutlich werden und skizziert die aus seiner Sicht hiermit verbundenen Problematiken. Abschließend bietet der Autor einen Ausblick unter Einbeziehung der aktuellen Reformansätze und hinterfragt kritisch die hierfür vordergründig genannte Notwendigkeit der Verstärkung des Menschenrechtsschutzes.
Der Autor beschäftigt sich mit der Frage, ob Angriffskriege ein probates Mittel für die Bekämpfung des internationalen Terrorismus darstellen. Unter Einbeziehung der aktuellen politischen Debatte in Deutschland rund um die Vorschläge zur gezielten Tötung von Terroristen fragt er zunächst nach dem Wesen des Terrorismus und analysiert die Reaktionen der westlichen Politik auf diesen. Ein eingehender Blick erfolgt dabei insbesondere auf die Außen- und Sicherheitspolitik der einzig verbliebenen Supermacht USA und die von ihr ausgehenden Kriege gegen Afghanistan und den Irak als Mittel der Terrorismusbekämpfung. Der Autor kommt schließlich zu dem Ergebnis, der Terrorismus sei als eine Art der Kriegsführung zu begreifen, der mit Mitteln des hergebrachten klassischen Staatenkrieges nicht beizukommen sei. Schließlich beleuchtet er auch die dem Rechtsstaat drohende Gefahr, wenn im Zuge der Terrorismusbekämpfung die Bereitschaft wachse, rechtsstaatliche Gewährleistungen abzuschwächen.
Mord im Namen der "Ehre", die Strafe für die Missachtung einer klar definierten Rolle der Frau, findet weder im Koran noch in der Theologie des Islam eine Grundlage. Dennoch ereignen sich Ehrenmorde vor allem in islamischen traditionellen Gesellschaften, in denen sehr eindeutig und streng definierte Normen für Mann und Frau, die mit religiösen Anordnungen begründet werden, im Kollektiv überwacht und Grenzüberschreitungen vor allem Frauen schuldzuschreibend zur Last gelegt werden. Nicht nur in islamisch geprägten Ländern, sondern auch im Westen sind nahöstliche Auffassungen weiblicher und männlicher Geschlechterrollen wie auch die Ehrenmorde selbst zu einem Thema von immenser Bedeutung geworden. Geht es doch zunächst darum, sich mit kulturell-religiös begründeten Sichtweisen von Zuwanderergemeinschaften zu beschäftigen. Dann aber muss es, allein im Zuge der brennenden Fragen von Integration und der praktischen Gestaltung eines konstruktiven Zusammenlebens, auch um eine fundierte Auseinandersetzung über die Grenzen kultureller Toleranz und um konkrete Menschenrechtsverletzungen gehen. Ist es Zufall oder Zwangsläufigkeit, dass gerade in der dritten Generation muslimischer Migranten diese Problematik besonders aufbricht? Es ist Zeit zur Aufklärung und zum Handeln.
Islam und Menschenrechte: Sind dies zwei Begriffe, die sich gegenseitig ausschließen? Auf den ersten Blick nicht, denn mit der "Allgemeinen Erklärung der Menschenrechte im Islam" von 1981 und der "Kairoer Erklärung der Menschenrechte" von 1990, seien nur zwei Beispiele genannt, die versuchen Menschenrechte und Islam in Einklang zu bringen. Bei genauerem Hinsehen erblickt man jedoch wesentliche Problemfelder, die Zweifel zulassen, ob die islamischen Menschenrechtserklärungen eine ähnliche Garantie wie die "AllgemeinernMenschenrechtserklärung" der UN-Vollversammlung von 1948 bieten. Augenscheinlichster Unterschied ist, dass die Scharia in den genannten Erklärungen absolut gesetzt wird, und somit die Garantien und Freiheiten, insbesondere im Hinblick auf "Nichtgläubige" und Frauen, eingeschränkt werden. Kann man also von einer Menschenrechtserklärung sprechen, wenn nicht alle Menschen unabhängig von Religion und Geschlecht gleich sind? Dennoch darf nicht der Fehler gemacht werden, Islam und Menschrechte in ein Ausschlussverhältnis zu setzen: Wie die Autorin zeigt, gibt es Bewegungen, die sich für eine Neuausrichtung in der islamischen Menschenrechtsdebatte einsetzen und sich im Hinblick auf Opfer von Menschenrechtsverletzungen engagieren. Wer letztendlich im Streit um die Allgemeingültigkeit der Menschenrechte oder aber der Scharia obsiegen mag, ist noch offen.
Stellt die direkte Demokratie ein (Alternativ-)Modell für Deutschland dar? Bisher gab es seit 1974, mehr oder weniger unbeachtet von der Öffentlichkeit, drei parlamentarische Erörterungen zu diesem Themenfeld. Der letzte Vorstoß scheiterte 2002 an der für Verfassungsänderungen erforderlichen 2/3-Mehrheit. Gemeinhin wird die Einführung von direkter Demokratie in Deutschland mit dem Verweis auf die schlechten Erfahrungen unter der Weimarer Reichsverfassung abgelehnt. Aus der Sicht des Autors wurde dieses Instrument aber nicht so eingesetzt, dass es für das Entstehen des totalitären Regimes des Dritten Reichs verantwortlich gemacht werden könnte. Dennoch scheint es in Deutschland die Befürchtung zu geben, dass die Bevölkerung nicht mit dem Mittel direkter Demokratie verantwortungsbewusst umzugehen weiß. Demgegenüber stehen die positiven Erfahrungen der Schweiz mit der Zulassung von mehr Mitgestaltungsrechten für die Bevölkerung. Kann es schließlich eine bessere Bekämpfung autokratischer Willkür geben als durch die Bürger, die sachlich und gemeinwohlorientiert zu entscheiden in der Lage sind? Es scheint an der Zeit zu sein in einen neuen Abwägungsprozess einzutreten und von den Erfahrungen anderer Länder zu profitieren.
Das israelische Religionsrecht ist gegenwärtig trotz des jüdischen Charakters des Staates Israel grundsätzlich als System der Trennung von Staat und Religion bei gleichzeitiger Kooperation des Staates mit den Religionen beziehungsweise Religionsgemeinschaften zu charakterisieren. Mit Blick auf den aktuellen Verfassungsentwurf des israelischen Parlaments stellt sich die Frage, welche Konsequenzen seine Annahme für das Religionsrecht haben würde: Würde Israel Züge eines religiösen Staates annehmen, oder bildet das Regelungswerk lediglich den Ist-Zustand ab? Die Beantwortung dieser Frage hängt zum einen von dem Charakter der neuen Regelungen ab, die der Entwurf enthält, und zum anderen davon, ob die bestehende Rechtssubstanz durch die Transponierung in eine formelle Verfassung ihr Wesen verändern würde.
Der Beitrag setzt sich mit der Frage auseinander, ob die Todesstrafe eine rechtlich begründbare Strafe darstellt, bzw. aus welchen Gründen ihre Abschaffung im Rechtsstaat erforderlich ist. Dabei unterwirft die Autorin die Todesstrafe einer Überprüfung von einem fundamentalen Verständnis des Rechts aus, wobei sowohl empirische als auch pragmatische Gesichtspunkte in eine Gesamtbetrachtung einfließen. Weiter wird die Vollstreckung bzw. die Aussetzung der Vollstreckung der Todesstrafe erörtert. Die Rechtslagen in Korea sowie seinen Nachbarländern Japan und China, zwischen denen aufgrund der geographischen Lage und zum Teil gemeinsamen kulturellen, sowie rechtshistorischen Wurzeln, Wechselwirkungen bestehen, werden aufgezeigt und einer vergleichenden Betrachtung unterzogen.
Germany as law-exporting nation is a worldwide role model especially for its criminal law and criminal procedure law which has influenced several East Asian countries. The author offers a short historical overview on the establishment of the rule of law in Germany. He describes the role of the German Federal Constitution as source of criminal procedure law by referring to fundamental constitutional principles as well as giving specific case examples. The second part of the essay focuses on the relevance and application of the European Convention on Human Rights. The author points out basic principles of the European Convention on Human Rights and illustrates its influence on German legal practice.
Vor dem Hintergrund der im Herbst 2008 begonnenen Finanzmarktkrise beschäftigt der Beitrag sich mit der verfassungsrechtlichen Betrachtung der im Zuge dessen ergriffenen politischen Maßnahmen. Er beleuchtet kritisch das Verhältnis von Staat und Kapital, gegliedert nach Funktionen des Staates als Garant des Kapitals, als Regelungsinstanz internationaler Kapitalströme und als Wirtschaftssubjekt aufgearbeitet. Dabei wird sowohl das Europäische Verfassungsrecht als auch das Völkerrecht als Verfassungsrecht der Internationalen Gemeinschaft in die Überlegungen einbezogen. Der Autor problematisiert die begrenzte Steuerungskraft der Verfassungsrechtswissenschaft im Zusammenhang mit der Finanzmarktkrise, fordert aber von dieser, dass sie innerhalb ihrer Möglichkeiten zur Gefahrenabwehr handelt. Außerdem müsse sie verhindern, dass aufgrund der Finanzmarktkrise entstandene Schäden im deutschen und europäischen Verfassungsrecht verbleiben.
Die Notwendigkeit einer rechtlichen Regelung der Sterbehilfe ist seit langem Gegenstand intensiver Diskussion in Deutschland, die Rechtsunsicherheit bezüglich zulässiger bzw. unzulässiger Sterbehilfe heute aber größer denn je. Der erste Beitrag setzt sich mit den Gründen dieser Entwicklung auseinander und zeigt Möglichkeiten auf, wie der Bereich zulässiger Sterbehilfe im Strafrecht ohne Verlust an Einzelfallgerechtigkeit präzisiert werden kann. Der sich anschließende Beitrag geht auf die luxemburgische Gesetzgebung zur Sterbehilfe ein. Schließlich werden die Beiträge aus der Sicht eines Palliativmediziners unter Heranziehung von Fällen aus der Praxis diskutiert.
Analyzing the role of Germany as a law-exporting nation the essay deals with a very specific aspect of the Rule of Law principle in criminal proceedings. The author describes the division of functions among police, public prosecution and criminal courts within criminal law enforcement in Germany adding some comparative law remarks. He furthermore provides an overview of structure and organization of the public prosecution in Germany. He focuses on the relationship and interaction between public prosecution and police in preliminary proceedings emphazising the importance of both being allocated in different ministries of the executive branch. Thus he points out yet another aspect of the constitutional principle of the Rule of Law: the role of public prosecution as guardian of the law towards the police in criminal proceedings.
Investitionsbeschränkungen im deutschen Außenwirtschaftsrecht. Europa- und völkerrechtliche Probleme
(2009)
Der Verfasser beschäftigt sich in seinem Beitrag mit den Möglichkeiten des Schutzes vor Unternehmensbeteiligungen und -übernahmen durch ausländische Investoren. Dabei stehen die Überprüfungs- und Untersagungsbefugnisse, wie sie das 13. Gesetz zur Änderung des Außenwirtschaftsgesetzes und der Außenwirtschaftsverordnung vom 18. April 2009 hervorgebracht hat, im Mittelpunkt seiner Ausführungen. Diese neuen Befugnisse werden bezüglich ihrer Europa- und Völkerrechtskonformität untersucht. Beachtung findet insoweit vor allem ein möglicher Verstoß gegen die Kapitalverkehrs- sowie die Niederlassungsfreiheit. Auf völkerrechtlicher Ebene beschäftigt sich der Autor mit den Schranken des internationalen Wirtschaftsrechts, wie sie etwa der OECD-Kodex oder das GATS-Übereinkommen errichten.
Der Beitrag befasst sich mit dem Einsatz der deutschen Marine bei der Bekämpfung des Terrorismus im Rahmen der Operation Enduring Freedom (OEF), bei der Verhinderung einer Verbreitung von Massenvernichtungswaffen im Rahmen der Proliferation Security Initiative (PSI) und bei dem Kampf gegen die Piraterie im Rahmen der EU-Operation Atalanta. Dabei hat die Marine u.a. die Befugnis, verdächtige Schiffe aufzubringen, an Bord zu gehen, Untersuchungen durchzuführen und ggf. verdächtige Personen in Gewahrsam zu nehmen. Die Autorin beleuchtet, inwieweit solche Maßnahmen mit der Schifffahrtsfreiheit, einem der fundamentalen Prinzipien des Seevölkerrechts, vereinbar sind. Sie geht außerdem der Frage nach, ob die im Zuge der Bekämpfung der Piraterie vor der Küste Somalias erfolgende Übergabe mutmaßlicher Piraten an Kenia zum Zwecke der Strafverfolgung mit den grund- und menschenrechtlichen Verpflichtungen der Bundesrepublik Deutschland im Einklang steht.
The article deals with the responsibility of the financial sector under criminal law in Germany. This question has been of special interest since the beginning of the financial crisis. The author argues that the transactions of asset-backed securities based on American subprime mortgages fulfill all legal elements of the criminal offence "breach of trust" (Untreue). From the author's point of view, the people's legal loyalty would be severely affected if there were no criminal proceedings against such bankers who purchased those toxic asset-backed securities without sufficient information on their structure and value. Refraining from criminal prosecution even in cases causing high loss would send a dangerous signal towards the investment banking industry.
Vom 23.-25.9.2009 sind die wichtigsten Entscheidungen für die europäische und internationale Finanzmarktarchitektur seit langem gefallen. Die Europäische Kommission hat Vorschläge für die Bildung eines Europäischen Ausschusses für Systemrisiken (ESRB) und eines Europäischen Systems für die Finanzaufsicht (ESFS) vorgelegt und die G-20-Staaten haben sich in Pittsburgh auf neue internationale Regeln für die Finanzmärkte geeinigt. Der Autor nimmt in seinem Beitrag eine erste kritische Beurteilung dieser Vorschläge vor.
Fälle von Kindesmisshandlung schrecken immer wieder die Öffentlichkeit wach und haben den Ruf nach einem früheren Tätigwerden des Staates immer lauter werden lassen. Der Beitrag geht der Frage nach, ab wann und mit welchen Mitteln sich der Staat im Interesse des Kindesschutzes in die Familie hineinbewegen kann und darf. Damit soll ein kleiner Beitrag zur Schnittstelle zwischen Elternprimat und staatlicher Verantwortung für den Kindesschutz auf den zwei Ebenen Kinder- und Jugendhilfe einerseits sowie Familiengericht andererseits geleistet werden.
Dans la jeune République turque qui n"a pas adopté le sécularisme anglais, mais plutôt le système de laïcité française comme modèle, il faut se poser aujourd"hui la question des évolutions respectives de ces systèmes. À l"heure du centenaire de la laïcité française, de la loi de 2004 encadrant le port de signes ostentatoires à l"école, nous souhaitons envisager l"histoire de la laïcité et son application actuelle en France afin de mieux comprendre, critiquer et éventuellement adapter ce système à la Turquie qui se prépare pour son entrée dans l"Union européenne.
Der Beitrag skizziert rechtsstaatliche Entwicklungen unter besonderer Berücksichtigung der aktuellen terroristischen Bedrohungslage und der ihr folgenden Reaktionen der deutschen Sicherheitsgesetzgebung. Dabei zeigt der Beitrag grob auf, was heutzutage unter dem Begriff "Rechtsstaat" verstanden wird und wie sich die Prinzipien "Sicherheit" und "Freiheit" innerhalb eines modernen Rechtsstaatsverständnisses bedingen. Die Darstellung beschreibt darauf hin die aktuelle terroristische Bedrohungslage, die als ein diffuses und unbestimmtes Risiko empfunden werden kann und die aufgrund der Bedrohungslage, den komplexen Netzwerkstrukturen, dem Schadensausmaß und schließlich ihrer abschreckungsresistenten und anonymen Akteure mit einem technischen oder natürlichen Großrisiko verglichen werden kann, auf das alleine mit einem effektiven Risikomanagement präventiv reagiert werden kann. Dass dieser Präventionsgedanke bereits in aktuellen Sicherheitsgesetzen vorhanden ist, wird anhand einigen legislativen und judikativen Akten deutlich gemacht und einer kritischen Würdigung unterzogen. Insbesondere Vorhaben wie die Vorratsdatenspeicherung oder das 2009 in Kraft getretene Gesetz zur Verfolgung der Vorbereitung von schweren staatsgefährdenden Gewalttatenrn(GVVG) sind Indikatoren für eine zunehmend präventiv und risikosteuernd agierende deutsche Sicherheitsarchitektur. Außerdem sind die präventiv ausgerichteten Sicherheitsbehörden zunehmend auf die heimliche Sammlung von Informationen angewiesen. Der Beitrag warnt davor, dass damit das gesamte Sicherheitsrecht auf eine einzige Extremsituation ausgerichtet wird und somit den "Ausnahmezustand" zu einem normalen Sicherheitsrisiko reduziert.
In recent years, Islamic banking has been one of the fastest growing markets in the financial world. Even to German banks, Islamic finance is not as 'foreign' as one might think. Indeed, several banks are already operating so-called "Islamic windows" in various Arab countries. However, German banks are still reluctant to offer 'Islamic' products in Germany, despite the fact that approximately 3.5 million Muslims currently live there. Potential reasons for this reluctance include widespread misunderstanding of Islamic banking in Germany and prevailing cultural prejudice towards Islam generally. The author seeks to address these concerns and to take an objective approach towards understanding the potential for Islamic banking in Germany. Legally, Islamic law cannot be the governing law of any contract in Germany. Therefore, the aim must be to draft contracts that are both enforceable under German law and consistent with the principles of Shari'a " the Islamic law. In this paper, the author gives a detailed legal analysis of the most common Islamic banking products and how they could be given effect under German law, while attempting to address widespread concerns about arbitration or parallel Shari'a courts. This publication is one of the first legal analysis of Islamic banking products in Germany. As such, its goal is not to be the final word, but rather to begin the conversation about potential problems and conflicts of Islamic banking in Germany that require further investigation.
Die erst vor einigen Jahren als System zur Qualitätssicherung eingeführte Akkreditierung von Studiengängen steht aktuell auf dem Prüfstand des Bundesverfassungsgerichts. Wegen Zweifeln an der Verfassungsmäßigkeit derrnAkkreditierungspflicht in Nordrhein-Westfalen hat das Verwaltungsgericht Arnsberg ein Klageverfahren ausgesetzt und den Fall dem Bundesverfassungsgericht vorgelegt, das nun über die Vereinbarkeit der Vorschriften mit dem Grundgesetz zu entscheiden hat. Welchen verfassungsrechtlichen Bedenken begegnet das deutsche Akkreditierungssystem im Einzelnen? Welche Erfolgsaussichten hat die Vorlage an das Bundesverfassungsgericht? Welche Konsequenzen hätte es für das gesamtdeutschernAkkreditierungswesen, wenn das Bundesverfassungsgericht die Akkreditierungspflicht für verfassungswidrig erklärt? Diesen und anderen Fragen widmet sich der vorliegende Beitrag.
Entre stéréotypes et affirmation identitaire : quatre artistes contemporains d'Afrique occidentale.
(2007)
Die Arbeit beabsichtigt eher, die Frage der Konstruktion der Identität in der zeitgenössischen afrikanischen Kunst zur Sprache zu bringen. Wo befindet sich die Genauigkeit der Identitätsbehauptung, wenn es Identitätsbehauptung gibt? Ist es möglich, die Umrisse einer "Afrikanität", einer spezifischen Identität in der derzeitigen Kunst Afrikas einzukreisen? Das Werk von Frédéric Bruly Bouabré wird auf zwei Elementen gegründet, das es dem Sinn zugänglich machen: die Zeichnung und der Text. Die Schrift besonderes nimmt eine grundlegende Stelle in der Gesamtheit der Arbeiten von Bruly Bouabré ein. Sein ganzes Werk in der Tat konvergiert in Richtung der Forschung und der Konzeption eines zuerst afrikanischen Schriftsystems, danach universell. Bruly Bouabré stellt auf dem Konto des Fehlens einer Schrift die Niederlage der Afrikaner angesichts der Europäer. Ousmane Sow versteht den Körper als ein Gedächtnisort, ein durch das Gedächtnis geprägter Raum. Er setzt seine Werke auf den Körpern der Völker in oder schon verschwundener Löschgefahr zusammen. Das Werk von Sow ist eine Art der Rehabilitation der Völker, die die Geschichte verurteilt hat, nicht nur besiegt zu werden. Man müßte das künstlerische Konzept von Ousmane Sow in der Bewegung der Négritude eintragen, mit der es viele gemeinsame Punkte hat. Bei Romuald Hazoumé ist es also nicht erstaunlich, in seinem Werk die Spuren der vodun Religion wiederzufinden. Seine mit dem Vodou-Geist gefüllten "Kanister Masken", sind eine Metapher für die Konsumgesellschaft, aus der Hazoumé sie entnimmt und sie ihres Status als Ausschuss entledigt, um sie in den Rang von Kunstwerken zu erheben. So lädt er zum Nachdenken ein über die der Materialität beigemessenen Bedeutung und die ihr innewohnende Spiritualität. Die Malerei von Suzanne ist gewalttätig, aggressiv und gewagt, sie malt mit harten Farben (schwarz, grau, dunkelbraun und blutrot) und hat nichts mit ästhetischen oder dekorativen Erwägungen im Sinn. Wenn sie Tiere malt, dann vor allem, um die menschlichen Fehler darzustellen (Egoismus, Hochmut, Futterneid): sie sind blutig mit besorgten, gefolterten, aggressiven. Ihrem Kampf widmet sie zahlreiche Werke: dem Kampf um die (Lebens-) Bedingungen der afrikanischen Frau. Jedoch ist die Problematik einer spezifischen Identität im Bereich der Kunst, alles andere als wirklich einschlägig zu sein. Sicherlich erlaubt sie dem Künstler, der davon benutzt, sich eine Originalität zu bauen. diese Originalität ist fiktiv, und stellt sich auf Grundlagen auf, die manchmal veraltet sind, und die zu einer phantasierten Vergangenheit gehören. die Echtheit eines Kunstwerkes kann sich nicht ab der geographischen Zugehörigkeit oder von der kulturellen Zugehörigkeit des Künstlers definieren. Das Paradigma der Echtheit fälscht von Anfang die Behauptung des Künstlers (Künstlerin) und des Werkes, die Universalität herzustellen. Es scheint, daß einige Künstler von der Beharrlichkeit der exotischen Klischees, von der Folklore sich nicht täuschen lassen, daß die Kuratoren und die westliche Öffentlichkeit von ihnen erwarten. Und wenn einige sich für das Spiel eignen, ist es, um den internationalen Markt besser zu infiltrieren.
Recent non-comparative studies diverge in their assessments of the extent to which German and Japanese post-Cold War foreign policies are characterized by continuity or change. While the majority of analyses on Germany find overall continuity in policies and guiding principles, prominent works on Japan see the country undergoing drastic and fundamental change. Using an explicitly comparative framework for analysis based on a role theoretical approach, this study reevaluates the question of change and continuity in the two countries" regional foreign policies, focusing on the time period from 1990 to 2010. Through a qualitative content analysis of key foreign policy speeches, this dissertation traces and compares German and Japanese national role conceptions (NRCs) by identifying policymakers" perceived duties and responsibilities of their country in international politics. Furthermore, it investigates actual foreign policy behavior in two case studies about German and Japanese policies on missile defense and on textbook disputes. The dissertation examines whether the NRCs identified in the content analysis are useful to understand and explain each country- particular conduct. Both qualitative content analysis and case studies demonstrate the influence of normative and ideational variables in foreign policymaking. Incremental adaptations in foreign policy preferences can be found in Germany as well as Japan, but they are anchored in established normative guidelines and represent attempts to harmonize existing preferences with the conditions of the post-Cold War era. The dissertation argues that scholars have overstated and misconstrued the changes underway by asserting that Japan is undergoing a sweeping transformation in its foreign policy.
Die vorliegende Arbeit beschreibt ausgewählte Bereiche des Stadtklimas von Trier. Anhand von langjährigen meteorologischen Messreihen ist eine Bewertung der klimatologischen Gegebenheiten für das Stadtgebiet von Trier möglich. Trenduntersuchungen der Datenreihen des Niederschlags zeigen positive Niederschlagstrends für die meteorologischen Wintermonate. Die Intensität der urbanen Wärmeinsel der Stadt Trier wurde mittels mehrerer Temperaturmessfahrten untersucht und bewertet. Es treten in den Wintermonaten maximale Differenzen von bis zu 5,5 -°C zwischen dem unbebauten Umland und den Innenstadtbereichen auf. Von der erhöhten thermischen Belastung während ausgewählter Wetterlagen sind vor allem die Anwohner der Innenstadtbereiche in den Sommermonaten betroffen. Zusätzlich fand eine Bewertung der thermischen Belastung mittels verschiedener thermischer Indizes statt. Die Auswertungen von Klimaprojektionen für den Untersuchungsraum zeigen eine starke Zunahme der thermischen Belastung ab Mitte des 21. Jahrhunderts. Die Auswirkungen des Sommers 2003 auf die Bevölkerung von Trier wurde anhand von Mortalitätsdaten von JUNK ET AL. (2007) analysiert. Die Kosten des Klimawandels (Temperaturzunahme bis 2100 um 4,5 -°C) in den kommenden 50 Jahren beziffert eine Studie des Deutschen Institutes für Wirtschaftsforschung auf rund 80 Milliarden Euro für Rheinland-Pfalz. Auch wenn diese Abschätzungen mit starken Unsicherheiten behaftet sind, so wird dringender Handlungsbedarf deutlich. Vor dem Hintergrund des Klimawandels und der zunehmenden Urbanisierung muss sich auch im Bereich der Stadtplanung und der Verwaltung von urbanen Agglomerationsräumen das Prinzip der Nachhaltigkeit in allen Skalenbereichen durchsetzen. Übertragen auf den Bereich der Stadtklimatologie heißt das, dass dies auf die Ressourcen saubere Luft, angemessener Flächen- und Energieverbrauch verbunden mit Luft-schadstoffemissionen, Recht auf Mobilität usw. übertragen werden muss. Im Vordergrund steht dabei eine Entkopplung des Ressourcenverbrauchs von dem wirtschaftlichen Wachstum durch technische Innovation, effizientere Technologien und verändertes individuelles Verhalten. Bezüglich der lufthygienischen Situation im Stadtbereich von Trier konnten Partikel und Stickoxide als wichtige Schadstoffe identifiziert werden. Da die Auswertungen der Luftschadstoffe auf die Datensätze des ZIMEN-Messnetzes beschränkt sind, können keine Aussagen über Inhaltsstoffe von Partikeln getroffen werden. Für die untersuchten Luftschadstoffe CO, SO2, NOx, O3 und PM10 treten in den letzten Jahren keine Grenzwertüberschreitungen auf, jedoch liegen die gemessenen Werte nur geringfügig unter diesen und überschreiten teilweise die unteren- und oberen Beurteilungsschwellen. Die Auswertungen des wirkungsbezogenen Luftqualitätsindex DAQx zeigen, dass in der Mehrheit der Fälle Feinstaub der bestimmende Luftschadstoff ist. Die Analyse der mittleren Mortali-tätszahlen zeigt, das bei DAQx-Werten > 4,0 (ausreichende Luftqualität) die Anzahl der täglichen Mortalitätsfälle über den Durchschnitt von 5,74 Fällen pro Tag steigt. Der Klimawandel wird auch direkte Auswirkungen auf die Luftschadstoffbelastung haben. Dies geschieht über die Veränderung der Windverhältnisse, Änderungen in der Höhe der Mischungsschicht sowie Änderungen in der Frequenz und Zugbahn von Tiefdruckgebieten. Veränderte Niederschlagsmuster beeinflussen die nassen und trockenen Depositionsraten, und die prognostizierte Temperaturerhöhung beeinflusst die chemischen Bildungs- und Abbauprozesse in der Atmosphäre, sowie die natürlichen Emissionsquellen. Der Einfluss des zu erwartenden Temperaturanstieges auf die Ozonkonzentrationen in urbanen Gebieten lässt sich gut einschätzen, da während Episoden mit hohen Ozonkonzentrationen eine signifikante Korrelation zwischen der Lufttemperatur und der Ozonkonzentration besteht. Studien zeigen einen Anstieg der Ozonkonzentration zwischen 2 -µg/m-³ und 20 -µg/m-³ pro Grad Kelvin in Abhängigkeit des Emissionsszenarios, der verwendeten Modelle und der untersuchten Region aus. Die urbanen Ballungsräume werden von diesem Ozonanstieg stärker betroffen sein, da dort genügend Ozonvorläufersubstanzen vorhanden sind. Der Einfluss auf die Partikelkonzentrationen ist schwieriger zu beurteilen, da keine klaren Zusammenhänge zwischen der Lufttemperatur und den Partikelkonzentrationen bestehen. Insgesamt ist tendenziell mit einer Stagnation bis hin zu einer kurzzeitigen Verschlechterung der Luftqualität zu rechnen. Deswegen reicht die bereits erwähnte alleinige Berücksichtigung der thermischen Gegebenheiten in einem Warnsystem nicht aus. Es geht vielmehr um die integrative Bewertung der potentiellen Gefahrensituation für die Bevölkerung und die situationsbezogene Auslösung von Interventionsmaßnahmen und Aktionsplänen. Ein solches System wird derzeit für die Modellregion Esch-sur-Alzette in Luxemburg erstellt und wird 2011 in die Pilotphase eintreten.
Cortisol is a stress hormone that acts on the central nervous system in order to support adaptation and time-adjusted coping processes. Whereas previous research has focused on slow emerging, genomic effects of cortisol likely mediated by protein synthesis, there is only limited knowledge about rapid, non-genomic cortisol effects on in vivo neuronal cell activity in humans. Three independent placebo-controlled studies in healthy men were conducted to test effects of 4 mg cortisol on central nervous system activity, occurring within 15 minutes after intravenous administration. Two of the studies (N = 26; N = 9) used continuous arterial spin labeling as a magnetic resonance imaging sequence, and found rapid bilateral thalamic perfusion decrements. The third study (N = 14) revealed rapid cortisol-induced changes in global signal strength and map complexity of the electroencephalogram. The observed changes in neuronal functioning suggest that cortisol may act on the thalamic relay of non-relevant background as well as on task specific sensory information in order to facilitate the adaptation to stress challenges. In conclusion, these results are the first to coherently suggest that a physiologically plausible amount of cortisol profoundly affects functioning and perfusion of the human CNS in vivo by a rapid, non-genomic mechanism.
Die Europäische Union hat seit Ende des Ost-West-Konflikts 1989/90 einen dynamischen Ausbau ihrer vertraglichen und institutionellen Fundamente erfahren. Mit diesem Prozess ging zugleich eine enge Verflechtung von europäischen und nationalen Entscheidungsprozessen und politischen Arenen einher. So entwickelte sich ein zunehmend dynamischer werdendes Interaktionsverhältnis zwischen Europäischer Union, nationaler Europapolitik und Innenpolitik. Ausgehend von der These, dass die deutsche Europapolitik seit der Zäsur 1989/90 zunehmend pragmatischer, kontroverser und somit normaler geworden ist, untersucht die Arbeit diese Veränderung der deutschen Europapolitik am Beispiel zweier qualitativer Fallstudien: 1.Die Verhandlungen zum dritten mehrjährigen Finanzrahmen für die Jahre 2000 bis 2006, die sogenannte Agenda 2000. Für Deutschland als größtem Beitragszahler in der EU waren die Finanzverhandlungen von immenser Bedeutung. Denn mit der finanziellen Ausstattung der beiden größten Ausgabenblöcken, der europäischen Kohäsionspolitik und der Gemeinsamen Agrarpolitik, waren zentrale Grundsatzfragen der deutschen Europapolitik und der Rolle Deutschlands in der EU verbunden, wie zum Beispiel das bilaterale Verhältnis zum französischen Partner. 2.Der Prozess der Osterweiterung der Europäischen Union seit dem Ende des Ost-West-Gegensatzes 1989/90 von der Assoziierung der Reformstaaten in Mittel- und Osteuropa bis zum Beitritt der acht neuen Mitglieder am 1. Mai 2004. Die Ost-Erweiterung der EU war eine der wichtigsten Grundsatzentscheidungen der deutschen Europapolitik. Dieser fast 15 Jahre dauernde Prozess von 1989 bis 2004 wird in einer minuziösen Längsschnitt-Analyse nachgezeichnet und die spezifischen Interessen der zentralen politischen und gesellschaftlichen Akteure der deutschen Politik detailliert analysiert.Beide Entscheidungsprozesse beeinflussten nahezu alle Politikfelder und hatten weitreichende Konsequenzen für die innen-, wirtschafts- und sozialpolitischen Strukturen der Bundesrepublik. Damit erforderten sie sowohl eine grundsätzliche und strategische Positionierungen der deutschen Europapolitik als auch kurzfristige, auf rationalen Kosten-Nutzen-Abwägungen basierende Festlegungen zu konkreten Einzelfragen im Verlauf der Entscheidungsprozesse. Die beiden umfangreichen Fallstudien bestätigen, dass die wechselseitige Interaktion zwischen innenpolitischen Auseinandersetzungen und europäischen Entscheidungsprozessen sich verdichtet hat. Europäische Entscheidungsprozesse werden für innenpolitische Auseinandersetzungen und Debatten genutzt und häufig auch parteipolitisch polarisiert. Die Europapolitik wird zu einem Feld pragmatischer Kosten-Nutzen-Abwägungen aus begrenzten innenpolitischen oder gar parteitaktischen Kalkülen. Die Europapolitik wird unter innenpolitischen Vorzeichen politisiert und polarisiert.
Japanische Touristen in Deutschland : Analyse der Wahrnehmung der Destination Deutschland und der Kundenansprüche im interkulturellen Kontext. Auf der Angebotsseite steht die noch mittelständisch geprägte deutsche Hotellerie, mit der Tendenz einer zunehmenden Konzentration zur Groß- und Kettenhotellerie. Der japanische Kunde auf der Nachfragerseite wird aufgrund seiner kulturellen, sozialen, politischen und geschichtlichen Umgebung analysiert. Er bewegt sich in einer vorwiegend kollektivistisch und stark kontextorientierten, durch dichte Informationsnetze geprägten, maskulinen Gesellschaft. Beeinflusst durch die Lehre von Konfuzius bilden heute noch mora-lisches Handeln, Rechtschaffenheit, Höflichkeit, die Beachtung hierarchischer Beziehungen und Harmonie Handlungsgrundlage des gesellschaftlichen Lebens. Daneben hat Japan, als entwickeltes Industrieland, mit denselben Problemen wie westliche Industrienationen zu kämpfen, wie Überalterung, Wertewandel und konjunkturelle Auf- und Abschwünge. Der japanische Kunde stellt hohe Ansprüche an die Qualität des angebotenen Produktes und an den Service. Während die Hardware, z.B. die Qualität der Hotelzimmer in Deutschland positiv beurteilt wird, wird die Servicequalität hier oft als unzureichend empfunden. Dabei setzt der japanische Kunde, der an dichte Informationsnetze gewöhnt ist, viele Dinge als selbstverständlich voraus. Der Deutsche, der über diese Informationen nicht verfügt und sich stur an das Vereinbarte hält, wird als unhöflich empfunden. Als Einkaufsdestination hat Deutschland aufgrund fehlender Marken kaum Bedeutung. Japaner sind leidenschaftliche und experimentierfreudige Esser, die oft in Deutschland aufgrund der mangelnden Beachtung und Vermarktung lokaler Spezialitäten zu kurz kommen. Mittels der Methode Importance Grid konnten abgefragte Attribute in Basis-, Leistungs- und Begeisterungsfaktoren eingeteilt werden. Grundlegend und Ausschlusskriterium für einen Reiseantritt sind die öffentliche Sicherheit, die der Japaner nicht nur auf die Kriminalität sondern auch auf Lebensmittelsicherheit und Gesundheitswesen bezieht. Sehenswürdigkeiten sind wichtige Leistungsfaktoren. Das Hotelangebot, als Begeisterungsfaktor hat einen enormen Einfluss und damit großes Entwicklungspotential auf die Reisezufriedenheit. Begeisterung lösen weiterhin individuelle Begegnungen, eine originale und stimmige Atmo-sphäre und lokale Besonderheiten, aus. Der hoch kontextorientierte Japaner nimmt die Reise als Gesamterlebnis wahr und gibt seine Erinnerungen gern über Mund zu Mund Propaganda weiter. Folgereisen können sich wie ein Schneeballsystem entwickeln. Als Trends sind die zunehmende Bedeutung von Seniorenreisen, Hube-and-Spoke Reisen, Skeleton-Touren, der Furosato Trend und Honeymoonreisen zu nennen.
Der Schritt vom Stumm- zum Tonfilm in den späten 1920er Jahren wird meist mit einem singulären, vermeintlich ausschlaggebenden Ereignis assoziiert, nämlich der Premiere von Alan Croslands Film THE JAZZ SINGER am 6. Oktober 1927 in New York. Dieser Film wird in zahlreichen wissenschaftlichen Abhandlungen zum Übergang vom Stumm- zum Tonfilm als entscheidender Faktor beschrieben, welcher dem Tonfilm schlagartig und endgültig durch seinen enormen wirtschaftlichen Erfolg zum Durchbruch verhalf. Ferner soll dieser Erfolg auch die seinerzeit vermeintlich kurz vor dem Bankrott stehende Produktionsfirma Warner Bros. vor dem Ruin bewahrt haben. Diese Arbeit behandelt neben dem Mythos über die vermeintlich überwältigenden Auswirkungen von THE JAZZ SINGER hinaus noch weitere filmhistorische Legenden um den Film sowie seine tatsächliche Rolle innerhalb der ökonomischen Aktivitäten der Firma Warner Bros. Zu diesem Zweck wird die filmwissenschaftliche Kontroverse zwischen den zwei amerikanischen Autoren Douglas Gomery und Donald Crafton um die legendäre (und deshalb zweifelhafte) Bedeutung von THE JAZZ SINGER für den Wandel vom Stumm- zum Tonfilm untersucht - eine Darstellung eines wichtigen Diskurses, welche in deutscher Sprache bislang ausblieb.
Das erste Beispiel einer so genannten universellen holomorphen Funktion stammt von Birkhoff, welcher im Jahre 1929 die Existenz einer ganzen Funktion beweisen konnte, die gewissermaßen jede ganze Funktion durch geeignete Translationen approximieren kann. In der Folgezeit hat sich der Bereich der "universellen Approximation" zu einem eigenständigen Gebiet innerhalb der komplexen Approximationstheorie entwickelt, und es gibt eine Vielzahl an Ergebnissen über universelle Funktionen. Hierbei wurde sich allerdings fast ausschließlich auf das Studium holomorpher und ganzer Funktionen beschränkt, insbesondere die Klasse der meromorphen Funktionen wurde bisher kaum auf das Phänomen der Universalität hin untersucht. Die vorliegende Arbeit beschäftigt sich mit universeller meromorpher Approximation, und geht der Fragestellung nach, ob meromorphe Funktionen mit gewissen Universalitätseigenschaften existieren, und ob die klassischen Ergebnisse aus der universellen holomorphen Approximation auf den meromorphen Fall erweiterbar sind. Hierbei wird zunächst zwischen Translations- und Streckungsuniversalität unterschieden und bewiesen, dass in beiden Fällen jeweils eine im Raum der meromorphen Funktionen residuale Menge an universellen Funktionen existiert. Weiterhin werden die Eigenschaften dieser Funktionen ausführlich studiert. Anschließend werden meromorphe Funktionen auf Ableitungsuniversalität hin untersucht. Hierbei wird einerseits gezeigt, dass im Allgemeinen keine positiven Ergebnisse möglich sind, während andererseits eine spezielle Klasse meromorpher Funktionen betrachtet wird, für welche universelles Verhalten der sukzessiven Ableitungen nachgewiesen werden kann.
The overall objective of this thesis was to gain a deeper understanding of the antecedents, processes, and manifestations of uniqueness-driven consumer behavior. To achieve this goal, five studies have been conducted in Germany and Switzerland with a total of 1048 participants across different demographic and socio-economic backgrounds. Two concepts were employed in all studies: Consumer need for uniqueness (CNFU) and general uniqueness perception (GUP). CNFU (Tian, Bearden, & Hunter, 2001), a mainly US"based consumer research concept, measures the individual need, and thus the motivation to acquire, use, and dispose consumer goods in order to develop a unique image. GUP, adapted from the two-component theory of individuality (Kampmeier, 2001), represents a global and direct measure of self-ascribed uniqueness. Study #1 looked at the interrelation of the uniqueness-driven concepts. Therefore, GUP and CNFU were employed in the study as potential psychological factors that influence and predict uniqueness-driven consumer behavior. Different behavioral measures were used: The newly developed possession of individualized products (POIP), the newly developed products for uniqueness display (PFUD), and the already established uniqueness-enhancing behaviors (UEB). Analyses showed that CNFU mediates the relationship between GUP and the behavioral measures in a German speaking setting. Thus, GUP (representing self-perception) was identified as the driver behind CNFU (representing motivation) and the actual consumer behavior. Study #2 examined further manifestations of uniqueness-driven consumer behavior. For this purpose, an extreme form of uniqueness-increasing behavior was researched: Tattooing. The influence of GUP and CNFU on tattooing behavior was investigated using a sample derived from a tattoo exhibition. To do so, a newly developed measure to determine the percentage of the body covered by tattoos was employed. It was revealed that individuals with higher GUP and CNFU levels indeed have a higher tattooing degree. Study #3 further explored the predictive possibilities and limitations of the GUP and CNFU concepts. On the one hand, study #3 specifically looked at the consumption of customized apparel products as mass customization is said to become the standard of the century (Piller & Müller, 2004). It was shown that individuals with higher CNFU levels not only purchased more customized apparel products in the last six months, but also spend more money on them. On the other hand, uniqueness-enhancing activities (UEA), such as travel to exotic places or extreme sports, were investigated by using a newly developed 30-item scale. It was revealed that CNFU partly mediates the GUP and UEA relationship, proving that CNFU indeed predicts a broad range of consumer behaviors and that GUP is the driver behind the need and the behavior. Study #4, entered a new terrain. In contrast to the previous three studies, it explored the so termed "passive" side of uniqueness-seeking in the consumer context. Individuals might feel unique because business companies treat them in a special way. Such a unique customer treatment (UCT) involves activities like customer service or customer relationship management. Study #4 investigated if individuals differ in their need for such a treatment. Hence, with the need for unique customer treatment (NFUCT) a new uniqueness-driven consumer need was introduced and its impact on customer loyalty examined. Analyses, for example, revealed that individuals with high NFUCT levels receiving a high unique customer treatment (UCT) showed the highest customer loyalty, whereas the lowest customer loyalty was found among those individuals with high NFUCT levels receiving a low unique customer treatment (UCT). Study #5 mainly examined the processes behind uniqueness-driven consumer behavior. Here, not only the psychological influences, but also situational influences were examined. This study investigated the impact of a non-personal "indirect" uniqueness manipulation on the consumption of customized apparel products by simultaneously controlling for the influence of GUP and CNFU. Therefore, two equal experimental groups were created. Afterwards, these groups either received an e-mail with a "pro-individualism" campaign or a "pro-collectivism" campaign especially developed for study #5. The conducted experiment revealed that, individuals receiving a "pro-individualism" poster campaign telling the participants that uniqueness is socially appropriate and desired were willing to spend more money on customization options compared to individuals receiving a "pro-collectivism" poster campaign. Hence, not only psychological antecedents such as GUP and CNFU influence uniqueness-driven consumer behavior, but also situational factors.
Aus dem Wunsch, die zentralen Prozesse im System Boden"Pflanze"Atmosphäre einschließlich der Auswirkungen verschiedener Bewirtschaftungspraktiken zu verstehen und nachzubilden, resultiert die Entwicklung verschiedener Pflanzenwachstumsmodelle. Ziel der vorliegenden Untersuchung ist zum einen, die im Realsystem auftretenden räumlichen Ertragsmuster zu identifizieren und zu charakterisieren. Mithilfe der Semivariogramm-Analyse ist eine räumliche Autokorrelation der Ertragsdaten von maximal 48 Meter abzuleiten. Die räumliche Analyse (GIS) zeigt, dass die Sommergerste ein leicht abweichendes Verhalten im Vergleich zu den Winterkulturen (Winterweizen, Winterraps) aufweist. Schließlich werden mithilfe der selbstorganisierenden Merkmalskarten die primär und sekundär für das Ertragsverhalten verantwortlichen Ursachen identifiziert. Eine abschließende hierarchische Clusteranalyse gliedert die in die Untersuchung eingehenden Standorte in vier spezifische Cluster mit charakteristischen Eigenschaften. Ein zweites Ziel ist die Klärung der Frage, ob die Pflanzenwachstumsmodelle STICS und DAISY bei entsprechender Parametrisierung in der Lage sind, das für ein detektiertes Muster charakteristische Verhalten von Pflanzenwachstum und Ertrag realitätsnah abzubilden. Den Modellanwendungen gehen eine Sensitivitätsanalyse und verschiedene Parametrisierungsansätze zur Erfassung des jeweiligen Modellverhaltens voraus. In beiden Modellen übt der Bodenwasserhaushalt einen starken Einfluss auf die Ertragsbildung aus. Des weiteren kommt in beiden Modellen den Stressfaktoren eine zentrale Bedeutung zu. Die Parametrisierung der Modelle auf der Grundlage der im Feld erhobenen Daten führt bei beiden Modellen nicht zu einem dem Realsystem entsprechenden Bild. Eine über die Sensitivitätsanalyse hinausreichende, vertiefte Modellkenntnis ist erforderlich, um die in die Modelle eingehenden Parameter bzw. deren spezifischen Einfluss auf das Modellverhalten beurteilen und interpretieren zu können. Dies betrifft insbesondere die Modellgrößen der Bodenmodule. Dieser Aspekt erschwert eine einfache räumliche Übertragung der Modelle STICS und DAISY.
Recently, optimization has become an integral part of the aerodynamic design process chain. However, because of uncertainties with respect to the flight conditions and geometrical uncertainties, a design optimized by a traditional design optimization method seeking only optimality may not achieve its expected performance. Robust optimization deals with optimal designs, which are robust with respect to small (or even large) perturbations of the optimization setpoint conditions. The resulting optimization tasks become much more complex than the usual single setpoint case, so that efficient and fast algorithms need to be developed in order to identify, quantize and include the uncertainties in the overall optimization procedure. In this thesis, a novel approach towards stochastic distributed aleatory uncertainties for the specific application of optimal aerodynamic design under uncertainties is presented. In order to include the uncertainties in the optimization, robust formulations of the general aerodynamic design optimization problem based on probabilistic models of the uncertainties are discussed. Three classes of formulations, the worst-case, the chance-constrained and the semi-infinite formulation, of the aerodynamic shape optimization problem are identified. Since the worst-case formulation may lead to overly conservative designs, the focus of this thesis is on the chance-constrained and semi-infinite formulation. A key issue is then to propagate the input uncertainties through the systems to obtain statistics of quantities of interest, which are used as a measure of robustness in both robust counterparts of the deterministic optimization problem. Due to the highly nonlinear underlying design problem, uncertainty quantification methods are used in order to approximate and consequently simplify the problem to a solvable optimization task. Computationally demanding evaluations of high dimensional integrals resulting from the direct approximation of statistics as well as from uncertainty quantification approximations arise. To overcome the curse of dimensionality, sparse grid methods in combination with adaptive refinement strategies are applied. The reduction of the number of discretization points is an important issue in the context of robust design, since the computational effort of the numerical quadrature comes up in every iteration of the optimization algorithm. In order to efficiently solve the resulting optimization problems, algorithmic approaches based on multiple-setpoint ideas in combination with one-shot methods are presented. A parallelization approach is provided to overcome the amount of additional computational effort involved by multiple-setpoint optimization problems. Finally, the developed methods are applied to 2D and 3D Euler and Navier-Stokes test cases verifying their industrial usability and reliability. Numerical results of robust aerodynamic shape optimization under uncertain flight conditions as well as geometrical uncertainties are presented. Further, uncertainty quantification methods are used to investigate the influence of geometrical uncertainties on quantities of interest in a 3D test case. The results demonstrate the significant effect of uncertainties in the context of aerodynamic design and thus the need for robust design to ensure a good performance in real life conditions. The thesis proposes a general framework for robust aerodynamic design attacking the additional computational complexity of the treatment of uncertainties, thus making robust design in this sense possible.
Die Zielsetzung der vorliegenden Arbeit war die raumdifferenzierte und skalenübergreifende Untersuchung der Hochwasserentstehungsprozesse im Frankelbach-Einzugsgebiet, das ein Beispiel eines land- und forstwirtschaftlich genutzten Kleineinzugsgebiets in Mittelgebirgen der gemäßigten Breiten ist. Eine Kernaufgabe war die Quantifizierung der Beiträge einzelner Abflusskomponenten während des Scheiteldurchflusses eines Hochwassers. Zudem sollten Zusammenhänge zwischen der Bodenfeuchtedynamik und der Abflussreaktion herausgearbeitet werden. Zur Bodenfeuchtemessung wurde ein neu entwickeltes Spatial-TDR-Messsystem eingesetzt. Im Rahmen dieses pilothaften Einsatzes war zudem die Tauglichkeit des Messsystems zu überprüfen und zu bewerten. Das im Rotliegenden gelegene 5 km2 große Frankelbachgebiet mit Jahresniederschlägen von 750 mm a-1, steil eingeschnittenen, bewaldeten Kerbtälern und ackerwirtschaftlich genutzten Hochflächen liegt zwischen 200 und 450 m ü. NN. Auf schuttführenden Sand- und Schlufflehmen, deren Genese auf periglaziale Solifluktionsprozesse zurückgeht, sind hangabwärts mächtiger werdende Braunerden zu finden. Bemerkenswert sind die zahlreichen Quellen auf gleicher Höhenlage, die teilweise als Pipequellen ausgebildet sind. Beregnungs- und Infiltrationsversuche dienten der Beurteilung der Oberflächenabflussreaktion unterschiedlich bewirtschafteter Flächen. Durch stündliche Spatial-TDR-Messungen an 13 Standorten (60 cm lange vertikal installierte Dreistabsonden) konnten Hangwasserflüsse identifiziert werden. Zwischen 2005 und 2009 wurden die Abflüsse vier geschachtelter Einzugsgebiete sowie einer Quelle in 10min-Intervallen erfasst und 87 Hochwasserereignisse analysiert. Mittels Messungen der elektrischen Leitfähigkeit und eines Zweikomponenten-Mischungsmodells wurde der Ereigniswasseranteil für die höchsten Hochwasser abgeschätzt. Ergänzend zu den Geländeexperimenten wurde ein einfaches Modell konzipiert, das eine quantitative Abschätzung der ober- und unterirdischen Wasserflüsse in einen Gewässereinschnitt erlaubt. Zum Vergleich mit 31 anderen Untersuchungsgebieten wurde eine Codierung entwickelt, die eine Einordnung sowohl hinsichtlich der Geofaktoren der Gebiete als auch bezüglich der untersuchten Hochwasserereignisse ermöglicht. Das im hanghydrologischen Forschungsbereich als eher trocken einzuordnende Frankelbachgebiet, zeigte ein jahreszeitlich sehr unterschiedliches Abflussverhalten. Während in trockenen Sommern hohe Niederschläge im Gebiet gespeichert werden, liegen die Abflusskoeffizienten für einige schneeschmelzfreie Frühjahrsereignisse über 50 %. Das höchste beobachtete Hochwasser weist einen Abflusskoeffizient von 55 % bei einer relativ niedrigen Abflussspende von 140 l s-1 km-2 auf. Die Großberegnungsversuche, die Quellabflussmessungen, die Ereignisanalysen und die Modellierungsergebnisse weisen darauf hin, dass Dauerregen- und Schneeschmelz-Hochwasser zum Großteil aus Zwischenabfluss bestehen. Hier konnten zwei Abflusskomponenten differenziert werden: (i) eine oberflächen- und gerinnenahe Komponenten, die aufgrund des hohen Ereigniswasseranteils von etwa 60 % durch präferentielles Fließen erklärt werden kann, und (ii) eine ein bis zwei Tage verzögerte tiefere Komponente, die durch unterirdische Abflusskonzentration auf stauenden Schichten generiert wird. Letztere war in den Quellabfluss- und Spatial-TDR-Messungen erkennbar, hatte jedoch an den am Pegel beobachteten Scheiteldurchflüssen nur einen sehr kleinen Anteil. Während sehr intensiver Niederschläge könnte zusätzlich der Horton'sche Oberflächenabfluss von offen liegenden, hydraulisch angeschlossenen Äckern zum Scheiteldurchfluss beitragen. Für sämtliche Spatial-TDR-Messstandorte ist von hohen Infiltrations- und Sickerraten auszugehen. Eine Aufsättigung der Standorte war nicht erkennbar, für die nassen Wintermonate liegen jedoch nur sehr wenige Spatial-TDR-Messwerte vor. Eine in einer Tiefenlinie installierte Sonde (A08) zeigte das Umschalten des Gesamtgebiets in relativ nasse Zustände an. Hier nahm die Bodenfeuchte während zwei größerer Dauerregenereignisse infolge der unterirdischen Abflusskonzentration stark zu. In der vorliegenden Arbeit wurden die einbau- und substratbedingten Unsicherheiten sowie die Schwächen des Algorithmus zur Rekonstruktion der absoluten Bodenfeuchtewerte konkretisiert. Demzufolge wurde lediglich das Spatial-TDR-Rohsignal als Indikator für die aktuelle Bodenfeuchte verwendet. Durch eine Transformation des Spatial-TDR-Signals von der Zeit auf den Sondenort können dennoch Aussagen zur relativen Änderung der Bodenfeuchte in einer bestimmten Tiefe gemacht werden können. Diese Informationen sind hinreichend genau für die Untersuchung hanghydrologischer Prozesse und für die Ableitung von Gebietsfeuchtezuständen.
Caenorhabditis elegans Modelsysteme für Freiland und Labor Caenorhabditis elegans ist eines der am intensivsten untersuchten Tiermodelle, dabei weisen die nur unzureichenden Informationen über sein ursprüngliches Habitat eine Vielzahl offener Fragen auf. Deshalb beschäftigt sich der erste Teil vorliegender Arbeit mit einer Überprüfung der Freilandökologie und Biogeographie des Taxons. Nach den Untersuchungen spricht vieles dafür, dass die Ursprungsart der C. elegans Gruppe ein Begleiter von Gastropoden war, welche auch für ihre Ausbreitung häufig verantwortlich sind. Als Folge der Verschleppung durch Wirtstiere (u.a. die Weinbergschnecke Helix aspersa) erreichte sie ihr heutiges Areal, in allen Kontinenten. Ein nicht weniger wichtiges Ziel der vorliegenden Arbeit war die Etablierung von C. elegans als Biotest-System für die Indikation von Chemikalien-Wirkungen. In dieser Arbeit wurden ein ökotoxikologisches Testsystem entwickelt mit den C. elegans als Modellorganismus, das durch Messung von umweltbedingten intrazellulär gebildeten ROS im Gesamtorganismus eine Einschätzung der biologischen Aktivität von Chemikalien und Umweltmedien ermöglichen sollte. Als grundlegender biochemischer Parameter ist eine, die Kapazität der antioxidativen Schutzmechanismen übersteigende, ROS-Bildung ursächlich für oxidative Schädigungen der Zelle verantwortlich und damit Basis für zahlreiche pathologische Effekte. Aus den Resultaten als Bewertungsgrundlage lässt sich folgern, dass sich das erarbeitete Biotestsystem als adäquates Verfahren zur Messung von oxidativem Stress, als Folge exogener Belastung, einsetzen lässt. Damit leistet es einen Beitrag zur Beurteilung des Toxizitätspotentials von Chemikalien und Umweltproben. Zur Eignung des Einsatzes von C. elegans für Toxizitätstest wurden weitere Untersuchungen mit verschiedenen Chemikalien durchgeführt. Dabei ergibt sich bezogen auf molare Einheiten eine immer gleich bleibende Reihenfolge der Sensitivitäten gegenüber BaP > Cu2+ > AcL, ein Ergebnis welches mit Testergebnissen von anderen Versuchsorganismen zu vergleichen war. Die Wirkung von Atrazin auf die Entwicklung von C. elegans wurde auch untersucht. Es wurde festgestellt, dass Atrazin auf Wachstum und Reproduktion von C. elegans konzentrationsabhängig toxisch wirkt. Die bisherigen Ergebnisse zeigen jedoch, dass das Testsystem C. elegans hervorragend geeignet ist, um Chemikalienwirkungen frühzeitig sichtbar zu machen.
Schon seit geraumer Zeit wird darüber diskutiert, ob die Besetzung der Rundfunkgremien im Allgemeinen und beim ZDF im Besonderen mit dem aus der Rundfunkfreiheit abzuleitenden Gebot der Staatsferne vereinbar ist. Nachdem sieben der vierzehn Verwaltungsratsmitglieder des ZDF im September letzten Jahres gegen den Vorschlag des Intendanten Markus Schächter gestimmt haben, den Vertrag von Nikolaus Brender als Chefredakteur zu verlängern, hat diese Diskussion an Brisanz gewonnen. Kritiker halten die aus ihrer Sicht zu staats- und politiknahe Besetzung des ZDF-Verwaltungsrates und des Fernsehrates für unvereinbar mit dem Grundgesetz. So will die Bundestagsfraktion Bündnis 90/Die Grünen mit einem Normenkontrollverfahren, für das sie allerdings ein Viertel der Mitglieder des Bundestages benötigt, durch das Bundesverfassungsgericht klären lassen, ob die im ZDF-Staatsvertrag vorgesehene Zusammensetzung des Fernseh- und des Verwaltungsrates mit der Rundfunkfreiheit vereinbar ist. Nunmehr hat auch das Land Rheinland-Pfalz ein solches Normenkontrollverfahren angekündigt. Dabei geht es um eine wichtige Frage. Die Rundfunkfreiheit mit einem unabhängigen, staatsfernen und qualitätsvollen öffentlich-rechtlichen Rundfunk ist aus Sicht des Bundesverfassungsgerichts für die Demokratie schlechthin konstituierend.
In a case of robbery, some people actually use violence to steal - but others may supply information or weapons, make the plans, act as lookouts, provide transport. Certainly the actual robbers are guilty - but what of the others? How does Hong Kong's version of the common law answer this question now? How should the question be answered in the future?
The main research question of this thesis was to set up a framework to allow for the identification of land use changes in drylands and reveal their underlying drivers. The concept of describing land cover change processes in a framework of global change syndrome was introduced by Schellnhuber et al. (1997). In a first step the syndrome approach was implemented for semi-natural areas of the Iberian Peninsula based on time series analysis of the MEDOKADS archive. In the subsequent study the approach was expanded and adapted to other land cover strata. Furthermore, results of an analysis of the relationship of annual NDVI and rainfall data were incorporated to designate areas that show a significant relationship indicating that at least a part of the variability found in NDVI time series was caused by precipitation. Additionally, a first step was taken towards the integration of socio-economic data into the analysis; population density changes between 1961 and 2008 were utilized to support the identification of processes related to land abandonment accompanied by cessation of agricultural practices on the one hand and urbanization on the other. The main findings of the studies comprise three major land cover change processes caused by human interaction: (i) shrub and woody vegetation encroachment in the wake of land abandonment of marginal areas, (ii) intensification of non-irrigated and irrigated, intensively used fertile regions and (iii) urbanization trends along the coastline caused by migration and the increase of mass tourism. Land abandonment of cultivated fields and the give-up of grazing areas in marginal mountainous areas often lead to the encroachment of shrubs and woody vegetation in the course of succession or reforestation. Whereas this cover change has positive effects concerning soil stabilization and carbon sequestration the increase of biomass involves also negative consequences for ecosystem goods and services; these include decreased water yield as a result of increased evapotranspiration, increasing fire risk, decreasing biodiversity due to landscape homogenization and loss of aesthetic value. Arable land in intensively used fertile zones of Spain was further intensified including the expansion of irrigated arable land. The intensification of agriculture has also generated land abandonment in these areas because less people are needed in the agricultural labour sector due to mechanization. Urbanization effects due to migration and the growth of the tourism sector were mapped along the eastern Mediterranean coast. Urban sprawl was only partly detectable by means of the MEDOKADS archive as the changes of urbanization are often too subtle to be detected by data with a spatial resolution of 1 km-². This is in line with a comparison of a Landsat TM time series and the NOAA AVHRR archive for a study area in the Greece that showed that small scale changes cannot be detected based on this approach, even though they might be of high relevance for local management of resources. This underlines the fact that land degradation processes are multi-scale problems and that data of several spatial and temporal scales are mandatory to build a comprehensive dryland observation system. Further land cover processes related to a decrease of greenness did not play an important role in the observation period. Thus, only few patches were identified, suggesting that no large-scale land degradation processes are taking place in the sense of decline of primary productivity after disturbances. Nevertheless, the land cover processes detected impact ecosystem functioning and using the example of shrub encroachment, bear risks for the provision of goods and services which can be valued as land degradation in the sense of a decline of important ecosystem goods and services. This risk is not only confined to the affected ecosystem itself but can also impact adjacent ecosystems due to inter-linkages. In drylands water availability is of major importance and the management of water resources is an important political issue. In view of climate change this topic will become even more important because aridity in Spain did increase within the last decades and is likely to further do so. In addition, the land cover changes detected by the syndrome approach could even augment water scarcity problems. Whereas the water yield of marginal areas, which often serve as headwaters of rivers, decreases with increasing biomass, water demand of agriculture and tourism is not expected to decline. In this context it will be of major importance to evaluate the trade-offs between different land uses and to take decisions that maintain the future functioning of the ecosystems for human well-being.