Filtern
Erscheinungsjahr
- 2024 (39)
- 2023 (64)
- 2022 (80)
- 2021 (75)
- 2020 (90)
- 2019 (84)
- 2018 (77)
- 2017 (50)
- 2016 (39)
- 2015 (36)
- 2014 (45)
- 2013 (47)
- 2012 (56)
- 2011 (49)
- 2010 (55)
- 2009 (49)
- 2008 (42)
- 2007 (61)
- 2006 (45)
- 2005 (52)
- 2004 (62)
- 2003 (54)
- 2002 (45)
- 2001 (30)
- 2000 (28)
- 1999 (11)
- 1998 (6)
- 1997 (4)
- 1996 (6)
- 1995 (8)
- 1994 (3)
- 1993 (2)
- 1992 (3)
- 1991 (1)
- 1990 (2)
- 1989 (2)
- 1988 (2)
- 1987 (2)
- 1986 (3)
- 1985 (1)
- 1984 (4)
- 1983 (2)
- 1980 (3)
- 1979 (1)
- 1978 (1)
- 1976 (1)
- 1973 (1)
- 1972 (3)
- 1970 (4)
- 1969 (1)
- (31)
Dokumenttyp
- Dissertation (844)
- Wissenschaftlicher Artikel (220)
- Buch (Monographie) (113)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (108)
- Arbeitspapier (62)
- Ausgabe (Heft) zu einer Zeitschrift (24)
- Teil eines Buches (Kapitel) (22)
- Konferenzveröffentlichung (17)
- Sonstiges (15)
- Rezension (10)
Sprache
- Deutsch (846)
- Englisch (525)
- Französisch (75)
- Mehrsprachig (15)
- Russisch (1)
Volltext vorhanden
- ja (1462) (entfernen)
Schlagworte
- Deutschland (90)
- Luxemburg (53)
- Stress (40)
- Schule (37)
- Schüler (33)
- Modellierung (29)
- Politischer Unterricht (29)
- Demokratie (28)
- Fernerkundung (25)
- Geschichte (24)
Institut
- Psychologie (212)
- Raum- und Umweltwissenschaften (212)
- Politikwissenschaft (132)
- Universitätsbibliothek (83)
- Rechtswissenschaft (77)
- Wirtschaftswissenschaften (66)
- Mathematik (65)
- Fachbereich 4 (63)
- Medienwissenschaft (57)
- Fachbereich 6 (51)
Rechtspolitik und Medien
(2001)
Der Begriff "Rechtspolitik" stellt die Kombination von einander Widerstreitendem dar: Politik als Bewegung in Richtung auf ein Ziel, das Recht als Fixierung des erreichten Zustandes. Rechtspolitik in der Demokratie ist an bestimmte Legitimierungsmerkmale gebunden. Bei der Formulierung und Fixierung dieser Ziele spielen die Medien eine bestimmte Rolle. Sie bereiten Erwartungen im Volk vor, die sie den Politikern vermitteln, die wiederum in dem von den Medien konsistent aufgezeigten Stimmungen eine die Zeit zwischen den Wahlen füllende Legitimation, auch einen Ansporn finden. Der Bezug zwischen den von Übereinstimmungen oder Gegnerschaften gekennzeichneten Medien und rechtspolitischem Handeln wird an einigen Beispielen gezeigt.
Der Beitrag skizziert rechtsstaatliche Entwicklungen unter besonderer Berücksichtigung der aktuellen terroristischen Bedrohungslage und der ihr folgenden Reaktionen der deutschen Sicherheitsgesetzgebung. Dabei zeigt der Beitrag grob auf, was heutzutage unter dem Begriff "Rechtsstaat" verstanden wird und wie sich die Prinzipien "Sicherheit" und "Freiheit" innerhalb eines modernen Rechtsstaatsverständnisses bedingen. Die Darstellung beschreibt darauf hin die aktuelle terroristische Bedrohungslage, die als ein diffuses und unbestimmtes Risiko empfunden werden kann und die aufgrund der Bedrohungslage, den komplexen Netzwerkstrukturen, dem Schadensausmaß und schließlich ihrer abschreckungsresistenten und anonymen Akteure mit einem technischen oder natürlichen Großrisiko verglichen werden kann, auf das alleine mit einem effektiven Risikomanagement präventiv reagiert werden kann. Dass dieser Präventionsgedanke bereits in aktuellen Sicherheitsgesetzen vorhanden ist, wird anhand einigen legislativen und judikativen Akten deutlich gemacht und einer kritischen Würdigung unterzogen. Insbesondere Vorhaben wie die Vorratsdatenspeicherung oder das 2009 in Kraft getretene Gesetz zur Verfolgung der Vorbereitung von schweren staatsgefährdenden Gewalttatenrn(GVVG) sind Indikatoren für eine zunehmend präventiv und risikosteuernd agierende deutsche Sicherheitsarchitektur. Außerdem sind die präventiv ausgerichteten Sicherheitsbehörden zunehmend auf die heimliche Sammlung von Informationen angewiesen. Der Beitrag warnt davor, dass damit das gesamte Sicherheitsrecht auf eine einzige Extremsituation ausgerichtet wird und somit den "Ausnahmezustand" zu einem normalen Sicherheitsrisiko reduziert.
Der Beitrag setzt sich mit der Frage auseinander, ob die Todesstrafe eine rechtlich begründbare Strafe darstellt, bzw. aus welchen Gründen ihre Abschaffung im Rechtsstaat erforderlich ist. Dabei unterwirft die Autorin die Todesstrafe einer Überprüfung von einem fundamentalen Verständnis des Rechts aus, wobei sowohl empirische als auch pragmatische Gesichtspunkte in eine Gesamtbetrachtung einfließen. Weiter wird die Vollstreckung bzw. die Aussetzung der Vollstreckung der Todesstrafe erörtert. Die Rechtslagen in Korea sowie seinen Nachbarländern Japan und China, zwischen denen aufgrund der geographischen Lage und zum Teil gemeinsamen kulturellen, sowie rechtshistorischen Wurzeln, Wechselwirkungen bestehen, werden aufgezeigt und einer vergleichenden Betrachtung unterzogen.
Reconstructing invisible deviating events: A conformance checking approach for recurring events
(2022)
Conformance checking enables organizations to determine whether their executed processes are compliant with the intended process. However, if the processes contain recurring activities, state-of-the-art approaches unfortunately have difficulties calculating the conformance. The occurrence of complex temporal rules can further increase the complexity of the problem. Identifying this limitation, this paper presents a novel approach towards dealing with recurring activities in conformance checking. The core idea of the approach is to reconstruct the missing events in the event log using defined rules while incorporating specified temporal event characteristics. This approach then enables the use of native conformance checking algorithms. The paper illustrates the algorithmic approach and defines the required temporal event characteristics. Furthermore, the approach is applied and evaluated in a case study on an event log for melanoma surveillance.
Considering the numerical simulation of mathematical models it is necessary to have efficient methods for computing special functions. We will focus our considerations in particular on the classes of Mittag-Leffler and confluent hypergeometric functions. The PhD Thesis can be structured in three parts. In the first part, entire functions are considered. If we look at the partial sums of the Taylor series with respect to the origin we find that they typically only provide a reasonable approximation of the function in a small neighborhood of the origin. The main disadvantages of these partial sums are the cancellation errors which occur when computing in fixed precision arithmetic outside this neighborhood. Therefore, our aim is to quantify and then to reduce this cancellation effect. In the next part we consider the Mittag-Leffler and the confluent hypergeometric functions in detail. Using the method we developed in the first part, we can reduce the cancellation problems by "modifying" the functions for several parts of the complex plane. Finally, in in the last part two other approaches to compute Mittag-Leffler type and confluent hypergeometric functions are discussed. If we want to evaluate such functions on unbounded intervals or sectors in the complex plane, we have to consider methods like asymptotic expansions or continued fractions for large arguments z in modulus.
The collapse of the tailings pond of the Aznalcállar open pit mine (West of Seville, Spain) in April 1998 left more than 4000 ha of arable land and floodplains contaminated with heavy metal containing pyrite sludge. After a first remediation campaign a considerable contamination remained in the soil. The present study evaluates the possibilities of reflectance spectroscopy and airborne hyperspectral remote sensing for the qualitative and quantitative assessment of heavy metal contamination and the acidification risk related to the mining accident. Based on an extensive data set consisting of geochemical analyses and reflectance measurements of more than 300 soil samples different chemometrics methods (multiple linear regression, partial least squares and artificial neural networks) are tested for computation of concentrations of soil constituents on the basis of the spectral reflectance. Spectral mixture analysis is applied for the analysis of the spatial distribution of the contamination. The abundance information derived from spectral mixture analysis is turned into quantitative information incorporating an artificial mixture experiment. The results of this experiment provide a link between sludge abundance and sludge weight, allowing as a consequence calculation of the amount of residual sludge per pixel, the acidification potential and other parameters important for remediation planning. The application of laboratory, field and imaging spectroscopy for providing quantitative information about the contamination levels in their spatial context is a good complement to conventional methods. The advantage is the reduction of the time and labour-intensive geochemical analysis, because after the model calibration, further samples can be analysed directly with the chemometric models. Furthermore, the spatial distribution can be mapped with imaging spectroscopy data helping in a more precise remediation planning.
The global spread of the coronavirus pandemic has particularly dramatic consequences for the lives of migrants and refugees living in already marginalised and restricted conditions, whose ongoing crisis is at risk of being overlooked. But refugees are not only extremely vulnerable and at risk of infection, as several reports show, quickly develop their own protection measures like the production of hygienic products, the publication of their situation and calls for action and help. Therefore, this paper aims to research the effects of the coronavirus crisis on refugees in camp settings with a special ethnographic focus on how refugees actively deal with this crisis and if they, through already developed resilience, are capable of adapting to the restrictions as well as inventing strategies to cope with the difficult situation. To account for the variety of refugee camps as well as the different living conditions due to their locality, history and national asylum politics, we will look at three different locations, namely refugee asylum homes in Germany, hotspots on the Greek islands as well as one refugee camp in Kenya. The main questions will be how, under structurally and institutionally framed conditions of power and victimisation in refugee camps, forms of agency are established, made possible or limited. The goal is to show which strategies refugees apply to cope with the enhanced restrictions and exclusion, how they act to protect themselves and others from the virus and how they present and reflect their situation during the coronavirus pandemic. Finally, this discussion offers a new perspective to consider refugees not only as vulnerable victims, but also as actively engaged individuals.
This cumulative thesis encompass three studies focusing on the Weddell Sea region in the Antarctic. The first study produces and evaluates a high quality data set of wind measurements for this region. The second study produces and evaluates a 15 year regional climate simulation for the Weddell Sea region. And the third study produces and evaluates a climatology of low level jets (LLJs) from the simulation data set. The evaluations were done in the attached three publications and the produced data sets are published online.
In 2015/2016, the RV Polarstern undertook an Antarctic expedition in the Weddell Sea. We operated a Doppler wind lidar on board during that time running different scan patterns. The resulting data was evaluated, corrected, processed and we derived horizontal wind speed and directions for vertical profiles with up to 2 km height. The measurements cover 38 days with a temporal resolution of 10-15 minutes. A comparisons with other radio sounding data showed only minor differences.
The resulting data set was used alongside other measurements to evaluate temperature and wind of simulation data. The simulation data was produced with the regional climate model CCLM for the period of 2002 to 2016 for the Weddell Sea region. Only smaller biases were found except for a strong warm bias during winter near the surface of the Antarctic Plateau. Thus we adapted the model setup and were able to remove the bias in a second simulation.
This new simulation data was then used to derive a climatology of low level jets (LLJs). Statistics of occurrence frequency, height and wind speed of LLJs for the Weddell Sea region are presented along other parameters. Another evaluation with measurements was also performed in the last study.
The Eurosystem's Household Finance and Consumption Survey (HFCS) collects micro data on private households' balance sheets, income and consumption. It is a stylised fact that wealth is unequally distributed and that the wealthiest own a large share of total wealth. For sample surveys which aim at measuring wealth and its distribution, this is a considerable problem. To overcome it, some of the country surveys under the HFCS umbrella try to sample a disproportionately large share of households that are likely to be wealthy, a technique referred to as oversampling. Ignoring such types of complex survey designs in the estimation of regression models can lead to severe problems. This thesis first illustrates such problems using data from the first wave of the HFCS and canonical regression models from the field of household finance and gives a first guideline for HFCS data users regarding the use of replicate weight sets for variance estimation using a variant of the bootstrap. A further investigation of the issue necessitates a design-based Monte Carlo simulation study. To this end, the already existing large close-to-reality synthetic simulation population AMELIA is extended with synthetic wealth data. We discuss different approaches to the generation of synthetic micro data in the context of the extension of a synthetic simulation population that was originally based on a different data source. We propose an additional approach that is suitable for the generation of highly skewed synthetic micro data in such a setting using a multiply-imputed survey data set. After a description of the survey designs employed in the first wave of the HFCS, we then construct new survey designs for AMELIA that share core features of the HFCS survey designs. A design-based Monte Carlo simulation study shows that while more conservative approaches to oversampling do not pose problems for the estimation of regression models if sampling weights are properly accounted for, the same does not necessarily hold for more extreme oversampling approaches. This issue should be further analysed in future research.
Die vorgelegte Dissertation trägt den Titel Regularization Methods for Statistical Modelling in Small Area Estimation. In ihr wird die Verwendung regularisierter Regressionstechniken zur geographisch oder kontextuell hochauflösenden Schätzung aggregatspezifischer Kennzahlen auf Basis kleiner Stichproben studiert. Letzteres wird in der Fachliteratur häufig unter dem Begriff Small Area Estimation betrachtet. Der Kern der Arbeit besteht darin die Effekte von regularisierter Parameterschätzung in Regressionsmodellen, welche gängiger Weise für Small Area Estimation verwendet werden, zu analysieren. Dabei erfolgt die Analyse primär auf theoretischer Ebene, indem die statistischen Eigenschaften dieser Schätzverfahren mathematisch charakterisiert und bewiesen werden. Darüber hinaus werden die Ergebnisse durch numerische Simulationen veranschaulicht, und vor dem Hintergrund empirischer Anwendungen kritisch verortet. Die Dissertation ist in drei Bereiche gegliedert. Jeder Bereich behandelt ein individuelles methodisches Problem im Kontext von Small Area Estimation, welches durch die Verwendung regularisierter Schätzverfahren gelöst werden kann. Im Folgenden wird jedes Problem kurz vorgestellt und im Zuge dessen der Nutzen von Regularisierung erläutert.
Das erste Problem ist Small Area Estimation in der Gegenwart unbeobachteter Messfehler. In Regressionsmodellen werden typischerweise endogene Variablen auf Basis statistisch verwandter exogener Variablen beschrieben. Für eine solche Beschreibung wird ein funktionaler Zusammenhang zwischen den Variablen postuliert, welcher durch ein Set von Modellparametern charakterisiert ist. Dieses Set muss auf Basis von beobachteten Realisationen der jeweiligen Variablen geschätzt werden. Sind die Beobachtungen jedoch durch Messfehler verfälscht, dann liefert der Schätzprozess verzerrte Ergebnisse. Wird anschließend Small Area Estimation betrieben, so sind die geschätzten Kennzahlen nicht verlässlich. In der Fachliteratur existieren hierfür methodische Anpassungen, welche in der Regel aber restriktive Annahmen hinsichtlich der Messfehlerverteilung benötigen. Im Rahmen der Dissertation wird bewiesen, dass Regularisierung in diesem Kontext einer gegen Messfehler robusten Schätzung entspricht - und zwar ungeachtet der Messfehlerverteilung. Diese Äquivalenz wird anschließend verwendet, um robuste Varianten bekannter Small Area Modelle herzuleiten. Für jedes Modell wird ein Algorithmus zur robusten Parameterschätzung konstruiert. Darüber hinaus wird ein neuer Ansatz entwickelt, welcher die Unsicherheit von Small Area Schätzwerten in der Gegenwart unbeobachteter Messfehler quantifiziert. Es wird zusätzlich gezeigt, dass diese Form der robusten Schätzung die wünschenswerte Eigenschaft der statistischen Konsistenz aufweist.
Das zweite Problem ist Small Area Estimation anhand von Datensätzen, welche Hilfsvariablen mit unterschiedlicher Auflösung enthalten. Regressionsmodelle für Small Area Estimation werden normalerweise entweder für personenbezogene Beobachtungen (Unit-Level), oder für aggregatsbezogene Beobachtungen (Area-Level) spezifiziert. Doch vor dem Hintergrund der stetig wachsenden Datenverfügbarkeit gibt es immer häufiger Situationen, in welchen Daten auf beiden Ebenen vorliegen. Dies beinhaltet ein großes Potenzial für Small Area Estimation, da somit neue Multi-Level Modelle mit großem Erklärungsgehalt konstruiert werden können. Allerdings ist die Verbindung der Ebenen aus methodischer Sicht kompliziert. Zentrale Schritte des Inferenzschlusses, wie etwa Variablenselektion und Parameterschätzung, müssen auf beiden Levels gleichzeitig durchgeführt werden. Hierfür existieren in der Fachliteratur kaum allgemein anwendbare Methoden. In der Dissertation wird gezeigt, dass die Verwendung ebenenspezifischer Regularisierungsterme in der Modellierung diese Probleme löst. Es wird ein neuer Algorithmus für stochastischen Gradientenabstieg zur Parameterschätzung entwickelt, welcher die Informationen von allen Ebenen effizient unter adaptiver Regularisierung nutzt. Darüber hinaus werden parametrische Verfahren zur Abschätzung der Unsicherheit für Schätzwerte vorgestellt, welche durch dieses Verfahren erzeugt wurden. Daran anknüpfend wird bewiesen, dass der entwickelte Ansatz bei adäquatem Regularisierungsterm sowohl in der Schätzung als auch in der Variablenselektion konsistent ist.
Das dritte Problem ist Small Area Estimation von Anteilswerten unter starken verteilungsbezogenen Abhängigkeiten innerhalb der Kovariaten. Solche Abhängigkeiten liegen vor, wenn eine exogene Variable durch eine lineare Transformation einer anderen exogenen Variablen darstellbar ist (Multikollinearität). In der Fachliteratur werden hierunter aber auch Situationen verstanden, in welchen mehrere Kovariate stark korreliert sind (Quasi-Multikollinearität). Wird auf einer solchen Datenbasis ein Regressionsmodell spezifiziert, dann können die individuellen Beiträge der exogenen Variablen zur funktionalen Beschreibung der endogenen Variablen nicht identifiziert werden. Die Parameterschätzung ist demnach mit großer Unsicherheit verbunden und resultierende Small Area Schätzwerte sind ungenau. Der Effekt ist besonders stark, wenn die zu modellierende Größe nicht-linear ist, wie etwa ein Anteilswert. Dies rührt daher, dass die zugrundeliegende Likelihood-Funktion nicht mehr geschlossen darstellbar ist und approximiert werden muss. Im Rahmen der Dissertation wird gezeigt, dass die Verwendung einer L2-Regularisierung den Schätzprozess in diesem Kontext signifikant stabilisiert. Am Beispiel von zwei nicht-linearen Small Area Modellen wird ein neuer Algorithmus entwickelt, welche den bereits bekannten Quasi-Likelihood Ansatz (basierend auf der Laplace-Approximation) durch Regularisierung erweitert und verbessert. Zusätzlich werden parametrische Verfahren zur Unsicherheitsmessung für auf diese Weise erhaltene Schätzwerte beschrieben.
Vor dem Hintergrund der theoretischen und numerischen Ergebnisse wird in der Dissertation demonstriert, dass Regularisierungsmethoden eine wertvolle Ergänzung der Fachliteratur für Small Area Estimation darstellen. Die hier entwickelten Verfahren sind robust und vielseitig einsetzbar, was sie zu hilfreichen Werkzeugen der empirischen Datenanalyse macht.
Der Beitrag von Professor Basedow beschäftigt sich mit dem Wesen und den wirtschaftlichen sowie rechtlichen Grenzen wirtschaftlicher Regulierung. Zu diesem Zweck werden zunächst der Begriff der Regulierung erläutert und politische Erklärungen zu dieser Thematik erörtert. Danach folgt eine Untersuchung der Frage, wie wirtschaftliche Regulierungen gerechtfertigt werden können und wie sich eine entsprechende Politik zu gegenläufigen Prinzipien des höherrangigen Rechts verhält. Daran schließt sich eine Bestandsaufnahme des zur Zeit praktizierten Nebeneinander von Deregulierung und Regulierung sowie eine Auswertung aller dargestellten Befunde an.
Erstmals wird der gesamte Zeichnungsnachlass des in Aachen tätigen Goldschmieds Reinhold Vasters (1827-1909) wissenschaftlich bearbeitet. Schwerpunkt ist ein Katalogteil, der die 1079 Zeichnungen (Inv.Nrn. E.2570- bis E. 3649-1919) zu Objekten in Gruppen ordnet. Die Katalognummern erfassen alle Entwürfe eines Objektes (Angabe von u. a. Maßen, Literatur) mit Farbabbildungen, stellen historische Vorbilder höfischer Sammlungen (Wien, München, Paris) und Ideengrundlagen gegenüber sowie Verbindungen im Konvolut her. Des weiteren sind liturgische Geräte chronologisch aufgeführt, deren Zahl im Vergleich mit profanen Arbeiten klein ist und für die sich im Gegensatz zu diesen meist kein Entwurf erhielt. Texte zu den Objektgruppen geben einen Überblick und erläutern exemplarisch die für Vasters typischen und symptomatischen Vorgehensweisen. Biographische Erkenntnisse (unter anderem ein Stammbaum) informieren über Ereignisse in seiner Vita und revidieren den Wissensstand - zum Beispiel war Vasters nicht erst 1853 in Aachen nachzuweisen, sondern schon 1849 als 'Goldarbeiter zu Crefeld'. Kapitel zur Ausbildung und Werkstatt ergänzen das Bild. Schließlich wird das Thema 'Vasters als Fälscher' beleuchtet und die Beziehungen zum Kunsthändler Frédéric Spitzer, dem Kanonikus Franz Bock und dem Pariser Goldschmied Alfred André.
Die Dissertation beschäftigt sich mit der Frage, inwieweit und unter welchen Bedingungen psychophysiologische Maße gewinnbringend zur empirischen Prüfung physiologisch orientierter Persönlichkeitstheorien genutzt werden können. Am Beispiel des Extraversionsmodells von Brebner & Cooper (1985), das mit Hilfe ereigniskorrelierter Hirnrindenpotentiale (EKP) empirisch geprüft wurde, wird deutlich herausgearbeitet, mit welchen Herausforderungen sich eine solche Forschung konfrontiert sieht: die konsequente und streng theoriegeleitete Verknüpfung psychologischer Konzepte mit psychophysiologischen Maßen, die sorgfältige Berücksichtigung der funktionalen Bedeutung und der komplexen auslösenden Bedingungen der elektrophysiologischen Parametern im Kontext des gewählten Paradigmas sowie die umfassende Kontrolle experimenteller und situationsspezifischer Rahmenbedingung. Das Brebner-Cooper-Modell führt Verhaltensunterschiede zwischen Extravertierten und Introvertierten auf differentiell wirksame exzitatorische und inhibitorische Prozesse zurück, die im Zusammenhang mit der Analyse von Reizen (Reizanalyse) und der Vorbereitung von Reaktionen (Reaktionsorganisation) in einer spezifischen Situation stehen. Der empirische Teil der Arbeit beschreibt zwei EKP-Experimente, in denen langsame Potentiale zur Untersuchung dieser Modellkonzepte herangezogen wurden. Das Ausmaß kortikaler Aktivierung und Deaktivierung bei Introvertierten vs. Extravertierten in Abhängigkeit von variierenden Anforderungen an Reizanalyse und Reaktionsorganisation wurde über die Contingent Negative Variation (CNV) abgebildet. Aufgrund theoretischer wie empirischer Überlegungen wurde davon ausgegangen, dass sich Unterschiede in der Reizanalyse in der initial CNV (iCNV), Unterschiede in der Reaktionsorganisation dagegen in der terminal CNV (tCNV) niederschlagen. Die Ergebnisse bestätigen, dass der Einsatz psychophysiologischer Methoden zur Theorienprüfung erst dann vielversprechend ist, wenn zuvor eine Validierung der elektrophysiologischen Maße als geeignete Indikatoren für die psychologischen Konstrukte erfolgt ist.
The 23rd Annual Congress of the European Consortium for Church and State Research took place in Oxford, United Kingdom from 29 September to 2 October 2011. Founded in 1989, the Consortium unites experts in law and religion from Member States of the European Union. The Oxford conference took as its theme Religion and Discrimination Law focusing on the manner in which State governments had sought to implement the non-discrimination policy of the EU by legislation and through courts and tribunals. The proceedings comprise three introductory papers considering the historical, cultural and social background; the prohibition on discrimination, and the exemptions to the general prohibition. This is followed by national reports from twenty-three countries describing the reach of discrimination law in the field of religion. These are supplemented by further papers analysing the jurisprudence of the Strasbourg Court and the background to EU Directive 2000/78/EC and by some concluding reflections. The proceedings begin with the text of a public lecture given at the opening of the Congress by Sir Nicolas Bratza, President of the European Court of Human Rights on the subject of freedom of religion under Article 9 of the Convention.
The 22nd annual conference of the European Consortium for Church and State Research took place from 11 to 14 November 2010 in Trier, Germany. Founded in 1989, the Consortium unites experts of law and religion of all Member States of the European Union. In annual meetings, various topics of the relations between religions and states within the European Union are discussed. This year- conference was dedicated to the topic "Religion in Public Education". Scholars from 27 European countries discussed inter alia the role of religion in the European member states" educational systems, opting out of school obligations for religious reasons, home schooling as well as religious dress and symbols in public schools. The present proceedings contain the opening lectures, all country reports and a report on the European Union law.
Religion, churches and religious communities have growing importance in the Law of the European Union. Since long a distinct law on religion of the European Union is developing. This collection of those norms of European Union Law directly concerning religion mirrors today's status of this dynamic process.
Religion, churches and religious communities have growing importance in the Law of the European Union. Since long a distinct law on religion of the European Union is developing.rnThis collection of those norms of European Union Law directly concerning religion mirrors today's status of this dynamic process.