Filtern
Erscheinungsjahr
- 2011 (49) (entfernen)
Dokumenttyp
- Dissertation (40)
- Buch (Monographie) (4)
- Wissenschaftlicher Artikel (1)
- Bachelorarbeit (1)
- Konferenzveröffentlichung (1)
- Masterarbeit (1)
- Sonstiges (1)
Sprache
- Deutsch (24)
- Englisch (24)
- Mehrsprachig (1)
Volltext vorhanden
- ja (49) (entfernen)
Schlagworte
- Hydrocortison (4)
- Stress (4)
- Neuroendokrines System (3)
- Analysis (2)
- Deutschland (2)
- Germany (2)
- Hotelgewerbe (2)
- Identität (2)
- Leistungslohn (2)
- behavioral genetics (2)
Institut
- Psychologie (16)
- Raum- und Umweltwissenschaften (8)
- Rechtswissenschaft (5)
- Mathematik (4)
- Wirtschaftswissenschaften (4)
- Informatik (3)
- Anglistik (1)
- Archäologie (1)
- Germanistik (1)
- Geschichte, mittlere und neuere (1)
- Kunstgeschichte (1)
- Medienwissenschaft (1)
- Philosophie (1)
- Politikwissenschaft (1)
- Universitätsbibliothek (1)
Das erste Beispiel einer so genannten universellen holomorphen Funktion stammt von Birkhoff, welcher im Jahre 1929 die Existenz einer ganzen Funktion beweisen konnte, die gewissermaßen jede ganze Funktion durch geeignete Translationen approximieren kann. In der Folgezeit hat sich der Bereich der "universellen Approximation" zu einem eigenständigen Gebiet innerhalb der komplexen Approximationstheorie entwickelt, und es gibt eine Vielzahl an Ergebnissen über universelle Funktionen. Hierbei wurde sich allerdings fast ausschließlich auf das Studium holomorpher und ganzer Funktionen beschränkt, insbesondere die Klasse der meromorphen Funktionen wurde bisher kaum auf das Phänomen der Universalität hin untersucht. Die vorliegende Arbeit beschäftigt sich mit universeller meromorpher Approximation, und geht der Fragestellung nach, ob meromorphe Funktionen mit gewissen Universalitätseigenschaften existieren, und ob die klassischen Ergebnisse aus der universellen holomorphen Approximation auf den meromorphen Fall erweiterbar sind. Hierbei wird zunächst zwischen Translations- und Streckungsuniversalität unterschieden und bewiesen, dass in beiden Fällen jeweils eine im Raum der meromorphen Funktionen residuale Menge an universellen Funktionen existiert. Weiterhin werden die Eigenschaften dieser Funktionen ausführlich studiert. Anschließend werden meromorphe Funktionen auf Ableitungsuniversalität hin untersucht. Hierbei wird einerseits gezeigt, dass im Allgemeinen keine positiven Ergebnisse möglich sind, während andererseits eine spezielle Klasse meromorpher Funktionen betrachtet wird, für welche universelles Verhalten der sukzessiven Ableitungen nachgewiesen werden kann.
Eine Vielzahl hydrophiler Xenobiotika wird in kommunalen Kläranlagen nur unvollständig abgebaut und stellt ein potentielles Risiko für aquatische Ökosysteme dar. Die Eliminationsleistung von Kläranlagen hat sich deshalb während des letzten Jahrzehnts zu einem Schwerpunkt in der aquatischen Umweltchemie entwickelt. Die vorliegende Arbeit untersucht in diesem Zusammenhang die Variation biologischer Abbauleistungen kommunaler Kläranlagen für polare Xenobiotika. Es soll überprüft werden, ob die Abbauleistung von Xenobiotika mit derer klassischer Nährstoffe in Beziehung gesetzt werden kann. Als zusätzlicher Faktor zur Erklärung von unterschiedlichen Eliminationsleistungen wurden Probenahmestrategien hinsichtlich der Erstellung von Massenbilanzen analysiert. Fünf Pharmaka sowie drei Aminopolycarbonsäuren wurden als Testsubstanzen ausgewählt. Diese umfassen ein Spektrum an mikrobiologischer Abbaubarkeit bedingt durch die Reaktivität ihrer unterschiedlichen molekularen Strukturen. Ein kombinierter Versuchsaufbau aus Respirometrie und Abbautests ermöglichte, neben der Bestimmung von Abbaukinetiken, auch die Charakterisierung von Belebtschlamm. Der Einfluss von Mischungsprozessen auf die Abbauleistungen von Kläranlagen wurde mittels hydraulischer Aufenthaltszeitverteilungen modelliert. Darauf basierend wurde eine Methode zur Beurteilung und Erstellung von Eliminationsleistungen aus Zulauf-Ablauf Massenbilanzen entwickelt. Die Resultate zeigen deutliche Unterschiede in den Belebtschlammcharakteristika und dem Abbaupotential von Xenobiotika zwischen verschiedenen Kläranlagen. Die aktive heterotrophe Biomasse wurde als steuernder Faktor für die Biodegradation der untersuchten leicht und moderat abbaubaren Xenobiotika identifiziert. Dies kann als Hinweis auf kometabolische Abbauprozesse durch unspezifische Enzymaktivitäten gewertet werden. Die beobachtete Abnahme der Eliminationsleistung mit steigendem Schlammalter konnte anhand modifizierter Kinetiken pseudo-erster Ordnung beschrieben werden. Die Modellierung von Mischungsprozessen mittels hydraulischer Aufenthaltszeitverteilungen macht deutlich, mit welcher Unsicherheit Massenbilanzen in Kläranlagen behaftet sind. Die Ergebnisse demonstrieren, dass dies vor allem auf inadäquate Probenahmestrategien zurückzuführen ist. Insbesondere Massenbilanzen auf der Basis von kurzen Probenahmezeiträumen und 24-h Mischproben resultieren in fehlerhafte Eliminationsraten. Der vorgestellte Ansatz benutzt die Verteilungen von Aufenthaltszeiten als Leitprinzip, um Zulauf- und Ablauffrachten zueinander in Beziehung zu setzen. Die Methode kann als Grundlage zur akkuraten Schätzung von Eliminationsleistungen herangezogen werden und bietet eine Erklärung für das Vorkommen negativer Eliminationsleistungen.
Diese Dissertation befasst sich mit anreiztheoretischen Konsequenzen der Reform der Professorenbesoldung. Dabei stehen vor allem die besonderen Leistungsbezüge im Mittelpunkt, die ökonomisch als relative Leistungsturniere zu betrachten sind. Das erste Papier mit dem Titel "Stufenmodell oder Leistungspunkte? Die Vergabe besonderer Leistungsbezüge an deutschen Universitäten" beschäftigt sich mit den Vergabeverfahren für besondere Leistungsbezüge auf Universitätsebene und zeigt, dass die existierenden Systeme unterschiedliche Turniertypen darstellen: Bei dem Stufenmodell handelt es sich um ein U-Typ Turnier, während das Leistungspunkte-Modell als J-Typ Turnier aufzufassen ist. Ein Vergleich dieser beiden Typen liefert modelltheoretische Empfehlungen für die Umsetzung. Diese werden empirisch für 60 deutsche Universitäten überprüft. Das zweite Papier "Searching for the best? Clubs and their admission decision" beschäftigt sich mit strategischen Entscheidungen in Berufungskommissionen. Mit der Einführung der W-Besoldung an deutschen Universitäten werden Professoren stärker leistungsabhängig entlohnt. Die so genannten besonderen Leistungsbezüge werden durch relative Leistungsturniere auf Fachbereichsebene vergeben. Im Zusammenspiel mit der Auswahl neuer Hochschullehrer in Berufungskommissionen können adverse Anreize entstehen, nicht den besten Bewerber auszuwählen. Die Fachbereiche sehen sich bei der Einstellungsentscheidung einem Trade-off gegenüber: Die Berufung eines sehr guten Kandidaten erzeugt Spill-over-Effekte. Zum einen können durch Kooperationen mit anderen (guten) Forschern des Fachbereichs neue Projekte entstehen, die Forschungsgelder und Drittmittel einbringen und somit auch die Reputation des Fachbereichs insgesamt (oder dieser Forschergruppe) steigern. Zum anderen führt diese Berufungsentscheidung dazu, dass bei der Vergabe der besonderen Leistungsbezüge die zusätzliche Konkurrenz durch einen besonders erfolgreichen Professor bedeutet, dass weniger erfolgreiche Fakultätsmitglieder geringere besondere Leistungsbezüge erhalten. Dieser Effekt kann als relative Deprivation verstanden werden. Welcher Effekt überwiegt, wird mit Hilfe eines zweistufigen Spiels untersucht. Das dritte Papier "Kooptation und Wettbewerb - Experimentelle Analyse" analysiert das Zusammenwirken von relativen Leistungsturnieren und Team-Arbeit experimentell. Dazu wird das Design von Irlenbusch/Ruchala (2008) um das Element der Kooptation eines neuen Mitspielers und Turniergegners erweitert. Es zeigt sich, dass die Anreizwirkung von Wettbewerben mit nur einem Preis (Stufenmodell) größer ist als bei mehreren, relativ vergebenene Preisen (Leistungspunkte-Verfahren). Bei der Zuwahl-Entscheidung gibt es zwei Spiel-Strategien: Neben der typischen Auszahlungsmaximierung gibt es Spieler, die bereit sind auf Einkommen zu Gunsten von Status zu verzichten. Diese Spieler wählen einen Bewerber, der ihre eigene Position im internen Ranking nicht gefährdet. Besonders anfällig für dieses Verhalten ist das Stufenmodell mit nur einem Siegerpreis. Das Leistungspunkte-Verfahren schneidet hier besser ab, da es dort nur wenige Fälle von Status sichernden Zuwahl-Entscheidungen gibt.
Psychiatric/Behavioral disorders/traits are usually polygenic in nature, where a particular phenotype is the manifestation of multiple genes. However, the existence of large families with numerous members who are affected by these disorders/traits steers us towards a Mendelian (or monogenic) possibility, where the phenotype is caused by a single gene. In order to better understand the genetic architecture of general psychiatric/behavioral disorders/traits, this thesis investigates large pedigrees that display a Mendelian pattern for attention-deficit/hyperactivity disorder, schizophrenia and bipolar disorder. Numerous challenges in the field of psychiatric and behavioral sciences have impeded the genetic investigation of such disorders/traits. Examples include frequent cross-disorders, genetic heterogeneity across subjects as well as the use of diagnostic tools that can be subjective at times. To overcome these challenges, this thesis investigates large multi-generational pedigrees, which comprise a significant number of members who exhibit specific psychiatric/behavioral phenotypes. These pedigrees provide high-resolution experimental setups that can dissect the genetic complexities of psychiatric/behavioral disorders/traits. This thesis adopts a classical two-stage genetic approach to investigate the various psychiatric/behavioral disorders/traits in large pedigrees. The classical two-stage genetic approach is commonly used by many human geneticists to study a wide spectrum of human physiological disorders but is only being applied to the field of psychiatric and behavioral genetics recently. Through the study of large pedigrees, this thesis discovers the genomic regions that may play a causative role in the expression of certain psychiatric/behavioral disorders/traits within the vast genome.
Die Dissertation ist der Kuünstlerpersönlichkeit und dem Werk des Kubaners Wifredo Lam gewidmet. Lam wurde 1902 auf Kuba als Sohn eines Chinesen und einer Kubanerin geboren und starb 1982 in Paris. Die vielen unterschiedlichen Lebensstationen des Künstlers bezeugen seine Mobilität und Reiselust, zeichnen aber auch gleichzeitig die historischen Turbulenzen und Umbrüche des 20. Jahrhunderts nach. Lam gilt heute als einer der Hauptvertreter der lateinamerikanischen Kunst des 20. Jahrhunderts und als Künstlerikone Kubas. Zu Lams Freunden und Bekannten gehörten unter anderem Pablo Picasso, André Breton, Michel Leiris, Pierre Mabille, Alejo Carpentier, Lydia Cabrera, Aimé Césaire, Benjamin Perét und Asger Jorn. Sein Werk ist durch den Kubismus und den Surrealismus beeinflusst. Auch interessierte er sich für die lokalen Gegebenheiten, Kulturen und Traditionen seiner jeweiligen Aufenthaltsorte. Er setzte sich unter anderem mit der Rezeption des "Primitiven" der europäischen Avantgarde vor dem Zweiten Weltkrieg, wie auch - zurück in der Heimat Kuba - mit der afrokubanischen Mischreligion Santeria auseinander und fühlte sich politisch wie intellektuell mit der karibischen Négritude verbunden. Diese und andere Eindrücke und Einflüsse hinterließen Spuren in Lams Werk, die er in eine Formensprache umsetzte, die seinem Œuvre einen unverwechselbaren Ausdruck verleiht. Dem poliperspektivistischen und semantisch mehrfach aufgeladenen Werk jedoch stehen eine erstaunlich einseitige und nicht selten stereotype internationale Repräsentation und Rezeption gegenüber. Die Dissertation jedoch stellt eine andere, eine neue Positionierung des Künstlers und seines Werkes vor, die ohne primitivistische Zuschreibungen und biografische Bezeugungen auskommt. Dies gelingt zum einen durch die Auseinandersetzung mit den Rezeptions- und Repräsentationsmechanismen, die den Künstlermythos Lam ausgebildet haben. Daran schließt sich eine detaillierte Analyse repräsentativ ausgewählter Einzelbildbeispiele an. Aber auch die Auseinandersetzung mit dem Gesamtwerk des Künstlers ist relevant. Denn es zeigt sich, dass die über Jahrzehnte hin praktizierte Wiederholung von Bildformeln und die Homogenität in der Darstellungsweise Teil des künstlerischen Programms von Wifredo Lam sind. Diese stilistische Formalität wurde von den Kritikern des Lamschen Werkes bisher nicht beachtet. Auf der Basis dieser neu erarbeiteten Erkenntnisse kann Wifredo Lam als Fallbeispiel für übergeordnete Fragestellungen dienen und zentrale Aspekte der cultural studies illustrieren. Denn Lams künstlerische Formgestaltung verweist auf ein alternatives ästhetisches Identitätsmodell, das Synkretismus und Hybridität nicht als Verlust von Identität, sondern als eine Praxis von Differenz versteht. Diese Ausrichtung der Lesart ermöglicht es, das Gesamtwerk als eine künstlerische Antwort auf Fragen kultureller Identität und Multikulturalität zu deuten.
The article deals with the untenable overloading of German criminal trial court judges presenting the overloading in detail and analyzing its reasons and consequences. In this context, serious failures by the German federal and state executive and legislative organs as well as undesirable developments of the Federal Constitutional Court's (BVerfG and the Federal Supreme Court of Justice's BGH) case law.
Japanische Touristen in Deutschland : Analyse der Wahrnehmung der Destination Deutschland und der Kundenansprüche im interkulturellen Kontext. Auf der Angebotsseite steht die noch mittelständisch geprägte deutsche Hotellerie, mit der Tendenz einer zunehmenden Konzentration zur Groß- und Kettenhotellerie. Der japanische Kunde auf der Nachfragerseite wird aufgrund seiner kulturellen, sozialen, politischen und geschichtlichen Umgebung analysiert. Er bewegt sich in einer vorwiegend kollektivistisch und stark kontextorientierten, durch dichte Informationsnetze geprägten, maskulinen Gesellschaft. Beeinflusst durch die Lehre von Konfuzius bilden heute noch mora-lisches Handeln, Rechtschaffenheit, Höflichkeit, die Beachtung hierarchischer Beziehungen und Harmonie Handlungsgrundlage des gesellschaftlichen Lebens. Daneben hat Japan, als entwickeltes Industrieland, mit denselben Problemen wie westliche Industrienationen zu kämpfen, wie Überalterung, Wertewandel und konjunkturelle Auf- und Abschwünge. Der japanische Kunde stellt hohe Ansprüche an die Qualität des angebotenen Produktes und an den Service. Während die Hardware, z.B. die Qualität der Hotelzimmer in Deutschland positiv beurteilt wird, wird die Servicequalität hier oft als unzureichend empfunden. Dabei setzt der japanische Kunde, der an dichte Informationsnetze gewöhnt ist, viele Dinge als selbstverständlich voraus. Der Deutsche, der über diese Informationen nicht verfügt und sich stur an das Vereinbarte hält, wird als unhöflich empfunden. Als Einkaufsdestination hat Deutschland aufgrund fehlender Marken kaum Bedeutung. Japaner sind leidenschaftliche und experimentierfreudige Esser, die oft in Deutschland aufgrund der mangelnden Beachtung und Vermarktung lokaler Spezialitäten zu kurz kommen. Mittels der Methode Importance Grid konnten abgefragte Attribute in Basis-, Leistungs- und Begeisterungsfaktoren eingeteilt werden. Grundlegend und Ausschlusskriterium für einen Reiseantritt sind die öffentliche Sicherheit, die der Japaner nicht nur auf die Kriminalität sondern auch auf Lebensmittelsicherheit und Gesundheitswesen bezieht. Sehenswürdigkeiten sind wichtige Leistungsfaktoren. Das Hotelangebot, als Begeisterungsfaktor hat einen enormen Einfluss und damit großes Entwicklungspotential auf die Reisezufriedenheit. Begeisterung lösen weiterhin individuelle Begegnungen, eine originale und stimmige Atmo-sphäre und lokale Besonderheiten, aus. Der hoch kontextorientierte Japaner nimmt die Reise als Gesamterlebnis wahr und gibt seine Erinnerungen gern über Mund zu Mund Propaganda weiter. Folgereisen können sich wie ein Schneeballsystem entwickeln. Als Trends sind die zunehmende Bedeutung von Seniorenreisen, Hube-and-Spoke Reisen, Skeleton-Touren, der Furosato Trend und Honeymoonreisen zu nennen.
1.The Discursive Construction of Black Masculinity: Intersections of Race, Gender, and Sexuality
1.1.The Plight of Black Men: A History of Lynchings and Castrations
1.2.The Discursive Construction of the Black Man as Otherrn
1.3.Black Corporeality and the Scopic Regime of Racism
2. Ralph Ellison's 'Invisible man'
2.1.Invisible Black Men: Between Emasculation and Hypermasculinityrn
2.2.Transcending Invisibility
This thesis centers on formal tree languages and on their learnability by algorithmic methods in abstractions of several learning settings. After a general introduction, we present a survey of relevant definitions for the formal tree concept as well as special cases (strings) and refinements (multi-dimensional trees) thereof. In Chapter 3 we discuss the theoretical foundations of algorithmic learning in a specific type of setting of particular interest in the area of Grammatical Inference where the task consists in deriving a correct formal description for an unknown target language from various information sources (queries and/or finite samples) in a polynomial number of steps. We develop a parameterized meta-algorithm that incorporates several prominent learning algorithms from the literature in order to highlight the basic routines which regardless of the nature of the information sources have to be run through by all those algorithms alike. In this framework, the intended target descriptions are deterministic finite-state tree automata. We discuss the limited transferability of this approach to another class of descriptions, residual finite-state tree automata, for which we propose several learning algorithms as well. The learnable class by these techniques corresponds to the class of regular tree languages. In Chapter 4we outline a recent range of attempts in Grammatical Inference to extend the learnable language classes beyond regularity and even beyond context-freeness by techniques based on syntactic observations which can be subsumed under the term 'distributional learning', and we describe learning algorithms in several settings for the tree case taking this approach. We conclude with some general reflections on the notion of learning from structural information.
Die Zielsetzung der vorliegenden Arbeit war die raumdifferenzierte und skalenübergreifende Untersuchung der Hochwasserentstehungsprozesse im Frankelbach-Einzugsgebiet, das ein Beispiel eines land- und forstwirtschaftlich genutzten Kleineinzugsgebiets in Mittelgebirgen der gemäßigten Breiten ist. Eine Kernaufgabe war die Quantifizierung der Beiträge einzelner Abflusskomponenten während des Scheiteldurchflusses eines Hochwassers. Zudem sollten Zusammenhänge zwischen der Bodenfeuchtedynamik und der Abflussreaktion herausgearbeitet werden. Zur Bodenfeuchtemessung wurde ein neu entwickeltes Spatial-TDR-Messsystem eingesetzt. Im Rahmen dieses pilothaften Einsatzes war zudem die Tauglichkeit des Messsystems zu überprüfen und zu bewerten. Das im Rotliegenden gelegene 5 km2 große Frankelbachgebiet mit Jahresniederschlägen von 750 mm a-1, steil eingeschnittenen, bewaldeten Kerbtälern und ackerwirtschaftlich genutzten Hochflächen liegt zwischen 200 und 450 m ü. NN. Auf schuttführenden Sand- und Schlufflehmen, deren Genese auf periglaziale Solifluktionsprozesse zurückgeht, sind hangabwärts mächtiger werdende Braunerden zu finden. Bemerkenswert sind die zahlreichen Quellen auf gleicher Höhenlage, die teilweise als Pipequellen ausgebildet sind. Beregnungs- und Infiltrationsversuche dienten der Beurteilung der Oberflächenabflussreaktion unterschiedlich bewirtschafteter Flächen. Durch stündliche Spatial-TDR-Messungen an 13 Standorten (60 cm lange vertikal installierte Dreistabsonden) konnten Hangwasserflüsse identifiziert werden. Zwischen 2005 und 2009 wurden die Abflüsse vier geschachtelter Einzugsgebiete sowie einer Quelle in 10min-Intervallen erfasst und 87 Hochwasserereignisse analysiert. Mittels Messungen der elektrischen Leitfähigkeit und eines Zweikomponenten-Mischungsmodells wurde der Ereigniswasseranteil für die höchsten Hochwasser abgeschätzt. Ergänzend zu den Geländeexperimenten wurde ein einfaches Modell konzipiert, das eine quantitative Abschätzung der ober- und unterirdischen Wasserflüsse in einen Gewässereinschnitt erlaubt. Zum Vergleich mit 31 anderen Untersuchungsgebieten wurde eine Codierung entwickelt, die eine Einordnung sowohl hinsichtlich der Geofaktoren der Gebiete als auch bezüglich der untersuchten Hochwasserereignisse ermöglicht. Das im hanghydrologischen Forschungsbereich als eher trocken einzuordnende Frankelbachgebiet, zeigte ein jahreszeitlich sehr unterschiedliches Abflussverhalten. Während in trockenen Sommern hohe Niederschläge im Gebiet gespeichert werden, liegen die Abflusskoeffizienten für einige schneeschmelzfreie Frühjahrsereignisse über 50 %. Das höchste beobachtete Hochwasser weist einen Abflusskoeffizient von 55 % bei einer relativ niedrigen Abflussspende von 140 l s-1 km-2 auf. Die Großberegnungsversuche, die Quellabflussmessungen, die Ereignisanalysen und die Modellierungsergebnisse weisen darauf hin, dass Dauerregen- und Schneeschmelz-Hochwasser zum Großteil aus Zwischenabfluss bestehen. Hier konnten zwei Abflusskomponenten differenziert werden: (i) eine oberflächen- und gerinnenahe Komponenten, die aufgrund des hohen Ereigniswasseranteils von etwa 60 % durch präferentielles Fließen erklärt werden kann, und (ii) eine ein bis zwei Tage verzögerte tiefere Komponente, die durch unterirdische Abflusskonzentration auf stauenden Schichten generiert wird. Letztere war in den Quellabfluss- und Spatial-TDR-Messungen erkennbar, hatte jedoch an den am Pegel beobachteten Scheiteldurchflüssen nur einen sehr kleinen Anteil. Während sehr intensiver Niederschläge könnte zusätzlich der Horton'sche Oberflächenabfluss von offen liegenden, hydraulisch angeschlossenen Äckern zum Scheiteldurchfluss beitragen. Für sämtliche Spatial-TDR-Messstandorte ist von hohen Infiltrations- und Sickerraten auszugehen. Eine Aufsättigung der Standorte war nicht erkennbar, für die nassen Wintermonate liegen jedoch nur sehr wenige Spatial-TDR-Messwerte vor. Eine in einer Tiefenlinie installierte Sonde (A08) zeigte das Umschalten des Gesamtgebiets in relativ nasse Zustände an. Hier nahm die Bodenfeuchte während zwei größerer Dauerregenereignisse infolge der unterirdischen Abflusskonzentration stark zu. In der vorliegenden Arbeit wurden die einbau- und substratbedingten Unsicherheiten sowie die Schwächen des Algorithmus zur Rekonstruktion der absoluten Bodenfeuchtewerte konkretisiert. Demzufolge wurde lediglich das Spatial-TDR-Rohsignal als Indikator für die aktuelle Bodenfeuchte verwendet. Durch eine Transformation des Spatial-TDR-Signals von der Zeit auf den Sondenort können dennoch Aussagen zur relativen Änderung der Bodenfeuchte in einer bestimmten Tiefe gemacht werden können. Diese Informationen sind hinreichend genau für die Untersuchung hanghydrologischer Prozesse und für die Ableitung von Gebietsfeuchtezuständen.
Variational inequality problems constitute a common basis to investigate the theory and algorithms for many problems in mathematical physics, in economy as well as in natural and technical sciences. They appear in a variety of mathematical applications like convex programming, game theory and economic equilibrium problems, but also in fluid mechanics, physics of solid bodies and others. Many variational inequalities arising from applications are ill-posed. This means, for example, that the solution is not unique, or that small deviations in the data can cause large deviations in the solution. In such a situation, standard solution methods converge very slowly or even fail. In this case, so-called regularization methods are the methods of choice. They have the advantage that an ill-posed original problem is replaced by a sequence of well-posed auxiliary problems, which have better properties (like, e.g., a unique solution and a better conditionality). Moreover, a suitable choice of the regularization term can lead to unconstrained auxiliary problems that are even equivalent to optimization problems. The development and improvement of such methods are a focus of current research, in which we take part with this thesis. We suggest and investigate a logarithmic-quadratic proximal auxiliary problem (LQPAP) method that combines the advantages of the well-known proximal-point algorithm and the so-called auxiliary problem principle. Its exploration and convergence analysis is one of the main results in this work. The LQPAP method continues the recent developments of regularization methods. It includes different techniques presented in literature to improve the numerical stability: The logarithmic-quadratic distance function constitutes an interior point effect which allows to treat the auxiliary problems as unconstrained ones. Furthermore, outer operator approximations are considered. This simplifies the numerical solution of variational inequalities with multi-valued operators since, for example, bundle-techniques can be applied. With respect to the numerical practicability, inexact solutions of the auxiliary problems are allowed using a summable-error criterion that is easy to implement. As a further advantage of the logarithmic-quadratic distance we verify that it is self-concordant (in the sense of Nesterov/Nemirovskii). This motivates to apply the Newton method for the solution of the auxiliary problems. In the numerical part of the thesis the LQPAP method is applied to linearly constrained, differentiable and nondifferentiable convex optimization problems, as well as to nonsymmetric variational inequalities with co-coercive operators. It can often be observed that the sequence of iterates reaches the boundary of the feasible set before being close to an optimal solution. Against this background, we present the strategy of under-relaxation, which robustifies the LQPAP method. Furthermore, we compare the results with an appropriate method based on Bregman distances (BrPAP method). For differentiable, convex optimization problems we describe the implementation of the Newton method to solve the auxiliary problems and carry out different numerical experiments. For example, an adaptive choice of the initial regularization parameter and a combination of an Armijo and a self-concordance step size are evaluated. Test examples for nonsymmetric variational inequalities are hardly available in literature. Therefore, we present a geometric and an analytic approach to generate test examples with known solution(s). To solve the auxiliary problems in the case of nondifferentiable, convex optimization problems we apply the well-known bundle technique. The implementation is described in detail and the involved functions and sequences of parameters are discussed. As far as possible, our analysis is substantiated by new theoretical results. Furthermore, it is explained in detail how the bundle auxiliary problems are solved with a primal-dual interior point method. Such investigations have by now only been published for Bregman distances. The LQPAP bundle method is again applied to several test examples from literature. Thus, this thesis builds a bridge between theoretical and numerical investigations of solution methods for variational inequalities.
Extension of inexact Kleinman-Newton methods to a general monotonicity preserving convergence theory
(2011)
The thesis at hand considers inexact Newton methods in combination with algebraic Riccati equation. A monotone convergence behaviour is proven, which enables a non-local convergence. Above relation is transferred to a general convergence theory for inexact Newton methods securing the monotonicity of the iterates for convex or concave mappings. Several application prove the pratical benefits of the new developed theory.
Monatelange Wartezeiten auf einen ambulanten Psychotherapieplatz sind der Regelfall im deutschen Gesundheitssystem. Die Veränderung der Symptombelastung der Patienten in der Wartezeit ist bislang allerdings kaum empirisch untersucht worden. In der vorliegenden Arbeit wurden an einer Stichprobe ambulanter Psychotherapiepatienten die Ausprägungen und Veränderungen der allgemeinen psychischen Symptombelastung während der durchschnittlich sechsmonatigen Wartezeit auf den Psychotherapieplatz untersucht. Zudem wurde überprüft, mit welchen Merkmalen die Symptombelastungen zum Zeitpunkt der Anmeldung zur Therapie und zum Zeitpunkt des Erstgesprächs sowie ihre Veränderungen in der Wartezeit zusammenhängen. Die dabei untersuchten Persönlichkeitsmerkmale wurden aus theoretischen Rahmenmodellen abgeleitet. Hierzu gehören die aktionale Entwicklungspsychologie, das handlungstheoretische Partialmodell der Persönlichkeit mit der darin eingeordneten Vertrauens-Trias und das Androgynie-Modell der psychischen Gesundheit. Nach einem direkten Veränderungskriterium zeigten 48 % der Patienten in der Wartezeit keine bedeutsame Veränderung, 29 % eine Verbesserung und 23 % eine Verschlechterung. Durch die bei der Anmeldung erfassten Persönlichkeitsmerkmale konnten Verbesserungen, Verschlechterungen und gleichbleibende Symptombelastungen in der Wartezeit anhand einer multinomialen logistischen Regressionsanalyse für 60 % der Patienten korrekt vorausgesagt werden. Eine traditionelle normative Geschlechtsrollen-Orientierung stellt einen negativen Prädiktor für eine Verbesserung dar. Soziales Vertrauen konnte Verschlechterungen negativ vorhersagen. Bei Hoffnungslosigkeit handelt es sich um einen marginal negativen Prädiktor für eine Verbesserung. Ein hoch ausgeprägtes Selbstkonzept eigener Fähigkeiten ist ein positiver Prädiktor für eine Verschlechterung. Hinsichtlich der soziodemografischen und störungsbezogenen Merkmale konnten das Alter, das Geschlecht und die Anzahl der Diagnosen die Veränderungen der Symptombelastung in der Wartezeit zu 54 % korrekt vorhersagen. Das Alter ist ein positiver Prädiktor für eine Verschlechterung. Weibliches Geschlecht und die Anzahl an Diagnosen sind negative Prädiktoren für eine Verbesserung. Darüber hinaus wurden differenzierte Zusammenhänge zwischen den Persönlichkeitsmerkmalen und der Symptombelastung exploratorisch untersucht.
Aus dem Wunsch, die zentralen Prozesse im System Boden"Pflanze"Atmosphäre einschließlich der Auswirkungen verschiedener Bewirtschaftungspraktiken zu verstehen und nachzubilden, resultiert die Entwicklung verschiedener Pflanzenwachstumsmodelle. Ziel der vorliegenden Untersuchung ist zum einen, die im Realsystem auftretenden räumlichen Ertragsmuster zu identifizieren und zu charakterisieren. Mithilfe der Semivariogramm-Analyse ist eine räumliche Autokorrelation der Ertragsdaten von maximal 48 Meter abzuleiten. Die räumliche Analyse (GIS) zeigt, dass die Sommergerste ein leicht abweichendes Verhalten im Vergleich zu den Winterkulturen (Winterweizen, Winterraps) aufweist. Schließlich werden mithilfe der selbstorganisierenden Merkmalskarten die primär und sekundär für das Ertragsverhalten verantwortlichen Ursachen identifiziert. Eine abschließende hierarchische Clusteranalyse gliedert die in die Untersuchung eingehenden Standorte in vier spezifische Cluster mit charakteristischen Eigenschaften. Ein zweites Ziel ist die Klärung der Frage, ob die Pflanzenwachstumsmodelle STICS und DAISY bei entsprechender Parametrisierung in der Lage sind, das für ein detektiertes Muster charakteristische Verhalten von Pflanzenwachstum und Ertrag realitätsnah abzubilden. Den Modellanwendungen gehen eine Sensitivitätsanalyse und verschiedene Parametrisierungsansätze zur Erfassung des jeweiligen Modellverhaltens voraus. In beiden Modellen übt der Bodenwasserhaushalt einen starken Einfluss auf die Ertragsbildung aus. Des weiteren kommt in beiden Modellen den Stressfaktoren eine zentrale Bedeutung zu. Die Parametrisierung der Modelle auf der Grundlage der im Feld erhobenen Daten führt bei beiden Modellen nicht zu einem dem Realsystem entsprechenden Bild. Eine über die Sensitivitätsanalyse hinausreichende, vertiefte Modellkenntnis ist erforderlich, um die in die Modelle eingehenden Parameter bzw. deren spezifischen Einfluss auf das Modellverhalten beurteilen und interpretieren zu können. Dies betrifft insbesondere die Modellgrößen der Bodenmodule. Dieser Aspekt erschwert eine einfache räumliche Übertragung der Modelle STICS und DAISY.
Im Fokus der Dissertation steht das Spannungsfeld zwischen betriebswirtschaftlichen Zielen und unternehmerischer Sozialverantwortung. Dieses wird im Hinblick auf die Ebene des Arbeitsmarktes und die Beschäftigung von Menschen mit Behinderung im Tourismus untersucht. Das Ziel der Untersuchung ist die Identifikation des durch die sozialwirtschaftlichen Intentionen integrativer Hotels entstehenden gesamtgesellschaftlichen Nutzens. Ob integrativen Hotels der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt, wird hierbei ermittelt. Bei dem herangezogenen Untersuchungsobjekt integrativer Hotelbetrieb handelt es sich um Hotels, die Menschen mit und ohne Behinderung beschäftigen, als Integrationsprojekte anerkannt sind und vom Gesetzgeber als Unternehmen des allgemeinen Arbeitsmarktes definiert werden. Da es sich um ein in der Tourismuswissenschaft weitgehend unbekanntes Untersuchungsobjekt handelt, wird dieses grundlegend erläutert, sodass neben dem Konzept, den rechtlichen Rahmenbedingungen und den Fördermöglichkeiten auch eine situative Beschreibung integrativer Hotels in Deutschland Bestandteil der Arbeit ist. Da es sich um Betriebe handelt, die im Rahmen der Beschäftigung von Menschen mit Behinderung staatlich gefördert werden, ist darüber hinaus die fiskalische Bilanz der Beschäftigungssituation Integrationshotel Gegenstand der Untersuchung. Des Weiteren stehen die Werte, die integrative Hotels über monetär messbare Werte hinaus schaffen, im Mittelpunkt. Neben der sozial- und volkswirtschaftlichen Ebene findet auch die betriebswirtschaftliche Ebene Berücksichtigung. Sowohl Merkmale und interne Strukturen integrativer Hotelbetriebe als auch deren betriebswirtschaftliche Situation und deren Gäste werden in diesem Zusammenhang behandelt. Das Methodenspektrum der Untersuchung ist entsprechend des erläuterten Inhaltes der Arbeit vielschichtig. Neben der Analyse relevanter Literatur liefern Experteninterviews wesentliche Ergebnisse. Die Analyse der sozial- und volkswirtschaftlichen Ebene basiert zunächst auf der Sekundäranalyse vorhandener Daten und darüber hinaus auf der Analyse und Weiterentwicklung eines Bewertungsmodells. Im Rahmen der betriebswirtschaftlichen Analyse werden betriebliche/betriebsinterne Daten analysiert und die Methode der standardisierten Gästebefragung angewendet. Als Abschluss der Arbeit werden die Untersuchungsergebnisse zusammengefasst und die Übertragbarkeit sowie die gesellschaftliche Relevanz des Themas diskutiert. Durch die Zusammenfassung der zentralen Befunde wird der Nutzen, der durch das Wirken integrativer Hotels auf verschiedenen Ebenen entsteht, benannt. Mit der Identifikation des durch integrative Hotels entstehenden gesamtgesellschaftlichen Nutzens liefert die Arbeit einen erweiterten theoretischen Ansatz der Argumentationslinie für Integrationsprojekte in der Hotellerie und weist nach, dass diesen ein Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen gelingt. Die Balance zwischen den parallelen Motiven Wirtschaftlichkeit und Gemeinnützigkeit bzw. der Ausgleich zwischen sozial- und volkswirtschaftlichen sowie betriebswirtschaftlichen Zielen ist zugleich der kritischste als auch der für den Erfolg integrativer Hotels entscheidendste Punkt. Die Herstellung eines Ausgleiches zwischen konträren Zielen ist dementsprechend die Voraussetzung für den maximal erreichbaren Zusatznutzen. Die Schlussfolgerung der Arbeit zielt jedoch nicht auf die ausnahmslos überall umzusetzende Integration von Menschen mit Behinderung im Teilarbeitsmarkt Tourismus ab, sondern weist auf das Potential eines erfolgreichen Ansatzes hin, der für die Entstehung eines eigenständigen Hoteltyps geeignet ist. Die Wahrnehmung der sozialen Verantwortung sollte hierbei jedoch nicht in den Vordergrund rücken, denn auch unter Einsatz des Alleinstellungsmerkmals Beschäftigung von Menschen mit Behinderung muss die vom Gast gebuchte touristische Dienstleistung vordergründig sein.
This work is concerned with two kinds of objects: regular expressions and finite automata. These formalisms describe regular languages, i.e., sets of strings that share a comparatively simple structure. Such languages - and, in turn, expressions and automata - are used in the description of textual patterns, workflow and dependence modeling, or formal verification. Testing words for membership in any given such language can be implemented using a fixed - i.e., finite - amount of memory, which is conveyed by the phrasing finite-automaton. In this aspect they differ from more general classes, which require potentially unbound memory, but have the potential to model less regular, i.e., more involved, objects. Other than expressions and automata, there are several further formalisms to describe regular languages. These formalisms are all equivalent and conversions among them are well-known.However, expressions and automata are arguably the notions which are used most frequently: regular expressions come natural to humans in order to express patterns, while finite automata translate immediately to efficient data structures. This raises the interest in methods to translate among the two notions efficiently. In particular,the direction from expressions to automata, or from human input to machine representation, is of great practical relevance. Probably the most frequent application that involves regular expressions and finite automata is pattern matching in static text and streaming data. Common tools to locate instances of a pattern in a text are the grep application or its (many) derivatives, as well as awk, sed and lex. Notice that these programs accept slightly more general patterns, namely ''POSIX expressions''. Concerning streaming data, regular expressions are nowadays used to specify filter rules in routing hardware.These applications have in common that an input pattern is specified in form a regular expression while the execution applies a regular automaton. As it turns out, the effort that is necessary to describe a regular language, i.e., the size of the descriptor,varies with the chosen representation. For example, in the case of regular expressions and finite automata, it is rather easy to see that any regular expression can be converted to a finite automaton whose size is linear in that of the expression. For the converse direction, however, it is known that there are regular languages for which the size of the smallest describing expression is exponential in the size of the smallest describing automaton.This brings us to the subject at the core of the present work: we investigate conversions between expressions and automata and take a closer look at the properties that exert an influence on the relative sizes of these objects.We refer to the aspects involved with these consideration under the titular term of Relative Descriptional Complexity.
During pregnancy every eighth woman is treated with glucocorticoids. Glucocorticoids inhibit cell division but are assumed to accelerate the differentiation of cells. In this review animal models for the development of the human fetal and neonatal hypothalamic-pituitary-adrenal (HPA) axis are investigated. It is possible to show that during pregnancy in humans, as in most of the here-investigated animal models, a stress hyporesponsive period (SHRP) is present. In this period, the fetus is facing reduced glucocorticoid concentrations, by low or absent fetal glucocorticoid synthesis and by reduced exposure to maternal glucocorticoids. During that phase, sensitive maturational processes in the brain are assumed, which could be inhibited by high glucocorticoid concentrations. In the SHRP, species-specific maximal brain growth spurt and neurogenesis of the somatosensory cortex take place. The latter is critical for the development of social and communication skills and the secure attachment of mother and child. Glucocorticoid treatment during pregnancy needs to be further investigated especially during this vulnerable SHRP. The hypothalamus and the pituitary stimulate the adrenal glucocorticoid production. On the other hand, glucocorticoids can inhibit the synthesis of corticotropin-releasing hormone (CRH) in the hypothalamus and of adrenocorticotropic hormone (ACTH) in the pituitary. Alterations in this negative feedback are assumed among others in the development of fibromyalgia, diabetes and factors of the metabolic syndrome. In this work it is shown that the fetal cortisol surge at the end of gestation is at least partially due to reduced glucocorticoid negative feedback. It is also assumed that androgens are involved in the control of fetal glucocorticoid synthesis. Glucocorticoids seem to prevent masculinization of the female fetus by androgens during the sexual gonadal development. In this work a negative interaction of glucocorticoids and androgens is detectable.
Durch Bodendegradation werden jedes Jahr weltweit große Schäden verursacht. Die beiden Hauptverursacher für die globale Bodendegradation sind die Wind- und die Wassererosion. Für die Planung von effizienten Schutzmaßnahmen oder regionalen Managementplänen ist es deshalb wichtig zu verstehen, dass die beiden Prozesse nicht nur als abgekoppelte Phänomene auftreten. Auch wenn seit einiger Zeit das Bewusstsein hierfür zugenommen hat und eine steigende Anzahl von Bodenerosionsstudien auf diesen Sachverhalt eingehen, so bestehen vor allem bei der Abschätzung der relativen Bedeutung und dem Verständnis der vorhandenen Interaktionen zwischen der Wind- und Wassererosion noch substantielle Wissenslücken. Da indirekte Messverfahren, wie beispielsweise die Luftbildauswertung oder die Fernerkundung, für mikro-skalige Prozessstudien ungeeignet sind, beschränken sich die Studien zur Erfassung der Interaktion beider Prozesse zumeist auf die direkten und/oder experimentellen Messungen. Ein Vergleich der Abtragsraten und eine Untersuchung der Interaktionen zwischen der Wind- und der Wassererosion ist jedoch sehr schwierig, da es bislang kein Messinstrument gibt, dass einfach und schnell, die durch Wind, Wasser oder deren Zusammenwirken verursachten Erosionsraten auf natürlichen Oberflächen bestimmen kann. Aus diesem Grund wurde im Rahmen dieses Dissertationsprojekts erstmals, ein mobiler Windkanal mit integrierter Beregnungsanlage konzipiert und umgesetzt. Seine simulierten Wind- und Niederschlagseigenschaften wurden in Labormessungen mit einem Laserdistrometer, Niederschlagssammlern, Anemometern und Nebelversuchen bestimmt. Die beim Einsatz der Anlage in unterschiedlichen Messkampagnen gewonnenen Erkenntnisse zu seinem Aufbau flossen stetig in die Weiterentwicklung des Kanals ein. Die Qualität der simulierten Bedingungen im Kanal können nach den Modifikationen und unter Einbeziehung der Anforderungen an einen geländefähigen Kanal mit guter Mobilität, als sehr gut bezeichnet werden. Insbesondere die Reproduzierbarkeit der simulierten Bedingungen treten hier positiv hervor. Die angestrebten Ziele dieser Arbeit konnten weitestgehend erfüllt werden. Mit dem mobilen Windkanal mit integrierter Beregnungsanlage steht in Zukunft eine Anlage zur Verfügung, mit der die Abtragsraten der Wind- und Wassererosion im Gelände, getrennt und in ihrer gemeinsamen Wirkung, gemessen werden können. Durch den Einsatz der Anlage ist es möglich, einige der noch offenen wissenschaftlichen Fragen zur relativen Bedeutung und Interaktion der beiden Prozesse zukünftig zu untersuchen, um weitere Erkenntnisse über Ihren Einfluss auf die Bodendegradation, in Abhängigkeit von Landnutzungsänderungen und dem Klimawandel, zu erhalten.
In recent years, Islamic banking has been one of the fastest growing markets in the financial world. Even to German banks, Islamic finance is not as 'foreign' as one might think. Indeed, several banks are already operating so-called "Islamic windows" in various Arab countries. However, German banks are still reluctant to offer 'Islamic' products in Germany, despite the fact that approximately 3.5 million Muslims currently live there. Potential reasons for this reluctance include widespread misunderstanding of Islamic banking in Germany and prevailing cultural prejudice towards Islam generally. The author seeks to address these concerns and to take an objective approach towards understanding the potential for Islamic banking in Germany. Legally, Islamic law cannot be the governing law of any contract in Germany. Therefore, the aim must be to draft contracts that are both enforceable under German law and consistent with the principles of Shari'a " the Islamic law. In this paper, the author gives a detailed legal analysis of the most common Islamic banking products and how they could be given effect under German law, while attempting to address widespread concerns about arbitration or parallel Shari'a courts. This publication is one of the first legal analysis of Islamic banking products in Germany. As such, its goal is not to be the final word, but rather to begin the conversation about potential problems and conflicts of Islamic banking in Germany that require further investigation.
Die Auswirkungen von Rahmenfehlern in Zensen werden bereits seit vielen Jahren untersucht. Eine Methode, um aktuelle Bevölkerungszahlen zu gewinnen, basiert auf Fortschreibung. Wegen Ungenauigkeiten in der Fortschreibung wurden aber auch andere Modelle entwickelt - die capture-recapture-Modelle. Am 29. August 2006 hat die Bundesregierung beschlossen, dass in Deutschland 2011 ein registergestützter Zensus durchgeführt wird. Der Schwerpunkt dieser Dissertation liegt in der Anwendung des capture-recapture-Modelles im deutschen Zensus 2011. Die Dissertation vergleicht den dual system estimator (DSE) und alternative Schätzer (Verallgemeinerter-Regressionsschätzer, Verhältnis-synthetischer Schätzer, Schätzer basierend auf dem Unit-level Modell) für die Schätzung der Anzahl der tatsächlich vorhandenen Personen. Die empirische Untersuchung der Güte der Schätzer basiert auf Monte Carlo Simulationen synthetischer Populationen des Bundeslandes Saarland.