Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (830)
- Wissenschaftlicher Artikel (219)
- Buch (Monographie) (113)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (108)
- Arbeitspapier (62)
- Teil eines Buches (Kapitel) (22)
- Ausgabe (Heft) zu einer Zeitschrift (22)
- Konferenzveröffentlichung (17)
- Sonstiges (15)
- Rezension (10)
Sprache
- Deutsch (838)
- Englisch (516)
- Französisch (75)
- Mehrsprachig (15)
- Russisch (1)
Volltext vorhanden
- ja (1445) (entfernen)
Schlagworte
- Deutschland (82)
- Luxemburg (52)
- Stress (40)
- Schule (37)
- Schüler (33)
- Politischer Unterricht (29)
- Modellierung (28)
- Fernerkundung (25)
- Geschichte (24)
- Demokratie (23)
Institut
- Psychologie (212)
- Raum- und Umweltwissenschaften (212)
- Politikwissenschaft (132)
- Universitätsbibliothek (81)
- Rechtswissenschaft (77)
- Wirtschaftswissenschaften (66)
- Mathematik (65)
- Fachbereich 4 (57)
- Medienwissenschaft (57)
- Fachbereich 6 (50)
In this thesis, global surrogate models for responses of expensive simulations are investigated. Computational fluid dynamics (CFD) have become an indispensable tool in the aircraft industry. But simulations of realistic aircraft configurations remain challenging and computationally expensive despite the sustained advances in computing power. With the demand for numerous simulations to describe the behavior of an output quantity over a design space, the need for surrogate models arises. They are easy to evaluate and approximate quantities of interest of a computer code. Only a few number of evaluations of the simulation are stored for determining the behavior of the response over a whole range of the input parameter domain. The Kriging method is capable of interpolating highly nonlinear, deterministic functions based on scattered datasets. Using correlation functions, distinct sensitivities of the response with respect to the input parameters can be considered automatically. Kriging can be extended to incorporate not only evaluations of the simulation, but also gradient information, which is called gradient-enhanced Kriging. Adaptive sampling strategies can generate more efficient surrogate models. Contrary to traditional one-stage approaches, the surrogate model is built step-by-step. In every stage of an adaptive process, the current surrogate is assessed in order to determine new sample locations, where the response is evaluated and the new samples are added to the existing set of samples. In this way, the sampling strategy learns about the behavior of the response and a problem-specific design is generated. Critical regions of the input parameter space are identified automatically and sampled more densely for reproducing the response's behavior correctly. The number of required expensive simulations is decreased considerably. All these approaches treat the response itself more or less as an unknown output of a black-box. A new approach is motivated by the assumption that for a predefined problem class, the behavior of the response is not arbitrary, but rather related to other instances of the mutual problem class. In CFD, for example, responses of aerodynamic coefficients share structural similarities for different airfoil geometries. The goal is to identify the similarities in a database of responses via principal component analysis and to use them for a generic surrogate model. Characteristic structures of the problem class can be used for increasing the approximation quality in new test cases. Traditional approaches still require a large number of response evaluations, in order to achieve a globally high approximation quality. Validating the generic surrogate model for industrial relevant test cases shows that they generate efficient surrogates, which are more accurate than common interpolations. Thus practical, i.e. affordable surrogates are possible already for moderate sample sizes. So far, interpolation problems were regarded as separate problems. The new approach uses the structural similarities of a mutual problem class innovatively for surrogate modeling. Concepts from response surface methods, variable-fidelity modeling, design of experiments, image registration and statistical shape analysis are connected in an interdisciplinary way. Generic surrogate modeling is not restricted to aerodynamic simulation. It can be applied, whenever expensive simulations can be assigned to a larger problem class, in which structural similarities are expected.
International private equity development is highly volatile with increasing global diversification. This thesis examines the transaction patterns of cross-border private equity investment with a particular focus on the affinity of country pairs. Analysis is based on a comprehensive dataset of 99 countries over 25 years. A three-dimensional gravity model analysis covering source and host country over time exposes the effects of the country determinants: economic mass, economic distance, banking system, corporate endowment, as well as legal, political, and institutional system on the transactions. A new method is developed to examine countries in their dual roles as investor and target. This approach verifies their global importance as source and host, and also makes possible an analysis of overall private equity investment. For private equity-specific multi-investor deals, a scheme is designed to measure cross-border activity with more precision by participation, proportional deal participation, and deal flow. The analysis identifies intense level of affinity between country pairs and reveals that no single country is ideal for private equity activity. Instead, the findings show that the specific push and pull factors within each country constellation define the optimal country as trading partner. The results verify a correlation between cross-border deals and economic masses and reduced economic distance of countries. Geographic distance and cultural similarities, such as language and legal system, intensify the likelihood of initiating transactions. International trade-oriented countries with a high level of development lower the entrance barriers and increase the chances of deal success. A well-funded financial system for the investor and an efficient and competitive banking system of target countries enhance the probability of investment between countries. Also relevant for the likelihood of starting cross-border deals are low corporate tax burdens and advanced scientific competitiveness, and a well-developed stock market in the investor country. Fundamental to frequency and likelihood of success are well-established, high standards of a country- social, political, and legal systems with widespread confidence in the rules of society. In particular, the reliability of contract enforcement, with proven quality of regulations that promote private sector development, proves to be crucial for deal success.
Der vorliegende Text ist als Mantelpapier im Rahmen einer kumulativen Dissertation an der Universität Trier angenommen worden. Er dient der Zusammenfassung, Reflexion und erweiterten theoretischen Betrachtung der empirischen Einzelbeiträge, die alle einen Einzelaspekt des Gesamtgeschehens „Innovationslabor zur Unterstützung unternehmerischen Lernens und der Entwicklung sozialer Dienstleistungsinnovationen“ behandeln. Dabei wird das Innovationslabor grundsätzlich als Personalentwicklungsmaßnahme aufgefasst. In einem gedanklichen Experiment werden die Ergebnisse auf Organisationen der Erwachsenen- und Weiterbildung übertragen.
Das Besondere dieses Rahmenpapiers ist die Verbindung eines relationalen Raumverständnisses mit der lerntheoretischen Untermauerung des Gegenstandes „Innovationslabor“ aus der Perspektive der Organisationspädagogik und Erwachsenenbildung. Die Ergebnisse zeigen den Lernraum Labor als abseits des Arbeitslebens, als semi-autonom angebundenen Raum, wo Lernprozesse auf unterschiedlichen Ebenen stattfinden und angestoßen werden. Das Labor wird als heterotoper (Lern-)Raum diskutiert. Neu ist auch der Einbezug einer kritischen Perspektive, die bislang im Diskurs um Innovationslabore fehlte: Das Labor wird als prekärer Lernraum charakterisiert. Somit liegt mit dieser Arbeit nun eine grundlegende Ausarbeitung des Labors als Lernraum vor, die zahlreiche weitere Anschlussmöglichkeiten für Forschung ermöglicht.
Die vorliegende Dissertation beschäftigt sich mit der Konzeption, der Implementation und der Evaluation eines Kindertrainings für sechs- bis achtjährige Grundschüler, welches pro-soziale Verhaltensweisen, sozial-emotionale Kompetenzen und konstruktive Konfliktlösestrategien vermitteln und damit aggressivem Verhalten vorbeugen soll. Das verhaltens- und personenzentrierte Kindertraining wurde mit 92 Kindern an fünf Grundschulen der Stadt Trier von September 2003 bis Juli 2004 durchgeführt. Die Wirksamkeit des Trainings wurde im Vergleich zu einer unbehandelten Kontrollgruppe von 51 Kindern mittels Prä-, Post- und 4-Monats-Follow-up-Messungen überprüft, wobei kindliche Kompetenzen und Problemverhalten aus der Sicht der Eltern, der Klassenlehrerinnen und der Kinder mit Fragebögen bzw. Kinderinterviews erfasst wurden. Der erste Teil der Dissertation widmet sich dem theoretischen Hintergrund des IBC-Kindertrainings und beschäftigt sich mit den Phänomenen Konflikt, Aggression und prosoziales Verhalten sowie mit der Verflechtung dieser Phänomene untereinander. An eine Über-sicht zu den bestehenden Präventionsprogrammen zur Förderung von prosozialem Verhalten und zur Prophylaxe von aggressiven Verhaltensweisen bei Kindern im Grundschulalter schließt sich die detaillierte Darstellung des IBC-Trainingskonzeptes an. Vorzüge dieses Trainingsprogramms gegenüber anderen Kindertrainings werden aufgezeigt und begründet. Die methodische Vorgehensweise und die Ergebnisse der durchgeführten Trainingsevaluation werden im zweiten Teil der Arbeit vorgestellt. Es konnten positive Einflüsse des Trainings auf das Sozialverhalten der Erstklässler nachgewiesen werden. Die erzielten Trainingseffekte liegen im mittleren Bereich (.23 ≤ d ≤ .94). Insbesondere ließ sich eine signifikante Reduktion des oppositionell-aggressiven Verhaltens und der emotionalen Auffälligkeiten aufzeigen. Die wesentlichen Evaluationsbefunde zur Wirksamkeit des IBC-Kindertrainings werden im dritten Teil der Arbeit methodenkritisch diskutiert. Vor dem Hintergrund aktueller gesellschaftlicher Entwicklungen wird dabei aufgezeigt, dass das niederschwellige Angebot des evaluierten Kindertraining insbesondere in Zeiten knapper öffentlicher Mittel als eine wertvolle Chance zur Förderung kindlicher Kompetenzen und zur Vorbeugung negativer Entwicklungen genutzt werden sollte.
Die Geschichte verteilter Systeme und Anwendungen hat die unterschiedlichsten Technologien hervorgebracht: Client-Server-Architekturen, Peer-To-Peer-Netzwerke und Komponentensysteme sind nur einige Vertreter. Die vorliegende Arbeit ist im Bereich der Middleware-Architekturen angesiedelt, einem zur Zeit sehr stark beachteten Zweig der verteilten Anwendungen. Als Mittler zwischen den Anwendungen auf der einen Seite sowie Datenbanken, eMail-Systemen oder weiterer Servern auf der anderen Seite, schlägt sie die Brücke zu heterogenen IT-Landschaften. Sie verbirgt Details und Änderungen dieser IT-Umgebungen und schafft gleichzeitig einen transparenten Zugriff auf sie. Die Forschung hat viele Technologien im Middleware-Umfeld hervorgebracht und setzt bei den Zielen unterschiedliche Schwerpunkte. Eine Sicht auf die Middleware hat den Entwickler im Fokus und soll ihn bei der Erstellung von Anwendungen und Lösungen unterstützen. Aus diesem Grund stehen hier die Schnittstellen zum Server und zur Server-Infrastruktur sowie die Einbettung der Dienste in die Middleware im Vordergrund. Der interne Aufbau sowie die inneren Datenflüsse der Middleware dienen nur der Erfüllung dieser Ziele. Eine andere Sichtweise stellt den inneren Aufbau in den Fokus der Forschung. Hier ist das Ziel die Schaffung von flexiblen und erweiterbaren Server-Strukturen sowie die Effizienz von internen Abläufen und Datenflüssen. Damit ist eine einfache Anpassung an verschiedene Einsatzumgebungen sowie die Fähigkeit, auf die Leistungsmerkmale von Clients individuell eingehen zu können, möglich. Die im Rahmen dieser Arbeit entstandene Middleware-Architektur "Smart Data Server (SDS)" setzt Konzepte um, die beide Sichtweisen miteinander kombiniert. Ein Schwerpunkt neben der Entwicklung neuer Konzepte, liegt in der praktischen Anwendbarkeit der entwickelten Middleware. Die vorliegende Arbeit zeigt, dass der Smart Data Server die Praxistauglichkeit seiner Konzepte unter realen Bedingungen unter Beweis stellen kann und zeigt gleichzeitig, welche Konstrukte für den praktischen Einsatz tatsächlich notwendig sind. Ein zweiter Schwerpunkt liegt in der Entwicklung von Mechanismen zur Abarbeitung von streamingfähigen Anfragen. Üblicherweise folgt auf die Übermittlung von Anfragen an einen Server zunächst die Berechnung einer Antwort und anschließend deren Rücktransport. Bei Streaming-Anfragen ist neben der Übermittlung von Anfrageparametern ein kontinuierlicher und in seiner Dimension nicht beschränkter Datenstrom Bestandteil der Anfrage. Der Server startet seine Berechnungen wenn möglich schon vor dem Ende der Datenübermittlung und liefert schon bei Vorliegen von Teilergebnissen diese an den Client. Der benötigte Bedarf an Speicherplatz im Server kann so optimiert werden, da nur so viele Daten der Anfrage im Server vorgehalten werden müssen wie zur Berechnung tatsächlich notwendig sind und nicht etwa die gesamte Anfrage. Die Entwicklung eines Streaming-Mechanismuses muss entsprechende Möglichkeiten in der Anfragestruktur sowie in der Architektur der Middleware vorsehen. Der Smart Data Server schafft mit der Einführung einer streamingfähigen Anfragestruktur die Voraussetzung für die Verarbeitung solcher Anfragen. Zusätzlich muss eine Server-Architektur geschaffen werden, die das Abarbeiten von Streaming-basierten Anfragen unterstützt. Hier liegt der dritte Schwerpunkt der Arbeit: die Schaffung einer flexiblen und erweiterbaren Server-Struktur sowie die Effizienz von internen Abläufen und Datenflüssen unter Berücksichtigung der Anforderung einer streamingfähigen Anfragebearbeitung. Diese Anforderungen werden mit der neu entwickelten Technologie der inneren Workflow-Programme erfüllt. Innere Workflow-Programme repräsentieren Netzwerke von hochgradig unabhängigen Serverkomponenten. Durch die Umgestaltung dieser Netze sind neue Serverstrukturen möglich, um neuen Einsatzbedingungen angepasst werden zu können. Neben diesem statischen Netzwerk von Server-Komponenten kann zur Laufzeit eine Pipeline zur Abarbeitung von Datenströmen aufgebaut werden, mit der dann letztendlich die Streamingfähigkeit des Servers hergestellt wird.
Investitionsbeschränkungen im deutschen Außenwirtschaftsrecht. Europa- und völkerrechtliche Probleme
(2009)
Der Verfasser beschäftigt sich in seinem Beitrag mit den Möglichkeiten des Schutzes vor Unternehmensbeteiligungen und -übernahmen durch ausländische Investoren. Dabei stehen die Überprüfungs- und Untersagungsbefugnisse, wie sie das 13. Gesetz zur Änderung des Außenwirtschaftsgesetzes und der Außenwirtschaftsverordnung vom 18. April 2009 hervorgebracht hat, im Mittelpunkt seiner Ausführungen. Diese neuen Befugnisse werden bezüglich ihrer Europa- und Völkerrechtskonformität untersucht. Beachtung findet insoweit vor allem ein möglicher Verstoß gegen die Kapitalverkehrs- sowie die Niederlassungsfreiheit. Auf völkerrechtlicher Ebene beschäftigt sich der Autor mit den Schranken des internationalen Wirtschaftsrechts, wie sie etwa der OECD-Kodex oder das GATS-Übereinkommen errichten.
Mit der Übernahme eines Ziels oder einer Aufgabe wird die Aufmerksamkeit auf ziel- bzw. aufgabenbezogene Informationen fokussiert. Bei dieser Fokussierung können zwei Komponenten unterschieden werden: (1) eine erhöhte kognitive Resonanz für relevante Informationen und (2) eine Blockierung der Verarbeitung irrelevanter Informationen. Die zielbezogene kognitive Fokussierung wird typischerweise wieder aufgehoben, wenn das Ziel erreicht bzw. die Aufgabe erfolgreich bearbeitet ist. Aber was geschieht mit der zielbezogenen Aufmerksamkeitseinstellung nach einem definitiven Scheitern der Zielverfolgung? In einer ersten Experimentalserie wurde die kognitive Resonanz für zielbezogene Information nach induziertem Mißerfolg untersucht. In der ersten Phase der Experimente erhielten die Untersuchungsteilnehmer positive oder negative Leistungsrückmeldung bei der Bearbeitung einer komplexen Labyrinthaufgabe (Experiment 1) bzw. mehrerer Synonymaufgaben (Experiment 2). In der zweiten Phase der Experimente wurden automatische Aufmerksamkeitsbindungen für Stimuli gemessen, die einen inhaltlichen Bezug zu den vorher bearbeiteten Labyrinth- bzw. Synonymaufgaben besitzen. Hierzu wurden die Stimuli als Distraktoren in einer Wort-Lese-Aufgabe dargeboten. In beiden Experimenten waren die Interferenzeffekte für die Distraktoren in der Mißerfolgsbedingung erhöht. In einer zweiten Experimentalserie wurde die Inhibition aufgabenirrelevanter Information nach Mißerfolg analysiert. In einer ersten Studie mußten die Teilnehmer ein lösbares oder unlösbares Labyrinth bearbeiten. Währenddessen wurden akustisch Distraktorwörter dargeboten (Experiment 3). Während der Bearbeitung der Labyrinthaufgabe wurde die Inhibition der irrelevanten Stimuli kontinuierlich erfaßt, indem die Distraktorwörter als Stimuli in einer simultan zu bearbeitenden Farbbenennaufgabe präsentiert wurden. Bei der unlösbaren Labyrinthaufgabe nahmen die Interferenzeffekte der Distraktoren während der Bearbeitung zu, nicht aber bei der Bearbeitung der lösbaren Aufgabe. In zwei weiteren Experimenten wurde untersucht, ob vormals ausgeblendete irrelevante Information nach einem Scheitern der Zielverfolgung disinhibiert wird (Experimente 4 und 5). Hierbei mußten die Teilnehmer eine Reihe von Konzeptidentifikationsaufgaben bearbeiten. Während der Aufgabenbearbeitung wurde die kognitive Zugänglichkeit der verschiedenen Objektmerkmale über Interferenzeffekte in einer zusätzlich zu bearbeitenden Farbbenennaufgabe gemessen. Die Zurückweisung eines Merkmals in der Konzeptidentifikationsaufgabe führte zu einer Inhibition des korrespondierenden Merkmalsbegriffs. Durch Einstreuen invalider Rückmeldungen konnte eine Situation hergestellt werden, in der alle möglichen Merkmale der Konzeptidentifikationsaufgabe widerlegt wurden. In dieser Situation war die globale Suchstrategie als Ganze gescheitert und die vorher inhibierten Merkmale wurden wieder zugänglich. Zusammengenommen stützen die Experimente die Hypothese, daß Mechanismen einer bevorzugten Verarbeitung relevanter Information und einer Ausblendung irrelevanter Information durch Mißerfolg unterschiedlich beeinflußt werden. Eine erhöhte kognitive Resonanz für zielbezogene Information persistiert auch nach einem definitiven Scheitern der Zielverfolgung. Diese Perseveranz der Sensitivität für zielbezogene Information garantiert, daß mögliche zukünftige Gelegenheiten für eine erfolgreiche Zielverfolgung nicht übersehen werden. Eine Inhibition irrelevanter Informationen wird angesichts eines Scheiterns der Zielverfolgung allerdings nicht aufrechterhalten. Die Erfahrung wiederholter erfolgloser Bemühungen der Zielerreichung induziert einen offenen, defokalisierten Modus der Informationsverarbeitung, der für eine Neuorientierung nach Mißerfolg funktional ist.
Das Wissen über Distanzen zwischen Objekten in unserer Umwelt versetzt uns in die Lage, Wege wiederzufinden oder zu entscheiden, welcher von zwei verschiedenen Wegen schneller zum Ziel führt. Zur Frage, wie diese Informationen im Gedächtnis abgespeichert werden, gibt es unterschiedliche Modellvorstellungen. Ziel dieser Arbeit war es, diese Modelle auf experimentellem Wege gegeneinander zu testen. Die Versuchspersonen lernten Routen, indem sie durch virtuelle Umgebungen am Computermonitor navigierten. Anschließend sollten sie aus dem Gedächtnis Distanzen zwischen einzelnen Objekten in der gelernten Umgebung einschätzen. Der Zeitbedarf für diese Schätzungen wurde verwendet, um Rückschlüsse auf die zugrunde liegende Raumrepräsentation zu ziehen. In einem ersten Teil der Arbeit wurde untersucht, wie Distanzen entlang von Wegen repräsentiert sind. Die Ergebnisse stützen die Auffassung, daß diese Schätzungen durch mentales Absuchen einer kartenähnlichen Repräsentation zustande kommen. In einem zweiten Teil der Arbeit wurde untersucht, welche Repräsentationsform Menschen in die Lage versetzt, Luftliniendistanzen zwischen Orten zu schätzen. Die Reaktionszeiten deuten darauf hin, daß diese Distanzen nicht während der Schätzung aus den Weglängen rekonstruiert werden, sondern ebenfalls durch ein Absuchen kartenartiger Repräsentationen ermittelt werden. Die Ergebnisse widersprechen somit der Auffassung, daß die Wiedergabe räumlicher Relationen aus dem Gedächtnis durch eine Verknüpfung explizit kodierter Relationen geschieht, die beim räumlichen Lernen perzeptiv zugänglich sind. Vielmehr ist davon auszugehen, daß schon bei der Enkodierung ein hohes Maß an räumlicher Integration stattfindet.
Mobile computing poses different requirements on middleware than more traditional desktop systems interconnected by fixed networks. Not only the characteristics of mobile network technologies as for example lower bandwidth and unreliability demand for customized support. Moreover, the devices employed in mobile settings usually are less powerful than their desktop counterparts. Slow processors, a fairly limited amount of memory, and smaller displays are typical properties of mobile equipment, again requiring special treatment. Furthermore, user mobility results in additional requirements on appropriate middleware support. As opposed to the quite static environments dominating the world of desktop computing, dynamic aspects gain more importance. Suitable strategies and techniques for exploring the environment e.g. in order to discover services available locally are only one example. Managing resources in a fault-tolerant manner, reducing the impact ill-behaved clients have on system stability define yet another exemplary prerequisite. Most state of the art middleware has been designed for use in the realm of static, resource rich environments and hence is not immediately applicable in mobile settings as set forth above. The work described throughout this thesis aims at investigating the suitability of different middleware technologies with regard to application design, development, and deployment in the context of mobile networks. Mostly based upon prototypes, shortcomings of those technologies are identified and possible solutions are proposed and evaluated where appropriate. Besides tailoring middleware to specific communication and device characteristics, the cellular structure of current mobile networks may and shall be exploited in favor of more scalable and robust systems. Hence, an additional topic considered within this thesis is to point out and investigate suitable approaches permitting to benefit from such cellular infrastructures. In particular, a system architecture for the development of applications in the context of mobile networks will be proposed. An evaluation of this architecture employing mobile agents as flexible, network-side representatives for mobile terminals is performed, again based upon a prototype application. In summary, this thesis aims at providing several complementary approaches regarding middleware support tailored for mobile, cellular networks, a field considered to be of rising importance in a world where mobile communication and particularly data services emerge rapidly, augmenting the globally interconnecting, wired Internet.
Das Konzept der proximalen Mehrschritt-Regularisierung (MSR) auf Folgen von Gittern bei der Lösung inkorrekter Variationsungleichungen wurde von Kaplan und Tichatschke im Jahre 1997 in ihrer Arbeit "Prox-regularization and solution of illposed elliptic variational inequalities" vorgeschlagen und theoretisch motiviert. In demselben Artikel betrachtet man ein allgemeines Problem der partiellen Regularisierung auf einem abgeschlossenen Unterraum. Als Gegenstand der Anwendung solcher Regularisierung können die schlecht gestellten Optimalsteuerprobleme heraustreten, wobei der Unterraum in dem ganzen Prozessraum durch Steuervariablen gebildet wird. Im ersten Kapitel der vorliegenden Dissertation betrachten wir ein abstraktes linear-quadratisches Kontrollproblem in allgemeinen Hilberträumen. Wir diskutieren Voraussetzungen und Bedingungen, unter denen das Kontrollproblem inkorrekt wird. Danach werden zwei allgemeine numerische Verfahren der partiellen Mehrschritt-Regularisierung formuliert. Im ersten Fall untersucht man das MSR-Verfahren, in dem die Zustandsgleichung in einen quadratischen Strafterm eingebettet wird, gemäß der entsprechenden Publikationen von Kaplan und Tichatschke. Im zweiten Fall werden die Ersatzprobleme des MSR-Verfahrens mit exakt erfüllter Zustandsgleichung entwickelt. Im Mittelpunkt sämtlicher Forschungen steht die Konvergenz der approximativen Lösungen von Ersatzproblemen des MSR-Verfahrens gegen ein Element aus der Optimalmenge des Ausgangsproblems. Es stellt sich die Frage: in welchem der genannten Fälle können schwächeren Konvergenzbedingungen für die inneren Approximationen angegeben werden? Um diese Frage aufzuklären, untersuchen wir zwei inkorrekten Kontrollproblme mit elliptischen Zustandsgleichungen und verteilter Steuerung. Das erste Problem kann auf das bekannte Fuller-Problem zurückgeführt werden, für welches eine analytische Lösung mit sogenanntem "chattering regime" existiert und welches ein Basisbeispiel für unsere Aufgaben liefert. Zur Lösung des Fuller-Problems formulieren wir einen MSR-Algorithmus, in dem man mit Fehlern des Strafverfahrens und der FEM-Approximationen rechnen muß. Als Hauptergebnis erhalten wir ein Konvergenzkriterium, das das asymptotische Verhalten von Regularisierungs-, Diskretisierungs- und Strafparametern des MSR-Algorithmus bestimmt. Im letzten Kapitel formulieren wir ein anderes schlecht gestelltes Optimalsteuerproblem mit verteilter Steuerung über dem Polygongebiet. Die Zustandsgleichung wird nun durch ein Poisson-Problem mit gemischten Randbedingungen erzeugt. Solche Aufgabenstellung liefert eine natürliche Erweiterung des auf einer gewöhnlichen Differentialgeichung beruhenden Fuller-Problems auf die Kontrollprobleme mit partiellen Differentialgleichungen. Wir formulieren neuerlich das MSR-Verfahren, in dem man neben dem Diskretisierungsfehler auch einen Berechnungsfehler berücksichtigt. Diesmal verzichten wir aber auf die Straftechniken und stellen die Ersatzprobleme mit exakt erfüllter Zustandsgleichung zusammen. Mit diesem alternativen Zugang und anhand der Falkschen Beweistechniken erhalten wir ein schwächeres und somit auch besseres Konvergenzkriterium für das MSR-Verfahren. Zum Abschluß präsentieren wir Ergebnisse der numerischen Tests, durchgeführt mit dem MSR-Verfahren für ein konkretes Optimalsteuerproblem, dessen Lösung ein zweidimensionales chattering regime aufweist.