Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (18) (entfernen)
Sprache
- Deutsch (18) (entfernen)
Schlagworte
- universal functions (5)
- Approximationstheorie (3)
- Funktionentheorie (3)
- Universalität (3)
- Analysis (2)
- Approximation (2)
- Approximation im Komplexen (2)
- Baire's theorem (2)
- Dichtesatz (2)
- Faber series (2)
Institut
- Mathematik (18) (entfernen)
Es wird die Existenz einer Potenzreihe vom Konvergenzradius 1 bewiesen, so dass die mit einer zweifach unendlichen Matrix A (deren komplexe Einträge drei Bedingungen erfüllen müssen) gebildeten A -Transformierten außerhalb des (einfach zusammenhängenden) Holomorphiegebietes der Potenzreihe überkonvergieren. Das Hauptergebnis der Arbeit ist ein Satz über die Existenz einer universellen Potenzreihe vom Konvergenzradius 1, so dass deren A "Transformierte stetige Funktionen auf kompakten, holomorphe Funktionen auf offenen Mengen (in beiden Fällen liegen die Mengen im Komplement des einfach zusammenhängenden Holomorphiegebietes der Potenzreihe) approximieren und sich zusätzlich zur fast-überall-Approximation messbarer Funktionen auf messbaren Mengen (im Komplement des Holomorphiegebietes der Potenzreihe gelegen) eignen. Als wichtige Konsequenz dieses Hauptergebnisses ergibt sich für den Fall, dass das Holomorphiegebietes der Potenzreihe der Einheitskreis ist, die Existenz einer universellen trigonometrischen Reihe, so dass deren A "Transformierte auf dem Rand des Einheitskreises stetige Funktionen approximieren und zusätzlich messbare Funktionen fast-überall auf [0,2π] approximieren
Das Konzept der proximalen Mehrschritt-Regularisierung (MSR) auf Folgen von Gittern bei der Lösung inkorrekter Variationsungleichungen wurde von Kaplan und Tichatschke im Jahre 1997 in ihrer Arbeit "Prox-regularization and solution of illposed elliptic variational inequalities" vorgeschlagen und theoretisch motiviert. In demselben Artikel betrachtet man ein allgemeines Problem der partiellen Regularisierung auf einem abgeschlossenen Unterraum. Als Gegenstand der Anwendung solcher Regularisierung können die schlecht gestellten Optimalsteuerprobleme heraustreten, wobei der Unterraum in dem ganzen Prozessraum durch Steuervariablen gebildet wird. Im ersten Kapitel der vorliegenden Dissertation betrachten wir ein abstraktes linear-quadratisches Kontrollproblem in allgemeinen Hilberträumen. Wir diskutieren Voraussetzungen und Bedingungen, unter denen das Kontrollproblem inkorrekt wird. Danach werden zwei allgemeine numerische Verfahren der partiellen Mehrschritt-Regularisierung formuliert. Im ersten Fall untersucht man das MSR-Verfahren, in dem die Zustandsgleichung in einen quadratischen Strafterm eingebettet wird, gemäß der entsprechenden Publikationen von Kaplan und Tichatschke. Im zweiten Fall werden die Ersatzprobleme des MSR-Verfahrens mit exakt erfüllter Zustandsgleichung entwickelt. Im Mittelpunkt sämtlicher Forschungen steht die Konvergenz der approximativen Lösungen von Ersatzproblemen des MSR-Verfahrens gegen ein Element aus der Optimalmenge des Ausgangsproblems. Es stellt sich die Frage: in welchem der genannten Fälle können schwächeren Konvergenzbedingungen für die inneren Approximationen angegeben werden? Um diese Frage aufzuklären, untersuchen wir zwei inkorrekten Kontrollproblme mit elliptischen Zustandsgleichungen und verteilter Steuerung. Das erste Problem kann auf das bekannte Fuller-Problem zurückgeführt werden, für welches eine analytische Lösung mit sogenanntem "chattering regime" existiert und welches ein Basisbeispiel für unsere Aufgaben liefert. Zur Lösung des Fuller-Problems formulieren wir einen MSR-Algorithmus, in dem man mit Fehlern des Strafverfahrens und der FEM-Approximationen rechnen muß. Als Hauptergebnis erhalten wir ein Konvergenzkriterium, das das asymptotische Verhalten von Regularisierungs-, Diskretisierungs- und Strafparametern des MSR-Algorithmus bestimmt. Im letzten Kapitel formulieren wir ein anderes schlecht gestelltes Optimalsteuerproblem mit verteilter Steuerung über dem Polygongebiet. Die Zustandsgleichung wird nun durch ein Poisson-Problem mit gemischten Randbedingungen erzeugt. Solche Aufgabenstellung liefert eine natürliche Erweiterung des auf einer gewöhnlichen Differentialgeichung beruhenden Fuller-Problems auf die Kontrollprobleme mit partiellen Differentialgleichungen. Wir formulieren neuerlich das MSR-Verfahren, in dem man neben dem Diskretisierungsfehler auch einen Berechnungsfehler berücksichtigt. Diesmal verzichten wir aber auf die Straftechniken und stellen die Ersatzprobleme mit exakt erfüllter Zustandsgleichung zusammen. Mit diesem alternativen Zugang und anhand der Falkschen Beweistechniken erhalten wir ein schwächeres und somit auch besseres Konvergenzkriterium für das MSR-Verfahren. Zum Abschluß präsentieren wir Ergebnisse der numerischen Tests, durchgeführt mit dem MSR-Verfahren für ein konkretes Optimalsteuerproblem, dessen Lösung ein zweidimensionales chattering regime aufweist.
Bei der Preisberechnung von Finanzderivaten bieten sogenannte Jump-diffusion-Modelle mit lokaler Volatilität viele Vorteile. Aus mathematischer Sicht jedoch sind sie sehr aufwendig, da die zugehörigen Modellpreise mittels einer partiellen Integro-Differentialgleichung (PIDG) berechnet werden. Wir beschäftigen uns mit der Kalibrierung der Parameter eines solchen Modells. In einem kleinste-Quadrate-Ansatz werden hierzu Marktpreise von europäischen Standardoptionen mit den Modellpreisen verglichen, was zu einem Problem optimaler Steuerung führt. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit der Lösung der PIDG aus theoretischer und vor allem aus numerischer Sicht. Die durch ein implizites Zeitdiskretisierungsverfahren entstandenen, dicht besetzten Gleichungssysteme werden mit einem präkonditionierten GMRES-Verfahren gelöst, was zu beinahe linearem Aufwand bezüglich Orts- und Zeitdiskretisierung führt. Trotz dieser effizienten Lösungsmethode sind Funktionsauswertungen der kleinste-Quadrate-Zielfunktion immer noch teuer, so dass im Hauptteil der Arbeit Modelle reduzierter Ordnung basierend auf Proper Orthogonal Decomposition Anwendung finden. Lokale a priori Fehlerabschätzungen für die reduzierte Differentialgleichung sowie für die reduzierte Zielfunktion, kombiniert mit einem Trust-Region-Ansatz zur Globalisierung liefern einen effizienten Algorithmus, der die Rechenzeit deutlich verkürzt. Das Hauptresultat der Arbeit ist ein Konvergenzbeweis für diesen Algorithmus für eine weite Klasse von Optimierungsproblemen, in die auch das betrachtete Kalibrierungsproblem fällt.
Die vorliegende Arbeit teilt sich in die zwei titelgebenden Themengebiete. Inhalt des ersten Teils dieser Arbeit ist die Untersuchung der Proximität, also einer gewissen Messung der Nähe, von Binomial- und Poisson-Verteilungen. Speziell wird die uniforme Struktur des Totalvariationsabstandes auf der abgeschlossenen Menge aller Binomial- und Poisson-Verteilungen charakterisiert, und zwar mit Hilfe der die Verteilungen eindeutig bestimmenden zugehörigen Erwartungswerte und Varianzen. Insbesondere wird eine obere Abschätzung des Totalvariationsabstandes auf der Menge der Binomial- und Poisson-Verteilungen durch eine entsprechende Funktion der zugehörigen Erwartungswerte und Varianzen angegeben. Der zweite Teil der Arbeit widmet sich Konfidenzintervallen für Durchschnitte von Erfolgswahrscheinlichkeiten. Eine der ersten und bekanntesten Arbeiten zu Konfidenzintervallen von Erfolgswahrscheinlichkeiten ist die von Clopper und Pearson (1934). Im Binomialmodell werden hier bei bekanntem Stichprobenumfang und Konfidenzniveau Konfidenzintervalle für die unbekannte Erfolgswahrscheinlichkeit entwickelt. Betrachtet man bei festem Stichprobenumfang statt einer Binomialverteilung, also dem Bildmaß einer homogenen Bernoulli-Kette unter der Summationsabbildung, das entsprechende Bildmaß einer inhomogenen Bernoulli-Kette, so erhält man eine Bernoulli-Faltung mit den entsprechenden Erfolgswahrscheinlichkeiten. Für das Schätzen der durchschnittlichen Erfolgswahrscheinlichkeit im größeren Bernoulli-Faltungs-Modell sind z. B. die einseitigen Clopper-Pearson-Intervalle im Allgemeinen nicht gültig. Es werden hier optimale einseitige und gültige zweiseitige Konfidenzintervalle für die durchschnittliche Erfolgswahrscheinlichkeit im Bernoulli-Faltungs-Modell entwickelt. Die einseitigen Clopper-Pearson-Intervalle sind im Allgemeinen auch nicht gültig für das Schätzen der Erfolgswahrscheinlichkeit im hypergeometrischen Modell, das ein Teilmodell des Bernoulli-Faltungs-Modells ist. Für das hypergeometrische Modell mit festem Stichprobenumfang und bekannter Urnengröße sind die optimalen einseitigen Konfidenzintervalle bekannt. Bei festem Stichprobenumfang und unbekannter Urnengröße werden aus den im Bernoulli-Faltungs-Modell optimalen Konfidenzintervallen optimale Konfidenzintervalle für das hypergeometrische Modell entwickelt. Außerdem wird der Fall betrachtet, dass eine obere Schranke für die unbekannte Urnengröße gegeben ist.
Wenn eine stets von Null verschiedene Nullfolge h_n gegeben ist, dann existieren nach einem Satz von Marcinkiewicz stetige Funktionen f vom Intervall [0,1] in die reelle Achse, die in dem Sinne maximal nicht differenzierbar sind, dass zu jeder messbaren Funktion g ein Teilfolge n_k existiert, so dass (f(x+h_n_k)-f(x))/h_n_k fast sicher gegen g konvergiert. Im ersten Teil dieser Arbeit beweisen wir Erweiterungen dieses Satzes im Mehrdimensionalen und Analoga für Funktionen in der komplexen Ebene. Der zweite Teil dieser Arbeit befasst sich mit Operatoren die in enger Beziehung zum Satz von Korovkin über positive lineare Operatoren stehen. Wir zeigen, dass es Operatoren L_n gibt, die jeweils eine der Eigenschaften aus dem Satz von Korovkin nicht erfüllen und gleichzeitig eine residuale Menge von Funktionen f existiert, so dass L_nf nicht nur nicht gegen f konvergiert, sondern sogar dicht im Raum aller stetigen Funktionen des Intervalls [0,1] ist. Ähnliche Phänomene werden bei polynomieller Interpolation untersucht.
In der modernen Survey-Statistik treten immer häufifiger Optimierungsprobleme auf, die es zu lösen gilt. Diese sind oft von hoher Dimension und Simulationsstudien erfordern das mehrmalige Lösen dieser Optimierungsprobleme. Um dies in angemessener Zeit durchführen zu können, sind spezielle Algorithmen und Lösungsansätze erforderlich, welche in dieser Arbeit entwickelt und untersucht werden. Bei den Optimierungsproblemen handelt es sich zum einen um Allokationsprobleme zur Bestimmung optimaler Teilstichprobenumfänge. Hierbei werden neben auf einem Nullstellenproblem basierende, stetige Lösungsmethoden auch ganzzahlige, auf der Greedy-Idee basierende Lösungsmethoden untersucht und die sich ergebenden Optimallösungen miteinander verglichen.Zum anderen beschäftigt sich diese Arbeit mit verschiedenen Kalibrierungsproblemen. Hierzu wird ein alternativer Lösungsansatz zu den bisher praktizierten Methoden vorgestellt. Dieser macht das Lösen eines nichtglatten Nullstellenproblemes erforderlich, was mittels desrnnichtglatten Newton Verfahrens erfolgt. Im Zusammenhang mit nichtglatten Optimierungsalgorithmen spielt die Schrittweitensteuerung eine große Rolle. Hierzu wird ein allgemeiner Ansatz zur nichtmonotonen Schrittweitensteuerung bei Bouligand-differenzierbaren Funktionen betrachtet. Neben der klassischen Kalibrierung wird ferner ein Kalibrierungsproblem zur kohärenten Small Area Schätzung unter relaxierten Nebenbedingungen und zusätzlicher Beschränkung der Variation der Designgewichte betrachtet. Dieses Problem lässt sich in ein hochdimensionales quadratisches Optimierungsproblem umwandeln, welches die Verwendung von Lösern für dünn besetzte Optimierungsprobleme erfordert.Die in dieser Arbeit betrachteten numerischen Probleme können beispielsweise bei Zensen auftreten. In diesem Zusammenhang werden die vorgestellten Ansätze abschließend in Simulationsstudien auf eine mögliche Anwendung auf den Zensus 2011 untersucht, die im Rahmen des Zensus-Stichprobenforschungsprojektes untersucht wurden.
In dieser Arbeit untersuchen wir das Optimierungsproblem der optimalen Materialausrichtung orthotroper Materialien in der Hülle von dreidimensionalen Schalenkonstruktionen. Ziel der Optimierung ist dabei die Minimierung der Gesamtnachgiebigkeit der Konstruktion, was der Suche nach einem möglichst steifen Design entspricht. Sowohl die mathematischen als auch die mechanischen Grundlagen werden in kompakter Form zusammengetragen und basierend darauf werden sowohl gradientenbasierte als auch auf mechanischen Prinzipien beruhende, neue Erweiterungen punktweise formulierter Optimierungsverfahren entwickelt und implementiert. Die vorgestellten Verfahren werden anhand des Beispiels des Modells einer Flugzeugtragfläche mit praxisrelevanter Problemgröße getestet und verglichen. Schließlich werden die untersuchten Methoden in ihrer Koppelung mit einem Verfahren zur Topologieoptimierung, basierend auf dem topologischen Gradienten untersucht.