Gegenstand der vorliegenden Arbeit ist die Untersuchung der Lexik der spätmittelalterlichen Luxemburger Rechnungsbücher unter der Prämisse der Urbanität. Da auf keine ausgearbeitete Methodik zurückgegriffen werden konnte, anhand derer eine Einteilung in für die Analyse relevante bzw. irrelevante Lexik vorgenommen werden konnte, wurde im Rahmen der Arbeit unter Rückgriff auf sprachwissenschaftliche und geschichtswissenschaftliche Konzepte eine eigene Methodik entwickelt. Auf deren Basis erfolgte die Anlage des Untersuchungskorpus' auf der Grundlage der von 1388-1500 fast lückenlos überlieferten Rechnungsbücher der Stadt Luxemburg mit dem Ziel der Analyse spezifisch urbaner Lexik. Bei der Analyse wurde schließlich eine dreifache Zielsetzung verfolgt: Einerseits die Untersuchung der Lexik mit Blick auf die Verteilung von types und tokens in als spezifisch urban definierten Domänen, andererseits die Anlage eines Glossars, das als textphilologisches Werkzeug als Hilfsmittel bei der Erschließung der Rechnungsbücher dienen soll. Daneben wurde ebenfalls auf die geschichtswissenschaftlichen Erkenntnisgewinne eingegangen, die durch die jeweilige Wortschatzanalyse realisiert werden konnten.
Even though in most cases time is a good metric to measure costs of algorithms, there are cases where theoretical worst-case time and experimental running time do not match. Since modern CPUs feature an innate memory hierarchy, the location of data is another factor to consider. When most operations of an algorithm are executed on data which is already in the CPU cache, the running time is significantly faster than algorithms where most operations have to load the data from the memory. The topic of this thesis is a new metric to measure costs of algorithms called memory distance—which can be seen as an abstraction of the just mentioned aspect. We will show that there are simple algorithms which show a discrepancy between measured running time and theoretical time but not between measured time and memory distance. Moreover we will show that in some cases it is sufficient to optimize the input of an algorithm with regard to memory distance (while treating the algorithm as a black box) to improve running times. Further we show the relation between worst-case time, memory distance and space and sketch how to define "the usual" memory distance complexity classes.