Refine
Year of publication
- 2004 (10) (remove)
Document Type
- Doctoral Thesis (8)
- Conference Proceedings (1)
- Master's Thesis (1)
Has Fulltext
- yes (10) (remove)
Keywords
- Arctic (1)
- Atmosphere-Sea-Ice-Interaction (1)
- Bodenerosion (1)
- Bodenversauerung (1)
- Bodenverschmutzung (1)
- Climatology (1)
- Compliance-Audits (1)
- DNS (1)
- EST (1)
- Eifel (1)
Institute
- Raum- und Umweltwissenschaften (10) (remove)
Soil loss by water-erosion is world-wide one of the main risks in soil protection. However, the reasons for soil erosion and its degree differ within the different regions of the world. The main focus of the PhD-Theses was to investigate the main factors for soil erosion in two regions differing in parent material, climate, soil type, and land use, namely Rhineland-Palatinate (Germany) and Turkey (Middle Anatolia). The results can be summarized as followed: 1. The salt content and the electric conductivity of the soils in Middle Anatolia were higher compared with the soils in Rhineland-Palatinate. This resulted in a reduced aggregate stability, a reduced water infiltration rate, and consequently in a compaction of the soil surface. 2. The amounts of soil organic matter were lower in the soils of Middle Anatolia compared to the German soils. 3. According to the universal soil loss equation (USLE) the K-factor was higher in the soils of Middle Anatolia compared to the German soils. 4. Just as the K-factor the R-factor was higher in the soils of Middle Anatolia compared to the German soils.
By means of complex interaction-processes sea ice not only modifies the regional climate in the ocean-atmosphere-sea-ice system but also the general circulation of the atmosphere and the ocean's circulation. Besides a strong interannual variability sea-ice extent shows an arcticwide significant negative trend during the last two decades with maximum rates in spring and summer. These are often linked to (small-scale) processes in the Siberian Arctic and the Laptev Sea, respectively. The objective of this thesis is the expansion of the understanding of the processes concerning atmosphere-sea-ice interactions on the regional scale during the summer from 1979 to 2002 in the Arctic with a special emphasis on the Laptev Sea. To achieve this, numerical simulations of the regional climate model HIRHAM4 are used in conjunction with ground- and satellite-based observational data. A precondition for the numerical experiments and the realistic reproduction of atmospheric processes is an improved lower boundary forcing dataset for HIRHAM4 based on observational datasets, which is developed, validated and described. To investigate the effects of the sea-ice distribution, its properties and small-scale features on the atmosphere, HIRHAM4 is used in sensitivity studies systematically with different model settings, each of which incorporates the lower boundary forcing data in a different manner. Even little changes in the lower boundary forcing fields, while retaining the lateral boundary forcing, are sufficient to cause the model to produce significantly different atmospheric circulation patterns relative to the control simulations which use standard forcings and settings. Cyclone activity, which is a special focus of this study, is also altered. The mean atmospheric circulation patterns and the near-surface air temperature distribution can be reproduced more realistically with the new forcing dataset, which is shown by validation experiments with observational data. The biggest relative impact, besides an altered sea-ice coverage and distribution, can be reached by using sea-ice concentrations instead of a binary sea-ice mask. By utilizing sea-ice drift data, dynamic and thermodynamic processes can be partially separated from each other to investigate the development of sea-ice anomalies in the Laptev Sea. They depend on a time-critical succession of atmospheric conditions and the properties of sea ice during May and August. Positive air temperature anomalies are identified to be the key driving factors for the development of negative sea-ice anomalies. They are found to be a result of enhanced short-wave radiation balances, which are coupled to high pressure areas and intermediate anticyclones. The polynyas during early summer seem to have an important influence too. Because of lower process rates, the wind-induced sea-ice drift is enhancing and damping the development of the sea-ice area anomalies, but it cannot cause an anomaly all by itself. A precise separation of the effectiveness of the sea-ice transport and the melting rates is not possible due to the available data.
Die Extraktion relevanter Abflussbildungsprozesse und deren adäquate Abbildung in Modellen gewinnt im Rahmen eines integrierten Managements ganzer Einzugsgebiete immer mehr an Wert, weil die Hochwasserentstehung und die Dynamik der mit dem Wasser transportierten Schadstoffe entscheidend von der Abflussbildung gesteuert werden. Ziel eines Flussgebietsmanagements ist die Verbesserung der Funktionsfähigkeit eines Einzugsgebiets. Das Bereitstellen verlässlicher Entscheidungsgrundlagen für die praktische Umsetzung einzugsgebietsbezogener Maßnahmen erfordert die Einbindung der komplexen, interagierenden Prozesse. Modelle können bei der Analyse und integrierenden Betrachtung der in der Regel nichtlinearen und rückgekoppelten Prozesse einen besonderen Stellenwert einnehmen. So können sie zu Prognosen der Auswirkungen geplanter Maßnahmen und der Veränderungen von natürlichen Randbedingungen herangezogen werden. Die erforderliche Genauigkeit der Prozessabbildung und welche Art von Modellen genutzt wird ist dabei abhängig von der jeweiligen Fragestellung und der untersuchten Skala. Insgesamt ist es erforderlich, den Unsicherheiten der Modellergebnisse einen angemessenen Stellenwert im Hinblick auf ein langzeitliches, optimales Management einzuräumen. Hierzu zählen auch Fragen der Verfügbarkeit, Zuverlässigkeit und Repräsentativität von Daten auf Einzugsgebietsebene. Eine enge Kopplung der Prozessforschung und der Auswertung mittels hydrologischer Modellierung ist in diesem Kontext für eine Beurteilung von Richtlinien und Maßnahmenvorschlägen im Flussgebietsmanagement notwendig.
The collapse of the tailings pond of the Aznalcállar open pit mine (West of Seville, Spain) in April 1998 left more than 4000 ha of arable land and floodplains contaminated with heavy metal containing pyrite sludge. After a first remediation campaign a considerable contamination remained in the soil. The present study evaluates the possibilities of reflectance spectroscopy and airborne hyperspectral remote sensing for the qualitative and quantitative assessment of heavy metal contamination and the acidification risk related to the mining accident. Based on an extensive data set consisting of geochemical analyses and reflectance measurements of more than 300 soil samples different chemometrics methods (multiple linear regression, partial least squares and artificial neural networks) are tested for computation of concentrations of soil constituents on the basis of the spectral reflectance. Spectral mixture analysis is applied for the analysis of the spatial distribution of the contamination. The abundance information derived from spectral mixture analysis is turned into quantitative information incorporating an artificial mixture experiment. The results of this experiment provide a link between sludge abundance and sludge weight, allowing as a consequence calculation of the amount of residual sludge per pixel, the acidification potential and other parameters important for remediation planning. The application of laboratory, field and imaging spectroscopy for providing quantitative information about the contamination levels in their spatial context is a good complement to conventional methods. The advantage is the reduction of the time and labour-intensive geochemical analysis, because after the model calibration, further samples can be analysed directly with the chemometric models. Furthermore, the spatial distribution can be mapped with imaging spectroscopy data helping in a more precise remediation planning.
Niederschlagswasserbewirtschaftung dient der Wiederherstellung der natürlichen Abflussprozesse. Da die negativen Auswirkungen des anthropogenen Eingriffs durch Kanalisierung, Versiegelung, Bodenverdichtung u.a. erkannt sind, sind Maßnahmen zum Erhalt des natürlichen Wasserkreislaufs bei Neubaumaßnahmen obligatorisch. Ziel ist es, durch Speicherung, Versickerung und gedrosselte Ableitung den dämpfenden Einfluss des Bodens auf die Wasserstandsganglinie von Gewässern zu nutzen, bzw. zu näherungsweise zu imitieren. Zur Optimierung der zur Regenwasserbewirtschaftung dienenden Verfahren wurden Vorschriften, Richtwerte und Bauanleitungen durch Gesetzgebung und Wissenschaft geschaffen. Diese sollen Anleitung zum bestmöglichen Einsatz der bestehenden Retentionsmöglichkeiten geben. Für ein Neubaugebiet in Rodt in der Eifel scheinen jedoch die Vorraussetzungen zum Einsatz der standardisierten Verfahren nicht gegeben. Die notwendigen Wasser-Durchlässigkeiten wurden bestimmt und als außerhalb der vorgeschlagenen Grenzwerte liegend erkannt. Somit stellt sich die Frage nach Alternativen, die durch das Erstellen einer Modellsimulation in ihrer Wirksamkeit überprüft werden sollten. In der vorliegenden Arbeit werden sechs an die Gegebenheiten im Baugebiet angepasste Konzepte erstellt, die sich aus den möglichen Regenwasser- Retentionsmaßanlagen Retentionsteich, Kunststoffrigole, Tieflockerungsrigole und Brauchwassernutzung zusammensetzen. Die Konzepte werden mit dem Simulationsprogramm STELLA- Research 7.01 in Modelle umgesetzt und vorhandene die örtlichen Gegebenheiten kennzeichnende Daten als Grundlage der Simulation aufgenommen. Mit dem Ziel der Minimierung und Optimierung des Restüberlaufs aus dem Baugebiet in den Vorfluter werden die Simulationen auf grundlegende Schalter untersucht und diese in ihrer Wirkung beschrieben. Aus den Ergebnissen werden die optimierten Verfahren auf ihre Abwendbarkeit im Baugebiet in den Punkten Niederschlagswasser- Retention, Anpassung an natürliche Gegebenheiten und Kostenminderung überprüft und Vorschläge zur Durchführung der Arbeiten abgeleitet.
Nach innen gerichtetes Marketing kann im Rahmen des Destinationsmanagements einen hohen Stellenwert einnehmen, der in der Tourismusliteratur jedoch noch nicht explizit ausgewiesen ist. Mit den beiden Komponenten "internes Marketing" und "Binnenmarketing" bestehen zwei Managementbereiche, die einen großen Einfluss auf die Leistungsfähigkeit einer öffentlichen Tourismusorganisation und einer Destination als strategische Geschäftseinheit besitzen können. Dies bedingt, dass die Modelle begriffen, dann verinnerlicht, mitgetragen und gelebt werden. Doch dazu bedarf es auch bestimmter organisatorischer Voraussetzungen, um die Leistungsfähigkeit im nach innen gerichteten Marketing in einem guten Verhältnis und nach einem stringenten Muster umzusetzen. Damit wird die organisatorische Struktur einer Destination zum entscheidenden Indikator für ihre Wirkung nach innen und außen. Ein durch politische Vorgaben eingeengtes Destinationsmanagement, das sich vorwiegend an politischen Paradigmen orientiert, hat aus marktwirtschaftlichen Gesichtspunkten keine Möglichkeit sich am Markt durchzusetzen. Es wird immer unter seinen Möglichkeiten arbeiten (müssen). Die mittels des nach innen gerichteten Marketings angesetzte Kommunikation und Kooperation mit allen relevanten Anspruchsgruppen ist einer der wichtigsten Schlüssel, um eine destinationsweite Leistungsverbesserung umzusetzen. Fehlen jedoch die Instrumente, die Zeit, die Arbeitskräfte und das Know-how seitens der touristischen Organisationen, wird sich langfristig keine Verbesserung der Leistungsfähigkeit der Destination erreichen lassen. Da die Politik in den Gebietskörperschaften maßgeblichen Einfluss auf die Arbeit der Tourismusorganisationen ausübt und teilweise auch ihre eigenen Organisationen trotz offensichtlich ineffizienter Arbeitsweise protegiert, liegt im Umsetzen eines Strukturwandels ein maßgebliches Problem. Der Wille zur Reform der touristischen Struktur in Deutschland allgemein und in Rheinland- Pfalz speziell ist nur schwach ausgeprägt, weil durch eine Reform des vorhandenen Systems politische Macht auf allen Ebenen verloren gehen würde. Hierbei sind vor allem die zahlenmäßig am stärksten vertretenen Gebietskörperschaften, die Kommunen, angesprochen. Das Beharrungsvermögen wird durch viele kommunale Touristiker sogar noch verstärkt, da jede grundlegende Änderung auch eine - meist nicht gewünschte - Veränderung des Arbeitsplatzes und auch der Arbeitsplatzsicherheit mit sich bringt. Anhand der vorliegenden empirischen Untersuchung zeigen sich viele Schwachstellen im System. Eine Umstrukturierung ist die notwendige Voraussetzung einer grundlegenden Leistungsverbesserung. Hier ist es deshalb die Aufgabe der übergeordneten Organisationen (z.B. DTV, Landesverbände, Regionalagenturen) den Umstrukturierungsprozess voranzutreiben. Dabei muss vor allem auf höchster administrativer Ebene in den Ländern für einen Wandel geworben werden. Ein zielgerichtetes nach innen gerichtetes Marketing, das mittels strategischer Einheiten über ein einheitliches landesweites System implementiert wird, kann wichtige Grundlagen für eine geordnete Umstrukturierung geben. Veränderungen kommen nicht von selbst. Mit Hilfe der Tourismusorganisationen des Untersuchungsgebietes Rheinland-Pfalz lassen sich sukzessive solche Möglichkeiten herbeiführen, die erste Schritte einleiten können. Um relativ schnell einen Wandel einleiten zu können, sollte ein Modellprojekt für ein touristisches interkommunales Verbundsystem in einer rheinland-pfälzischen Region vom Wirtschaftsministerium unterstützt werden. Im Rahmen dieses Modellprojektes können wichtige Informationen gewonnen werden, die sukzessive auch auf andere Regionen übertragen werden können. Die Arbeitsphasenmodelle des internen Marketings und Binnenmarketings können für einen Strukturwandel entscheidende Hilfestellungen geben. Mit dem strikten Anwenden der Modelle werden Schwachstellen in Organisation und Destination aufgedeckt. Damit können effektive Instrumente für ein Change-Management gefunden und bei objektiver Betrachtung der Sachlage zielgerichtet für eine Verbesserung der jeweiligen Situation eingesetzt werden. Das Bilden "Strategischer Einheiten" bietet hierfür eine geeignete Basis. Ohne dass ein genereller Wandel im Denken herbeigeführt wird, werden die meisten öffentlichen Tourismusorganisationen immer unter ihren Möglichkeiten bleiben. Destinationsmanagement muss deshalb als Bewusstseinsmanagement begriffen werden. Der finanzielle Mitteleinsatz und die daraus induzierten Leistungen lassen sich bei genauer Betrachtung nicht mehr rechtfertigen, vor allem mit Hinblick auf die immer schlechter werdende Kassenlage der Gebietskörperschaften. Eine Professionalisierung im öffentlich geförderten Tourismus impliziert auch die Notwendigkeit des Umdenkens bei der Personalstruktur in den touristischen Organisationen. Gefragt sind Persönlichkeiten, die ausgestattet sind mit explizitem Fachwissen, hoher sozialer Kompetenz und ausgeprägter Management- und Entscheidungskompetenz. Für die zukünftige Arbeitsmarktsituation bedeutet dies die Notwendigkeit der Ausbildung von Destinationsmanagern an Universitäten, Fachhochschulen und Berufsfachschulen mit touristischer Ausrichtung, die sich sehr nah an der Praxis orientieren. Hier wäre die Gründung eines touristischen Kompetenz-Zentrums mit Schwerpunkt Destinationsmanagement ein Schritt in die richtige Richtung. Die Zukunftsfähigkeit der öffentlich geförderten Tourismusorganisationen wird entscheidend von eigenen Kompetenzen, ihrer Effizienz und den künftigen Rahmenbedingungen abhängen. Gewinner werden diejenigen Destinationen und deren Organisationen sein, die ihre Struktur durch Reformen so optimieren, dass sie durch ihre Arbeit nach innen und außen ein Höchstmaß an Effizienz und damit an Beachtung und Akzeptanz erreichen. Ein in den Tourismusorganisationen konsequent angewendetes, gezieltes und effizient eingesetztes nach innen gerichtetes Marketing wird hierfür einen entscheidenden Beitrag leisten können.
Die Gemeine Fichte (Picea abies (L.) Karst.) zählt in Mitteleuropa zu den häufigsten und wirtschaftlich bedeutsamsten Baumarten. Aufgrund ihrer forstwirtschaftlichen Nutzbarkeit wird sie " insbesondere in Deutschland " weit über ihr natürliches Verbreitungsgebiet hinaus angebaut. Die Entwicklungsgeschichte der jeweiligen Populationen und die auf sie einwirkenden Standortfaktoren haben in Bezug auf ihre genetische Konstitution unterschiedlichen Einfluss ausgeübt. Wenn auch anhand morphologischer und isoenzymatischer Studien erste Kenntnisse zur Differenzierung der Fichte in ihrem europäischen Verbreitungsgebiet vorliegen, so muss vermutet werden, dass die bisher verwendeten Methoden nicht ausreichend in der Lage sind die genetische Variabilität der Fichte und die Differenzierung ihrer Populationen in ihrem deutschen Verbreitungsgebiet zu beschreiben. Ziel dieser Untersuchung war deshalb die Durchführung einer umfassenden populationsgenetischen Charakterisierung der Fichte in Deutschland auf Basis geeigneter molekulargenetischer Verfahren. Der Schwerpunkt lag insbesondere auf der Überprüfung möglicher genetischer Differenzierungen von Populationen und in der Darstellung ihrer genetischen Variabilität. Dazu wurden insgesamt vier PCR-gestützte Techniken eingesetzt: RAPD (random amplified polymorphic DNA), ISSR (inter simple sequence repeats), SSR (simple sequence repeats) und EST (expressed sequence tags). Die populationsgenetischen Analysen erfolgten an sieben Fichtenbeständen, deren Auswahl sowohl die gesamte Nord-Süd-Ausdehnung Deutschlands als auch die wesentlichen Höhenstufen berücksichtigte. Von jeder Fläche wurden 30 Individuen beprobt, morphologisch-biometrisch charakterisiert und populationsgenetisch analysiert. Als Probenmaterial für die genetische Analyse wurden Nadeln einjähriger Triebe verwendet. Die morphologisch-biometrische Analyse ergab bezüglich der Parameter Stammumfang, Baumhöhe, Trieblänge und -gewicht einjähriger Triebe sowie einiger daraus errechneter Relationen große Differenzierungen zwischen den untersuchten Populationen. Während sich die Bestände in den Höhenlagen durch niedrigen aber kräftigen Wuchs sowie vergleichsweise kurze und kompakt erscheinende Triebe auszeichneten, zeigten die Bäume der Niederungen eher ein verhältnismäßig schlankes Erscheinungsbild und lange Triebe bei niedrigen Triebgewichten. Die übrigen Bestände waren einem intermediären Typ zuzuordnen. Im Rahmen der populationsgenetischen Analyse wurden zahlreiche deskriptive und populationsgenetische Parameter zur Charakterisierung der Populationen verwendet. Während mit den dominanten Verfahren mit 14 (RAPD) bzw. 4 (ISSR) Primern 234 bzw. 36 Marker amplifiziert wurden, konnten mit Hilfe der jeweils 3 verwendeten SSR- bzw. EST-Primer 34 bzw. 9 Produkte nachgewiesen werden. Es konnte deutlich gemacht werden, dass die Detailbetrachtung der je nach Markersystem ermittelten populationsgenetischen Parameter zum Teil gegensätzliche Ergebnisse erbrachte. Während im Rahmen der ISSR-Analyse eine deutliche Differenzierung der Populationen innerhalb des natürlichen Verbreitungsgebietes gegenüber der Gruppe der künstlichen Bestände erbracht werden konnte, war dies mit den übrigen Markersystemen nicht nachvollziehbar. In der Gesamtbetrachtung aller Ergebnisse sind jedoch drei Schwerpunkte über alle verwendeten Methoden herauszuarbeiten: (1) zwischen den untersuchten Populationen bestehen lediglich geringe Differenzierungen, (2) die untersuchten Populationen zeichnen sich durch eine hohe bis sehr hohe genetische Variabilität aus, (3) die Variation der Grundgesamtheit ist durch die Variation innerhalb der Populationen begründet. Mit diesen Ergebnissen konnte auf Basis von DNA-Analysen die aus theoretischen Überlegungen sowie aus isoenzymatischen Untersuchungen stammenden Vermutungen hoher genetischer Variabilität von Fichtenpopulationen belegt werden. Darüber hinaus konnte deutlich gemacht werden, dass mit den verwendeten Markersystemen trotz großer morphologisch-biometrischer Differenzierung der untersuchten Bestände kein Zusammenhang zwischen Morphologie und Genetik nachweisbar ist. Erst die Entwicklung spezifischer EST-Marker wird die zur Zeit noch bestehende Lücke des funktionalen Zusammenhangs schließen können.
In Deutschland fallen bei der Wasseraufbereitung, der Verarbeitung von Gesteinen, Recyclingprozessen und in der Industrie etliche mineralische Zwangs-, Koppel-, Neben- oder Abfallprodukte an, die aufgrund ihrer Inhaltsstoffe als Puffersubstanzen oder Nährstofflieferanten im Wald eingesetzt werden könnten. In diesem Projekt wurde die Wirksamkeit und Ökosystemverträglichkeit von Mischungen potentieller Sekundärrohstoffe in Gefäßversuchen, Lysimeterversuchen, Freilandversuchen, Perkolationsversuchen und Keim- und Wachstumsversuchen untersucht. Die Mischungen bestehen aus Enthärterkalk und Magnesitstaub. Eingesetzte Enthärterkalke waren zwei Reaktorkornvarianten und ein Enthärterschlamm, dem zur besseren Händelbarkeit und als Kaliumquelle Bimsmehl bzw. Perlitstaub beigemischt wurde. Zur Anregung der biologischen Aktivität mit Phosphor wurden zwei Enthärterschlammmischungen mit Tiermehlasche aus der Monoverbrennung von Tierkörpermehl versetzt. Als Puffersubstanzen oder Nährstofflieferanten bewährten sich die Reaktorkörner, Magnesitstaub und Bimsmehl. Die Reaktorkornkalke wirken ähnlich dem herkömmlich eingesetzten Dolomit mit hoher oberflächennaher Säurepufferkapazität, verbesserter Basensättigung des Mineralbodens, Reduktion der Schwermetallmobilität und Aluminiumbelegung an den Austauscher sowie Erhöhung der Stickstoffspeicherkapazität. Unter dem Einfluss von Magnesitstaubs erhöhte sich der Magnesiumgehalt der Bodenlösung bis in den Hauptwurzelraum und Magnesiummangel in Pflanzen wurde signifikant behoben. Pflanzenvitalitätskennwerte verbesserten sich deutlich. Der Kaliumgehalt der Bodenlösung verbesserte sich bei Perlitstaub und Bimsmehl, in den Pflanzen nur bei Bimsmehl. Unter Einfluss der Tiermehlasche erhöhte sich weder der Gehalt der Bodenlösung noch die biologische Aktivität. Der enthaltene Phosphor liegt als schwerlösliches Hydroxylapatit vor, leichter lösliches Phosphat wurde als Calciumphosphat festgelegt. Durch geringe Anteile von Kalkmilch im Enthärterschlamm wurden initiale Nitrat- und Protonenschübe initiiert, die in stickstoffgesättigten Systemen problematisch werden können. Auf der Basis der Untersuchungsergebnisse wurden die positiv bewerteten Sekundärrohstoffe in die 2003 neugefasste Düngemittelverordnung aufgenommen.
This dissertation develops a rationale of how to use fossil data in solving biogeographical and ecological problems. It is argued that large amounts of fossil data of high quality can be used to document the evolutionary processes (the origin, development, formation and dynamics) of Arealsystems, which can be divided into six stages in North America: the Refugium Stage (before 15,000 years ago: > 15 ka), the Dispersal Stage (from 8,000 to 15,000 years ago: 8.0 - 15 ka), the Developing Stage (from 3,000 to 8,000 years ago: 3.0 - 8.0 ka), the Transitional Stage (from 1,000 to 3,000 years ago: 1 - 3 ka), the Primitive Stage (from 5,00 to 1,000 years ago: 0.5 - 1 ka) and the Human Disturbing Stage (during the last 500 years: < 0.5 ka). The division into these six stages is based on geostatistical analysis of the FAUNMAP database that contains 43,851 fossil records collected from 1860 to 1994 in North America. Fossil data are one of the best materials to test the glacial refugia theory. Glacial refugia represent areas where flora and fauna were preserved during the glacial period, characterized by richness in species and endemic species at present. This means that these (endemic) species should have distributed purely or primarily in these areas during the glacial period. The refugia can therefore be identified by fossil records of that period. If it is not the case, the richness in (endemic) species may not be the result of the glacial refugia. By exploring where mammals lived during the Refugium Stage (> 15 ka), seven refugia in North America can be identified: the California Refugium, the Mexico Refugium, the Florida Refugium, the Appalachia Refugium, the Great Basin Refugium, the Rocky Mountain Refugium and the Great Lake Refugium. The first five refugia coincide well with De Lattin- dispersal centers recognized by biogeographical methods using data on modern distributions. The individuals of a species are not evenly distributed over its Arealsystem. Brown- Hot Spots Model shows that in most cases there is an enormous variation in abundance within an areal of a species: In a census, zero or only a very few individuals occur at most sample locations, but tens or hundreds are found at a few sample sites. Locations where only a few individuals can be sampled in a survey are called "cool spots", and sites where tens or hundreds of individuals can be observed in a survey are called "hot spots". Many areas within the areal are uninhabited, which are called "holes". This model has direct implications for analyzing fossil data: Hot spots have a much higher local population density than cool spots. The chances to discover fossil individuals of a species are much higher in sediments located in a "hot spot" area than in a "cool spot" area. Therefore much higher MNIs (Minimum Number of Individuals) of the species should be found in fossil localities located in the hot spot than in the cool spot area. There are only a few hot spots but many cool spots within an areal of a single hypothetical species, consequently only a few fossil sites can provide with much high MNIs, whereas most other sites can only provide with very low MNIs. This prediction has been proved to be true by analysis of 70 species in FAUMAP containing over 100 fossil records. The temporal and spatial variation in abundance can be reconstructed from the temporospatial distribution of the MNIs of a species over its Arealsystem. Areas with no fossil records from the last thousands of years may be holes, and sites with much higher MNIs may be hot spots, while locations with low MNIs may be cool spots. Although the hot spots of many species can remain unchanged in an area over thousands of years, our study shows that a large shift of hot spots occurred mainly around 1,500-1,000 years ago. There are three directions of movement: from the west side to the east side of the Rockies, from the East of the USA to the east side of the Rockies and from the west side of the Rockies to the Southwest of the USA. The first two directions of shift are called Lewis and Clark- pattern, which can be verified with the observations mad by Lewis and Clark during their expedition in 1805-1806. The historical process of this pattern may well explain the 200-year-old puzzle why big game then abundant on the east side were rare on the west side of the Rocky Mountains noted by modern ecologists and biogeographers. The third direction of shift is called Bayham- pattern. This pattern can be tested by the model of Late Holocene resource intensification first described by Frank E. Bayham. The historical process creating the Bayham pattern will challenge the classic explanation of the Late Holocene resource intensification. An environmental change model has been proposed to account for the shift of hot spots. Implications of glacial refugia and hot spots areas for wildlife management and effective conservation are discussed. Suggestions for paleontologists and zooarchaeologists regarding how to provide more valuable information in their future excavation and research for other disciplines are given.
Ein gut funktionierendes Umweltmanagementsystem strebt im Allgemeinen nach einer kontinuierlichen Verbesserung der Umweltleistung. Diese kontinuierliche Verbesserung setzt bei den beteiligten Unternehmen einmal die Identifizierung der Umweltaspekte voraus. Die Umweltaspekte beziehen sich vor allem auf den Produktionsprozess und somit auf die Umwelteinwirkungen und - auswirkungen des Produktionsstandortes. Das Potential für kontinuierliche Verbesserung ist nicht immer offensichtlich, wie auch Schwachstellen nicht immer sofort erkannt werden. Beides äußert sich in der Umweltleistung eines Unternehmens. Das vorliegende Bewertungssystem ermöglicht es nun, diese Umweltleistung zu messen und im Sinne des Benchmarking die daraus erlangten Kenntnisse zu nutzen. In dieser Arbeit wird dargestellt, wo die Darstellung der Umweltleistung mit Kennzahlen seine Grenzen hat. Für den operativen Bereich werden daraufhin neue operative Umweltleistungskriterien entwickelt, und es wird gezeigt, wie die Killerargumente gegen einen Vergleich "unterschiedliche Fertigungstiefen und unterschiedlicher Produktoutput" ausgeschaltet werden können. Das Ergebnis sind operative Umweltleistungskriterien, die zwar mit Fehlern belastet sind, aber sie wurden analysiert und auf ein Minimum reduziert. Parallel dazu wird ein Katalog qualitativer Kriterien für den Managementbereich vorgestellt. Hiermit soll der organisatorische Teil, also die "Soft Skills" des Umweltmanagementsystems, abgedeckt werden. Zunächst wurde versucht, diesen Katalog von managementbezogenen Umweltleistungskriterien durch eine Delphi-Befragung zusammenzustellen. Nach einer Analyse der bestehenden Checklisten und Literatur musste dieser jedoch ergänzt werden. Nach dem betriebswirtschaftlichen Grundsatz: "What you cannot measure, you cannot manage." gibt der vorliegende Ansatz die Möglichkeit, durch die Vergabe von Zielerfüllungsgraden auch hier quantitative Aussagen zu machen. Dann wurde der Versuch, unternommen beide Umweltleistungskriterienpakete in einem naturwissenschaftlichen Bewertungsverfahren zu einem Bewertungssystem für Umweltmanagementsysteme zu vereinen. Dieser Versuch mündet in einem praktikablen Ansatz der Umweltleistungsbewertung zugeschnitten, auf die Automobilindustrie. Allerdings wird darauf verzichtet, eine Gesamt- Umweltleistungskennzahl über alle Kriterien zu kreieren, da die Aussage für den Anwender nicht detailliert genug wäre und eine so starke Aggregierung aus bewertungstheoretischer Sicht sehr problematisch ist.