Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (148)
- Wissenschaftlicher Artikel (51)
- Arbeitspapier (6)
- Konferenzveröffentlichung (4)
- Habilitation (2)
- Buch (Monographie) (1)
- Masterarbeit (1)
Sprache
- Deutsch (108)
- Englisch (99)
- Mehrsprachig (5)
- Französisch (1)
Schlagworte
- Fernerkundung (25)
- Modellierung (23)
- Bodenerosion (11)
- Deutschland (11)
- Tourismus (11)
- Nachhaltigkeit (10)
- Klimaänderung (9)
- Remote Sensing (9)
- Satellitenfernerkundung (9)
- Meereis (8)
Institut
- Raum- und Umweltwissenschaften (213) (entfernen)
It is generally assumed that the temperature increase associated with global climate change will lead to increased thunderstorm intensity and associated heavy precipitation events. In the present study it is investigated whether the frequency of thunderstorm occurrences will in- or decrease and how the spatial distribution will change for the A1B scenario. The region of interest is Central Europe with a special focus on the Saar-Lor-Lux region (Saarland, Lorraine, Luxembourg) and Rhineland-Palatinate.Daily model data of the COSMO-CLM with a horizontal resolution of 4.5 km is used. The simulations were carried out for two different time slices: 1971"2000 (C20), and 2071"2100 (A1B). Thunderstorm indices are applied to detect thunderstorm-prone conditions and differences in their frequency of occurrence in the two thirty years timespans. The indices used are CAPE (Convective Available Potential Energy), SLI (Surface Lifted Index), and TSP (Thunderstorm Severity Potential).The investigation of the present and future thunderstorm conducive conditions show a significant increase of non-thunderstorm conditions. The regional averaged thunderstorm frequencies will decrease in general, but only in the Alps a potential increase in thunderstorm occurrences and intensity is found. The comparison between time slices of 10 and 30 years length show that the number of gridpoints with significant signals increases only slightly. In order to get a robust signal for severe thunderstorm, an extension to more than 75 years would be necessary.
High-resolution projections of the future climate are required to assess climate change realistically at a regional scale. This is in particular important for climate change impact studies since global projections are much too coarse to represent local conditions adequately. A major concern is thereby the change of extreme values in a warming climate due to their severe impact on the natural environment, socio-economical systems and the human health. Regional climate models (RCMs) are, however, able to reproduce much of those local features. Current horizontal resolutions are about 18-25km, which is still too coarse to directly resolve small-scale processes such as deep-convection. For this reason, projections of a possible future climate were simulated in this study with the regional climate model COSMO-CLM at horizontal resolutions of 4.5km and 1.3km for the region of Saarland-Lorraine-Luxemburg and Rhineland-Palatinate for the first time. At a horizontal scale of about 1km deep-convection is treated explicitly, which is expected to improve particularly the simulation of convective summer precipitation and a better resolved orography is expected to improve near surface fields such as 2m temperature. These simulations were performed as 10-year long time-slice experiments for the present climate (1991"2000), the near future (2041"2050) and the end of the century (2091"2100). The climate change signals of the annual and seasonal means and the change of extremes are analysed with respect to precipitation and 2m temperature and a possible added value due to the increased resolution is investigated. To assess changes in extremes, extreme indices have been applied and 10- and 20-year return levels were estimated by "peak-over-threshold" models. Since it is generally known that model output of RCMs should not directly be used for climate change impact studies, the precipitation and temperature fields were bias-corrected with several quantile-matching methods. Among them is a new developed parametric method which includes an extension for extreme values and is hence expected to improve the correction. In addition, the impact of the bias-correction on the climate change signals and on the extreme value statistics was investigated. The results reveal a significant warming of the annual mean by about +1.7 -°C until 2041"2050 and +3.7 -°C until 2091"2100, but considerably stronger signals of up to +5 -°C in summer in the Rhine Valley. Furthermore, the daily variability increases by about +0.8 -°C in summer but decreases by about -0.8 -°C in winter. Consequently, hot extremes increase moderately until the mid of the century but strongly thereafter, in particular in the Rhine Valley. Cold extremes warm continuously in the complete domain in the next 100 years but strongest in mountainous areas. The change signals with regard to annual precipitation are of the order -±10% but not significant. Significant, however, are a predicted increase of +32% of the seasonal precipitation in autumn until 2041"2050 and a decrease of -28% in summer until 2091-2100. No significant changes were found for days with intensities > 20 mm/day, but the results indicate that extremes with return periods ≤2 years increase as well as the frequency and duration of dry periods. The bias-corrections amplified positive signals but dampened negative signals and considerably reduced the power of detection. Moreover, absolute values and frequencies of extremes were altered by the correction but change signals remained approximately constant. The new method outperformed other parametric methods, in particular with regard to extreme value correction and related extreme indices and return levels. Although the bias correction removed systematic errors, it should be treated as an additional layer of uncertainty in climate change studies. Finally, the increased resolution of 1.3km improved predominantly the representation of temperature fields and extremes in terms of spatial heterogeneity. The benefits for summer precipitation were not as clear due to a severe dry-bias in summer, but it could be shown that in principle the onset and intensity of convection improves. This work demonstrates that climate change will have severe impacts in this investigation area and that in particular extremes may change considerably. An increased resolution provides thereby an added value to the results. These findings encourage further investigations, for other variables as for example near-surface wind, which will be more feasible with growing computing resources. These analyses should, however, be repeated with longer time series, different RCMs and anthropogenic scenarios to determine the robustness and uncertainty of these results more extensively.
Climate change and habitat fragmentation modify the natural habitat of many wetland biota and lead to new compositions of biodiversity in these ecosystems. While the direct effects of climate are often well known, indirect effects due to biotic interactions remain poorly understood. The water meadow grasshopper, Chorthippus montanus, is a univoltine habitat specialist, which is adapted to permanently moist habitats. Land use change and drainage led to highly fragmented populations of this generally flightless species. In large parts of the Palaearctic Ch. montanus occurs sympatrically with its widespread congener, the meadow grasshopper Chorthippus parallelus. Due to their close relationship and their similar songs, hybridization is likely to occur in syntopic populations. Such a species pair of a habitat specialist and a habitat generalist represents an ideal model system to examine the role of ongoing climate change and an accumulation of extreme climatic events on the life history strategies, population dynamics and inter-specific interactions. In Chapter I a laboratory experiment was conducted to identify the impact of environmental factors on intra-specific life-history traits of Ch. montanus. Like other Orthoptera species, Ch. montanus follows a converse temperature size rule. In line with the dimorphic niche hypothesis, which states that sexual size dimorphism evolved in response to the different sexual reproductive roles, both sexes showed different responses to increasing density at lower temperatures. Males attained smaller body sizes at high densities, whereas females had a prolonged development time. This is the first evidence for a sex-specific phenotypic plasticity in Ch. montanus. Females benefit from the prolonged development as their reproductive success depends on the size and number of egg clutches they may produce. By contrast, the reproductive success of males depends on the chance to fertilize virgin females, which increases with faster development. This may become a disadvantage for Ch. montanus as an intraspecific phenology shift may increase hybridization risk with the sibling species. Despite the widespread assumption that hybridization between two sympatric species is rare due to complete reproductive barriers, the genetic analyses of 16 populations (Chapter II) provided evidence for wide prevalence of hybridization between both species in the wild. As no complete admixture was found in the examined population, it is assumed that hybridization only occurs in ecotones between wetlands and drier parts. Reproductive barriers (habitat isolation, behavior, phenology) seem to prevent the genetic swamping of Ch. montanus populations. Although a behavioral experiment showed that mate choice presents an important reproductive barrier between both species, the experiment also revealed that reproductive barriers could be altered by environmental change (e.g. increasing heterospecific frequency). Chapter III analyzes the impact of extreme climatic events on population dynamics and interspecific hybridization. A mark-recapture analysis combined with weather records over five years provides evidence that the embryonic development in Ch. montanus is vulnerable to extreme climatic events. Strong population declines in Ch. montanus lead to a disequilibrium between Ch. montanus and Ch. parallelus populations and increases the risk of hybridization. The highest hybridization risk was found in the first weeks of a season, when both species had an overlapping phenology. Furthermore, hybrids were generally localized at the edge of the Ch. montanus distribution with higher heterospecific encounter probabilities. The hybridization rate reached up to 19.6%. The genetic analyses in Chapter II and III show that hybridization differentially affects specialists and generalists. While generalists may benefit from hybridization by an increasing genetic diversity, such a positive correlation was not found for Ch. montanus. The results underline the importance of reproductive barriers for the co-existence of these sympatric species. However, climate change and other anthropogenic disturbances alter reproductive barriers and promote hybridization, which may threaten small populations by genetic displacement. As anthropogenic hybridization is recognized as a major threat to biodiversity, it should be considered in environmental law and policy. In Chapter IV the role of hybrids and hybridization in three levels of law and the historical backgrounds of hybrids becoming a part of legal instruments is analyzed. Due to legal uncertainties and the complexity of this topic a legal assessment of hybrids is challenging and argues for species-specific approaches. Nonetheless, existing legal norms provide a suitable basis, but need to be specified. Finally, this chapter discusses different opportunities for the management of hybrids and hybridization in a conservation perspective and their necessity.
Comparing the results of the phylogeographies of the four species included in this thesis, some accordances have been found, even though certain patterns are only represented in one or two species. In all cases, the findings of the studied species strongly support the existence of forests or forest-like ecosystems beyond the classic forest refugia in the Mediterranean areas (Iberian, Apennine and Balkan peninsulas) during glacial times. However, evidence of glacial refugial areas in Southeastern Europe, especially the Balkans, have been found in this study as well. The analysed populations of Aposeris foetida, Melampyrum sylvaticum and Erebia euryale showed high genetic diversity values and mostly higher private fragments in this area, which is a strong indicator for centres of glacial survival during Würm and, regarding the results of M. sylvaticum, even during the Riss ice age. Three of the analysed species (A. foetida, M. sylvaticum and Colias palaeno) supported a second main glacial refuge area located along the Northern Alps. Again, high genetic diversity values and the uniqueness of the populations living in this region today prove the importance of this area as a glacial centre of survival. Those results confirm several recently published studies on forest species and strongly indicate the persistence of forest-like structures or even forests during the ice ages along the foothills of the Northern Alps. Additionally, the persistence of C. palaeno in this area furthermore supports the existence of peatlands north of the Alps, at least during the last glacial. The results of M. sylvaticum and E. euryale further indicate the vicinity of the Tatra Mountains as core areas for glacial survival. However, the genetic patterns found for E. euryale are ambiguous. Due to an intermediate position of two genetic lineages (originating in the Eastern Alps and Southeastern Europe), the Tatras could also reflect a postglacial mixture zone of those lineages. Moreover, the glacial and postglacial importance of this area for woodland species was accentuated, supporting other phylogeographic studies published. Besides the congruities among the results of the study species, some unique patterns and therefore further potential glacial refugia have also been illuminated in this thesis. For instance, the calcicole species, A. foetida, most probably had further survival area at both sides of the Dinaric Alps, supported by high genetic diversity values and a high number of private fragments found in Croatian populations. Furthermore, the surroundings of the German Uplands and the margin of the Southern Alps provided suitable conditions for glacial survival for M. sylvaticum, while the Eastern and Southeastern Alpine region most probably sheltered the Large Ringlet E. euryale during ice ages. Additionally, this butterfly species survived at least the glaciation along the foothills of the Massif Central, whose present populations showed a unique genetic lineage and their genetic diversity values have been measurably higher than in other populations for this species. Finally, a large and continuous Würm distribution is highly likely south of the Fennoscandian glaciers in Central Europe for C. palaeno, which might indicate extended peatland areas during Würm glacial. With all the patterns found in this study, the understanding of glacial persistence of forest, respectively forest-like structures and peatlands during Würm or even Riss glacial in Europe could be advanced. The congruencies among the analysed woodland and bog species illustrate the importance and location of extra-Mediterranean refugia for European mountain forests and the glacial presence of Central European peatlands. Thus, already postulated theories could be supported and further pieces of the overall puzzle could be added. The varieties of the different survival centres once more clarified that further phylogeographic studies on mountain forest of different habitat requirements and especially peatland species have to be implemented to get a clearer picture of the glacial history of these habitats.
Mechanical and Biological Treatment (MBT) generally aims to reduce the amount of solid waste and emissions in landfills and enhance the recoveries. MBT technology has been studied in various countries in Europe and Asia. Techniques of solid waste treatment are distinctly different in the study areas. A better understanding of MBT waste characteristics can lead to an optimization of the MBT technology. For a sustainable waste management, it is essential to determine the characteristics of the final MBT waste, the effectiveness of the treatment system as well as the potential application of the final material regarding future utilization. This study aims to define and compare the characteristics of the final MBT materials in the following countries: Luxembourg (using a high degree technology), Fridhaff in Diekirch/Erpeldange, Germany (using a well regulated technology), Singhofen in Rhein-Lahn district, Thailand (using a low cost technology): Phitsanulok in Phitsanulok province. The three countries were chosen for this comparative study due to their unique performance in the MBT implementation. The samples were taken from the composting heaps of the final treatment process prior to sending them to landfills, using a random sampling standard strategy from August 2008 onwards. The size of the sample was reduced to manageable sizes before characterization. The size reduction was achieved by the quartering method. The samples were first analyzed for the size fraction on the day of collection. They were screened into three fractions by the method of dry sieving: small size with a diameter of <10 mm, medium size with a diameter of 10-40 mm and large size with a diameter of >40 mm. These fractions were further analyzed for their physical and chemical parameters such as particle size distribution (total into 12 size fractions), particle shape, porosity, composition, water content, water retention capacity and respiratory activity. The extracted eluate was analyzed for pH-value, heavy metals (lead, cadmium and arsenic), chemical oxygen demand, ammonium, sulfate and chloride. In order to describe and evaluate the potential application of the small size material as a final cover of landfills, the fraction of small size samples were tested for the geotechnical properties as well. The geotechnical parameters were the compaction test, permeability test and shear strength test. The detailed description of the treatment facilities and methods of the study areas were included in the results. The samples from the three countries are visibly smaller than waste without pretreatment. Maximum particle size is found to be less than 100 mm. The samples are found to consist of dust to coarse fractions. The small size with a diameter of <10 mm was highest in the sample from Germany (average 60% by weight), secondly in the sample from Luxembourg (average 43% by weight) and lowest in the sample from Thailand (average 15% by weight). The content of biodegradable material generally increased with decreasing particle sizes. Primary components are organic, plastics, fibrous materials and inert materials (glass and ceramics). The percentage of each components greatly depends on the MBT process of each country. Other important characteristics are significantly reduced water content, reduced total organic carbon and reduced potential heavy metals. The geotechnical results show that the small fraction is highly compact, has a low permeability and lot of water adsorbed material. The utilization of MBT material in this study shows a good trend as it proved to be a safe material which contained very low amounts of loadings and concentrations of chemical oxygen demand, ammonium, and heavy metals. The organic part can be developed to be a soil conditioner. It is also suitably utilized as a bio-filter layer in the final cover of landfill or as a temporary cover during the MBT process. This study showed how to identify the most appropriate technology for municipal solid waste disposal through the study of waste characterization.
Soil organic matter (SOM) is an indispensable component of terrestrial ecosystems. Soil organic carbon (SOC) dynamics are influenced by a number of well-known abiotic factors such as clay content, soil pH, or pedogenic oxides. These parameters interact with each other and vary in their influence on SOC depending on local conditions. To investigate the latter, the dependence of SOC accumulation on parameters and parameter combinations was statistically assessed that vary on a local scale depending on parent material, soil texture class, and land use. To this end, topsoils were sampled from arable and grassland sites in south-western Germany in four regions with different soil parent material. Principal component analysis (PCA) revealed a distinct clustering of data according to parent material and soil texture that varied largely between the local sampling regions, while land use explained PCA results only to a small extent. The PCA clusters were differentiated into total clusters that contain the entire dataset or major proportions of it and local clusters representing only a smaller part of the dataset. All clusters were analysed for the relationships between SOC concentrations (SOC %) and mineral-phase parameters in order to assess specific parameter combinations explaining SOC and its labile fractions hot water-extractable C (HWEC) and microbial biomass C (MBC). Analyses were focused on soil parameters that are known as possible predictors for the occurrence and stabilization of SOC (e.g. fine silt plus clay and pedogenic oxides). Regarding the total clusters, we found significant relationships, by bivariate models, between SOC, its labile fractions HWEC and MBC, and the applied predictors. However, partly low explained variances indicated the limited suitability of bivariate models. Hence, mixed-effect models were used to identify specific parameter combinations that significantly explain SOC and its labile fractions of the different clusters. Comparing measured and mixed-effect-model-predicted SOC values revealed acceptable to very good regression coefficients (R2=0.41–0.91) and low to acceptable root mean square error (RMSE = 0.20 %–0.42 %). Thereby, the predictors and predictor combinations clearly differed between models obtained for the whole dataset and the different cluster groups. At a local scale, site-specific combinations of parameters explained the variability of organic carbon notably better, while the application of total models to local clusters resulted in less explained variance and a higher RMSE. Independently of that, the explained variance by marginal fixed effects decreased in the order SOC > HWEC > MBC, showing that labile fractions depend less on soil properties but presumably more on processes such as organic carbon input and turnover in soil.
Introduction:In patients with common variable immunodeficiency (CVID),immunological response is compromised. Knowledge about COVID‐19 in CVIDpatients is sparse. We, here, synthesize current research addressing the level ofthreat COVID‐19posestoCVIDpatientsandthebest‐known treatments.
Method:Review of 14 publications.
Results:The number of CVID patients with moderate to severe (~29%) andcritical infection courses (~10%), and the number of fatal cases (~13%), areincreased compared to the general picture of COVID‐19 infection. However,this might be an overestimate. Systematic cohort‐wide studies are lacking, andasymptomatic or mild cases among CVID patients occur that can easily remainunnoticed. Regular immunoglobulin replacement therapy was administered inalmost all patients, potentially explaining why the numbers of critical and fatalcases were not higher. In addition, the application of convalescent plasma wasdemonstrated to have positive effects.
Conclusions:COVID‐19 poses an elevated threat to CVID patients. However,only systematic studies can provide robust information on the extent of thisthreat. Regular immunoglobulin replacement therapy is beneficial to combatCOVID‐19 in CVID patients, and best treatment after infection includes theuse of convalescent plasma in addition to common medication.
Die vorliegende Arbeit hat die zunehmende Bedeutung des Social Web und die daraus resultierenden Auswirkungen auf das Informations- und Reiseverhalten von Städtetouristen zum Thema. Hauptfragestellung ist, inwiefern sich die gestiegene Bedeutung des Social Web auf das Informationsverhalten von Reisenden und ihr Verhalten vor Ort, insbesondere hinsichtlich des Interesses an Nischenattraktionen, auswirkt. Große Städte, vor allem Metropolen, verfügen über eine fast unüberschaubare Zahl von touristischen Attraktionen und Angeboten. Dazu zählen auch jene, die abseits der Haupttouristenrouten in weniger touristisch geprägten Stadtteilen liegen. Trotz dieser Angebotsvielfalt ist die Mehrzahl der Städtetouristen meist auf der sogenannten "Straße der Ameisen" anzutreffen. Eine Ausnahme stellen jedoch die sogenannten neuen Städtetouristen dar, die weniger an klassischen Mainstream-Sehenswürdigkeiten, sondern mehr am Entdecken authentischer und einzigartiger Plätze abseits der Touristenpfade und am Erleben des Alltags der Einheimischen interessiert sind. Für die vorliegende Untersuchung der Fragestellung wurden insgesamt drei methodische Bausteine herangezogen: 1) Eine Inhaltsanalyse für den Vergleich von Social-Web-Anwendungen und klassischen Reisemedien hinsichtlich ihrer thematischen Schwerpunktsetzung; 2) eine Touristenbefragung mit dem Ziel, mehr über die Nutzung des Social Web als Reiseinformationsquelle und über das Verhalten der Social-Web-Nutzer im Allgemeinen, und ihr Interesse an Nischen und Orten abseits der Touristenpfade im Besonderen, zu erfahren. Schließlich sollten 3) Interviews mit städtetouristischen Nischenunternehmen weitere Erkenntnisse über die Nutzung sozialer Medien durch Anbieter im Städtetourismus liefern. Die Ergebnisse machen deutlich, dass die Auswirkungen des Social Web " sowohl durch die Nutzung als Reiseinformationsquelle durch die Nachfrager, als auch durch die Verwendung als Marketing- und Vertriebskanal von Seiten der Anbieter " bislang geringer sind als zunächst angenommen. Auch wenn Nischenangebote und Alltagskultur zum Teil in sozialen Medien stärker präsent sind als z. B. in Reiseführern, und einige kleine Nischenanbieter die Möglichkeiten, die ihnen das Social Web bietet, schon optimal nutzen, so hat eine verstärkte Social-Web-Nutzung bislang doch keine grundlegenden Verhaltensänderungen auf Seiten der Reisenden bewirkt. Die Straße der Ameisen ist trotz der gestiegenen Social-Web-Nutzung nach wie vor existent. Dass das Social Web als ein Filter fungiert, der Interessierte in Richtung der Long-Tail-Angebote "schickt", konnte im Rahmen der vorliegenden Dissertation nur zum Teil bestätigt werden. Neben der Informationsquelle Social Web üben doch auch viele andere Faktoren einen Einfluss auf das Interesse von Reisenden an Lokalkolorit, authentischen Erlebnissen und besonderen Nischenangeboten aus. Trotzdem dürfte gerade für den sogenannten neuen Touristen das Social Web neue Möglichkeiten der Informationsgewinnung über einzigartige Örtlichkeiten an den Reisezielen bereitstellen. So ist es heutzutage einfacher als je zuvor, an Hinweise und Tipps zu ganz spezifischen Reisezielen und -aktivitäten zu kommen, die zudem meist noch sehr persönlich und authentisch wirken, da sie größtenteils von anderen Nutzern stammen.
Das EU-weite Naturschutznetz Natura 2000 (FFH) umfasst über 11% der terrestrischen Ökosystemfläche. Zur langfristigen Erhaltung dieser Gebiete fehlt ein funktionierendes Monitoringsystem mit geeigneten Indikatoren, Parametern und Datenprodukten, die eine regelmäßig wiederholbare, flächendeckende und vor allem kosteneffiziente Erhebung ermöglichen. Hierfür untersucht diese Dissertation moderne, höchstauflösende Satellitendaten und die Möglichkeiten ihrer Anwendung im Naturschutz, insbesondere als Grundlage zur Indikatorenableitung. Es wurden konkrete Anforderungen von Behörden und NGO bzgl. Daten und Indikatorwerten gesammelt und für zwei Untersuchungsgebiete im Naturpark "Hoher Fläming" in Brandenburg umgesetzt. Dazu wurden zwei Aufnahmen des QuickBird-Satelliten akquiriert und mit vorhandenen GIS-Daten kombiniert. Der praktische Teil der Arbeit beschreibt Eigenschaften und Vorverarbeitung aller Daten, ihre Auswertung nach einem objektbasierten Ansatz und die Ableitung spezifischer quantitativer Parameter. Diese beschreiben den Zustand der Ökosysteme und berücksichtigen die sozio-ökonomischen Belastungen, die auf die Flächen einwirken und Nutzungskonflikte verursachen. Auf der Basis dieser Parameter wurden räumliche Indikatoren erprobt. Zur Anwendung auf der lokalen Ebene in bewaldeten Gebieten und für das Monitoring von Offenland-Flächen werden je zwei Indikatoren vorgeschlagen. Für die regionale Ebene wird ein sozio-ökomischer Indikator empfohlen. Diese fünf Indikatoren sind dazu geeignet, ausgewählte Aspekte der (Bio)Diversität in Schutzgebieten zu beschreiben. Sie analysieren Komposition, Struktur und Funktion der Habitat-Typen sowohl auf der regionalen Landschafts-Ebene, als auch auf der lokalen Ökosystem- bzw. Schutzgebiets-Ebene. Alle Indikatoren besitzen einen Nutzen für das Management von Schutzgebieten und bieten zumindest indirekte Hilfe für die Berichterstattung im Sinne der FFH-Richtlinie. Die vorgeschlagenen Indikatoren sind zwar spezifisch auf die lokalen Untersuchungsgebiete zugeschnitten, doch sind die ökologischen Rahmenbedingungen allgemein gültig. Es ist möglich, diese Indikatoren auch in anderen europäischen Regionen mit den gleichen natürlichen Gegebenheiten und sozio-ökonomischen Strukturproblemen anzuwenden. Für die Anwendung verschiedener Fernerkundungsdaten zur Erfüllung von Monitoringaufgaben sprechen die positiven Ergebnisse der durchgeführten Kosten-Nutzen-Analyse. Vor- und Nachteile von Daten und Auswertungsmethoden werden ausführlich diskutiert.
Seit 15. Juli 2004 besteht in Form des Radfernwegs "Via Bavarica Tyrolensis" auf 228 Kilometern eine ringförmige Radfernwegeinfrastruktur südlich von München, einschließlich einer Verbindung nach Österreich hinab ins Tiroler Inntal. Das Erhebungsjahr 2006 zugrunde gelegt, wird die Via Bavarica Tyrolensis von ca. 62.000 Fahrradtouristen pro Radsaison zwischen dem 01. April und dem 31. Oktober genutzt. Den 376 im Juni 2006 auf dem Radfernweg befragten Personen zufolge gehören sie bei einem Altersdurchschnitt von 51,8 Jahren eher dem Segment der (Jung-)Senioren an und sorgen in der Summe für mindestens 1,01 Mio. Euro an Ums ätzen pro Jahr (genau genommen: pro Radsaison) am Wegesrand. Allerdings ist derzeit nur rd. jeder Achte (13%) auf der Via Bavarica Tyrolensis als mehrtägiger Radreisender unterwegs. Somit wird der Status Quo ihren eigentlichen Chancen und Potentialen bei weitem nicht gerecht. Der Anteil dieser in Bezug auf die Wertschöpfung besonders lukrativen radfahrenden Gästegruppe erscheint nämlich durchaus steigerungsfähig. Hierzu bedarf es allerdings eines größeren, für mehrtägige Radreisen attraktiveren Rahmens. Als Lösungsmöglichkeit böte sich die Integration der Via Bavarica Tyrolensis als Teilstück eines .Radfernwegs München . Verona. nach dem Dachmarkenprinzip an. Besonders ermutigend für ein solches alpen- übergreifendes Projektvorhaben ist die Tatsache, dass die Wegeinfrastruktur von München bis hinab ins tiroler Inntal bereits existiert und im Anschluss daran bis nach Südtirol bzw. Verona ebenfalls weitgehend fertig gestellt ist. Das Interesse an einer Alpenüberquerung mit dem Fahrrad wäre bei den derzeitigen Via Bavarica Tyrolensis- Fahrradtouristen jedenfalls schon in sehr großem Maße vorhanden: für etwas mehr als die Hälfte (52%) von ihnen nimmt eine Alpenüberquerung mit dem Fahrrad einen hohen Stellenwert ein, sie erachten diese Option als wichtig oder gar sehr wichtig. Als Ergebnis der SWOT-Analyse erscheint zum einen die Inwertsetzung der reichhaltigen, geschichtlichkulturellen Grundlagen sinnvoll. Zum anderen könnte sich .München . Verona. aufgrund der guten Kombinationsmöglichkeiten mit dem öffentlichen Personenverkehr als Produkt des gemäßigt-sportlichen, alpinen Komfort-Radreisens positionieren. Hierfür bedarf es zur Vernetzung aller Partner sowie zur Sicherstellung von Qualitäts- und Vermarktungsstandards einer Geschäftsstelle mit einer Finanzausstattung in Höhe von jährlich 400.000 Euro auf drei Jahre. Als Rechtsform sollte die .Europäische wirtschaftliche Interessensvereinigung. (EWIV) in Betracht gezogen werden. Dabei ist die Nutzung von Fördermitteln zu prüfen, z.B. aus dem Programmraum .Alpine Space in Interreg IV B der Europäischen Union. Gerade angesichts der aktuellen Diskussion um den Klimawandel würde damit ein sehr lukratives Tourismussegment für die beteiligten Regionen umfassend erschlossen werden . mit dem sog. Zero Emission Vehicle. Fahrrad.
In Europa haben sich im Laufe der vergangenen Jahrhunderte zahlreiche Kriege und Auseinandersetzungen Art abgespielt, die die Menschen und Nationen, ihre Ideologien und Ansichten stark geprägt haben. Gerade im SaarLorLux-Raum, einer grenzüberschreitenden Region im Gebiet von Deutschland, Frankreich, Luxemburg und Belgien, wurden die Grenzen von den Siegermächten immer neu gezogen und verschoben. Heute leben hier Menschen mit sehr verschiedenen kulturellen Hintergründen in einer multikulturellen Gesellschaft zusammen, die aber oftmals stark von einem Nebeneinander und von Unterschieden geprägt ist. Für die Grenzräume haben sich mit dem Konzept "Europa der Regionen", das kleineren räumlichen Einheiten ein Mitwirken bei Entscheidungsprozessen ermöglicht, große Kooperationschancen eröffnet. Von politischer Seite wird der SaarLorLux-Raum oft als "Mitte Europas" (BRÜCHER, QUASTEN, REITEL 1982, S. 13) oder "einzige europäische Kernregion" bezeichnet, in die "besonders hohe Erwartungen gesetzt" (SANTER 1997) werden. Wie aber sieht das Leben jenseits der Politik auf der ganz alltäglichen Ebene aus? Welche Möglichkeiten bieten sich den Menschen, die kulturelle Vielfalt, die Andersartigkeit der Nachbarländer sowie die Vor- und Nachteile hautnah in Alltagssituationen zu erleben? Die Dissertation untersucht, inwieweit die Grenzen in den Köpfen der Menschen auch nach ihrer Öffnung durch das Schengener Abkommen verankert bleiben und ob die Bewohner einer Grenzregion diesen besonderen Lebensraum in ihrem Alltag nutzen und zu grenzüberschreitend agierenden Europäern werden. Dazu werden wahrnehmungsgeographische Forschungsmethoden (mental maps) genutzt und auf das konkrete Beispiel des SaarLorLux-Raumes angewendet. In drei Studien (2000, 2002 und 2006) wurden insgesamt 5865 Schüler und Bewohner in 20 Orten in den vier Ländern zu ihren Vorstellungen vom SaarLorLux-Raum, zu ihrem aktionsräumlichen Verhalten und zu ihrer Abgrenzung der Region befragt. Dabei wurden bewusst grenznahe und grenzferne Standorte ausgewählt wurden, um Unterschiede im Verhalten herauszuarbeiten. Ziel der Analyse ist es, das Leben in der Großregion über den Zeitraum von sechs Jahren zu untersuchen und mit dieser Langzeitstudie Veränderungen beziehungsweise Gemeinsamkeiten im Verhalten der Bewohner herauszuarbeiten. Die Wahrnehmung des Lebens im SaarLorLux-Raum aus der Sicht seiner Bewohner wird herausgearbeitet und -ausgehend von den Ergebnissen- werden Potentiale und Defizite im grenzüberschreitenden Zusammenleben abzuleiten. Die politische und ökonomische Liberalisierung ist seit mehr als einem halben Jahrhundert Realität in Westeuropa. Ob allerdings die sich daraus ergebenden Chancen von den Bewohnern der grenznahen Räume erkannt, erwünscht und erlebt werden, ist Gegenstand der Untersuchungen. Durch die Fokussierung auf die Befragung von Schülern, also den jungen Menschen, die die Zukunft darstellen, wird die Frage beantwortet, ob sich traditionelle und eventuell auch eingefahrene Sichtweisen von Generation zu Generation übertragen und somit das aktionsräumliche Verhalten beeinflussen und erstarren lassen. Einen Beitrag zu einer funktionierenden Zusammenarbeit leistet die kulturelle und regionale Identität, die dazu beiträgt, dass sich die Menschen über die Grenzen hinaus als Bewohner der gleichen Region definieren. Dabei sollen nicht die Unterschiede, die zwischen den Bewohnern mit unterschiedlichen Nationalitäten bestehen, geleugnet oder verwischt werden. Abschließend werden, losgelöst vom regionalen Beispiel, Möglichkeiten aufgezeigt, wie durch unterschiedliche Initiativen vor allem auf schulischer Ebene zur Stärkung einer gemeinsamen europäischen Identität bei der jungen Bevölkerung beigetragen werden kann. Die Dissertation endet "ausgerichtet auf die Hauptzielgruppe bei den Befragungen- mit dem Entwurf einer Unterrichteinheit zur Stärkung eines grenzüberschreitenden Wir-Gefühls. Der Schulunterricht kann einen Beitrag dazu leisten, dass die zukünftigen Generationen ein tieferes Bewusstsein für das Zusammenleben im Grenzraum und in Europa erhalten.
It has been the overall aim of this research work to assess the potential of hyperspectral remote sensing data for the determination of forest attributes relevant to forest ecosystem simulation modeling and forest inventory purposes. A number of approaches for the determination of structural and chemical attributes from hyperspectral remote sensing have been applied to the collected data sets. Many of the methods to be found in the literature were up to now just applied to broadband multispectral data, applied to vegetation canopies other than forests, reported to work on the leaf level or with modelled data, not validated with ground truth data, or not systematically compared to other methods. Attributes that describe the properties of the forest canopy and that are potentially open to remote sensing were identified, appropriate methods for their retrieval were implemented and field, laboratory and image data (HyMap sensor) were acquired over a number of forest plots. The study on structural attributes compared statistical and physical approaches. In the statistical section, linear predictive models between vegetation indices derived from HyMap data and field measurements of structural forest stand attributes were systematically evaluated. The study demonstrates that for hyperspectral image data, linear regression models can be applied to quantify leaf area index and crown volume with good accuracy. For broadband multispectral data, the accuracy was generally lower. The physically-based approach used the invertible forest reflectance model (INFORM), a combination of well established sub-models FLIM, SAIL and LIBERTY. The model was inverted with HyMap data using a neural network approach. In comparison to the statistical approach, it could be shown that the reflectance model inversion works equally well. In opposition to empirically derived prediction functions that are generally limited to the local conditions at a certain point in time and to a specified sensor type, the calibrated reflectance model can be applied more easily to different optical remote sensing data acquired over central European forests. The study on chemical forest attributes evaluated the information content of HyMap data for the estimation of nitrogen, chlorophyll and water concentration. A number of needle samples of Norway spruce were analysed for their total chlorophyll, nitrogen and water concentrations. The chemical data was linked to needle spectra measured in the laboratory and canopy spectra measured by the HyMap sensor. Wavebands selected in statistical models were often located in spectral regions that are known to be important for chlorophyll detection (red edge, green peak). Predictive models were applied on the HyMap image to compute maps of chlorophyll concentration and nitrogen concentration. Results of map overlay operations revealed coherence between total chlorophyll and zones of stand development stage and between total chlorophyll and zones of soil type. Finally, it can be stated that the hyperspectral remote sensing data generally contains more information relevant to the estimation of the forest attributes compared to multispectral data. Structural forest attributes, except biomass, can be determined with good accuracy from a hyperspectral sensor type like HyMap. Among the chemical attributes, chlorophyll concentration can be determined with good accuracy and nitrogen concentration with moderate accuracy. For future research, additional dimensions have to be taken into account, for instance through exploitation of multi-view angle data. Additionally, existing forest canopy reflectance models should be further improved.
A big challenge for agriculture in the 21st century is the provision of food safety to fast growing world- population, which not only demands the well utilisation of the available agricultural resources but also to develop new advancements in the mass production of food crops. Wheat is the third largest food crop of the world and Pakistan is the eighth largest wheat producing country globally. Rice is the second most important staple food of Pakistan after wheat, grown in all provinces of the country. Maize is the world- top ranking food crop followed by wheat and rice. The harvested produts have to be stored in different types of storage structures on small or large scale for food as well as seed purpose. In Pakistan, the harvested grains are stored for the whole year till the introduction of fresh produce in order to ensure the regular food supply throughout the year. However, it is this extended storage period making the commodity more vulnerable to insect attacks. Rhyzopertha dominica (Coleoptera: Bostrychidae), Cryptolestes ferrugineus (Coleoptera: Laemophloeidae), Tribolium castaneum (Coleoptera: Tenebrionidae) and Liposcelis spp. (Psocoptera: Liposcelididae) are the major and most damaging insect pests of stored products all around the world. Various management strategies have been adopted for stored grain insect pests mostly relying upon the use of a broad spectrum of insecticides, but the injudicious use of these chemicals raised various environmental and human health related issues, which necessitate the safe use of the prevailing control measures and evaluation of new and alternative control methods. The application of new chemical insecticides, microbial insecticides (particularly entomopathogenic fungi) and the use of inert dusts (diatomaceous earths) is believed amongst the potential alternatives to generally used insecticides in stored grain insect management system. In the current investigations, laboratory bioassays conducted to evaluate the effects of combining Imidacloprid (new chemistry insecticide) with and without Protect-It (diatomaceous earth formulation) against R. dominica, L. paeta, C. ferrugineus and T. castaneum, on three different grain commodities (i.e. wheat, maize and rice) revealed differences in adult mortality levels among grains and insect species tested. Individually, Imidacloprid was more effective as compared with Protect-It alone and the highest numbers of dead adults were recorded in wheat. The insecticidal efficacy of B. bassiana with Protect-It and DEBBM was also assessed against all test insect species under laboratory conditions. The findings of these studies revealed that the more extended exposure period and the higher combined application rate of B. bassiana and DEs provided the highest mortality of the test insect species. The progeny emergence of each insect species was also greatly suppressed where the highest dose rates of the combined treatments were applied. The residual efficacy of all three control measures Imidacloprid, B. bassiana and DEBBM formulation was also evaluated against all test insect species. The bioassays were carried out after grain treatments and monthly for 6 months. The results indicated that the adult mortality of each test insect species was decreased within the six month storage period, and the integarted application of the test grain protectants enhanced the mortality rates than their alone treatments. The maximum mortality was noted in the combined treatment of DEBBM with Imidacloprid. At the end, the effectiveness of B. bassiana, DEBBM and Imidacloprid applied alone as well as in combinations, against all above mentioned test insect species was also evaluated under field conditions in trials conducted in four districts of Punjab, Pakistan. For each district, a significant difference was observed between treatments, while the combined treatments gave better control of test species as compared with them alone. The least number of surviving adults and minimum percentage of grain damage was observed for the DEBBM and Imidacloprid combination, but DEBBM with B. bassiana provided the best long-term protection as compared with the remaining treatments.
Tropospheric ozone (O3) is known to have various detrimental effects on plants, such as visible leaf injury, reduced growth and premature senescence. Flux models offer the determination of the harmful ozone dose entering the plant through the stomata. This dose can then be related to phytotoxic effects mentioned above to obtain dose-response relationships, which are a helpful tool for the formulation of abatement strategies of ozone precursors. rnOzone flux models are dependant on the correct estimation of stomatal conductance (gs). Based on measurements of gs, an ozone flux model for two white clover clones (Trifolium repens L. cv Regal; NC-S (ozone-sensitive) and NC-R (ozone-resistant)) differing in their sensitivity to ozone was developed with the help of artificial neural networks (ANNs). White clover is an important species of various European grassland communities. The clover plants were exposed to ambient air at three sites in the Trier region (West Germany) during five consecutive growing seasons (1997 to 2001). The response parameters visible leaf injury and biomass ratio of NC-S/NC-R clone were regularly assessed. gs-measurements of both clones functioned as output of the ANN-based gs model, while corresponding climate parameters (i.e. temperature, vapour pressure deficit (VPD) and photosynthetic active radiation (PAR)) and various ozone concentration indices were inputs. The development of the model was documented in detail and various model evaluation techniques (e.g. sensitivity analysis) were applied. The resulting gs model was used as a basis for ozone flux calculations, which were related to above mentioned response parameters. rnThe results showed that the ANNs were capable of revealing and learning the complex relationship between gs and key meteorological parameters and ozone concentration indices. The dose-response relationships between ozone fluxes and visible leaf injury were reasonably strong, while those between ozone fluxes and NC-S/NC-R biomass ratio were fairly weak. The results were discussed in detail with respect to the suitability of the chosen experimental methods and model type.
Die vorliegende Arbeit entstand im Rahmen des INTERREG III B-Projektes WaReLa (Water Retention by Landuse), das sich mit dem Rückhalt von Wasser in der Fläche als Beitrag zum vorbeugenden Hochwasserschutz beschäftigt. Im Vordergrund stehen dabei die so genannten dezentralen Rückhaltemaßnahmen als Alternative bzw. Ergänzung zum technischen Hochwasserschutz. Gegenstand dieser Arbeit ist die Frage nach der Effizienz von Retentionsmaßnahmen in urbanen Räumen und deren Beitrag zum Hochwasserschutz. Es handelt sich um ein relativ junges Forschungsthema, welches die Fachwelt bis heute kontrovers diskutiert. Wie bisherige Untersuchungen zeigen, sind allgemeine Aussagen über die Retentionswirkung nicht möglich, da das Potential der Regenwasserbewirtschaftung und deren Rückhaltewirkung von mehreren gebietsspezifischen Faktoren gesteuert werden. Untersuchungen an einem Retentionssystem im Neubaugebiet Trier-Petrisberg sollten weitere Erkenntnisse bringen. Hierzu wurde zum einen die hydraulische Belastung einzelner Retentionsanlagen untersucht und zum anderen wurden N A-Simulationen mit dem Programm erwin 4.0 durchgeführt. Laut N-A-Simulationen hält das Retentionssystem, welches für ein 100-jährliches Ereignis mit 56 mm Niederschlag und der Dauerstufe 3 Stunden konzipiert wurde, im Vergleich zur Entwässerung des Gebietes über ein Trennsystem zwischen 58 % und 68 % des Jahresniederschlags zurück. Ähnlich hohe Werte (60 80 %) nennen GÖBEL, STUBBE, WEINERT, ZIMMERMANN, FACH, DIERKES, KORIES, MESSER, MERTSCH, GEIGER & COLDEWEY (2004: 270f) und WEGNER (1992: 7f) für die von ihnen untersuchten Anlagen. Sehr hoch erscheint die Scheitel abmindernde Wirkung des Retentionssystems im Vergleich zu einer konventionellen Ableitung. Im Mittel beträgt diese 82 %, so dass der Scheitel der Einleitung in den Vorfluter Brettenbach im Vergleich zur Regenwasserableitung auf 1/5 reduziert wird. Aufschluss über die Scheitelabminderung im Vorfluter selbst kann nur eine Quantifizierung der einzelnen Abflusskomponenten geben. Das Retentionssystem arbeitet im Sommerhalbjahr effektiver als im Winterhalbjahr, da trockene Vorperioden, höhere Lufttemperaturen und die Vegetation im Sommer einen besseren Rückhalt konvektiver Niederschläge begünstigen. Korrespondierende Aussagen machen ASSMANN & KEMPF (2005), GANTNER (2003a) und NIEHOFF (2002). Beobachtungen und Simulationen zeigen, dass das Retentionssystem bisher effektiv arbeitet. Sämtliche Retentionsanlagen entleeren sich innerhalb von 48 Stunden. Die Arbeit wird ergänzt durch Handlungsempfehlungen zu Planung, Bau und Betrieb von Anlagen zur Regenwasserbewirtschaftung auf Privatgrundstücken. Sie sollen helfen, die Akzeptanz naturnaher Maßnahmen zur Bewirtschaftung von Regenwasser zu steigern, Fehler zu vermeiden und Projekte erfolgreich umzusetzen.
Die Arbeit befasst sich mit der quantifizierenden Wirkungsabschätzung folgender Hochwasserschutzmaßnahmen: Auwaldaufforstung, Kleinrückhalte, Tieflockerung und Wegebaumaßnahmen. Neben der Betrachtung der hochwassermindernden Wirkung der einzelnen Maßnahmen werden auch die Grenzen der eingesetzten Simulationsmodelle aufgezeigt, diskutiert und Impulse für die Weiterentwicklung der Modellsysteme geben. Für die Auwaldaufforstung wurde ein zweidimensional instationäres Strömungsmodell auf der Basis des Rauhigkeitsansatzes nach Manning-Strickler auf einen rund 7,0 km langen Abschnitt eines Auetalgewässers angewendet. Bezüglich der hochwassermindernden Wirkung der Maßnahme Auwaldaufforstung konnte festgestellt werden, dass sich die Wirkung nahe der modelltechnischen Nachweisbarkeitsgrenze bewegt. Als Referenzereignisse dienten ein ca. 5-10 jährliches sowie ein ca. 50-80 jährliches Hochwasserereignis. In allen untersuchten Fällen blieb die relative Scheitelabminderung deutlich unter 1 %. Der Maßnahmentyp Kleinrückhalte wurde zunächst anhand von zwei Einzugsgebieten der Mesoskale (Obere Blies, AE ca. 8,5 km-² und Thalfanger Bach, AE ca.17 km-²) sowie anhand von mehreren hieraus abgeleiteten Fiktivsystemen mit Hilfe eines konzeptionellen Flussgebietsmodells untersucht. Die Untersuchung von Fiktivsystemen diente der Identifikation derjenigen Modellparameter, die den Effekt " also die hochwassermindernde Wirkung der Maßnahme " im Wesentlichen bewirken. Anschließend erfolgte eine Betrachtung des Maßnahmentyps Kleinrückhalte in den Flussgebieten von Prims (AE ca. 730 km-²) und Blies (AE ca. 1.890 km-²). Die Simulationsergebnisse zeigen, dass die Retentionswirkung von Kleinrückhalten entscheidend vom Volumen der jeweiligen Standorte und vom Volumen des betrachteten Hochwassers abhängt. In Abhängigkeit des Volumens wurden Scheitelabminderungen " je nach Ereignis " von < 1 % bis über 60 % simuliert. Entscheidend ist die Summe des Volumens der Einzelstandorte. Liegt das Gesamtvolumen unter einem Wert von 2,0 mm Gebietsrückhalt, so kann davon ausgegangen werden, dass die Maßnahmen nicht signifikant zur Hochwasserminderung beitragen können. Das Retentionspotenzial der Kleinrückhalte kann entscheidend gesteigert werden, wenn die Drosselöffnungen der Kleinrückhalte entsprechend optimiert werden. Die Arbeit stellt ein einfach handhabbares Regionalisierungsverfahren zur Abschätzung des Retentionspotenzials in mesoskaligen Einzugsgebieten (bis 20 km-²) vor. In den Einzugsgebieten von Blies und Prims würden jeweils 104 bzw. 79 Standorte mit einem Gesamtvolumen von 1,9 bzw. 2,5 mm zu Scheitelabminderungen am Gebietsauslass von 2-4 % bzw. 3-5 % bei interessanten, schadbringenden Hochwasserereignissen führen. Die Maßnahmentypen Tieflockerung und Wegebaumaßnahmen wurden mit Hilfe eines Wasserhaushaltsmodells im Einzugsgebiet der Oberen Blies untersucht. Für dieses Gebiet liegen die simulierten Scheitelabminderungen bezogen auf das zugrunde liegende Hochwasserereignis vom Dezember 1993 (ca. HQ10) bei jeweils < 5 % für die beiden untersuchten Maßnahmentypen Tieflockerung und Wegebaumaßnahmen. Generell sind die Möglichkeiten der Tieflockerung und der wegebaulichen Maßnahmen als Hochwasserschutzmaßnahmen begrenzt auf kleinere, 1-5 jährliche Ereignisse. Große, schadbringende Ereignisse können nicht signifikant abgemindert werden.
Um die weiterhin ansteigende Weltbevölkerung auch zukünftig mit Nahrungsmitteln und anderen wichtigen Rohstoffen zu versorgen, bedarf es einer immer größeren Nutzungsausweitung der Landwirtschaft auf natürliche Flächen. Im Jahre 2009 wurde ein Drittel der Landoberfläche der Erde bereits landwirtschaftlich genutzt. In jüngster Zeit kommt der Landwirtschaft zusätzlich eine wichtige Bedeutung als Energielieferant zu. Ein weiter steigender Flächenbedarf ist die Konsequenz dieser Entwicklung. Dies führt zum Verlust von Habitaten und somit zu einer starken Fragmentierung der Landschaft. Die direkten und indirekten Auswirkungen dieser Entwicklung auf den weltweiten Biodiversitätsrückgang werden mittlerweile als eine der Hauptursachen für den Rückgang vieler Arten anerkannt. Auch der Gesetzgeber hat dieses Problem erkannt und versucht dem entgegenzuwirken. In der vorliegenden Arbeit wird durch einen multiplen Methodenansatz der Einfluss der Habitatfragmentierung auf die Konnektivität der Populationen von zwei unterschiedlich mobilen Insektenarten untersucht. Als Modelarten wurden eine wenig mobile Heuschreckenart (Chorthippus montanus) und ein hoch mobiler Tagfalter (Brenthis ino) ausgewählt, welche beide an feuchte Grünländer gebunden sind. Für C. montanus wurde gezeigt, dass die Art nur ein sehr eingeschränktes Mobilitätspotenzial besitzt und stark an ihr Habitat gebunden ist. Daher ist eine Durchquerung von ungeeigneten Lebensräumen als äußerst unwahrscheinlich zu erachten. Eine Studie zur Mobilität und dem Verhalten von Brenthis ino belegt eine starke Philopatrie für eine nicht territoriale Insektenart. Zusätzlich zu den Fang-Wiederfang-Untersuchungen im Freiland wurden populations- und landschaftsgenetische Analysen durchgeführt. Die populationsgenetischen Analysen zeigen eine starke Isolation der Populationen von C. montanus, während zwischen den untersuchten Populationen von B. ino eine gute Konnektivität besteht. Mittels der landschaftsgenetischen Analyse wird gezeigt, dass Wälder und bebaute Flächen für beide Arten substanzielle Genefluss-Barrieren darstellen. Basierend auf einer GIS gestützten Analyse wird dargelegt, dass eine lokal ausreichende Vernetzung von Grünländern in Rheinland-Pfalz durch den Biotopverbund existiert. Die Berücksichtigung der Konnektivität bei der Auswahl und Ausgestaltung der Instrumente zur rechtlichen Sicherung und Umsetzung des Biotopverbundes (-§ 21 BNatSchG) bergen großes Potenzial zum Schutz von Grünländern. Ferner wird gezeigt, dass die Landschaftsplanung zwar ein geeignetes Instrument zur Erarbeitung des Biotopverbundes ist, aber kein Instrument zur rechtlichen Sicherung desselbigen im Sinne des -§ 21 Abs. 4 BNatSchG sein kann.
Ein gut funktionierendes Umweltmanagementsystem strebt im Allgemeinen nach einer kontinuierlichen Verbesserung der Umweltleistung. Diese kontinuierliche Verbesserung setzt bei den beteiligten Unternehmen einmal die Identifizierung der Umweltaspekte voraus. Die Umweltaspekte beziehen sich vor allem auf den Produktionsprozess und somit auf die Umwelteinwirkungen und - auswirkungen des Produktionsstandortes. Das Potential für kontinuierliche Verbesserung ist nicht immer offensichtlich, wie auch Schwachstellen nicht immer sofort erkannt werden. Beides äußert sich in der Umweltleistung eines Unternehmens. Das vorliegende Bewertungssystem ermöglicht es nun, diese Umweltleistung zu messen und im Sinne des Benchmarking die daraus erlangten Kenntnisse zu nutzen. In dieser Arbeit wird dargestellt, wo die Darstellung der Umweltleistung mit Kennzahlen seine Grenzen hat. Für den operativen Bereich werden daraufhin neue operative Umweltleistungskriterien entwickelt, und es wird gezeigt, wie die Killerargumente gegen einen Vergleich "unterschiedliche Fertigungstiefen und unterschiedlicher Produktoutput" ausgeschaltet werden können. Das Ergebnis sind operative Umweltleistungskriterien, die zwar mit Fehlern belastet sind, aber sie wurden analysiert und auf ein Minimum reduziert. Parallel dazu wird ein Katalog qualitativer Kriterien für den Managementbereich vorgestellt. Hiermit soll der organisatorische Teil, also die "Soft Skills" des Umweltmanagementsystems, abgedeckt werden. Zunächst wurde versucht, diesen Katalog von managementbezogenen Umweltleistungskriterien durch eine Delphi-Befragung zusammenzustellen. Nach einer Analyse der bestehenden Checklisten und Literatur musste dieser jedoch ergänzt werden. Nach dem betriebswirtschaftlichen Grundsatz: "What you cannot measure, you cannot manage." gibt der vorliegende Ansatz die Möglichkeit, durch die Vergabe von Zielerfüllungsgraden auch hier quantitative Aussagen zu machen. Dann wurde der Versuch, unternommen beide Umweltleistungskriterienpakete in einem naturwissenschaftlichen Bewertungsverfahren zu einem Bewertungssystem für Umweltmanagementsysteme zu vereinen. Dieser Versuch mündet in einem praktikablen Ansatz der Umweltleistungsbewertung zugeschnitten, auf die Automobilindustrie. Allerdings wird darauf verzichtet, eine Gesamt- Umweltleistungskennzahl über alle Kriterien zu kreieren, da die Aussage für den Anwender nicht detailliert genug wäre und eine so starke Aggregierung aus bewertungstheoretischer Sicht sehr problematisch ist.
Während die ersten Naturwissenschaftler, wie Humboldt und Darwin, auf dem Feld der klassischen Biogeographie noch vor allem die Aufschlüsselung der Verbreitung von Arten untersuchten, entwickelte sich mit Wallace die Erkenntnis, dass es kausale Gründe für die Verbreitung von Arten gibt. Ihre Erkenntnisse erlangten Wallace oder auch de Lattin noch dadurch, dass Sie Verbreitungsmuster von Arten übereinander projizierten und Ausbreitungszentren ableiteten. In den letzten Jahrzehnten bieten die mannigfaltigen Möglichkeiten computerbasierter Analysen besondere Vorteile bei der Analyse von Verbreitungsmustern, welche in der vorliegenden Dissertation genutzt werden, um eine interdisziplinäre Arbeit im Schnittpunkt von Natur- und Rechtswissenschaften zu schreiben. In fünf Kapiteln werden verschiedene Aspekte aus dem Bereich der klassischen Biogeographie analysiert und diskutiert. Im ersten Beitrag dieser Arbeit wird die biogeographische Struktur der Libellen in der westlichen Paläarktis mittels Verbreitungsanalysen untersucht. Der zweite Beitrag vertieft die Betrachtung mit einer regionalen Analyse der Biogeographie der Odonaten und Tagfalter in Rumänien. Ein dritter Beitrag schließt diesen westpaläarktischen Block mit einer Analyse der Inselbiogeographie des westlichen Mittelmeergebietes ab. In einem zweiten eurasischen Block werden in der vierten Arbeit die biogeographischen Muster Eurasiens herausgearbeitet. Abschließend wird im fünften Beitrag die Phylogeographie der Zwerglibelle (Nehalennia speciosa) als ein Beispiel für trans-paläarktisch verbreitete Arten untersucht. Neben ihrer Bedeutung in der Grundlagenforschung stellen diese fünf Arbeiten eine wesentliche Grundlage für die Ausarbeitung der juristischen Abhandlung dar. In der juristischen Abhandlung werden verschiedene Aspekte unter zu Hilfenahme, der zuvor erarbeiteten Erkenntnisse erläutert, die dazu geführt haben dürften, dass Libellen in der FFH-Gesetzgebung eher unterrepräsentiert sind. Es sind dies eine fehlende europaeinheitliche Gefährdungsbewertung, das Fehlen eines Schutzkriteriums Ausbreitungsfähigkeit und eine fragwürdige Herangehensweise bei den Überlegungen, welche Arten überhaupt auf ihre Schutzwürdigkeit hin untersucht werden sollen.
Die Zahl der (potenziellen) Kunden der Dienstleistungsbranche Tourismus und deren Ver-teilung im Raum wird durch eine Vielzahl von Ursachen (Bedürfnis- und Verhaltens-dimension der Tourismusforschung) bestimmt. Das sind z. B. auch Beweggründe, Bedürf-nisse, Motive oder auch Motivkomplexe. Die Kenntnis dieser Bedürfnisse und Verhaltens-weisen von Reisenden und deren Anforderungen an die offerierte Leistung sind dabei eine zentrale Voraussetzung für eine zielgruppengerechte Marktbearbeitung. Ein wichtiger Bestandteil dieser notwendigen Zielgruppenorientierung ist die Marktsegmentierung, deren Aufgabe darin besteht, den relevanten Markt in intern möglichst homogene und untereinander heterogene Teilmärkte aufzuteilen. Eine Segmentierung des Tourismusmarktes erfolgte bislang vornehmlich anhand verschiedener Einschränkungen. Aufgrund der geringen Aus-sagekraft der bisherigen Ansätze für das durch umfangreiche Motivkomplexe geprägte Reise-verhalten der Nachfrager erweist sich allerdings eine zielgruppenspezifische Markt-bearbeitung auf Basis derartiger Lösungen als nur bedingt möglich. Dieser Kritik Rechnung tragend wurde ein ganzheitlicher Segmentierungsansatz entwickelt, der an möglichst zahl-reichen Ausprägungsformen des Reiseverhaltens ansetzt, alle vier klassischen Markt-erfassungsansätze verbindet und damit Handlungsempfehlungen für eine breit angelegte zielgruppenspezifische Marktbearbeitung aufzeigt. Eine weitere Neuerung bezieht sich auf die Anwendung einer multivariaten Baumanalyse, um Zielgruppen im Tourismus zu differen-zieren. Dieses Analyseverfahren erlaubt die gemeinsame Analyse mehrerer Variablen und von Variablen jedes Skalenniveaus. Dazu wurden mehr als 6.000 mündlich geführte Interviews, die mittels einer Zielgebiets-befragung 1997-1999 in Rheinland-Pfalz erhoben wurden, ausgewertet. Das Hauptaugenmerk lag dabei auf der multivariaten Analyse mit Hilfe des sogenannten CHAID-Algorithmus. Es handelt sich dabei um eine Art Baumdiagramm, welches erstmalig als Instrument der touristischen Zielgruppenplanung mittels Segmentbildung und Profilerstellung eingesetzt und daher als Alternative zu Cluster- und Diskriminanzanalyse charakterisiert wird. Dabei kann eine Vielzahl verschiedenartiger Typisierungen untersucht werden, wie etwa die Typisierung der Reisenden mit hohem Reisestellenwert (z. B. der Haupturlauber), mit ausgeprägter Besuchshäufigkeit bzw. Zielgebietserfahrung, mit hoher Rückkehrbereitschaft, außergewöhnlicher Zufriedenheit oder des kaufkräftigen Urlaubers. Abschließend erfolgt die Beurteilung der Ergebnisse bezüglich der praktischen Bedeutung für das Rheinland-Pfalz-Marketing.
In Deutschland wurden von 1979 bis heute 14 Biosphärenreservate sowohl national von der jeweiligen Landesregierung im Rahmen des Landesnaturschutzgesetzes als auch von der UNESCO international anerkannt. Damit unterliegen diese Großschutzgebiete einer einheitlichen und weltweit anerkannten Zielstellung. In der internationalen Naturschutzpolitik gilt Deutschland als Vorbild, da eine aus Biosphärenreservatsleitern bestehende Arbeitsgruppe 1996 Ausschluss- und Bewertungskriterien für die Anerkennung und Überprüfung von Biosphärenreservaten (kurz: BR-Kriterien) definiert hat, nach denen Biosphärenreservate ausgewiesen bzw. evaluiert werden können. Biosphärenreservate stellen Modelllandschaften dar, in der beispielhaft Konflikte ausgetragen, nach Lösungswegen gesucht und Alternativen angeboten werden sollen. Daher ist es wichtig, vorprogrammierte Dauerkonflikte durch ein gut funktionierendes Monitoring rechtzeitig zu erkennen und zu lösen. Mit Hilfe von regelmäßigen Evaluierungen von Biosphärenreservaten lassen sich die Schutzvorhaben für die einzelnen Großschutzgebiete zielstrebig verwirklichen. Die Entwicklung, Festsetzung und regelmäßige Durchführung von Evaluierungen der Biosphärenreservate ist unbedingt erforderlich, um Erfolge zu bestätigen sowie Defizite und Fehlentwicklungen aufzuzeigen. Die BR-Kriterien und auch die "Internationalen Leitlinien für das Weltnetz der Biosphärenreservate" verlangen nach spätestens zehn Jahren eine Evaluierung der Biosphärenreservate. Elf (von 14) Biosphärenreservate sind bereits älter als zehn Jahre und hätten dem Generalsekretariat der UNESCO in Paris eine Evaluierung vorlegen müssen. Die von der Autorin geleisteten Untersuchungen zeigen die Notwendigkeit einer einheitlichen und von unabhängiger Seite praktizierten Evaluierung aller Biosphärenreservate in Deutschland auf. Die im Rahmen dieser Dissertation durchgeführten Evaluierungen der deutschen Biosphärenreservate beleuchten, wie sich die einzelnen Biosphärenreservate in den Jahren seit ihrer Anerkennung entwickelt haben. Dabei sind drei verschiedene Evaluierungsvorgaben berücksichtigt und miteinander verglichen worden. 1. Die deutschen Biosphärenreservate erzielen vorbildliche Ergebnisse bei der UNESCO-Evaluierung. Bei deskriptiven Verfahren kann es allerdings zu Verzerrungen in der Abbildung von Realitäten kommen. Defizite werden nicht zwangsläufig hervorgehoben. 2. Die Anwendung der BR-Kriterien gestaltet sich schwierig, da sie keine Rechtsgültigkeit besitzen. Außerdem ist der Qualitätsanspruch so hoch, dass keines der Biosphärenreservate alle Ausschlusskriterien erfüllt. 3. Das neu entwickelte Bewertungsverfahren greift diese Aspekte auf und ergänzt sie durch zusätzliche, übergeordnete Evaluierungserfahrungen und Qualitätskriterien. Der besondere Ansatz dieser Arbeit liegt darüber hinaus in der Überprüfung von Evaluierungserfahrungen der Biosphärenreservate im Ausland. Hierzu werden internationale Vergleiche mit evaluierten Biosphärenreservaten gezogen (z. B. Großbritannien, Norwegen, USA, Schweiz, Argentinien, Polen, Ägypten), um positive Erkenntnisgewinne zu vermitteln. Des Weiteren werden potentielle Biosphärenreservate in Deutschland berücksichtigt (z. B. Drömling, Karstlandschaft Südharz, Bliesgau, PLENUM-Modellprojekte), um zu überprüfen, welche Voraussetzungen diese erfüllen, bevor es zur nationalen und internationalen Anerkennung kommt. Die Dissertation stellt somit ein einheitliches, praxisnahes und umfassendes Evaluierungskonzept für die deutschen Biosphärenreservate vor. Die Methodik selbst basiert auf guter Anwendbarkeit, zweifacher Absicherung aller inhaltlich relevanten Fragestellungen, Bewahrung der Objektivität, unabhängigen und neutralen Beurteilungen. Die Ergebnisse sind vergleichbar, und positive Aspekte können übertragen werden. Damit leistet die Dissertation einen Beitrag, die bestehenden Biosphärenreservate in Deutschland für die Zukunft zu erhalten bzw. die Schaffung neuer Biosphärenreservate zu fördern, um die artenreichen Naturlandschaften mit ihrer genetischen Vielfalt dauerhaft zu schützen, die historisch gewachsenen sowie gestalteten Kulturlandschaften nachhaltig zu entwickeln und neue Perspektiven für die lokale Bevölkerung zu geben. Es wird auch zukünftig erforderlich sein, Konzepte zu erarbeiten, welche die Anpassung an neue Gegebenheiten gewährleisten. Die Evaluierungen sind in regelmäßigen Abständen durchzuführen, um Entwicklungsfortschritte und "tendenzen beurteilen zu können. Das ist mit der vorliegenden Arbeit klar herausgearbeitet worden.
The importance of the hotel sector as part of the cultural environment has not been recognised yet, partly because of a missing awareness that hotels could actually be regarded as a national treasure. The hotel business is not only a service provider for tourism - supplying different options for overnight stays - but also representative of social and built environment. It works as a meeting place and communication point; it reflects former and current culture of living as well as buildings. Within a rapidly changing world there is an increasing requirement of protecting measures for ever more aspects of the environment as e.g. for national heritage and nature conversation. So far nobody thought that hotels and inns might qualify for this category and any initiatives taken so far were generally based on private effort. A public awareness does not exist, partly because the difference between culturally worthy objects/ensembles is solely depending on individual measures of value. A classification in categories, which strengthens awareness for the hotel environment and also allows an affiliation of giving cover, is missing. This work is dedicated to exactly that shortage. In the beginning it proves that hotels/inns are worthy being integrated into protective measures. They are important representatives of the built and social culture including the living culture where one lives history. The main part of the work concentrates on a two-part systematisation ï‚· An areal allocation seems essential to rate where exactly in a town protective measures are needed. In order to do so examples for the so called "town protection zones" (Stadtschutzzone) by JÄTZOLD are used. ï‚· Following the idea of the town protection zones an introduction of a historical categorisation will be introduced, which allows allocating objects and ensembles into the different eras. The history of hotels and concise examples will show the differences " relics of early tourism, time of hostels and inns, health resorts and grand hotels, recent developments as well as stylish hotels. Subsequent to this categorisation additional conceptual suggestions to be used in praxis are made, taking into account the decision-makers that should be involved. It results in a multidisciplinary approach, which integrates heritage, town planning, bearers of cultural awareness, policy makers, etc. Negative and positive examples are deployed to force the urgency of a sensible exposure with the treasure "hotel". To force the necessity a comparison between Germany and Great Britain is used where applicable. The author believes the cultural awareness in Great Britain, which also integrates the protection of the hotel sector, is much higher and better than in Germany.
Weltweit wird die Wildjagd unserer Zeit selten noch aus rein praktischen Motiven (z. B. Nahrungsjagd),sondern um eines starken emotionalen Erfolges Willen (der Kick beim Töten des Tieres, Freude, Glück,Zerstreuung, Entspannung, Abenteuer) oft mit großer Leidenschaft und Hingabe betrieben. Die Außenperspektive registriert Jagdhandeln dieser Art meistens als Lust am Töten. Mit dieser spekulativen Annahme eines urmenschlichen Bedürfnisses (Anlage) stimmen die meisten Jäger überein: Sie glaubenan einen atavistisch auftretenden naturalen Beutetrieb, der sich an der Kulturevolution "vorbeigeschlichen" hat. Für die modernen Jäger unserer Zeit bedeutet das Töten des Wildes notwendige Bedingung zum Erreichen des oft leidenschaftlich intendierten emotionalen Ereignisses (der Kick). Gleichzeitig behaupten sie, das Töten des Wildes sei nicht erlebenskonstitutiv: Für den angestrebtenemotionalen Erfolg ist das Töten notwendige Bedingung, er (das Erleben) besteht aber nicht darin. Diesen Widerspruch bezeichnet eine umfangreiche wissenschaftliche Untersuchung an der Universität Trier als das Emotionale Jagdparadox. Mit einer ersten wissenschaftstauglichen Jagdtheorie brachte sie Licht in das Dunkel des Jagdmotivs und dessen vorbewußte elementare Bedürfnisebene. In einer komplexen empirischen multidisziplinären Untersuchung wurde mit relevanten Ansätzen der aktuellen Hirnforschung, Genetik, Evolutionsforschung und der Humanwissenschaften (Fundamentalontologie im Sinne von Martin Heidegger) ein jagdthematisches kulturanthropologisches Erklärungsmodell geleistet,mit dem das Emotionale Jagdparadox aufgelöst werden konnte. Seine Entstehung fällt offenbar mit der Evolution des Selbstbewußtseins und damit des Todesbewußtseins des Menschen zusammen. Es handelt sich um einen kulturellen Elementartrieb, der im Bewußtsein des Subjekts nicht repräsentiert ist. Er wird von einem Beherrschungsstreben (Machtmotiv) fundiert und hat das Leben als naturgesetzliche Entität zum Objekt. Der erlebte Kick beim Töten des Wildes ist demgemäß nicht Lust am Töten, sondern die Erfahrung einer extremalen Befriedigung vermittels (virtueller) Macht über die dem Menschen mit dem Bewußtsein der Endlichkeit (Todesangst) unbeherrschbar und unabwendbar bedrohlich erscheinende Natur. Das Tier bzw. das individualtierische Leben ist nur Vermittlungsgestalt. Das erlebte Glück, die Freude und Zufriedenheit, die Zerstreuung usf. beruhen auf der virtuellen, nie bewußt vom Individuum erfahrenen Überwindung der Todesangst. Die emotionalen und kortikalen Prozesse sind fast ausnahmslos limbisch strukturiert. Daher die Ahnungslosigkeit des Jägers im Hinsehen auf die Entstehung seines Jagdbedürfnisses. Unberührt von diesen, die Motivation des Jagens bedingenden Faktoren ergibt sich eine funktionale zukunftsorientierte Begründung für ein modernes Wildlife Management durch die "Ökosystemgerechte Jagd".
Der Radtourismus hat in den letzten 15 bis 20 Jahren eine dynamische Entwicklung genommen, die ihn zu einer wichtigen Tourismusart für viele Regionen in vor allem ländlich geprägten Regionen werden ließ. Die Konsequenz war und ist ein erheblicher Ausbau der radtouristischen Infrastruktur, die hauptsächlich aus öffentlichen Mitteln finanziert wurde. Die radtouristische Nachfrage umfasst in Deutschland - je nach zu Grunde gelegten Daten - zwischen 4,2 und 7,9 Mio. Bundesbürger. Dabei ist die Entwicklung dieser Nachfrage in den letzten Jahren eher stagnierend verlaufen, trotzdem steht ihr ein weiter wachsendes radtouristisches Angebot gegenüber. Die Frage, ob sich diese Investitionen über die durch den Radtourismus ausgelösten regionalwirtschaftlichen Effekte bezahlt machen, steht im Zentrum dieser Arbeit und wurde mit Hilfe einer empirischen Erhebung untersucht. Für das Bundesland Rheinland-Pfalz insgesamt konnte eine Spannweite von 4,2 bis 7,7 Mio. Radtouristen pro Jahr ermittelt werden, wovon zwischen 2,9 und 6,0 Mio. Tagesgäste sind. Auf Grund der während der Radurlaube getätigten Ausgaben lassen sich die durch den Radtourismus induzierten regionalwirtschaftlichen Effekte in einer Größenordnung von 275 Mio. € bis 327 Mio. € bestimmen, was rund 10% der gesamttouristischen Wertschöpfung in Rheinland-Pfalz entspricht. Werden die Investitionskosten für die vier untersuchten Radwege " Mosel-Radweg, Nahe-Radweg, Maare-Mosel-Radweg und Kraut und Rüben-Radweg " der jährlich auf diesen Wegen erzielten Wertschöpfung in Höhe von ca. 62 Mio. € gegenübergestellt, muss festgestellt werden, dass sich die Investitionen schon nach kurzer Zeit über die positiven, indirekten wirtschaftlichen Effekte in den Regionen bezahlt gemacht haben. Insgesamt gesehen stellt sich somit der Radtourismus als attraktives, wirtschaftlich tragfähiges touristisches Segment dar, welches in der Lage ist, auch in peripheren Regionen touristische Wertschöpfung zu erzeugen. Voraussetzung hierfür ist aber die Beachtung der dargestellten Anforderungen, welche die Nachfrage an das Produkt Radtourismus stellt und die Einhaltung von verschiedenen Qualitätsanforderungen. Erst wenn Radtourismus als Qualitätsprodukt verstanden wird, hinter dem auch die touristischen Leistungsträger einer Region stehen, kann Radtourismus zu einem wichtigen Wirtschaftsfaktor innerhalb einer Region entwickelt werden.
Allergische Kontaktdermatitis ist eine zellvermittelte verzögerte Überempfindlichkeitsreaktion auf niedermolekulare Substanzen, die häufig Hautreaktionen hervorrufen und dadurch sowohl persönliche als auch berufliche Probleme verursachen. Chemikalien wie para-Phenylendiamin (PPD) und andere verwandte para-Aminobenzole werden häufig in Farben eingesetzt und erlangen aufgrund ihrer starken Allergenität eine immer größere Aufmerksamkeit. Bis jetzt ist das Wissen über zelluläre Immunantworten auf PPD nur begrenzt verstanden. In dieser Studie haben wir das immunmodulatorische Potential vonrnPPD untersucht, vor allem hinsichtlich der Fragestellung, ob PPD selber naive T-Zellen sensibilisieren kann oder ob PPD letztendlich nur ein Allergen ist. In Anbetracht der Tatsache das dendritische Zellen (DZ) eine vorherrschende Rolle bei der allergischen Kontaktdermatitis spielen, haben wir untersucht, in wie weit PPD in der Lage ist, funktionelle Reifung zu modulieren. Um abschätzen zu können, welcher Anteil an PPD nach der Stimulation zur potentiellen Aktivierung tatsächlich zur Verfügung steht, haben wir die metabolische Kompetenz von "monocyte derived dendritic cells" (MoDC) untersucht, PPD zurnacetylieren. Dazu haben wir die N-Acetyltransferase 1 (NAT-1) und N-Acetyltransferase 2(NAT-2) mRNA Expression charakterisiert und weitergehend die metabolische Aktivität von NAT-1 Enzym bestimmt. Mit diesen Versuchen konnten wir zeigen, dass MoDC von 9 aus 10 Spendern das NAT-1 Enzym exprimieren und konnten in 4 von 6 Spendern acetyliertes PPD in Extrakten aus Zellkulturüberständen detektieren. In Anbetracht der Tatsache, dassrnacetyliertes PPD nicht in der Lage ist, MoDC zu aktivieren, können wir davon ausgehen,dass der Anteil an acetyliertem PPD zur DC Aktivierung nicht zur Verfügung steht. Um das sensibilisierende Potential von PPD herauszufinden, haben wir nach Stimulation mit verschiedenen PPD Konzentrationen die Expression von Oberflächenmolekülen, die für die Antigenpräsentation, Co-Stimulation, späte Migration und dendritische Zell-/T-Zell-Wechselwirkung entscheidend sind, zu verschiedenen Zeitpunkten mittels Durchflusszytometrie Messungen (FACS) gemessen. Zusammengefasst konnten wir zeigen,dass PPD signifikant die "chemokine receptor 7" (CCR7) Expression und nicht signifikant die "human leukocyte antigen " DR" HLA-DR, "DC-specific C-type lectin intercellular adhesion molecule-3-grabbing nonintegrin" (DC-SIGN) und "cluster domain" 11c (CD11c) Expression erhöht. Die erhöhte CCR7 Expression ermutigte uns, weiter nachzuforschen, ob PPD trotz der Tatsache, dass es keine traditionelle CD80 und CD86 Expression induzieren kann, fähig ist, DCs zu aktivieren. Ausgiebige Zytokinkinetikmessungen konnten diese Hypothese bestätigen. Mit Cytometric Beat Array (CBA) Messungen konnten wir gleichzeitig Mediatoren wie "Interleukin -1ß" (IL-1ß), "tumor necrosis factor-alpha" (TNF-α), IL-8, IL-6, IL-12P70 undrnIL-10 messen und damit demonstrieren, dass PPD in der Lage ist, bei allen Spendern "Danger Signals" zu induzieren. Zudem konnten wir zeigen, dass die PPD induzierte Zytokinausschüttung interindividuell schwankte und zu unterschiedlichen Zeitpunkten erfolgte. Überraschenderweise war die qualitative Zusammensetzung der Zytokine vergleichbar. Während in 3 von 4 Spendern die Zytokinexpression eher schwach erhöht war und von kurzer Dauer, haben wir in einem Spender vor allem mit den Konzentrationen von 10μM und 50μM PPD verblüffend hohe Zytokinausschüttungen gemessen. Dieser Spenderrnscheint eine Person zu repräsetieren, die empfänglicher für eine PPD Sensibilisierung ist als andere. Unabhängig davon, hat uns die Tatsache, dass PPD in allen Spendern "Danger Signals", aber keine gesteigerte Expressionsrate von traditionellen Reifungsmarkern (mit Ausnahme von CCR7) induzierte, veranlasst zu untersuchen, ob PPD anderweitig fähig ist,in MoDC Immunantworten zu modulieren. Daraufhin haben wir den Einfluss von PPD aufrnaktivierte DCs gemessen und die Ergebnisse bestätigten die Annahme. Weiterhin konnten wir zeigen, dass PPD immunogenes Potential aufweist. Aufgrund der Tatsache, dass die LPS induzierten Signaltransduktionswege in MoDC gut charakterisiert sind, konnten wir mit dieser Studie zusätzlich Hinweise über die PPD induzierte Signalgebung liefern.
This dissertation develops a rationale of how to use fossil data in solving biogeographical and ecological problems. It is argued that large amounts of fossil data of high quality can be used to document the evolutionary processes (the origin, development, formation and dynamics) of Arealsystems, which can be divided into six stages in North America: the Refugium Stage (before 15,000 years ago: > 15 ka), the Dispersal Stage (from 8,000 to 15,000 years ago: 8.0 - 15 ka), the Developing Stage (from 3,000 to 8,000 years ago: 3.0 - 8.0 ka), the Transitional Stage (from 1,000 to 3,000 years ago: 1 - 3 ka), the Primitive Stage (from 5,00 to 1,000 years ago: 0.5 - 1 ka) and the Human Disturbing Stage (during the last 500 years: < 0.5 ka). The division into these six stages is based on geostatistical analysis of the FAUNMAP database that contains 43,851 fossil records collected from 1860 to 1994 in North America. Fossil data are one of the best materials to test the glacial refugia theory. Glacial refugia represent areas where flora and fauna were preserved during the glacial period, characterized by richness in species and endemic species at present. This means that these (endemic) species should have distributed purely or primarily in these areas during the glacial period. The refugia can therefore be identified by fossil records of that period. If it is not the case, the richness in (endemic) species may not be the result of the glacial refugia. By exploring where mammals lived during the Refugium Stage (> 15 ka), seven refugia in North America can be identified: the California Refugium, the Mexico Refugium, the Florida Refugium, the Appalachia Refugium, the Great Basin Refugium, the Rocky Mountain Refugium and the Great Lake Refugium. The first five refugia coincide well with De Lattin- dispersal centers recognized by biogeographical methods using data on modern distributions. The individuals of a species are not evenly distributed over its Arealsystem. Brown- Hot Spots Model shows that in most cases there is an enormous variation in abundance within an areal of a species: In a census, zero or only a very few individuals occur at most sample locations, but tens or hundreds are found at a few sample sites. Locations where only a few individuals can be sampled in a survey are called "cool spots", and sites where tens or hundreds of individuals can be observed in a survey are called "hot spots". Many areas within the areal are uninhabited, which are called "holes". This model has direct implications for analyzing fossil data: Hot spots have a much higher local population density than cool spots. The chances to discover fossil individuals of a species are much higher in sediments located in a "hot spot" area than in a "cool spot" area. Therefore much higher MNIs (Minimum Number of Individuals) of the species should be found in fossil localities located in the hot spot than in the cool spot area. There are only a few hot spots but many cool spots within an areal of a single hypothetical species, consequently only a few fossil sites can provide with much high MNIs, whereas most other sites can only provide with very low MNIs. This prediction has been proved to be true by analysis of 70 species in FAUMAP containing over 100 fossil records. The temporal and spatial variation in abundance can be reconstructed from the temporospatial distribution of the MNIs of a species over its Arealsystem. Areas with no fossil records from the last thousands of years may be holes, and sites with much higher MNIs may be hot spots, while locations with low MNIs may be cool spots. Although the hot spots of many species can remain unchanged in an area over thousands of years, our study shows that a large shift of hot spots occurred mainly around 1,500-1,000 years ago. There are three directions of movement: from the west side to the east side of the Rockies, from the East of the USA to the east side of the Rockies and from the west side of the Rockies to the Southwest of the USA. The first two directions of shift are called Lewis and Clark- pattern, which can be verified with the observations mad by Lewis and Clark during their expedition in 1805-1806. The historical process of this pattern may well explain the 200-year-old puzzle why big game then abundant on the east side were rare on the west side of the Rocky Mountains noted by modern ecologists and biogeographers. The third direction of shift is called Bayham- pattern. This pattern can be tested by the model of Late Holocene resource intensification first described by Frank E. Bayham. The historical process creating the Bayham pattern will challenge the classic explanation of the Late Holocene resource intensification. An environmental change model has been proposed to account for the shift of hot spots. Implications of glacial refugia and hot spots areas for wildlife management and effective conservation are discussed. Suggestions for paleontologists and zooarchaeologists regarding how to provide more valuable information in their future excavation and research for other disciplines are given.
This dissertation focuses on e-marketing strategy's effective elements in tourism industry. As case study, research focus is on Airlines, tour operator, chain hotels in Iran and Germany. It aims to show various possibilities to enhance the company- e-marketing strategy and successfully performance e-marketing strategies with recognition effective elements and their important during the strategy designing and implementation process. For the purpose of this research due to the nature of the research, Explanatory -exploratory-applicable; after studying and consulting, Delphi technique has been chosen. In results, we have some effective elements and their important according the Delphi and AHP method. For example between elements "Tourists' Needs, Experience and Expects" with the importance coefficient of %204 is the most remarkable elements and "Customer satisfactions' elements group" with average value 5.54 according the research results have more important than other groups.
Durch Bodendegradation werden jedes Jahr weltweit große Schäden verursacht. Die beiden Hauptverursacher für die globale Bodendegradation sind die Wind- und die Wassererosion. Für die Planung von effizienten Schutzmaßnahmen oder regionalen Managementplänen ist es deshalb wichtig zu verstehen, dass die beiden Prozesse nicht nur als abgekoppelte Phänomene auftreten. Auch wenn seit einiger Zeit das Bewusstsein hierfür zugenommen hat und eine steigende Anzahl von Bodenerosionsstudien auf diesen Sachverhalt eingehen, so bestehen vor allem bei der Abschätzung der relativen Bedeutung und dem Verständnis der vorhandenen Interaktionen zwischen der Wind- und Wassererosion noch substantielle Wissenslücken. Da indirekte Messverfahren, wie beispielsweise die Luftbildauswertung oder die Fernerkundung, für mikro-skalige Prozessstudien ungeeignet sind, beschränken sich die Studien zur Erfassung der Interaktion beider Prozesse zumeist auf die direkten und/oder experimentellen Messungen. Ein Vergleich der Abtragsraten und eine Untersuchung der Interaktionen zwischen der Wind- und der Wassererosion ist jedoch sehr schwierig, da es bislang kein Messinstrument gibt, dass einfach und schnell, die durch Wind, Wasser oder deren Zusammenwirken verursachten Erosionsraten auf natürlichen Oberflächen bestimmen kann. Aus diesem Grund wurde im Rahmen dieses Dissertationsprojekts erstmals, ein mobiler Windkanal mit integrierter Beregnungsanlage konzipiert und umgesetzt. Seine simulierten Wind- und Niederschlagseigenschaften wurden in Labormessungen mit einem Laserdistrometer, Niederschlagssammlern, Anemometern und Nebelversuchen bestimmt. Die beim Einsatz der Anlage in unterschiedlichen Messkampagnen gewonnenen Erkenntnisse zu seinem Aufbau flossen stetig in die Weiterentwicklung des Kanals ein. Die Qualität der simulierten Bedingungen im Kanal können nach den Modifikationen und unter Einbeziehung der Anforderungen an einen geländefähigen Kanal mit guter Mobilität, als sehr gut bezeichnet werden. Insbesondere die Reproduzierbarkeit der simulierten Bedingungen treten hier positiv hervor. Die angestrebten Ziele dieser Arbeit konnten weitestgehend erfüllt werden. Mit dem mobilen Windkanal mit integrierter Beregnungsanlage steht in Zukunft eine Anlage zur Verfügung, mit der die Abtragsraten der Wind- und Wassererosion im Gelände, getrennt und in ihrer gemeinsamen Wirkung, gemessen werden können. Durch den Einsatz der Anlage ist es möglich, einige der noch offenen wissenschaftlichen Fragen zur relativen Bedeutung und Interaktion der beiden Prozesse zukünftig zu untersuchen, um weitere Erkenntnisse über Ihren Einfluss auf die Bodendegradation, in Abhängigkeit von Landnutzungsänderungen und dem Klimawandel, zu erhalten.
The aim of this dissertation was to examine the influence of land cultivation on the genetic variability and genetic population structure of the Neozoen Arion lusitanicus. Arion lusitanicus is a slug, which is spreading quickly in its range. This species has been chosen as it is possible to classify them easily to single plots due to their low mobility and as they are especially exposed to environmental and cultivation influences. Another well known factor in Herl is the age of this quite young population, thus enabling to classify genetic changes to recent working environmental and cultivation influences. To examine small spatial effects on various cultivation systems, ten plots - mostly used for agriculture - have been chosen in the Hunsrück-municipality Herl. Among them were four ecologically and four conventionally cultivated areas with partly varying land development dynamics. Furthermore a waste land of many years and a meadow have been included in the test. Wahlen in Northern Saarland and Belm in South Lower Saxony have been chosen as reference areas. Two fundamentally different PCR-based molecular genetic methods came into operation. The RAPD-analysis (randomly-amplified-polymorphic DNA) and the microsatellite analysis. As microsatellite primer have not been known for A. lusitanicus so far, primer of other mollusc species have been successfully tested. Two microsatellite Loci showed results which were easy to analyse. Thus it was possible to analyse five alleles on 360 individuals. In the RAPD-analysis 94 polymorph marker have been analysed. In a comparison of the conventionally and the biologically cultivated plots no significant differences with regard to the analysed parameter (genetic diversity, genetic distances and population structuring) could be found with either of the two molecular genetic methods. The RAPD-analysis in particular showed a population division in the test area that could come into being due to reduced gene flow and gene drift through environmental-stochastic influences. A part of this population structuring can be explained through "isolation by distance". With "isolation by distance" the similarity between populations decreases with increasing distance. Although a regression analysis could proof a statistically significant connection between the ground height and the genetic diversity of the single samples (p= 0,029), is it difficult to establish functional connections. Nevertheless is it probable that abiotic factors such as temperature, humidity and soil moisture have an influence on mortality and vitality and thus on the genetic structure of slug populations. With regard to the cultivation three slug populations in Herl showed especially low genetic diversities. These were a waste land, a meadow and a plot, which had been uncultivated until the year 2001 ("conv1"). The difference between these three plots and the rest of the agriculturally used areas was significant on the basis of data of both microsatellite sites (Arin1: U-Test, p=0,033; HA-7: p=0,017). In the RAPD-analysis the areas "conv1" and "meadow" showed higher diversities, the area "waste land" lay also on a higher scale with regard to diversity. As 94 Loci have been analysed in the RAPD-analysis, while there were only two sites in the microsatellite analysis, the RAPD-results are more trustworthy. Possibly these results can be interpreted as indication that land cultivation - unaffected by biological or conventional cultivation - is able to have an influence on the genetic diversity of Arion lusitanicus.
Ziel der durchgeführten Arbeit war mittels einer geophysikalischen Untersuchungsmethode die Wasserverteilung in Deponien nach einer Infiltration zu beobachten. Für den Nachweis der Wasserverteilung unterhalb von Infiltrationsstellen wurde die geoelektrische Impedanztomografie eingesetzt. Um das Messverfahren auf seine Eignung zur Detektierung der Infiltrationsauswirkungen in der Deponie zu überprüfen, wurde ein mehrjähriges Untersuchungsprogramm durchgeführt. Dabei hat sich herausgestellt, dass Deponiesickerwasser eine Verringerung des spezifischen Widerstandes im Untersuchungsgebiet verursacht und dieser Tatbestand vom Messsystem gut detektiert wird. Durch das Aufreihen der Ergebnisse als Tomogrammsequenzen wurden die Infiltrationsauswirkungen unterhalb der Infiltrationsstelle visualisiert. Anhand der entstandenen Tomogrammsequenzen und aufgestellten Modellbetrachtungen werden die Einschränkungen und Rahmenbedingungen des eigens dafür entwickelten Darstellungs- und Auswertungsalgorithmus der Arbeit erörtert.
Das Ziel dieser Forschungsarbeit liegt in der Entwicklung einer innovativen Klassifikationsstrategie zur satellitengestützten Forstinventur in einem europäischen Mittelgebirgsraum. Über die Ableitung von thematischen Karten der flächenscharfen Verbreitung von fünf Baumartengruppen (Eiche, Buche, Fichte, Douglasie und Kiefer) sowie drei Entwicklungsphasen (Qualifizierung, Dimensionierung und Reife) werden wichtige für eine nachhaltige Bewirtschaftung von Wäldern erforderliche Grundlagendaten bereitgestellt. rnDie nachhaltige Bewirtschaftung der Vielfachfunktionen von Wäldern (Nutz-, Schutz- und Erholungsfunktionen) sowie der steigende Informationsbedarf in Folge nationaler und internationaler Monitoring- und Berichtspflichten (u.a. Montréal Prozess und Kyoto Protokoll) erfordern aktuelle und flächendeckende Informationen über den Zustand der Wälder. In diesem Kontext können fernerkundliche Daten und Methoden zur Unterstützung konventioneller terrestrischer Verfahren zum Einsatz kommen.rnDas Untersuchungsgebiet dieser Studie umfasst den südlichen und östlichen Teil der rheinland-pfälzischen Eifel mit einer Fläche von mehr als 5200 km-², davon rund 2080 km-² bewaldet. Die naturräumliche Heterogenität, die wuchsklimatischen Unterschiede, die Variabilität von Relief und Topographie, die große Zahl vorkommender Baumarten sowie die kulturhistorische Waldentwicklung in der Eifel stellen eine besondere Herausforderung für satellitengestützte Inventurmethoden dar.rnDurch die bevorzugte Verwendung von Referenzdaten aus der unmittelbaren räumlichen Umgebung eines zu klassifizierenden Bereichs wird bei der Parametrisierung des Klassifikationsansatzes die jeweilige naturräumliche und wuchsklimatische Charakteristik berücksichtigt. Der Vergleich dieses räumlich adaptiven Klassifikationsansatzes mit einer konventionellen Maximum-Likelihood Klassifikation zeigt, dass eine Verbesserung der Klassifikationsgenauigkeit um 12 Prozentpunkte erreicht werden konnte. Die Adaptierung der Klassifikationsstrategie an die naturräumlichen und wuchsklimatischen Bedingungen sowie die Anpassung an bestehende Erhebungsmethoden und Datenorganisation bilden die Grundlage für eine erfolgreiche Anwendung des Verfahrens in einem heterogenen Mittelgebirgsraum. Die hohe erreichte Gesamtgenauigkeit des Klassifikationsergebnisses von rund 74% (über 87% für die fünf Hauptbaumarten) erlaubt die Einbindung der Methode in operationelle Erhebungsverfahren zur Unterstützung der terrestrischen Forstinventur.
Markenaufbau von Destinationen ist eine kostenintensive und langfristige Angelegenheit. In den vergangenen Jahren stieg das Interesse von Kommunen, Regionen und Ländern die Markenbildung zu verstärken. Gleichzeitig wird aber auch immer mehr der Ruf lauter ein Instrument zu schaffen, das Markenbewertung für Destinationen vornimmt. Vor allem in der Konsumgüter und Investitionsgüterindustrie finden sich zahlreiche Ansätze zur Markenbewertung, im Destinationsmanagement gibt es das bisher kaum. Es gibt drei verschiedene Arten von Verfahren, die meist von Unternehmensberatungen oder Wissenschaftlern entwickelt wurden: Messung des Markenwertes, Messung der Markenstärke und hybride Verfahren. Für Destinationen machen rein quantitative Verfahren wenig Sinn, da es beim Thema "Reise" auch auf eine Vielzahl von qualitativen Merkmalen ankommt. Von daher wurde im Rahmen dieser Dissertation entschieden, sich primär auf ein qualitatives Verfahren zu konzentrieren und verschiedene Modelle der Markenbewertung zu überprüfen. Das Resultat der Überprüfung zeigte, dass es notwendig war verschiedene Modelle zu kombinieren, um damit die Markenstärke einer Destination zu messen. Als empirisches Beispiel wurde hier Spanien ausgewählt, da dies als ein erfolgreiches Beispiel für Branding in der Fachliteratur gesehen wird. Dieses neu entwickelte Verfahren wurde an der Destination Spanien überprüft im Rahmen einer Projektstudie mit Studierenden der Universität Trier. Das Ergebnis zeigte, dass der Ansatz eines qualitativen Verfahrens richtig war, allerdings könnte es in ein hybrides Verfahren überführt werden. Kooperationspartner für die Dissertation war Turespana, Berlin.
Die zukünftige Landwirtschaft steht vor großen Herausforderungen: Zum einen sollen mit knapper werdenden Ressource wie Wasser und Boden mehr Menschen ernährt, die Wirtschaftlichkeit gesteigert und Pflanzen zur Energiegewinnung sowie für die Industrie erzeugt werden. Zum anderen sollen Umweltbelastungen deutlich verringert werden, damit die Landwirtschaft nicht ihre eigene Grundlage zerstört und Anpassungsstrategien für das zukünftige Klima gefunden werden. Die Erstellung eines Modells, mit deren Hilfe die Auswirkungen von Klimavariabilität, Standortbedingung, verschiedenartiger Kultivierung, Umwelteinflüsse und nachhaltigem Wirtschaften auf das Pflanzenwachstum simuliert werden können, also eine ökonomisch-ökologischen Bewertung vorgenommen werden kann, ist daher das Hauptziel vorliegender Dissertation. Zur Erlangung dieses Ziels sollte ein ökologisches (STICS) und ein ökonomische Modell (Produktionsfunktion) miteinander gekoppelt werden. Eine Sensitivitätsanalyse des Pflanzenwachstumsmodells STICS verdeutlicht, dass dieses Modell geeignet ist den Einfluss unterschiedlicher Bewirtschaftungsmethoden und Klimakenngrößen auf das Pflanzenwachstum bzw. den Ertrag sowie die Bodenfruchtbarkeit, z.B. über die Nitratauswaschung, realitätsnah abzubilden. Die Voraussetzung dafür ergibt sich auch aus dem Verwenden des statistischen Klimamodells WETTREG 2010, welches hochaufgelöste Klimadaten, die in Anzahl der Klimaelemente und zeitlicher Auflösung der Messreihen von Klimastationen gleichen, liefert. Die natürliche Variabilität des Klimas wird damit gut widergeben und Aussagen über zukünftiges Wachstum und Pflanzenentwicklung sowie Auswirkungen von Extremwetterlagen berechenbar. Die Ergebnisse des Pflanzenwachstumsmodells dienen als Grundlage einer Produktionsfunktion des Cobb-Douglas-Typs. Der graphische Zusammenhang, die Verteilung der Produktionsfaktoren und die Regressionsergebnisse zeigen allerdings, dass eine einfache lineare Regression zur Bestimmung der Funktion auf Mittel- und Summenwertbasis zu schlechten Ergebnissen, insbesondere hinsichtlich der Anpassung an Extremereignisse, führt. Die Klimafaktoren Niederschlag bzw. Wasser und Temperatur, aber auch die Nachhaltigkeit im Sinne der Erhaltung der Bodenfruchtbarkeit können in der Funktion nicht eindeutig bestimmt werden. Anhand von Simulationen mit künstlichen Klimadaten, d.h. stetig steigenden Temperaturen und immer gleicher Verteilung des Niederschlags (gute und schlechte Verteilung), konnten die Fehlerquellen herauskristallisiert und die fehlenden Faktoren in der Produktionsfunktion gefunden werden. Ein Lösungsansatz ist das Einbeziehen von Stressindizes für Wasser- und Stickstoffmangel, welche die zeitliche Verteilung von Niederschlag und Temperatur bzw. deren Auswirkungen auf das Pflanzenwachstum darstellen. Zudem ist über den Stickstoffstress die Verfügbarkeit von Nitrat für die Pflanze ableitbar und kann in der Produktionsfunktion miteinbezogen werden. Die Ergebnisse der Regression mit Berücksichtigung der Wasser- und Stickstoffstressindizes zeigen deutlich bessere Ergebnisse. Die Variabilität kann deutlich erhöht und die zeitliche Verteilung von Niederschlag und Temperatur sowie die Bodenfruchtbarkeit berücksichtigt werden. Allerdings ist die Anpassung gerade in den extremen Bereichen (überdurchschnittlich niedrige oder hohe Ernten) zu systematisch. Das Pflanzenwachstumsmodell wird demnach nicht durch eine einfache Produktionsfunktion ersetzbar, da es wichtige Informationen zu Ertrag, Einfluss der Klimavariabilität auf den Ertrag, Umwelteinflüssen, wie Stickstoffaustrag, oder Stressindizes liefert. Vielmehr wird erst durch Verwendung des Pflanzenwachstumsmodells die direkte Abhängigkeit zwischen Bewirtschaftung, Ertrag und Nachhaltigkeit im Sinne der Erhaltung der Bodenfruchtbarkeit bzw. der Vermeidung hoher Nitratauswaschung deutlich. Eine nicht angepasste Bewirtschaftung, z.B. Überdüngung und/oder hohe Bewässerung, führt sowohl zu mehr Nitrataustrag als auch zu niedrigerem Ertrag sowie höheren Kosten. Deutlich wird die Unersetzbarkeit des Pflanzenwachstumsmodells durch eine einfache Kostenanalyse. Hierbei konnte die Unrentabilität sehr intensiver Bewirtschaftung und Rentabilität einer zusätzlichen Bewässerung nur unter Berücksichtigung der Nitratauswaschung und klimatischer Gegebenheiten herausgestellt werden. Erst durch das Zusammenspiel von ökologischem und ökonomischem Modell werden die Auswirkungen von Klimavariabilität, Standortbedingung, verschiedenartiger Kultivierung und nachhaltigem Wirtschaften auf das Pflanzenwachstum berechenbar. Eine ökologisch-ökonomische Bewertung, wie die Beurteilung von Auswirkungen bestimmter Klimaelemente (Wasser, Temperatur) auf Pflanzenwachstum und Ertrag, Adaptionsstrategien, effizienter und ressourcenschonender Bewirtschaftung, Rentabilität, Umweltbelastung oder Nachhaltigkeit wird damit letztendlich möglich.
Die Arbeit thematisiert die Weiterentwicklung des touristischen Angebots der Deutschen Bahn, das derzeit über den Reiseveranstaltervertrieb am Markt platziert wird. Kunden, die im Reisebüro oder Internet eine Städtereise über ihren Veranstalter buchen, erhalten mit dem RIT (Rail Inclusive Tours)-Angebot ein spezielles Kooperationsticket für ihre Zugfahrt. Im ersten Abschnitt der Arbeit wird zunächst auf die Besonderheiten des Dienstleistungsbereichs inklusive Auswirkungen auf die Angebotsgestaltung von Unternehmen eingegangen. In diesem Zusammenhang werden Hintergründe von Kundenzufriedenheit und Kundenbindung skizziert sowie deren Wechselwirkungen dargestellt. Über die Einordnung der Deutschen Bahn als Dienstleistungsunternehmen im Schienenpersonenfernverkehr wird deren Positionierung im zunehmenden Wettbewerbsmarkt in einer Umfeldanalyse erarbeitet und die Bedeutsamkeit für den Unternehmenserfolg aufgezeigt. Der praktische Teil der Arbeit befasst sich mit den Befragungsergebnissen von Bestandskunden in der fokussierten Zielgruppe der Städtereisenden. Neben der Analyse von Nutzerstruktur, Reisegewohnheiten und alternativer Verkehrsmittelwahl, werden Kundenzufriedenheiten und Wichtigkeiten einzelner Leistungsbestandteile der Bahnreise näher betrachtet. Durch die Identifizierung von Kundensegmenten lassen sich Ansatzpunkte für die Weiterentwicklung des Angebots ableiten, die eine Attraktivitätssteigerung der Bahnfahrt herbeiführen und die Kundenzufriedenheit nachhaltig erhöhen können. Einbindung von Essensgutscheinen, das Angebot von Kuriergepäck oder die Integration des City-Tickets sind denkbare, nutzensteigernde Maßnahmen für die Anreisealternative Bahnfahrt. Weiterer Forschungsbedarf für die betrachtete Zielgruppe besteht in der Erfassung von Hinderungsgründen für eine bevorzugte Bahnwahl in der Verkehrsmittelentscheidung. Darüber hinaus ist das Potenzial für eine Einbindung solcher Services zu erfassen, die sich auf Seiten der Reiseveranstalter in ein Leistungspaket integrieren lassen, um weitere Indikatoren zur Attraktivitätssteigerung der Bahnfahrt ableiten zu können. Zusammenfassend stellt die Arbeit eine Analyse der skizzierten Zielgruppe der Städtereisenden der Deutschen Bahn über den Veranstaltervertrieb dar und liefert einen Beitrag, der die Ableitung einiger relevanter Handlungsempfehlungen erlaubt. Denn nur durch attraktive Angebote und die Erzielung einer hohen Kundenzufriedenheit kann sich die Bahn als bevorzugtes Transportmittel behaupten und neue Kunden für die Zugfahrt begeistern.
In Ostafrika ist der Fußgängerverkehr die mit Abstand wichtigste Fortbewegungsart. Dies gilt für städtische und ländliche Gebiete! Tatsache ist aber, dass die Probleme der Fußgänger in der Planung nicht ausreichend berücksichtigt werden. Die Politiker richten ihre zentrale Aufmerksamkeit auf den motorisierten Individualverkehr und missachten somit die Bedürfnisse der Mehrheit der Bevölkerung. Diese Disparität kann im Zuge einer nachhaltigen Entwicklung reduziert werden. Der nicht-motorisierte sowie der öffentliche Verkehr müssen stärker gefördert werden, da der motorisierte Individualverkehr in Ostafrika auf lange Zeit der breiten Bevölkerungsschicht vorenthalten bleibt. Westliche Wohlstandsmodelle dürfen demnach nicht als Verkehrsvorbild dienen. Die Entwicklungszusammenarbeit ist aufgerufen, Projekte in den Bereichen des öffentlichen sowie des nicht-motorisierten Verkehrs gezielt zu fördern. Nur so kann eine Transportplanung erfolgen, die ökologisch nachhaltig, sozial gerecht, ökonomisch effizient, politisch regulierend und investitionsfördernd ist. Durch gezielte Maßnahmen könnte eine Trendwende erreicht werden. Die Chancen für ein Umdenken in Form angepasster Verkehrspolitik sind gegeben. Wenn Industrieländer mit gutem Beispiel vorangehen, werden sich die Entwicklungsländer diesem Trend nicht verschließen können.
Aus dem Wunsch, die zentralen Prozesse im System Boden"Pflanze"Atmosphäre einschließlich der Auswirkungen verschiedener Bewirtschaftungspraktiken zu verstehen und nachzubilden, resultiert die Entwicklung verschiedener Pflanzenwachstumsmodelle. Ziel der vorliegenden Untersuchung ist zum einen, die im Realsystem auftretenden räumlichen Ertragsmuster zu identifizieren und zu charakterisieren. Mithilfe der Semivariogramm-Analyse ist eine räumliche Autokorrelation der Ertragsdaten von maximal 48 Meter abzuleiten. Die räumliche Analyse (GIS) zeigt, dass die Sommergerste ein leicht abweichendes Verhalten im Vergleich zu den Winterkulturen (Winterweizen, Winterraps) aufweist. Schließlich werden mithilfe der selbstorganisierenden Merkmalskarten die primär und sekundär für das Ertragsverhalten verantwortlichen Ursachen identifiziert. Eine abschließende hierarchische Clusteranalyse gliedert die in die Untersuchung eingehenden Standorte in vier spezifische Cluster mit charakteristischen Eigenschaften. Ein zweites Ziel ist die Klärung der Frage, ob die Pflanzenwachstumsmodelle STICS und DAISY bei entsprechender Parametrisierung in der Lage sind, das für ein detektiertes Muster charakteristische Verhalten von Pflanzenwachstum und Ertrag realitätsnah abzubilden. Den Modellanwendungen gehen eine Sensitivitätsanalyse und verschiedene Parametrisierungsansätze zur Erfassung des jeweiligen Modellverhaltens voraus. In beiden Modellen übt der Bodenwasserhaushalt einen starken Einfluss auf die Ertragsbildung aus. Des weiteren kommt in beiden Modellen den Stressfaktoren eine zentrale Bedeutung zu. Die Parametrisierung der Modelle auf der Grundlage der im Feld erhobenen Daten führt bei beiden Modellen nicht zu einem dem Realsystem entsprechenden Bild. Eine über die Sensitivitätsanalyse hinausreichende, vertiefte Modellkenntnis ist erforderlich, um die in die Modelle eingehenden Parameter bzw. deren spezifischen Einfluss auf das Modellverhalten beurteilen und interpretieren zu können. Dies betrifft insbesondere die Modellgrößen der Bodenmodule. Dieser Aspekt erschwert eine einfache räumliche Übertragung der Modelle STICS und DAISY.
In Deutschland fallen bei der Wasseraufbereitung, der Verarbeitung von Gesteinen, Recyclingprozessen und in der Industrie etliche mineralische Zwangs-, Koppel-, Neben- oder Abfallprodukte an, die aufgrund ihrer Inhaltsstoffe als Puffersubstanzen oder Nährstofflieferanten im Wald eingesetzt werden könnten. In diesem Projekt wurde die Wirksamkeit und Ökosystemverträglichkeit von Mischungen potentieller Sekundärrohstoffe in Gefäßversuchen, Lysimeterversuchen, Freilandversuchen, Perkolationsversuchen und Keim- und Wachstumsversuchen untersucht. Die Mischungen bestehen aus Enthärterkalk und Magnesitstaub. Eingesetzte Enthärterkalke waren zwei Reaktorkornvarianten und ein Enthärterschlamm, dem zur besseren Händelbarkeit und als Kaliumquelle Bimsmehl bzw. Perlitstaub beigemischt wurde. Zur Anregung der biologischen Aktivität mit Phosphor wurden zwei Enthärterschlammmischungen mit Tiermehlasche aus der Monoverbrennung von Tierkörpermehl versetzt. Als Puffersubstanzen oder Nährstofflieferanten bewährten sich die Reaktorkörner, Magnesitstaub und Bimsmehl. Die Reaktorkornkalke wirken ähnlich dem herkömmlich eingesetzten Dolomit mit hoher oberflächennaher Säurepufferkapazität, verbesserter Basensättigung des Mineralbodens, Reduktion der Schwermetallmobilität und Aluminiumbelegung an den Austauscher sowie Erhöhung der Stickstoffspeicherkapazität. Unter dem Einfluss von Magnesitstaubs erhöhte sich der Magnesiumgehalt der Bodenlösung bis in den Hauptwurzelraum und Magnesiummangel in Pflanzen wurde signifikant behoben. Pflanzenvitalitätskennwerte verbesserten sich deutlich. Der Kaliumgehalt der Bodenlösung verbesserte sich bei Perlitstaub und Bimsmehl, in den Pflanzen nur bei Bimsmehl. Unter Einfluss der Tiermehlasche erhöhte sich weder der Gehalt der Bodenlösung noch die biologische Aktivität. Der enthaltene Phosphor liegt als schwerlösliches Hydroxylapatit vor, leichter lösliches Phosphat wurde als Calciumphosphat festgelegt. Durch geringe Anteile von Kalkmilch im Enthärterschlamm wurden initiale Nitrat- und Protonenschübe initiiert, die in stickstoffgesättigten Systemen problematisch werden können. Auf der Basis der Untersuchungsergebnisse wurden die positiv bewerteten Sekundärrohstoffe in die 2003 neugefasste Düngemittelverordnung aufgenommen.
Abstracts book of oral presentations and poster contributions for the mid-term conference of the Interreg IVB NWE project ForeStClim. The international conference took place in Nancy (France) from 20. to 22. September 2010. The topics of the conference sessions were as follows:rnSession 1: Projecting forest sites and stand shiftsrnSession 2: Climate change and water: modelling across spatial and temporal scalesrnSession 3: Addressing climate change in practical silvicultural decision support
Natural hazards are diverse and uneven in time and space, therefore, understanding its complexity is key to save human lives and conserve natural ecosystems. Reducing the outputs obtained after each modelling analysis is key to present the results for stakeholders, land managers and policymakers. So, the main goal of this survey was to present a method to synthesize three natural hazards in one multi-hazard map and its evaluation for hazard management and land use planning. To test this methodology, we took as study area the Gorganrood Watershed, located in the Golestan Province (Iran). First, an inventory map of three different types of hazards including flood, landslides, and gullies was prepared using field surveys and different official reports. To generate the susceptibility maps, a total of 17 geo-environmental factors were selected as predictors using the MaxEnt (Maximum Entropy) machine learning technique. The accuracy of the predictive models was evaluated by drawing receiver operating characteristic-ROC curves and calculating the area under the ROC curve-AUCROC. The MaxEnt model not only implemented superbly in the degree of fitting, but also obtained significant results in predictive performance. Variables importance of the three studied types of hazards showed that river density, distance from streams, and elevation were the most important factors for flood, respectively. Lithological units, elevation, and annual mean rainfall were relevant for detecting landslides. On the other hand, annual mean rainfall, elevation, and lithological units were used for gully erosion mapping in this study area. Finally, by combining the flood, landslides, and gully erosion susceptibility maps, an integrated multi-hazard map was created. The results demonstrated that 60% of the area is subjected to hazards, reaching a proportion of landslides up to 21.2% in the whole territory. We conclude that using this type of multi-hazard map may be a useful tool for local administrators to identify areas susceptible to hazards at large scales as we demonstrated in this research.
Regional climate models are a valuable tool for the study of the climate processes and climate change in polar regions, but the performance of the models has to be evaluated using experimental data. The regional climate model CCLM was used for simulations for the MOSAiC period with a horizontal resolution of 14 km (whole Arctic). CCLM was used in a forecast mode (nested in ERA5) and used a thermodynamic sea ice model. Sea ice concentration was taken from AMSR2 data (C15 run) and from a high-resolution data set (1 km) derived from MODIS data (C15MOD0 run). The model was evaluated using radiosonde data and data of different profiling systems with a focus on the winter period (November–April). The comparison with radiosonde data showed very good agreement for temperature, humidity, and wind. A cold bias was present in the ABL for November and December, which was smaller for the C15MOD0 run. In contrast, there was a warm bias for lower levels in March and April, which was smaller for the C15 run. The effects of different sea ice parameterizations were limited to heights below 300 m. High-resolution lidar and radar wind profiles as well as temperature and integrated water vapor (IWV) data from microwave radiometers were used for the comparison with CCLM for case studies, which included low-level jets. LIDAR wind profiles have many gaps, but represent a valuable data set for model evaluation. Comparisons with IWV and temperature data of microwave radiometers show very good agreement.
Evaluation of desalination techniques for treating the brackish water of Olushandja sub-basin
(2014)
The groundwater of Olushandja sub-basin as part of Cuvelai basin in central-northern Namibia is saline with TDS content varying between 4,000ppm to 90,000ppm. Based on climatic conditions, this region can be classified as a semi-arid to arid region with an annual rainfall during summer time varying between 200mm to 500mm. The mean annual evaporation potential is about 2,800mm, which is much higher than the annual rainfall. The southern block of this sub-basin is of low population density. It has not been covered by the supply networks for electricity and water. Therefore, the inhabitants are forced to use the untreated groundwater from the hand-dug wells for their daily purposes. This groundwater is not safe for human consumption and therefore needs to be desalinated for that purpose. The goal of this thesis has been to select a suitable desalination technology for that region. The technology to be selected is from those which use renewable energy sources, which have capacity of production from 10m3 to 100m3 per day, which are simple and robust against existing harsh environmental conditions and have already been implemented successfully in some place. Based on these criteria, the technologies which emerged from the literature are: multistage flashing (MSF), multi effect distillation (MED), multi effect humidification (MEH), membrane distillation (MD), reverse osmosis (RO) and electro dialysis reversed (ED). Out of these technologies, RO &amp; ED are based on membrane techniques and MSF, MED &amp; MEH use thermal processes whereas MD technology uses a hybrid process of thermal and membrane techniques for desalinating the water. For evaluation of technical performance, environmental sustainability and financial feasibility of the above mentioned desalination techniques, the following criteria have been used: gained output ratio, recovery rate, pretreatment requirements, sensitivity to feed water quality, post treatment, operating temperature, operating pressure, scaling and fouling potential, corrosion susceptibility, brine disposal, prime energy requirement, mechanical and electrical power output, heat energy, running costs and water generation costs. The data regarding the performance standards of the successfully implemented desalination techniques have been obtained from the literature of performance benchmarks. The Utility Value Analysis Tool of the Rafter-Group of Multi-Criteria Analysis (MCA) has been used for measuring the performance score of a technology. To perform the utility analysis, an evaluation matrix has to be constructed through the following procedures: selection of the decision options (or assessment groups), identification of the evaluation criteria, measurement of performance and transformation of the units. Then the criteria under the objective groups are assigned a level of importance for determining their weights.To perform the sensitivity analysis the level of importance of a criterion is changed by giving more weight or rate to the assessment group of interest (or study). Within the assessment group of interests, the best performing desalination technology has been selected according to the outcome of the sensitivity analysis. The important conclusions of this study are the identification of the capabilities of thermal and membrane based small scale desalination technologies and their applicability based on site specific needs. The sensitivity analysis indicates that the MED technology is the most environmental friendly technology that uses minimum energy and produces least concentrated brine for disposal. The ED technology has emerged to be technically suitable, but it is only applicable when source water has less than 12.000 ppm salt content. The MSF process has favorable thermal efficiency and it is insensitive to feed water quality. Its major drawbacks are energy needs and post treatment requirements that affected its net score. The MD and MSF process have scored the lowest for the technical and economic assessment groups and are concluded not to be suitable for Olushandja sub-basin. The MEH process is cheaper and technically more appropriate than the MED in the two assessment groups. Based on the above mentioned evaluations, this study concluded that Olushandja sub-basin needs more data collection on the geological profile, distinctive identification of aquifers and evidence on the interaction between the aquifers. From the best available data obtained, it could not be established with certainty where the highest level of salinity can be found in the profile, or how the geological profile is layered. More data on ground water quality for spatial overview of the trends and pattern of the sub-basin will be useful in drawing better conclusion on the specific desalination technology needed which is suitable for a specified village or living space.
Rinnen werden als effektive Sedimentquellen und als Transportwege für große Sedimentmengen angesehen, zusätzlich agieren sie als bevorzugte Fließwege für den Oberflächenabfluss. Sie können sich zu irreversiblen Formen (Gullys) weiterentwickeln. Trotz Fortschritten in der Modellierung bleibt insbesondere die Modellierung von Rinnenerosion schwierig. Daher ist es wichtig, experimentelle Daten aus Geländeversuchen zu erheben, um das Prozesswissen zu verbessern und bessere Modelle zu entwickeln. In den Experimenten sollte eine standardisierte Methode verwendet werden, um eine gewisse Vergleichbarkeit der Ergebnisse zwischen unterschiedlichen Testgebieten zu gewährleisten. Die meisten Experimente zur Rinnenerosion, die unter Labor- oder Geländebedingungen durchgeführt wurden, verwendeten Substrate mit unterschiedlichen Korngrößen und natürlichen oder simulierten Niederschlag. Ziel war meist die Entstehung von Rinnennetzwerken zu beobachten, Startbedingungen für Rinnenbildung zu definieren, die Entwicklung der Rinnenmorphologie zu untersuchen, die wichtigsten hydraulischen Parameter wie Fließquerschnitt, benetzten Umfang, hydraulischen Radius, mittlere Fließgeschwindigkeit und shear stress abzuschätzen oder mathematische Modelle zu kreieren, um den Bodenabtrag durch Rinnenerosion abschätzen zu können. Aber es fehlen Untersuchungen zum Verhalten von existierenden Rinnen, natürlichen oder anthropogen entwickelten, unter Geländebedingungen. Um diese Lücke zu schließen wurde eine reproduzierbare Versuchsanordnung entworfen und in verschiedenen Rinnen angewendet um folgende Fragen zu beantworten: Wie hoch ist der Anteil der Rinnenerosion am Bodenabtrag? 2) Wie effektiv sind Rinnen beim Transport von Wasser und Sediment durch ihr Einzugsgebiet? In prozess-basierten Modellen werden verschiedene Prozesse durch mathematische Gleichungen beschrieben. Die Grundlage dieser Formeln ist meist ein hydraulischer Parameter, der in Verbindung zum Abtrag gebracht wird. Der am häufigsten verwendete Parameter ist der shear stress, von dem angenommen wird, dass er ein lineares Verhältnis zu Erosionsparametern wie detachment rate, detachment capacity oder Sedimentkonzentration aufweist. Aus dem shear stress lassen sich weitere Parameter wie unit length shear force oder verschiedene Varianten der stream power berechnen. Die verwendeten Erosions- und hydraulischen Parameter ändern sich je nach Forschergruppe. Eine weitere Modellannahme ist, dass die transport rate die trasnport capacity nicht übersteigen kann. Wenn das transport rate vs. transport capacity - Verhältnis 1 übersteigt, verringern Sedimentationsprozesse die Rate bis die transport capacity wieder erreicht ist. Wir untersuchten in Geländeversuchen die folgenden Annahmen: 1) Ist das Verhältnis zwischen transport rate und transport capacity immer kleiner 1? 2) Besteht die lineare Beziehung zwischen verschiedenen hydraulischen Parametern und Bodenabrtagsparametern? 3)Verursachen die selben hydraulischen Parameter, die in verschiedenen Versuchen aufgenommen wurden, auch immer die selben Erosionsparameter?
Die Zielsetzung der vorliegenden Arbeit war die raumdifferenzierte und skalenübergreifende Untersuchung der Hochwasserentstehungsprozesse im Frankelbach-Einzugsgebiet, das ein Beispiel eines land- und forstwirtschaftlich genutzten Kleineinzugsgebiets in Mittelgebirgen der gemäßigten Breiten ist. Eine Kernaufgabe war die Quantifizierung der Beiträge einzelner Abflusskomponenten während des Scheiteldurchflusses eines Hochwassers. Zudem sollten Zusammenhänge zwischen der Bodenfeuchtedynamik und der Abflussreaktion herausgearbeitet werden. Zur Bodenfeuchtemessung wurde ein neu entwickeltes Spatial-TDR-Messsystem eingesetzt. Im Rahmen dieses pilothaften Einsatzes war zudem die Tauglichkeit des Messsystems zu überprüfen und zu bewerten. Das im Rotliegenden gelegene 5 km2 große Frankelbachgebiet mit Jahresniederschlägen von 750 mm a-1, steil eingeschnittenen, bewaldeten Kerbtälern und ackerwirtschaftlich genutzten Hochflächen liegt zwischen 200 und 450 m ü. NN. Auf schuttführenden Sand- und Schlufflehmen, deren Genese auf periglaziale Solifluktionsprozesse zurückgeht, sind hangabwärts mächtiger werdende Braunerden zu finden. Bemerkenswert sind die zahlreichen Quellen auf gleicher Höhenlage, die teilweise als Pipequellen ausgebildet sind. Beregnungs- und Infiltrationsversuche dienten der Beurteilung der Oberflächenabflussreaktion unterschiedlich bewirtschafteter Flächen. Durch stündliche Spatial-TDR-Messungen an 13 Standorten (60 cm lange vertikal installierte Dreistabsonden) konnten Hangwasserflüsse identifiziert werden. Zwischen 2005 und 2009 wurden die Abflüsse vier geschachtelter Einzugsgebiete sowie einer Quelle in 10min-Intervallen erfasst und 87 Hochwasserereignisse analysiert. Mittels Messungen der elektrischen Leitfähigkeit und eines Zweikomponenten-Mischungsmodells wurde der Ereigniswasseranteil für die höchsten Hochwasser abgeschätzt. Ergänzend zu den Geländeexperimenten wurde ein einfaches Modell konzipiert, das eine quantitative Abschätzung der ober- und unterirdischen Wasserflüsse in einen Gewässereinschnitt erlaubt. Zum Vergleich mit 31 anderen Untersuchungsgebieten wurde eine Codierung entwickelt, die eine Einordnung sowohl hinsichtlich der Geofaktoren der Gebiete als auch bezüglich der untersuchten Hochwasserereignisse ermöglicht. Das im hanghydrologischen Forschungsbereich als eher trocken einzuordnende Frankelbachgebiet, zeigte ein jahreszeitlich sehr unterschiedliches Abflussverhalten. Während in trockenen Sommern hohe Niederschläge im Gebiet gespeichert werden, liegen die Abflusskoeffizienten für einige schneeschmelzfreie Frühjahrsereignisse über 50 %. Das höchste beobachtete Hochwasser weist einen Abflusskoeffizient von 55 % bei einer relativ niedrigen Abflussspende von 140 l s-1 km-2 auf. Die Großberegnungsversuche, die Quellabflussmessungen, die Ereignisanalysen und die Modellierungsergebnisse weisen darauf hin, dass Dauerregen- und Schneeschmelz-Hochwasser zum Großteil aus Zwischenabfluss bestehen. Hier konnten zwei Abflusskomponenten differenziert werden: (i) eine oberflächen- und gerinnenahe Komponenten, die aufgrund des hohen Ereigniswasseranteils von etwa 60 % durch präferentielles Fließen erklärt werden kann, und (ii) eine ein bis zwei Tage verzögerte tiefere Komponente, die durch unterirdische Abflusskonzentration auf stauenden Schichten generiert wird. Letztere war in den Quellabfluss- und Spatial-TDR-Messungen erkennbar, hatte jedoch an den am Pegel beobachteten Scheiteldurchflüssen nur einen sehr kleinen Anteil. Während sehr intensiver Niederschläge könnte zusätzlich der Horton'sche Oberflächenabfluss von offen liegenden, hydraulisch angeschlossenen Äckern zum Scheiteldurchfluss beitragen. Für sämtliche Spatial-TDR-Messstandorte ist von hohen Infiltrations- und Sickerraten auszugehen. Eine Aufsättigung der Standorte war nicht erkennbar, für die nassen Wintermonate liegen jedoch nur sehr wenige Spatial-TDR-Messwerte vor. Eine in einer Tiefenlinie installierte Sonde (A08) zeigte das Umschalten des Gesamtgebiets in relativ nasse Zustände an. Hier nahm die Bodenfeuchte während zwei größerer Dauerregenereignisse infolge der unterirdischen Abflusskonzentration stark zu. In der vorliegenden Arbeit wurden die einbau- und substratbedingten Unsicherheiten sowie die Schwächen des Algorithmus zur Rekonstruktion der absoluten Bodenfeuchtewerte konkretisiert. Demzufolge wurde lediglich das Spatial-TDR-Rohsignal als Indikator für die aktuelle Bodenfeuchte verwendet. Durch eine Transformation des Spatial-TDR-Signals von der Zeit auf den Sondenort können dennoch Aussagen zur relativen Änderung der Bodenfeuchte in einer bestimmten Tiefe gemacht werden können. Diese Informationen sind hinreichend genau für die Untersuchung hanghydrologischer Prozesse und für die Ableitung von Gebietsfeuchtezuständen.
Extension of an Open GEOBIA Framework for Spatially Explicit Forest Stratification with Sentinel-2
(2022)
Spatially explicit information about forest cover is fundamental for operational forest management and forest monitoring. Although open-satellite-based earth observation data in a spatially high resolution (i.e., Sentinel-2, ≤10 m) can cover some information needs, spatially very high-resolution imagery (i.e., aerial imagery, ≤2 m) is needed to generate maps at a scale suitable for regional and local applications. In this study, we present the development, implementation, and evaluation of a Geographic Object-Based Image Analysis (GEOBIA) framework to stratify forests (needleleaved, broadleaved, non-forest) in Luxembourg. The framework is exclusively based on open data and free and open-source geospatial software. Although aerial imagery is used to derive image objects with a 0.05 ha minimum size, Sentinel-2 scenes of 2020 are the basis for random forest classifications in different single-date and multi-temporal feature setups. These setups are compared with each other and used to evaluate the framework against classifications based on features derived from aerial imagery. The highest overall accuracies (89.3%) have been achieved with classification on a Sentinel-2-based vegetation index time series (n = 8). Similar accuracies have been achieved with classification based on two (88.9%) or three (89.1%) Sentinel-2 scenes in the greening phase of broadleaved forests. A classification based on color infrared aerial imagery and derived texture measures only achieved an accuracy of 74.5%. The integration of the texture measures into the Sentinel-2-based classification did not improve its accuracy. Our results indicate that high resolution image objects can successfully be stratified based on lower spatial resolution Sentinel-2 single-date and multi-temporal features, and that those setups outperform classifications based on aerial imagery only. The conceptual framework of spatially high-resolution image objects enriched with features from lower resolution imagery facilitates the delivery of frequent and reliable updates due to higher spectral and temporal resolution. The framework additionally holds the potential to derive additional information layers (i.e., forest disturbance) as derivatives of the features attached to the image objects, thus providing up-to-date information on the state of observed forests.
The increase in recreational leisure during the last century and the increase in the individual mobility since the sixties have induced growing travel activities as well as a growing demand for recreation in a natural environment. Politically the demand for recreational leisure is regarded as a fundamental part of human life and is legally embedded as inherent goal of nature resorts besides nature conservation. Following new pedagogic principles man should get familiar with the environment in order protect nature in the long-run. Taking the bicycle concept of the nature resort Saar-Hunsrück with special emphasis on the St. Wendel country as an example the bicycle tourism which fulfils the principles of sustainability is analysed with regard to the acceptance by the tourists. Scenic and historical attractions of the area are deliberately taken into account in the design of the bicycle routes. By analysing the results of a survey it is the objective to work out applicable results for the design of routes and systems of orientation. Moreover it is the objective of a special survey on mountain bikers to answer the question on how this extreme type of biking could be incorporated in the supply of recreational activities of the nature resort and whether it can contribute to a growing environmental sensitivity.
Es wurden Staubmessungen in der Luft eines Putenmaststalls mit dem Ziel der Charakterisierung der Höhe und des Verlaufs besonders der Feinstaubfraktion PM 10 (Particulate Matter 10, Partikel, deren aerodynamischer Durchmesser kleiner als 10 -µm ist) und der einatembaren Staubfraktion (ID bzw. PM 100) im Laufe eines Mastdurchganges durchgeführt. Zur Erfassung von PM 10 wurde das für Emissionsmessungen bereits etablierte Messsystem DIGITEL HVS DHA-80 eingesetzt, um es auf Eignung unter Stallbedingungen zu testen. Die Ansaughöhe zur Probenahme betrug 2 m über Grund. Parallel dazu wurde die einatembare Staubfraktion mit einem in der Arbeitsmedizin gebräuchlichen, stationär positionierten Personal Sampler (IOM-SKC-Messsystem) erfasst. Anlass der Erfassung der Staubkonzentrationen war der unbefriedigende Kenntnisstand bezüglich der Zuordnung der Emissionen zur Quelle "Tierstall" und bezüglich der Quantitäten der Staubfrachten. Ein wesentlicher Grund für die bislang geringe Anzahl von Feinstaubmessungen in Tierhaltungen liegt in dem Fehlen standardisierter Messverfahren für diese Komponente, was zudem den Vergleich der bisherigen Messergebnisse erschwert. Der Wert der genauen Kenntnis der Konzentrationen der partikelförmigen Emissionen besonders Feinstaub (PM 10) in und aus landwirtschaftlicher Nutztierhaltung liegt in der Einschätzung des Gefährdungspotentials für den Menschen unter Berücksichtigung umwelthygienischer und umweltrechtlicher Aspekte. Letztere werden unter anderem durch das Vorsorgeprinzip im Bundes-Immissionsschutzgesetz dargestellt, wobei die Minderung der von Tierhaltungen ausgehenden Emissionen bereits wichtiger Bestandteil nationaler und europäischer Luftreinhaltepolitik ist. So beschäftigen sich Umwelt- und Arbeitsmediziner aufgrund des Verdachts erhöhter Prävalenz umweltbezogener Beschwerdebilder wie Störungen im Bereich der Atemwege in Regionen mit spezialisierter Tierhaltung und bezüglich des Auftretens als arbeitsschutzrelevanter Arbeitsstoff verstärkt mit diesem Feinstaub. Darüber hinaus werden die Daten von den Behörden als Entscheidungshilfe für die Bewilligung neuer Stallbauten benötigt, um Anwohner vor möglichen negativen Einflüssen zu bewahren. Derzeit wird davon ausgegangen, dass PM 10 aus Nutztierhaltungen, aufgrund der durch die Abstandsregelung der TA Luft (2002) greifenden Verdünnungseffekte keine negativen Auswirkungen auf die Gesundheit von Anwohnern hat. Diese Annahme ist allerdings bisher nicht durch ausreichende Messungen abgesichert. Die im Rahmen der Arbeit durchgeführten Messkampagnen haben zusammen mit der Literaturrecherche ergeben, dass das Messsystem DIGITEL HVS DAH-80 zur Erfassung von PM 10-Konzentrationen in Geflügelstallungen als geeignet bewertet werden kann. Die über 24 Stunden maximal erfasste mittlere PM 10-Konzentration beträgt 2,44 mg•m-3, der Durchschnitt liegt bei 1,27 mg•m-3, wobei die PM 10-Konzentrationen im Tagesverlauf tagesrhythmische Ereignisse widerspiegeln. Die ebenso über 24 Stunden erfassten ID-Konzentrationen liegen in Bereichen von 0,83 mg•m-3 bis 4,34 mg•m-3. Beide Staubfraktionen wurden im Hinblick auf bekannte Arbeitsplatz-Grenzwerte (AGW) sowie in Bezug auf umweltrechtliche Aspekte bewertet. Da bisher keine berufsbezogenen Grenzwerte existieren, wurden die beiden Staubkonzentrationen als arbeitsschutzrelevante Arbeitsstoffe mit den allgemein gültigen Grenzwerten der GefStoffV von E-Staub (einatembarer Staub) und A-Staub (Alveolengängiger Staub) mit einem AGW von 10 mg•m-3 bzw. 3 mg•m-3 verglichen. Selbst die bestimmten maximalen Tages-Konzentrationen liegen unterhalb dieser AGWs. Von ausgewählten Staubproben beider Fraktionen wurden die Aktivitäten der ebenso zu den umwelthygienisch bedeutenden Luftinhaltsstoffen zählenden Endotoxine ermittelt und mit bekannten Werten aus der Literatur verglichen. Für diese biologische Komponente besteht derzeit kein Grenzwert, sondern nur Orientierungswerte, die von 50 EU•m-3 bis 1.000 EU•m-3 reichen. Mehr als die Hälfte der ermittelten Endotoxinaktivitäten im E-Staub lagen unterhalb von 1.000 EU•m-3, die der analysierten PM 10-Teilfilter lagen im Bereich von 150 EU•m-3 bis 3.500 EU•m-3. Bei umwelthygienischen oder arbeitsmedizinischen Fragestellungen sollte die Qualität der Staubfraktionen zunehmend im Fokus der Messungen stehen, da diese aufgrund zahlreicher Einflussfaktoren eine erhebliche Variabilität aufweisen kann. Die weitere Bearbeitung des relativ neuen Arbeitsgebietes PM 10 im Bereich der landwirtschaftlichen Nutztierhaltung erfordert zudem eine verstärkte interdisziplinäre Zusammenarbeit und den Austausch von Erkenntnissen und Erfahrungen zwischen den beteiligten Disziplinen der Wissenschaft und Forschung aber auch mit Gesetzgebern und Genehmigungsbehörden.
With the ongoing trend towards deep learning in the remote sensing community, classical pixel based algorithms are often outperformed by convolution based image segmentation algorithms. This performance was mostly validated spatially, by splitting training and validation pixels for a given year. Though generalizing models temporally is potentially more difficult, it has been a recent trend to transfer models from one year to another, and therefore to validate temporally. The study argues that it is always important to check both, in order to generate models that are useful beyond the scope of the training data. It shows that convolutional neural networks have potential to generalize better than pixel based models, since they do not rely on phenological development alone, but can also consider object geometry and texture. The UNET classifier was able to achieve the highest F1 scores, averaging 0.61 in temporal validation samples, and 0.77 in spatial validation samples. The theoretical potential for overfitting geometry and just memorizing the shape of fields that are maize has been shown to be insignificant in practical applications. In conclusion, kernel based convolutions can offer a large contribution in making agricultural classification models more transferable, both to other regions and to other years.
The availability of data on the feeding habits of species of conservation value may be of great importance to develop analyses for both scientific and management purposes. Stomach flushing is a harmless technique that allowed us to collect extensive data on the feeding habits of six Hydromantes species. Here, we present two datasets originating from a three-year study performed in multiple seasons (spring and autumn) on 19 different populations of cave salamanders. The first dataset contains data of the stomach content of 1,250 salamanders, where 6,010 items were recognized; the second one reports the size of the intact prey items found in the stomachs. These datasets integrate considerably data already available on the diet of the European plethodontid salamanders, being also of potential use for large scale meta-analyses on amphibian diet.
The microbial enzyme alkaline phosphatase contributes to the removal of organic phosphorus compounds from wastewaters. To cope with regulatory threshold values for permitted maximum phosphor concentrations in treated wastewaters, a high activity of this enzyme in the biological treatment stage, e.g., the activated sludge process, is required. To investigate the reaction dynamics of this enzyme, to analyze substrate selectivities, and to identify potential inhibitors, the determination of enzyme kinetics is necessary. A method based on the application of the synthetic fluorogenic substrate 4-methylumbelliferyl phosphate is proven for soils, but not for activated sludges. Here, we adapt this procedure to the latter. The adapted method offers the additional benefit to determine inhibition kinetics. In contrast to conventional photometric assays, no particle removal, e.g., of sludge pellets, is required enabling the analysis of the whole sludge suspension as well as of specific sludge fractions. The high sensitivity of fluorescence detection allows the selection of a wide substrate concentration range for sound modeling of kinetic functions.
- Fluorescence array technique for fast and sensitive analysis of high sample numbers
- No need for particle separation – analysis of the whole (diluted) sludge suspension
- Simultaneous determination of standard and inhibition kinetics
The allergic contact dermatitis (ACD) to small molecular weight compounds is a common inflammatory skin reaction. ACD is restricted to industrialized countries, has an enormous sociomedical and socioeconomic impact. About 2,800 compounds from the six million chemicals known in our environment are believed to have allergic, and to a lesser degree also contact-sensitizing or immunogenic properties causing allergic contact dermatitis. ACD results from T cell responses to harmless, low molecular weight chemicals (haptens) applied to the skin. Haptens are not directly recognized by the cells of the immune system. They need to be presented by subsets of antigen presenting cells to the cells of the immune system. In this regard, epidermal Langerhans cells (LC) and the cells into which they mature (dendritic cells) are believed to play a pivotal role in the sensitization process for ACD. LC are able to bind the haptens, internalize them, and present them to naive T cells and induce thereby the development of effector T cells. They are so-called professional antigen presenting cells. This process is initiated and maintained by the release of several mediators, which are released by various cells after their contact with the haptens. One of the first proteins secreted into the environment is interleukin (IL)-1ß. This cytokine is produced and secreted minutes after an antigen enters the cell. It is commonly believed that the large amounts of this protein and other cytokines such as granulocyte-colony stimulation factor (GM-CSF) and tumor necrosis factor alpha (TNF-ï¡) needed for the initiation and activation of ACD are coming first from other cells residing in the skin, e.g., keratinocytes, monocytes and macrophages. These cytokines provide the danger signals needed for the activation of the Langerhans cell (LC), which then produce via a positive feedback loop various cytokines themselves. In addition, other proteins such as chemokines influence the generation of danger signals, migration, homing of T cells in the local lymph nodes as well as the recruitment of T cells into the skin. Thus, a small molecular compounds or hapten needs to be able to induce danger signals in order to become immunogenic. In this study, we investigated whether para-phenylenediamine (PPD), an arylamine and common contact allergen, is able to induce danger signals and likely provide the signals needed for an initiation of an immune response[162, 163]. PPD is used as an antioxidant, an ingredient of hair dyes, intermediate of dyestuff, and PPD is found in chemicals used for photographic processing. But up to date, it has not been clearly demonstrated if PPD itself is a sensitizing agent. Thus, this study aimed on the potential of PPD to provide the danger signals by studying IL-1β, TNF-ï¡, and monocyte chemoattractant proteins (MCP-1) in human monocytes, peripheral blood mononuclear cells (PBMC) from healthy volunteers, and also in two human monocyte cell lines namely U937, and THP-1. This study found that PPD decreased dose- and time-dependently the expression and release of three relevant mediators involved in the generation of danger signals. Namely, PPD reduced the mRNA and protein levels for IL-1ß, TNF-ï¡, and MCP-1 in primary human monocytes from various donors. These findings were extended and validated by investigations using the cell line U937. The data were highly specific for PPD, and no such results were gained for its known auto oxidation product called Bandrowski- base or for meta-phenylenediamine (MPD), and ortho-phenylenediamine (OPD). Therefore, we can speculate that this effect is likely to be dependent on the para-substitution. Based on these results we conclude that PPD itself is not able to mount a cascade for the induction of danger signals. It should be mentioned that it is still possible that PPD induces danger signals for sensitization by other unknown processes. Therefore, more research is still needed focusing on this subject especially in professional antigen presenting cells in order to solve the still open question whether PPD itself sensitizes naive T cells or if PPD is solely an allergen. Independently we found unexpectedly that PPD as well as other haptens such as 2, 4-Dinitrochlorobenzene, nickelsulfate, as well as some terpenoide increased clearly the expression of CC chemokin receptor 2 (CCR2), the receptor for the chemokine MCP-1. Up to date, the main importance for the CCR2 receptor comes from results demonstrating that CCR2 is critical for the migration of monocytes after encounter with bacterial lipopolysaccharides. Under these circumstances the receptor disappears from the cell surface and is down regulated. An up regulation of CCR2 has not been reported for haptens, and deserves further investigations.