Refine
Keywords
- Satellitenfernerkundung (2)
- Bodengüte (1)
- CO2-Bilanz (1)
- Carbon Footprint (1)
- Detektion (1)
- Emissionsbilanz (1)
- Etikett (1)
- Großküchen (1)
- Hochschule Trier (1)
- Hochschulgastronomie (1)
Grundlage der Arbeit stellten zwei Arbeitshypothesen dar, die es zu überprüfen galt. Die beiden Arbeitshypothesen wurden aufgrund einer Beobachtung eines Phänomens im Freiland formuliert, da bei scheinbar unterschiedlich starkem Reblausbesatzes im Boden kein direkter Zusammenhang zu einer schädigenden Wirkung dieses Stressphänomens (Reblausbefall) hergestellt werden konnte. Im Gegenteil traten die schädigenden Wirkungen des Reblausbefalls in Form von Rückgangserscheinungen eher in Rebflächen auf, die einer mangelhaften Bewirtschaftung oder Bestandsführung unterlagen. Zur Klärung dieses Phänomens wurden daher die beiden (A., B.) folgenden Hypothesen aufgestellt, die es zu überprüfen galt:
A.: Die in mit Unterlagsrebsorten der Kreuzung V. berlandieri x V. riparia zu beobachtenden Rückgangserscheinungen in Rebanlagen mit Reblausvorkommen werden nicht allein durch die Saugtätigkeit der Reblaus an den Rebwurzeln verursacht; eine direkte Korrelation zwischen Reblausdichte und Ausmaß der Rückgangserscheinungen an infizierten Reben besteht nicht. B.: Das Ausmaß möglicher Rückgangserscheinungen ist abhängig von der Bewirtschaftung des Rebbestands, wobei der Bodenbewirtschaftung eine maßgebliche Rolle zukommt.
Um diese Hypothesen zu überprüfen wurde ableitend von den Zielen der Arbeit ein Reblausbonitursystem zur Erfassung der Reblausabudanz im Freiland im Boden erarbeitet. Die besonderen Schwierigkeiten bei der Erfassung des Reblausbefalls im Boden aufgrund des stark variierenden Wurzelsystems der Rebe und dem ebenfalls stark schwankenden Reblausbefalls an der Wurzel der Rebe wurde mit dem Reblausbonitursystem (Grabungen) Rechnung getragen, sodass ein valides System zur Beurteilung des Reblausbefalls auch im jahreszeitlichen Verlauf erstellt worden konnte. Damit wurde ein Reblausbonitursystem geschaffen, das auch in praktischer Anwendung durchführbar ist und somit mit seiner höheren möglichen Replikationsrate bei der Probenentnahme dem stark variierenden Charakter des Reblausbefalls im Boden Rechnung trägt.
Um Rückgangserscheinungen in einem Weinberg nachhaltig analysieren zu können, wurde ein Wuchsbonitursystem evaluiert. Dieses System beurteilt alle Reben einer Rebfläche innerhalb eines einfachen für den Menschen kognitiv sehr gut verarbeitenden Bewertungssystem zum Wuchs der Reben. Damit ist eine Erfassung einer sehr großen Datenmenge zur Beurteilung des Wuchses auf einem Rebfeld möglich. Die Korrelation des mit dem System ermittelten Wuchses zu vielen Leistungsparametern der Rebe und den Gegebenheiten auf den Versuchsflächen zeigt die hohe Validität des Wuchsbonitursystems auf. Auch konnten Wuchsunterschiede in sehr differierenden Versuchsfeldern mit dieser Methode deutlich belegt werden. Damit wurde deutlich, dass mit dieser Wuchsboniturmethode die Rückgangserscheinungen in einer Rebfläche erkannt und analysiert werden konnten. Somit konnten mit den beiden Instrumenten der Wuchs- und Reblausbonitur die beiden Arbeitshypothesen dahingehend belegt werden, dass unter Verwendung der Unterlagensorten der Kreuzungskombination V. berlandieri x V. riparia kein Zusammenhang zwischen der Reblausdichte im Boden und Rückgangserscheinungen der Rebe vorliegen. Darüber hinaus konnte belegt werden, dass in Erweiterung dieser Erkenntnis das Ausmaß der Rückganserscheinungen bei Reben maßgeblich von der Art der Bewirtschaftung abhängt und somit deutlich abzutrennen ist vom Einfluss des Reblausbefalls. Vor allem konnte durch die vorliegende Arbeit unter Einbeziehung des Wuchsbonitursystems eine Methode erarbeitet werden, die in Zukunft bei der Beurteilung von Fernerkundungsdaten ein nützliches Instrument darstellt, um die wirklichen Gegebenheiten hinsichtlich des Wuchses der Reben auf Weinbergsflächen mit den berechneten Werten zu Wuchsindizes zu korrelieren.
In der vorliegenden Arbeit wurden die Einsatzmöglichkeiten von Carbon Footprints in Großküchen untersucht. Dabei wurden sowohl methodische Aspekte und Herausforderungen ihrer Erhebung untersucht als auch mögliche Kennzeichnungsformate (Label) evaluiert.
Zunächst wurde am Beispiel Hochschulgastronomie eine vollständige Carbon Footprint Studie nach DIN 14067 für sechs exemplarische Gerichte (PCF) sowie angelehnt an DIN 14064 für den Mensabetrieb (CCF) durchgeführt. Es zeigte sich, dass die gewichteten durchschnittlichen Emissionen pro Teller, unter Einbezug der verwendeten Rohstoffe und des Energiebedarfs, 1,8 kg CO2eq pro Teller betragen (Mgew=1,78 kg CO2eq; [0,22-3,36]). Zur Vereinfachung des Erhebungsprozesses wurden anknüpfend an diese Ergebnisse Pauschalisierungsansätze zur vereinfachten Emissionsallokation im Gastrosektor evaluiert und in Form eines appgestützten Berechnungstools umgesetzt. Es konnte verifiziert werden, dass der Energiebedarf und die daraus resultierenden Emissionen unabhängig von der Beschaffenheit der Gerichte auf die Anzahl produzierter Gerichte alloziert werden können und die Ausgabewerte dennoch hinreichend belastbar sind (Abweichung <10 %).
In dieser Studie konnte gezeigt werden, dass am untersuchten Standort Skaleneffekte hinsichtlich der Anzahl produzierter Gerichte und Strombedarf pro Gericht auftreten. Beide Faktoren korrelieren stark negativ miteinander (r=-.78; p<.05). Zur Verifikation der Ergebnisse wurde eine Datenabfrage unter allen deutschen Studierendenwerken (N=57) hinsichtlich des Energiebedarfs und der Produktionsmengen in Hochschulmensen durchgeführt. Aus den Daten von 42 Standorten konnten für das Jahr 2018 prognostizierte Gesamtemissionen in Höhe von 174.275 Tonnen CO2eq, verursacht durch etwa 98 Millionen verkaufte Gerichte, ermittelt werden. Im Gegensatz zur durchgeführten Standort-Studie konnten die Skaleneffekte, d.h. sinkender Strombedarf pro Teller bei steigender Produktionszahl, bei der deutschlandweiten Datenerhebung statistisch nicht nachgewiesen werden
(r=-.29; p=.074).
Im Anschluss wurden mögliche Label-Formate für Carbon Footprints evaluiert, indem vier vorbereitete Label unterschiedlicher Beschaffenheit (absolute Zahlen, einordnend, vergleichend und wertend) in sechs Fokusgruppen mit insgesamt 17 Teilnehmer:innen im Alter zwischen 20 und 31 Jahren (M=25,12; SD=3,31) diskutiert wurden. Im Ergebnis zeigte sich, dass bei den Teilnehmer:innen ein breiter Wunsch nach der Ausweisung absoluter Zahlen bestand. Zur besseren Einordnung sollte ein Label zudem einordnende Elemente enthalten. Wertende Label in Form von Ampelsymbolen oder Smileys mit unterschiedlichen Emotionen wurden überwiegend abgelehnt. Ableitend aus den Erkenntnissen konnten zwei synthetisierende Label-Vorschläge entwickelt werden.
Forest inventories provide significant monitoring information on forest health, biodiversity,
resilience against disturbance, as well as its biomass and timber harvesting potential. For this
purpose, modern inventories increasingly exploit the advantages of airborne laser scanning (ALS)
and terrestrial laser scanning (TLS).
Although tree crown detection and delineation using ALS can be seen as a mature discipline, the
identification of individual stems is a rarely addressed task. In particular, the informative value of
the stem attributes—especially the inclination characteristics—is hardly known. In addition, a lack
of tools for the processing and fusion of forest-related data sources can be identified. The given
thesis addresses these research gaps in four peer-reviewed papers, while a focus is set on the
suitability of ALS data for the detection and analysis of tree stems.
In addition to providing a novel post-processing strategy for geo-referencing forest inventory plots,
the thesis could show that ALS-based stem detections are very reliable and their positions are
accurate. In particular, the stems have shown to be suited to study prevailing trunk inclination
angles and orientations, while a species-specific down-slope inclination of the tree stems and a
leeward orientation of conifers could be observed.
Agricultural monitoring is necessary. Since the beginning of the Holocene, human agricultural
practices have been shaping the face of the earth, and today around one third of the ice-free land
mass consists of cropland and pastures. While agriculture is necessary for our survival, the
intensity has caused many negative externalities, such as enormous freshwater consumption, the
loss of forests and biodiversity, greenhouse gas emissions as well as soil erosion and degradation.
Some of these externalities can potentially be ameliorated by careful allocation of crops and
cropping practices, while at the same time the state of these crops has to be monitored in order
to assess food security. Modern day satellite-based earth observation can be an adequate tool to
quantify abundance of crop types, i.e., produce spatially explicit crop type maps. The resources to
do so, in terms of input data, reference data and classification algorithms have been constantly
improving over the past 60 years, and we live now in a time where fully operational satellites
produce freely available imagery with often less than monthly revisit times at high spatial
resolution. At the same time, classification models have been constantly evolving from
distribution based statistical algorithms, over machine learning to the now ubiquitous deep
learning.
In this environment, we used an explorative approach to advance the state of the art of crop
classification. We conducted regional case studies, focused on the study region of the Eifelkreis
Bitburg-Prüm, aiming to develop validated crop classification toolchains. Because of their unique
role in the regional agricultural system and because of their specific phenologic characteristics
we focused solely on maize fields.
In the first case study, we generated reference data for the years 2009 and 2016 in the study
region by drawing polygons based on high resolution aerial imagery, and used these in
conjunction with RapidEye imagery to produce high resolution maize maps with a random forest
classifier and a gaussian blur filter. We were able to highlight the importance of careful residual
analysis, especially in terms of autocorrelation. As an end result, we were able to prove that, in
spite of the severe limitations introduced by the restricted acquisition windows due to cloud
coverage, high quality maps could be produced for two years, and the regional development of
maize cultivation could be quantified.
In the second case study, we used these spatially explicit datasets to link the expansion of biogas
producing units with the extended maize cultivation in the area. In a next step, we overlayed the
maize maps with soil and slope rasters in order to assess spatially explicit risks of soil compaction
and erosion. Thus, we were able to highlight the potential role of remote sensing-based crop type
classification in environmental protection, by producing maps of potential soil hazards, which can
be used by local stakeholders to reallocate certain crop types to locations with less associated
risk.
In our third case study, we used Sentinel-1 data as input imagery, and official statistical records
as maize reference data, and were able to produce consistent modeling input data for four
consecutive years. Using these datasets, we could train and validate different models in spatially
iv
and temporally independent random subsets, with the goal of assessing model transferability. We
were able to show that state-of-the-art deep learning models such as UNET performed
significantly superior to conventional models like random forests, if the model was validated in a
different year or a different regional subset. We highlighted and discussed the implications on
modeling robustness, and the potential usefulness of deep learning models in building fully
operational global crop classification models.
We were able to conclude that the first major barrier for global classification models is the
reference data. Since most research in this area is still conducted with local field surveys, and only
few countries have access to official agricultural records, more global cooperation is necessary to
build harmonized and regionally stratified datasets. The second major barrier is the classification
algorithm. While a lot of progress has been made in this area, the current trend of many appearing
new types of deep learning models shows great promise, but has not yet consolidated. There is
still a lot of research necessary, to determine which models perform the best and most robust,
and are at the same time transparent and usable by non-experts such that they can be applied
and used effortlessly by local and global stakeholders.