Refine
Year of publication
- 2020 (36) (remove)
Document Type
- Contribution to a Periodical (15)
- Doctoral Thesis (11)
- Working Paper (7)
- Part of Periodical (2)
- Book (1)
Language
- German (36) (remove)
Keywords
- Demokratie (10)
- Deutschland (9)
- Luxemburg (9)
- Schule (9)
- Klassensprecher (8)
- Politische Bildung (8)
- Schülervertretung (8)
- Forschungsdaten (4)
- Management (4)
- Schüler (2)
Institute
- Politikwissenschaft (18)
- Fachbereich 1 (2)
- Fachbereich 4 (2)
- Fachbereich 6 (2)
- Psychologie (2)
- Ethnologie (1)
- Fachbereich 5 (1)
- Raum- und Umweltwissenschaften (1)
Vor dem Hintergrund eines fachlichen und gesellschaftlichen Interesses an psychologischen Forschungsthemen wurde der Einsatz von Topic Modeling zu deren automatisierten und validen Identifikation erprobt und mit einem traditionellen Ansatz verglichen, der auf Klassifikationskategorien von Fachdatenbanken beruht. Kern der Arbeit sind drei Studien mit unterschiedlichen Anwendungsszenarien: (1) Die Ermittlung psychologischer Brennpunktthemen, (2) das Verhältnis zwischen gesellschaftlichen Herausforderungen und Themen der psychologischen Fachliteratur sowie (3) die Forschungsinteressen von Psychologinnen und Psychologen. In jeder dieser Studien wurden sukzessive neue methodische Schwerpunkte gesetzt. Die Erkenntnisse daraus flossen in die Entwicklung einer nutzerfreundlichen App zur Exploration und Analyse von psychologischen Forschungsthemen ein. Im Vergleich mit dem klassifikationsbasierten Ansatz erwies sich Topic Modeling als Methode der Wahl zur automatisierten und differenzierten Identifikation psychologischer Forschungsthemen. Zur externen Validierung der Themeninhalte stellte sich ein Klassifikationssystem für psychologische Fachliteratur jedoch als geeignet heraus. Einschränkungen, Implikationen für weitere Forschung sowie Folgerungen für die Weiterentwicklung digitaler Produkte von forschungsbasierten Infrastruktureinrichtungen in der Psychologie werden diskutiert. Abschließend wird eine Entscheidungsheuristik zur Auswahl geeigneter Topic-Modeling-Varianten im Kontext von Forschungsthemen vorgelegt.
Die vorliegende Arbeit liefert eine Kritik der Performativity-of-Economics-Debatte, welcher theoretische Probleme unterstellt werden. Dies betrifft insbesondere Defizite hinsichtlich einer handlungstheoretischen Erschließung und Erklärung ihres Gegenstandes.
Zur Überwindung dieses Problems wird eine Verknüpfung mit dem Mechanism Approach der analytischen Soziologie vorgeschlagen, welcher erstens einen explizit handlungstheoretischen Zugang bietet, zweitens über die Identifikation der zugrundeliegenden sozialen Mechanismen die Entschlüsselung sozialer Dynamiken und Prozesse erlaubt und, drittens, verschiedene Ausprägungen des zu untersuchenden Phänomens (die Performativität ökonomischer Theorien) in Theorien mittlerer Reichweite übersetzen kann. Eine Verbindung wird durch den Mechanismus der Self-fulfilling Theory als spezifische Form der Self-Fulfilling prophecy hergestellt, welche im weiteren Verlauf der Argumentation als Erklärungsinstrument des Mechanism Approach verwendet und dabei kritisch reflektiert wird.
Die handlungsbasierte Erklärung eines spezifischen Typs der Performativität ökonomischer Theorien wird schließlich anhand eines Fallbeispiels – dem Aufstieg und der Verbreitung des Shareholder-Value-Ansatzes und der zugrundeliegenden Agency Theory – empirisch demonstriert. Es kann gezeigt werden, dass mechanismenbasierte Erklärungen zur allgemeinen theoretischen Aufwertung der besagten Debatte beitragen können. Der Mechanismus der Self-fulfilling Theory im Speziellen bietet zur Erklärung des untersuchten Phänomens verschiedene Vor- und Nachteile, kann allerdings als eine theoretische Brücke ebenfalls einen fruchtbaren Beitrag leisten, nicht zuletzt indem er eine differenzierte Betrachtung des Zusammenhangs zwischen starken Formen von Performativität und selbsterfüllenden Prophezeiungen erlaubt.
Es wird ein Workshopkonzept dargelegt, um das im Rahmen des PODMAN-Projektes entwickelte DIAMANTModell zur Implementierung einer institutionellen FDM-Servicelandschaft kennenzulernen. Anhand von Beispielen erfahren die Teilnehmenden, wie die entwickelten Instrumente auf die eigene Forschungseinrichtung angewendet werden. Primär wird das Konzept für den Initial-Workshop vorgestellt, der alle FDM-Akteur*innen
einer Forschungseinrichtung zusammenbringt, um das DIAMANT-Modell zunächst auf die gesamte Forschungseinrichtung zu applizieren. Daraus wurde ein weiteres Workshopkonzept abgeleitet, das insbesondere für die fach- oder abteilungsspezifische Bedarfserhebung vorgesehen ist.
Hochschulen und außeruniversitäre Forschungseinrichtungen werden heute zunehmend in die Pflicht genommen, für ihre Forschenden Strukturen und Services für ein nachhaltiges Forschungsdatenmanagement (FDM) bereit-zustellen. Da es vor allem für disziplin- oder datenspezifische Bedarfe nicht für jede Forschungseinrichtung möglich ist, die dafür notwendigen Dienste selbst vorzuhalten, müssen sie externe Dienstleistungen in ihre FDM-Servicestrukturen integrieren. Das erfolgreiche Management der Schnittstelle zwischen den kooperierenden Insti-tutionen bedeutet einen erheblichen Organisationsaufwand, für den der vorliegende Praxisleitfaden eine Hilfe-stellung bietet. Er soll die Einrichtungen in die Lage versetzen, fremdbezogene FDM-Dienstleistungen erfolgreich in ihr eigenes FDM-Serviceangebot bzw. ihre übergeordnete FDM-Strategie zu integrieren. Der Leitfaden dient insbesondere als Anleitung für die erfolgreiche Steuerung der Zusammenarbeit und Kommunikation der invol-vierten internen und externen Mitarbeiter*innen. Über eine Reihe von Steuerungsmechanismen, die in diesem Leitfaden ausführlich erläutert werden, lässt sich der Prozess des Schnittstellenmanagements bestmöglich hand-haben. Der Praxisleitfaden versteht sich als Arbeitsgrundlage für alle Akteur*innen einer Forschungseinrichtung, die an der Erstellung eines institutionellen FDM-Konzeptes beteiligt sind.
Das DIAMANT-Modell wurde im Rahmen des BMBF-geförderten Projekts „Prozessorientierte Entwicklung von Managementinstrumenten für Forschungsdaten im Lebenszyklus“ (PODMAN) entwickelt. Das grundsätzliche Ziel des Modells besteht darin, Hochschulen und außeruniversitäre Forschungseinrichtungen zu befähigen, eine integrierte Informationsarchitektur für die optimierte Bereitstellung und Weiterentwicklung von Forschungsdatenmanagement (FDM)-Technologien und -services aufzubauen und zu pflegen, sodass die Forschenden ihre Forschungsdatensätze zu „hochkarätigen Diamanten“ schleifen können. Das DIAMANTModell besteht zum einen aus dem FDM-Referenzprozess, der – angelehnt an die ARIS-Prozessmodellierung – den gesamten FDM-Prozess und die zugehörigen Akteur*innen darstellt und ihren Grad der Beteiligung / Verantwortung an einem FDM-Service benennt. Der FDM-Referenzprozess sieht die Etablierung einer zentralen FDM-Steuerungseinheit vor, die den Informationsfluss zwischen allen am FDM beteiligten Organisationseinheiten steuert. Ein weiterer Bestandteil des DIAMANT-Modells ist die FDM-Kompetenzmatrix, die sich aus dem FDM-Referenzprozess ableitet. Sie dient der IST- / SOLL-Analyse, um den Referenzprozess auf die eigene Institution übertragen zu können. Abgeleitet wurde auch ein Beschreibungsmodell für FDMServices, um einen FDM-Service- /-Anforderungskatalog zu entwickeln und institutsspezifisch fortzuschreiben. Letzter Teil des DIAMANT-Modells sind Empfehlungen, welche Aspekte hinsichtlich der Personalführung und des Organisationsmanagements bei der Implementierung der FDM-Servicelandschaft berücksichtigt werden sollten.
Der Tagungsbericht fasst die Vorträge, Workshops und Ergebnisse der Abschlusstagung des BMBF-Projektes PODMAN: „Forschung + Datenmanagement = Forschungsdatenmanagement – Wann geht die Gleichung auf?“ vom 27. und 28. März 2019 an der Universität Trier zusammen. Ihm sind die Vortragsfolien, die Präsentationen der Workshops sowie die zugehörige Fotodokumentation der Arbeitsgruppen im Anhang beigefügt.
In dem Gebiet der Informationsextraktion angesiedelt kombiniert diese Arbeit mehrere Verfahren aus dem Bereich des maschinellen Lernens. Sie stellt einen neuen Algorithmus vor, der teil-überwachtes Lernen mit aktivem Lernen verknüpft. Ausgangsbasis ist die Analyse der Daten, indem sie in mehrere Sichten aufgeteilt werden. Hier werden die Eingaben verschiedener Personen unterteilt. Jeweils getrennt voneinander erzeugt der Algorithmus mittels Klassifizierern Modelle, die aus den individuellen Auszeichnungen der Personen aufgebaut werden. Um die dafür benötigte Datenmenge zu erhalten wird Crowdsourcing genutzt, dass es ermöglicht eine große Anzahl an Personen zu erreichen. Die Personen erhalten die Aufgabe, Texte zu annotieren. Einerseits wird dies initial für einen historischen Textkorpus vorgenommen. Dabei wird aufgeführt, welche Schritte notwendig sind, um die Annotationsaufgabe in Crowdsourcing-Portalen zur Bearbeitung anzubieten und durchzuführen. Andererseits wird ein aktueller Datensatz von Kurznachrichten genutzt. Der Algorithmus wird auf diese Beispieldatensätze angewandt. Durch Experimente wird die Ermittlung der optimalen Parameterauswahl durchgeführt. Außerdem werden die Ergebnisse mit den Resultaten bisheriger Algorithmen verglichen.
Die Praxishefte Demokratische Schulkultur erscheinen halbjährlich und bieten Schulleitungen und Schulpersonal theoretische Grundlagen und praxisorientierte Anleitungen zur demokratiepädagogischen Schulentwicklung.
Jedes Themenheft ist jeweils einer demokratiepädagogischen Bauform oder strategischen Frage der Schulentwicklung gewidmet. Die Praxishefte werden allen Luxemburger Schulen als Printausgabe zur Verfügung gestellt und online mit zusätzlichen Materialien und in französischer Fassung vorgehalten.
"Ich habe nichts zu verstecken ... oder doch?!" - Ein Praxisleitfaden zur Diskussion in der Klasse
(2020)
Durch das Zusammenspiel von Big Data und künstlicher Intelligenz eröffnen sich ganz neue Möglichkeiten, auch im Bereich der öffentlichen Sicherheit. Immer mehr Städte weltweit machen davon Gebrauch und setzen auf Kameras mit computergesteuerter Gesichtserkennung. Nicht jeder ist damit einverstanden. Wie kann man die aktuelle gesellschaftliche Debatte um öffentliche Sicherheit und Privatsphäre mit Jugendlichen besprechen?
Der Beitrag stellt eine Möglichkeit vor, wie man mit einem Impuls, ohne größere Vorbereitungen und ohne Vorwissen, einen ersten Überblick über die Erfahrungen und den Umgang der Schüler*innen mit digitalen Medien gewinnen kann. Die Übung lockert die Unterrichtsatmosphäre auf und lässt erkennen, inwiefern die Klasse ihren Umgang mit digitalen Medien bereits reflektiert.
Digitale Medien können dabei helfen, Unterrichtsinhalte auf motivierende und anschauliche Weise zu thematisieren und demokratische Handlungskompetenzen von Schüler*innen zu trainieren. Die App „KonterBUNT. Einschreiten für Demokratie“ unterstützt Jugendliche bei der Auseinandersetzung mit menschenverachtenden Parolen.
Jugendliche zu unterstützen, sich auszudrücken, ist ein wichtiger Bereich der Demokratiebildung. Eine der Möglichkeiten dafür ist es, sie die Medien gestalten zu lassen, die sie am besten kennen. Der vorliegende Artikel beschäftigt sich vor allem mit der Frage, wie man kreative und themenbezogene Projektarbeit mit digitalen Medien – genauer: dem Smartphone – verbinden kann.
Digitale Tools bieten vielfältige Möglichkeiten, demokratische Beteiligung in Schule und Gesellschaft zu unterstützen, an politischen Entscheidungsprozessen zu partizipieren und schulische Gremienarbeit, Entwicklungsprozesse und Projekte zu organisieren. Damit Schüler*innen die Tools kompetent nutzen können, sollte ihre Anwendung in Schule und Unterricht erprobt und reflektiert werden.
Damit Schüler*innen Medienkompetenz entwickeln, bedarf es neben der Reflexion auch eigener Medienpraxis, in der sie zu Produzent*innen und Gestalter*innen von Medienangeboten werden. Der Praxisbericht stellt die Entwicklung einer einstündigen Fernsehsendung mit Schüler*innen am Lycée de Garçons in Esch vor.
Digitalisierung wirkt sich in radikaler Weise auf alle Lebensbereiche aus. Durch die technische Vernetzung und die Umwandlung analoger in digitale Daten entstehen umfassende Datenmengen. Aus ihrer Verknüpfung und Verarbeitung lassen sich Regelmäßigkeiten erkennen und Anwendungen generieren, deren soziale, ethische, politische, rechtliche, arbeitsweltliche und ökonomische Folgen heute noch nicht ansatzweise abzuschätzen sind.