RDA Deutschland Tagung 2022

Europe/Berlin
Online Event

Online Event

Christoph Bruch (Helmholtz Open Science Office), Henriette Senst (Deutsches Archäologisches Institut), Jan Brase (SUB Göttingen), Lea Maria Ferguson (Helmholtz-Gemeinschaft, Helmholtz Open Science Office), Nina Weisweiler (Helmholtz-Gemeinschaft, Helmholtz Open Science Office), Raphael Ritz (MPG / MPCDF)
Description

Die RDA Deutschland Tagung 2022 wird vom RDA Deutschland e.V. in Kooperation mit dem Helmholtz Open Science Office veranstaltet. Sie findet vom 21. bis 25. Februar 2022 als virtuelles Event Event statt. Die Teilnahme ist kostenlos. Präsentationen und Materialien zur Tagung werden sukzessive online im Tagungsprogramm hinterlegt und verfügbar gemacht. Bitte registrieren Sie sich, um die Zugangsdaten für die Veranstaltung zu erhalten.

Am 22.01.2022 um 17.15 Uhr findet die Mitgliederversammlung des RDA DE e.V. online statt. Entsprechende Einladungen an die Vereinsmitglieder erfolgen separat.

Twitter-Hashtag zur Konferenz: #RDAde2022

Die RDA Community in Deutschland will dazu beitragen, dass der Austausch von Daten verstärkt und die Wiederverwendung von Daten effizienter wird. Sie umfasst Datenexpertinnen und -experten in Deutschland, die sich in der Research Data Alliance (RDA) engagieren bzw. ein Interesse an den Ergebnissen der RDA haben. Seit 2014 organisiert RDA Deutschland Jahreskonferenzen und verschiedene Aktivitäten wie z.B. Trainingskurse mit Fokus auf Data Science und Forschungsdatenmanagement.

Hinweis: Die Teilnehmenden, Vortragenden und Mitarbeitenden der Tagung werden aufgefordert, sich an den Code of Conduct zu halten. Wir bitten um die Rücksichtnahme und Mitarbeit aller Beteiligten, um die Veranstaltung zu einem sicheren und angenehmen Ort für alle zu machen.

Registration
RDA Deutschland Tagung 2022
    • 09:00 10:30
      RDA4Newbies 1h 30m

      Einführung in RDA

      Speaker: Rainer Stotzka
    • 10:30 11:00
      Pause 30m
    • 11:00 12:30
      Eröffnung, Begrüßung und Keynote 1h 30m

      Begrüßung Moderation
      Dr. Raphael Ritz, Vorsitzender, RDA-DE e.V.; Max Planck Computing and Data Facility

      Keynote: Daten, Künstliche Intelligenz & Ethik?

      Prof. Dr. Judith Simon, Professor for Ethics in Information Technology, Universität Hamburg

      Biography:
      Judith Simon ist Professorin für Ethik in der Informationstechnologie an der Universität Hamburg und hat zuvor in Berlin, Wien, Ljubljana, Stanford, Paris, Trento, Barcelona, Karlsruhe und Kopenhagen zu Themen aus Philosophie, Wissenschaftstheorie und Technikfolgenabschätzung geforscht. Sie beschäftigt sich mit der Verschränkung ethischer, erkenntnistheoretischer und politischer Fragen im Kontext von Big Data, Künstlicher Intelligenz und Digitalisierung im Allgemeinen.

      Sie ist in zahlreichen wissenschaftlichen und forschungspolitischen Beiräten tätig, gewähltes Vorstandsmitglied der International Society for Ethics and Information Technology (INSEIT) und der International Association for Computing and Philosophy (IACAP) und u.a. Mitherausgeberin der Zeitschrift »Philosophy & Technology.

      Im Juni 2020 wurde ihr Routledge Handbook of Trust and Philosophy veröffentlicht.

      Speaker: Prof. Judith Simon (Universität Hamburg)
    • 15:30 17:00
      CARE-Principles im Fokus: ethische Aspekte des Forschungsdatenmanagements 1h 30m

      1. Vortrag: Online Collections und ethische Fragen am Beispiel ethnographischer Sammlungen

      Dr. phil. Birgit Scheps-Bretschneider (Museum für Völkerkunde Dresden, Abteilung wissenschaftliche Sammlungserschließung, Dokumentation und Provenienzforschung der SES)

      Abstract:
      Digitalisate von Objekten, Fotografien und anderen Materialien in Internetportalen zu veröffentlichen kann zu mehr Transparenz über Sammlungsgut aus kolonialen Kontexten beitragen. Dabei stellt sich aber die grundsätzliche Herausforderung, wie die Souveränität von Herkunftsgesellschaften über ihr Kulturerbe bei der digitalen Zugänglichmachung gewahrt werden kann und welche unterschiedlichen Sichtweisen es auf unsere Transparenzstrategien gibt.

      Kurzbiografie:
      Birgit Scheps-Bretschneider arbeitet seit 1986 als Kustodin für Australien/Ozeanien am GRASSI Museum für Völkerkunde zu Leipzig / Staatliche Ethnographische Sammlungen Sachsen.Seit 2016 ist sie Leiterin der Abteilung wissenschaftlichen Sammlungserschließung, Dokumentation und Provenienzforschung der ethnographischen Museen der Staatlichen Kunstsammlungen Dresden. Sie arbeitete bei mehreren Feldforschungen zur Thematik „Oral History und Tradition“ mit Menschen der Arrernte, Luritja, Tiwi und Yolngu in Australien als auch mit den Ngapuhi in Aotearoa (New Zealand) und in Samoa. Arbeitsgebiete sind weiterhin die Geschichte der Ethnologie und der Völkerkundemuseen in Deutschland, Kolonialismus, Rassismus. Enge Zusammenarbeit mit indigenen Gemeinschaften in Hinblick auf Fragen der Digialisierung, online collections und indigene Mitsprach und Sensibilität sowie zu Repatriierung, Rehumanisierung und materieller und immaterieller Restitution. Zahlreiche wissenschaftliche und belletristische Publikationen sowie blog-Beiträge.

      2. Vortrag: Ethische Daten? Eine Problemanalyse von Care-Prinzipien und Forschungsdatenmanagement in der Praxis

      Dr. Katrin Moeller (Institut für Geschichte der MLU Halle-Wittenberg, Leiterin des Historischen Datenzentrums Sachsen-Anhalt)

      Abstract:
      CARE-Prinzipien sind entwickelt worden, um FAIRes-Datenmangement allseitig fair auszugestalten. Dabei geht es vor allem um den kollektiven Nutzen von Daten, um Kontrolle, Verantwortungsbewusstsein und ethischen Umgang von und mit Daten besonders indigener Gruppen. Handelt es sich dabei also um Probleme weit jenseits der deutschsprachigen Forschungscommunity? Während der Datenschutz personenbezogener Daten rechtlich genau geregelt wurde, bleiben diese Fragen des Forschungsdatenmanagements häufig noch unbeachtet. Eine kleine Problemanalyse aus der Forschungsdatenpraxis soll auf Herausforderungen und "Problemzonen" aufmerksam machen und zum Nachdenken über ethische Prinzipien des FDM anregen.

      Kurzbiografie:
      Katrin Moeller ist wissenschaftliche Mitarbeiterin für Digital History an der Professur für Wirtschafts- und Sozialgeschichte am Institut für Geschichte und Leiterin des Historischen Datenzentrums Sachsen-Anhalts an der Martin-Luther-Universität Halle-Wittenberg. Als Convenorin der AG Datenzentren des DHd-Verbandes und Co-Applicant von NFDI4Memory beschäftigt sie sich mit vielen Fragen des Data-Lifecycles.

      3. Vortrag: Thinking about CARE principles in the Digital Humanities. Why CARE may not be only a matter for researchers working with indigenous peoples

      Prof. Daniel Paul O'Donnell (University of Lethbridge, University Library)

      Abstract:
      This talk is an attempt to work through some of the implications of Linked Open Data for Humanities and Cultural Heritage projects. It looks at some use cases of representational data (i.e. data that is meant to serve also as a proxy for an object or text [i.e. a primary source] for other researchers) in light of the CARE and FAIR principles.

      Kurzbiografie:
      Daniel Paul O'Donnell is Professor of English and member of the Academic Staff of the University Library at the University of Lethbridge. He is director of the Humanities Innovation Lab (humanitiesinnovation.ca) and in-coming co-director of the Centre for the Study of Scholarly Communication. His most recent funded project is "Good things come in small packets," a Community of Practice investigating Research Data Management Practices in the Humanities.

      Speakers: Birgit Scheps- Bretschneider , Daniel Paul O’Donnell , Henriette Senst (Deutsches Archäologisches Institut), Katrin Moeller
    • 11:00 12:30
      EcoDM Abschlussveranstaltung 1h 30m

      Abstract

      Mit dem BMBF geförderten Verbundprojekt EcoDM wurde erforscht, welche Herausforderungen, Chancen und Hindernisse sich im Bereich des rasanten digitalen Datenwachstums ergeben und wie Rahmenbedingungen aussehen könnten, Daten systematisch und FAIR (Findable, Accessible, Interoperable, Reusable) nutzen und teilen zu können. Einen zentralen Teil der Untersuchung bildeten neben Landscape- und Gap-Analysen Leitfaden-gestützte Interviews mit Expert:innen aus den Bereichen Wissenschaft, Wirtschaft, Public Sector und Qualifikation. Basierend auf den Projektergebnissen wurden Empfehlungen zur Förderung des Teilens und Nachnutzens von Daten entwickelt. Die daraus abgeleiteten EcoDM-Empfehlungen werden in der Session vorgestellt und diskutiert.

      Vorstellung der EcoDM-Empfehlungen

      • Dr. Christoph Bruch, Helmholtz Open Science Office

      Podiumsdiskussion

      Diskussionsleitung

      • Jan-Martin Wiarda, Journalist für Bildung und Wissenschaft

      Diskutant:innen

      • Prof. Dr.-Ing. Habil. Ulrike Lucke, Professur für Komplexe Multimediale Anwendungsarchitekturen, Universität Potsdam
      • Dr.-Ing. Jörn Krupa, Leitung, Transfer & Innovation, Helmholtz-Zentrum Potsdam - Deutsches GeoForschungsZentrum GFZ
      • Marie Jansen, Senior Business Analyst, Public Sector, Business Technology Solutions, Capgemini Deutschland
      • Dr. Alexander Hirschfeld, Leiter, Research, Bundesverband Deutsche Startups e.V.
    • Link zum Etherpad für Anregungen, Fragen, Kommentare: https://yopad.eu/p/EcoDM-Empfehlungen
Speakers: Dr Alexander Hirschfeld (Leiter Research, Bundesverband Deutsche Startups e.V.), Dr Christoph Bruch (Helmholtz Open Science Office), Prof. Heike Neuroth (Professur für Bibliothekswissenschaft, Fachhochschule Potsdam), Henriette Senst (Deutsches Archäologisches Institut), Jan-Martin Wiarda (Journalist für Bildung und Wissenschaft), Dr Jörn Krupa (Leitung, Transfer & Innovation, Helmholtz-Zentrum Potsdam - Deutsches GeoForschungsZentrum GFZ ), Marie Jansen (Senior Business Analyst | Public Sector | Business Technology Solutions | Capgemini Deutschland), Prof. Ulrike Lucke (Professur für Komplexe Multimediale Anwendungsarchitekturen, Universität Potsdam)
  • 15:30 17:00
    Provenance Monitoring and Management – Metadata is the Key 1h 30m

    Talk #1: Beyond identification: Provenance management with ORCID and CRedIT

    (Paloma Marín-Arraiza, ORCID)

    Abstract:
    ORCID iDs have been established in the research community as an identification standard. However, in an ecosystem of links and data, the importance of using identifiers goes beyond identification. Identifiers are central to the FAIRification of metadata, to improving its quality and to determining provenance.
    ORCID has as strategic objectives the improvement of metadata quality and completeness. Among others, this has involved the adoption of new work types, the integration of the CRedIT taxonomy or the adoption of ROR.
    In this talk, we will delve more deeply into these developments with a special focus on traceability and provenance.

    Biography:
    (https://orcid.org/0000-0001-7460-7794 )
    Paloma Marín-Arraiza studied Physics at the University of Granada (Spain) and got her Master's degree in Scientific Information and Communication at the same university. She also got her PhD in Information Science at Sao Paulo State University (Brazil) focusing her research in enhanced publications. Paloma has worked with non-textual materials at the German National Library of Science of Technology and as an Information Manager for persistent identifiers at the library of the Technical University of Vienna. Since March 2020, she is part of the ORCID team as an Engagement Lead, working directly with consortia in Europe and America.

    Talk #2: Introduction to Contributor Roles Taxonomy

    (Alison McGonagle-O’Connell, HighWire Press; CRediT Program Committee)

    Abstract:
    This talk will provide an introductory-level overview of the Contributor Roles Taxonomy, also known as CRediT offers the ability for recognition of the specific contributions each contributor makes to a collaborative effort such as a manuscript, a grant proposal or a project. Using 14 standard terms, each contributor's work is recognized not just at the level of 'who' but also 'what'. The CRediT initiative is a grassroots community and volunteer-run effort that is now part of National Information Standards Organization that is passionate about supporting better recognition and metadata via shifting from the framework of 'authorship' toward 'contributorship' for collaborative research efforts, publishing, and reporting. We will look at examples of CRediT adoption use cases, and practical application examples, and next steps for joining the hundreds of publishers and thousands of journals who are more accurately recognizing research contributions with CRediT.

    Biography:
    (https://orcid.org/0000-0002-9032-3983)
    Alison has nearly 20 years of experience in publishing, including 10 years marketing scholarly communications workflow tools. Alison leads Marketing at HighWire and MPS, and is responsible for continually growing and supporting the community. She is also the co-Chair of the CRediT Program Committee.

    Talk #3: An overview of Provenance and its use cases

    (Carina Haupt, German Aerospace Center (DLR), Helmholtz Metadata Collaboration Platform (HMC))

    Abstract:
    The concept of provenance is well known by some, and completely unknown to others. In this talk I give a short introduction into the basics. From the definition, the W3C standard, to the storing and accessing of it. To put these basics into context, I will show some examples of how we work with provenance data within the German Aerospace Center (DLR). I will thereby focus on the work of the department of intelligent and distributed systems where we use provenance data to monitor and analyse software development processes.

    Biography:
    (https://orcid.org/0000-0001-6447-1379)
    Carina Haupt is head of the Sustainable Software Engineering group as well as deputy head of the Intelligent and Distributed Systems department of the Institute for Software Technology of DLR. Her aim is to support domain scientists by creating software and process based solutions for their day to day problems. Her research topics are software engineering in the scientific context, open source, and knowledge and data management.

    Speakers: Carina Haupt, Alison McGonagle-O’Connell, Paloma Marín-Arraiza
  • 17:00 17:15
    Pause 15m
  • 17:15 18:45
    RDA-DE Mitgliederversammlung 1h 30m
    • 15:30 17:00
      Dynamiken der Darstellung: welche Publikationsinfrastruktur braucht eine Daten-zentrierte Forschung? 1h 30m

      Session Abstract

      Die unter dem länglichen Titel „Die Ausweitung der Wissenschaftspraxis des Publizierens unter den Bedingungen des digitalen Wandels“ als Diskussionspapier veröffentlichte Phänomenbeschreibung lässt erkennen, dass die Darstellung von Forschungsergebnissen zunehmend durch offene, multimedial geprägte, dynamische und hybride Formate geprägt wird. Künftige Publikationsinfrastrukturen müssen dieser Entwicklung adäquat Rechnung tragen. Doch wie sieht der von Wissenschaftlerinnen und Wissenschaftlern artikulierte „Infrastrukturbedarf von morgen“ aus? Wie spielen Texte, Daten, Code hier zusammen? Was wäre in diesem Zusammenspiel „das neue Normal“ einer Veröffentlichung, wenn heute noch Innovatives morgen schon alltäglich ist? Wer übernimmt künftig welche Rollen und Funktionen? Und vor allem: wie können und müssen Einrichtungen der Informationsinfrastruktur auf neue Bedarfe reagieren und Forschende pro-aktiv unterstützen? Im Dialog mit der Community sollen nun Empfehlungen für solche Infrastrukturen erarbeitet werden, die den - auch künftigen - Anforderungen an und Bedarfen für dynamische Publikationsformate am besten gerecht werden.

      Breuer, C., Trilcke, P.(2021): Die Ausweitung der Wissenschaftspraxis des Publizierens unter den Bedingungen des digitalen Wandels, Herausgegeben von der Arbeitsgruppe »Wissenschaftspraxis« im Rahmen der Schwerpunktinitiative »Digitale Information« der Allianz der deutschen Wissenschaftsorganisationen, 15 p.

      Programm

      Begrüßung und Moderation (Johannes Fournier, DFG)

      Vorträge

      • Die Ausweitung der Wissenschaftspraxis des Publizierens unter den Bedingungen des digitalen Wandels: eine Rekapitulation (Peer Trilcke, Universität Potsdam)
      • ing.grid: Ein innovatives Journal für die FAIRe Publikation von Artikeln verknüpft mit Datensets und Forschungssoftware in den Ingenieurwissenschaften (Peter Pelz, Technische Universität Darmstadt; Thomas Stäcker, Technische Universität Darmstadt)
      • Digitale Arbeitsweisen in der Wissenschaft – Anforderungen der Wissenschaftstreibenden und Implikationen für die technische Infrastruktur (Wolfgang zu Castell-Rüdenhausen, Helmholtz-Zentrum Potsdam - Deutsches GeoForschungsZentrum GFZ)
      • Data Driven Publishing: On the infrastructural approach of the “Journal of Digital History” (Frédéric Clavert, University of Luxembourg; Lars Wieneke, , University of Luxembourg)

      Diskussion mit den Zuhörenden

      Weitere Informationen zu den Vortragenden und ihren Beiträgen

      Wolfgang zu Castell-Rüdenhausen

      • Affiliation
        Helmholtz-Zentrum Potsdam - Deutsches GeoForschungsZentrum GFZ
      • Kurz-CV
        PD Dr. Wolfgang zu Castell hat im November 2021 die Position als Direktor des Department Geoinformation und CIO des GFZ GeoFoschungszentrum Potsdam übernommen. Als ausgebildeter Mathematiker führte ihn sein Weg durch verschiedene Stationen am Helmholtz Zentrum München, zuletzt als Leiter der Hauptabteilung Strategie und Digitalisierung, sowie an die University of Virginia und die University of Canterbury in Christchurch, N.Z.. Wissenschaftlich beschäftigt er sich mit datengetriebenen Methoden zur Analyse komplexer Systeme und deren Anwendung in den Naturwissenschaften.
      • Abstract zum Vortrag
        Digitalisierung ist nicht nur ein Modewort, das man im Munde führen muss, um nicht altbacken und hinterhergeblieben zu wirken, sondern hat ganz konkrete Auswirkungen auf das wissenschaftliche Wirken. Der routinierte Umgang mit digitalen Artefakten wissenschaftlichen Arbeitens und deren Werkzeugen eröffnet neue Horizonte, schafft Freiräume für den kreativen Teil des Arbeitens und beschleunigt letztlich den Prozess des wissenschaftlichen Erkenntnisgewinns. Treiber dieser Entwicklung müssen jedoch die Wissenschaftstreibenden selbst sein. Deren Anliegen zu verstehen, gut in technische Lösungen zu übersetzen und dabei vorausdenkend eine zukünftige Nutzung zu antizipieren ist Aufgabe und Herausforderung für die Architekten und Betreiber der IT-Plattformen.

      Frédéric Clavert

      • Affiliation
        University of Luxembourg
      • Kurz-CV
        Frédéric is an Assistant Professor in European Contemporary History.
        Holder of a PhD in Contemporary History, he completed studies in political sciences and contemporary history in Strasbourg and Leeds. Before joining the C2DH, he worked as a researcher in Strasbourg, at the Centre Virtuel de la Connaissance sur l’Europe (CVCE) in Luxembourg and at the University of Lausanne. He was also a research engineer at Paris-Sorbonne University for the Writing a new history of Europe Laboratory of Excellence (LabEx EHNE).
        Frédéric wrote his PhD thesis on Hjalmar Schacht – German Minister of Economics (1934–1937) and President of the Reichsbank (1924–1930; 1933–1939) and then studied the monetary organisation of Continental Europe in the 20th century. At the CVCE, Frédéric became an active member of the digital humanities community. He gradually turned his attention to the study of the relationship between historians and their primary sources in the digital age on the one hand, and the use of massive data from web platforms in memory studies on the other.
        He led the #ww1 project around the Centenary of the Great War on Twitter. With Caroline Muller (Université Rennes 2), he is co-editor of the online book Le Goût de l’archive à l’ère numérique. He is in charge of communication and dissemination within the COST Action SlowMemo (CA20105). He is also interested in the collective memory aspects of the current sanitary crisis.
        He is managing editor of the Journal of Digital History.

      Lars Wieneke

      • Affiliation
        University of Luxembourg
      • Kurz-CV
        Lars is the Head of Digital Research Infrastructure.
        Lars Wieneke holds a PhD in Engineering from the Bauhaus-University Weimar, Germany. After graduating from the Technical University of Ilmenau he worked as a researcher in the Department of Interface Design at the Bauhaus-University Weimar. Funded by a Marie-Curie fellowship, Lars joined the EPOCH/CHIRON research group at the University of Brighton in January 2007 and specialised in the application of user-created content for museums and cultural heritage. In 2009, Lars worked as an independent consultant for museums and cultural heritage in France before becoming project manager of a joint research project between the Jewish Museum Berlin and the University of Applied Sciences Berlin. He joined the Centre Virtuel de la Connaissance sur l’Europe (CVCE) in 2011 and worked as a researcher in the Digital Humanities Lab. In 2014, he became the Head of the Information & Technology department at the CVCE. On the 1. of July 2016 he joined the University of Luxembourg and became head of the digital research infrastructure of C2DH in April 2017. Lars has worked in multiple international projects and networks. He acted as a work package leader in the FP7 funded project CUbRIK where he coordinated the development of histoGraph, a new tool for the indexation, exploration and analysis of multimedia archives that incorporates graph visualisation approaches and different levels of crowd-sorucing. He was also a co-head of the Europeana taskforce on User-Generated content and is currently a co-head of the working group on visualisation and interactivity in DARIAH.

      Peer Trilcke

      • Affiliation
        Universität Potsdam
      • Kurz-CV
        Geboren in Hamburg, aufgewachsen im Herzogtum Lauenburg und in Lübeck.
        2001 bis 2006 Studium der Literatur, der Medien, der Skandinavistik und der Philosophie in Kiel; ab 2006 zunächst Doktorand, später Post-Doktorand und Vertretungsprofessor am Lehrstuhl für Neuere deutsche und vergleichende Literaturwissenschaft von Heinrich Detering an der Universität Göttingen.
        Seit April 2016 zunächst als ›Juniorprofessor‹ seit 2021 als ordentlicher ›Professor für deutsche Literatur des 19. Jahrhunderts mit dem Schwerpunkt Theodor Fontane‹ an der Universität Potsdam, seit April 2017 Leiter des Theodor-Fontane-Archivs an der Universität Potsdam. Sprecher des Potsdamer ›Netzwerks für Digitale Geisteswissenschaften‹.
        Schwerpunkte der Preofessur liegen insbesondere in den Bereichen ›Fontane in der Literatur und Kultur des 19. Jahrhunderts‹, ›Digitale Literaturwissenschaft‹ (sowie im engeren Sinne ›Computational Literary Studies), ›Digitales Kulturerbe‹ sowie ›Theorie und Praxis des Archivs‹ – und in deren Schnittpunkten. Weitere Arbeitsfelder sind: Gegenwartsliteraturforschung, Theorie und Geschichte der Lyrik, Gattungstheorie, Literatursoziologie, Angewandte Literaturwissenschaft.

      Peter F. Pelz

      • Affiliation
        Technische Universität Darmstadt
      • PETER F. PELZ received the Diplom-Ingenieur degree in mechanical engineering from Technische Universität Darmstadt, Darmstadt, Germany, in 1993, and the Dr.-Ing. degree in mechanical engineering from Technische Universität Darmstadt, under Prof. Dr.-Ing. Joseph H. Spurk. After his Diplom-Ingenieur degree, he continued working with Technische Universität Darmstadt as a Research Assistant. From 1998 to 2003, he worked as the Team Leader of Fluid Mechanics and Rheology at Freudenberg F&D Service KG, Weinheim, followed by the position as the Manager of Advanced Development at Vibracoustic GmbH and Co KG, Hamburg, from 2003 to 2006. Since 2006, he has been a Full Professor at Technische Universität Darmstadt, where he is the Head of the Chair of Fluid Systems (FST). His research topics are sustainable systems design, urbanization and infrastructures, cavitation and generic flows, and designing with fluids. He was a Spokesperson of the Collaborative Research Centre (SFB) 805 on uncertainty in mechanical engineering and co-authored the book “Mastering Uncertainty of Load Carrying Structures”. He is one of the initiators and the Deputy Spokesperson of the National Research Data Infrastructure for Engineering Sciences NFDI4Ing. He is the founding editor of ing.grid – FAIR Data Management in Engineering Sciences and spokesperson of the research field Energy + Environment of TU Darmstadt.

      Thomas Stäckerz

      • Affiliation
        Technische Universität Darmstadt
      • Kurz-CV
        Direktor der Universitäts- und Landesbibliothek Darmstadt. Nebenamtlicher Professor für Digital Humanities an der Fachhochschule Potsdam

      Speakers: Prof. Frédéric Clavert (Université du Luxembourg – Luxembourg Centre for Contemporary and Digital History (C2DH)), Dr Johannes Fournier (DFG), Dr Lars Wieneke (University of Luxembourg), Prof. Peer Trilcke (Universität Potsdam), Prof. Peter Pelz (Technische Universität Darmstadt), Prof. Thomas Stäcker (Technische Universität Darmstadt), Dr Wolfgang zu Castell-Rüdenhausen (Helmholtz-Zentrum Potsdam - Deutsches GeoForschungsZentrum GFZ)
    • 11:00 12:30
      Reproduzierbare Wissenschaft – Forschungsdaten und Research Software im Zusammenspiel 1h 30m

      1. Vortrag: Reproduzierbarkeit – viele kleine Schritte zu einem großen Ziel

      (Bernadette Fritzsch, Deputy Head of Division Computing, Computing Center, AWI)

      Abstract:
      Reproduzierbarkeit von wissenschaftlichen Ergebnissen ist ein Grundpfeiler für die Vertrauenswürdigkeit von Forschung. Daher spielt das Thema auch in der öffentlichen Wahrnehmung eine zunehmende Rolle. Forschungsdaten und -software sind in diesem Kontext eng miteinander verbunden. Die für Forschungsdaten entwickelten FAIR Prinzipien können mit einigen Anpassungen auf Forschungssoftware übertragen werden und definieren auch im Zusammenhang mit Reproduzierbarkeit wichtige Voraussetzung, um Ergebnisse nachvollziehen zu können.
      Viele schon bestehende lokale und themenspezifische Initiativen wollen den kulturellen Wandel in der Wissenschaft hin zu Open Science vorantreiben und damit die Qualität der wissenschaftlichen Arbeit und die Robustheit von Ergebnisse erhöhen. Im Vortrag wird die Rolle des German Reproducibility Network GRN als Plattform für die Vernetzung solcher Gruppen vorgestellt, damit verschiedene wissenschaftliche Communities voneinander lernen und damit Schritt für Schritt auf dem Weg zu mehr Reproduzierbarkeit gehen können.

      Kurzbiografie:
      (https://orcid.org/0000-0002-0690-7151)
      Nach ihrem Physikstudium mit Promotion in Festkörperphysik wechselte sie in die Klimaforschung. Am Rechenzentrum des Alfred-Wegener-Instituts, Helmholtzzentrum für Polar- und Meeresforschung Bremerhaven, leistet Bernadette Fritzsch User Support im Bereich High Performance Computing für Erdsystemmodellierung und Forschungsdaten. Seit dem Studium beschäftigt sie sich mit dem Forschungssoftware, ist Gründungsmitglied von de-RSE und seit der Gründung im Vereinsvorstand. Darüber hinaus ist sie Gründungsmitglied des German Reproducibility Network (GRN) und in dessen Steuerungsgruppe aktiv.

      2. Vortrag: Reproducibility in Practice - Tools and Methods for Every Step

      (Oliver Bertuch, Forschungszentrum Jülich)

      Abstract:
      Die in heutiger Forschung immanente Verwendung von Daten und Software stellt die Sicherung der Reproduzierbarkeit von Ergebnissen vor neue Herausforderungen. Wurden im ersten Vortrag die Schritte betrachtet, die Forschende gehen müssen, wenn sie das große Ziel erreichen wollen, widmet sich dieser Vortrag der praktischen Seite: wie soll man das denn nur schaffen?
Es erfolgt zunächst eine Vorstellung verschiedener Good Practices zur Organisation von Daten- und Softwareprojekten, die den Weg zum Ziel möglichst eben vorbereiten.
Im Anschluss beleuchtet eine Tour der gängigsten Hilfswerkzeuge Tabellenkalkulation, Research IDEs und Workflows ihre individuellen Vor- und Nachteile.
Die notwendige Forschungssoftware FAIR zu machen, stellt Forschende in der Praxis noch vor große Herausforderungen. Dieser essentielle Schritt schafft jedoch, gemeinsam mit FAIRen Datenpublikationen, die Grundlage für Reproduzierbarkeit. Das Projekt HERMES (HElmholtz Rich MEtadata Software Publications) tritt an, diesen Schritt zu erleichtern. Dieses durch die Helmholtz Metadata Collaboration geförderte Projekt ruft die Community auf, ihr Konzeptpapier zu begutachten.

      Kurzbiografie:
      (https://orcid.org/0000-0002-2702-3419)
      Oliver Bertuch (he/him) arbeitet seit 2018 als Research Software Engineer im Team "Forschungsdatenmanagement" der Zentralbibliothek des Forschungszentrums Jülich. Neben seiner Arbeit als Core Contributor zum Dataverse Projekt, technischer Realisation von FDM und Beratung von Forschenden, möchte er Forschungssoftware- und Forschungsdatenwelten miteinander verbinden. Im Projekt HERMES (http://software-metadata.pub) bringt er einen Baustein mit auf den Weg, der die Sichtbarkeit und Bedeutung von Forschungssoftware-Entwicklung erhöht.

      3. Vortrag: From License Consultation to Software Spotlights

      (Uwe Konrad, Leiter der Zentralabteilung Informationsdienste und Computing, HZDR & Christian Meeßen, IT Specialist, GFZ)

      Abstract:
      Reproduzierbarkeit ist eine Voraussetzung für Open Science, Ergebnisse müssen gemäß der FAIR Prinzipien auch nachnutzbar sein, das trifft insbesondere auf Forschungssoftware zu! Allerdings ist spezialisierte Forschungssoftware kaum über Suchmaschinen im Web zu finden. Deshalb wird in der Helmholtz-Gemeinschaft zusammen mit europäischen Partnern ein Konzept entwickelt, das Forschenden dabei helfen soll die Reichweite ihrer Software zu erhöhen und einfacher Software für ihre Forschung zu finden.

      Grundlage für den Ansatz bildet ein Software Verzeichnis, in dem Forschende ihre Software eintragen können. Die Einträge werden mittels standardisierter Metadaten katalogisiert, so dass eine Zuordnung zu Forschungsgebieten erfolgen kann und weiterführende Eigenschaften eine schnelle Auffindbarkeit ermöglichen. Darüber hinaus werden die Einträge genutzt, um die Forschenden bei der Zuweisung einer passenden Softwarelizenz im Rahmen einer Lizenzberatung zu unterstützen. Einmal eingetragen und veröffentlicht, werden automatisiert Metriken erhoben, die Interessenten unterstützen die Relevanz von Software für ihre eigene Forschung zu bewerten. Besonders herausragende Projekte werden als Software Spotlight auf dedizierten Seiten beworben.

      Kurzbiografie:
      Uwe Konrad: https://orcid.org/0000-0001-8167-9411
      Christian Meeßen: https://orcid.org/0000-0001-8151-8722

      Speakers: Bernadette Fritzsch, Christian Meeßen, Oliver Bertuch, Uwe Konrad
    • 12:30 13:30
      Mittagspause 1h
    • 13:30 15:00
      Open Data nutzen 1h 30m

      Abstract

      In der Sitzung wird zunächst an konkreten Beispielen aus zwei Perspektiven illustriert, wie offene Verwaltungsdaten genutzt werden können und welche Herausforderungen sich dabei ergeben können. Daran schließt sich ein Vortrag zu aktuellen Entwicklungen beim zentralen Portal Deutschland für die Zugänglöichmachung von Verwaltungsdaten an.

      Thomas Zastrow: Luftdatenanalyse als Citizen Science Projekt. Ein Bericht.

      Von 2019 bis 2021 wurden im Münchner Norden Sensordaten zur Luftqualität gesammelt. Diese Daten wurden zugänglich gemacht und in einem "Citizen Science" Projekt analysiert, visualisiert und diese Ergebnisse anschließend wieder veröffentlicht. Im vorliegenden Bericht werden die organisatorischen und technischen Erfahrungen, die im Umgang mit durch Kommunen erhobene Daten gemacht wurden, dargelegt.

      Christian Horn: Jüngere Entwicklungen beim Portal GovData

      Anna Behrend: Open Data im Datenjournalismus – Wunsch und Wirklichkeit

      Vortragsabstract
      Maschinenlesbare Datenschnittstellen, Tabelle im PDF-Format, Datenschutz als Totschlagargument: Mit welcher Art von Daten arbeiten Datenjournalistinnen und -journalisten in Deutschland und auf welche Hindernisse stoßen sie dabei? Ein Praxisbericht aus dem „NDR Data“-Team gibt Einblick in die journalistische Arbeit mit Daten in der Corona-Pandemie und darüber hinaus.

      CV Anna Behrend
      Anna Behrend ist Datenjournalistin im „NDR Data“-Team des Norddeutschen Rundfunks. Ihre journalistische Karriere führte sie unter anderem zu Zeit Online, Spiegel Online und zur NOZ-mh:n-Mediengruppe. Die studierte Physikerin und Wissenschaftsjournalistin ist Preisträgerin 2021 des „Georg-von-Holtzbrinck-Preis für Wissenschaftsjournalismus“ in der Kategorie „Elektronische Medien“.

      Speakers: Anna Behrend (Norddeutscher Rundfunk), Christian Horn (Leiter, Govdata, Senatskanzlei Hamburg), Thomas Zastrow (Max Planck Computing and Data Facility)
    • 15:00 15:30
      Pause 30m
    • 15:30 17:00
      Data Publishing Best Practices – Mehr Sichtbarkeit für Datenpublikationen 1h 30m

      1. Vortrag: Wie weit sind wir noch von FAIR entfernt?

      (Emanuel Söding, GEOMAR Helmholtz Zentrum für Ozeanforschung, Kiel)

      Abstract:
      Die Helmholtz Metadata Collaboration (HMC) entwickelt und implementiert neuartige Konzepte für einen nachhaltigen Umgang mit Forschungsdaten durch hochwertige Metadaten. Das Hauptziel ist es, die Tiefe und Breite der von den Helmholtz-Zentren erstellten Forschungsdaten für die gesamte Wissenschaftsgemeinschaft auffindbar, zugänglich, interoperabel und wiederverwendbar (FAIR) zu machen. Um eine Bestandsaufnahme der Dateninfrastrukturen im Forschungsbereich Erde und Umwelt zu erhalten, wurde im Sommer 2021 eine Erhebung gestartet, mit dem Ziel, den Status in Bezug auf die Erfüllung von FAIR innerhalb der Forschungsbereiche in Helmholtz einschätzen zu können. Die Daten aus dieser Erhebungwerden mit verschiedenen Konzepten verglichen, die Visionen zur Umsetzung von FAIR formulieren. Diese stammen z.B. von der RDA, der Europäischen Kommission im Rahmen von EOSC oder anderen. Wir haben daraus über 400 konkrete Empfehlungen (Recommendations) zusammengetragen, gegen die wir den Stand innerhalb der Helmholtz-Gemeinschaft stellen möchten. Wie weit sind wir noch von FAIR entfernt? Und welche nächsten Schritte sind zielführend?

      Kurzbiografie:
      (ORCID 0000-0002-4467-642X)
      Emanuel Söding ist Geowissenschaftler und seit über 20 Jahren in verschiedenen Funktionen, unter anderem im Bereich Forschungsdaten, tätig. Derzeit verantwortet er bei der Helmholtz Metadata Colllaboration (HMC) im Forschungsbereich (Hub) Erde und Umwelt die Entwicklung und Umsetzung von Metadatenkonzepten in der Helmholtz Gemeinschaft. Ein Ziel ist es, in den Dateninfrastrukturen der Helmholtz-Gemeinschaft die FAIR-Prinzipien bestmöglich umzusetzen.

      2. Vortrag: FAIR Data Publication with PANGAEA

      (Janine Felden, Frank Oliver Glöckner & PANGAEA Team, Alfred Wegener Institute - Helmholtz Center for Polar and Marine Research & MARUM - Center for Marine Environmental Sciences, University of Bremen)

      Abstract:
      The core trust seal certified data publisher PANGAEA has been active for more than 25 years operated as a joint facility of the Alfred Wegener Institute Helmholtz Centre for Polar and Marine Research (AWI) and the Centre for Marine Environmental Sciences (MARUM) at the University of Bremen. It is operated as an Open Access library for archiving, publishing, and distributing georeferenced data from earth, environmental and biodiversity sciences. Publishing in PANGAEA assures high quality data and metadata in compliance with the FAIR data principles. PANGAEA is equipped with a well-developed interoperability framework thus allowing the dissemination of metadata and data to international registries, data portals, and third-party service providers. It supports scientists with data curation by trained data editors including quality control of metadata and the development of ontologies and vocabularies according to international protocols and standards. Metadata are extensive and each published dataset can be cited using a unique identifier (DOI). In this presentation, I will focus on PANGAEAs stewardship for high quality data publication supported by our data editors.

      Kurzbiografie:
      (ORCID 0000-0002-4177-6644)
      Janine Felden has been PANGAEA group leader at the Alfred Wegener Institute - Helmholtz Centre for Polar and Marine Research since January 2020. From 2012 to 2019, she held a postdoctoral position at MARUM (Center for Marine Environmental Sciences) at the University of Bremen, where she was involved in several projects around research data management, including the enhancement of PANGAEA biomolecular data content and linkage to reference data bases in the BMBF project "German Network for Bioinformatics Infrastructure - de.NBI”. She also was the project manager of the DFG project “German Federation for biological data", which resulted in the successful application of the NFDI4Biodiversity consortium. After completing her M.Sc. in Marine Microbiology at the University of Bremen and the International Max Planck Research School of Marine Microbiology as well as her PhD in Biology at Jacobs University, she took a postdoctoral position at the Max Planck Institute for Marine Microbiology from 2009 until 2012.

      3. Vortrag: Eingebundene Forschungsdaten in Journal-Artikel am Beispiel des Archäologischen Anzeigers

      (Peter Baumeister und Marcel Riedel, Deutsches Archäologisches Institut Berlin, Zentrale Wissenschaftliche Dienste/Redaktion)

      Abstract:
      Mit einem neuem Zeitschriftenmodell verfolgt das Deutsche Archäologische Institut (DAI) ein neuartiges Konzept im Bereich der Archäologie und der Altertumswissenschaften: Das Einbinden von Forschungsdaten in klassische Journal-Artikel. Strukturierte Datenkonvolute, die in entsprechenden Fach-Systemen der Informationsinfrastruktur des DAI, der sog. iDAI.world, vorgehalten werden, können beim Aufruf eines Artikels in den sogenannten DAI-Journal-Viewer eingebunden werden. Dies führt dazu, dass Forscherinnen und Forscher die Möglichkeit haben, die von ihnen erhobenen Forschungsdaten in prominenter Weise zusammen mit auswertenden Artikeln zu veröffentlichen. In die Artikel können dabei im Hinblick auf die zugrundeliegenden Datenmodelle sehr unterschiedliche Arten von Daten integriert werden, d. h. von Informationskonvoluten mit georäumlichem Bezug bis hin zu komplexen Datensätzen von Fundobjekten mit entsprechender textlicher wie bildlicher Dokumentation. Der Vortrag gibt Einblicke in die technischen Hintergrundprozesse. Er zeigt auch, welche Ansätze verfolgt werden, um die Aufwände, die durch das Importieren neuer Datenkonvolute auf der einen Seite bzw. durch die spezifische Anforderungen des zugrundeliegenden XML-Workflows auf der anderen Seite entstehen, möglichst gering zu halten, um diese Art der Publikation von Forschungsdaten nachhaltig etablieren zu können.

      Kurzbiografie:
      Peter Baumeister (ORCID 0000-0001-5430-1456):
      Klassischer Archäologe. Leitet die Redaktion der sogenannten Zentralen Wissenschaftlichen Dienste des Deutschen Archäologischen Instituts. Besondere Schwerpunkte in den letzten Jahren:
      Transformation der Publikationsmodelle in Richtung digitales Publizieren und Open Access
      Vor allem: Neue Konzepte zur Verschränkung von klassischen Publikationsformaten mit Forschungsdatenkonvoluten

      Marcel Riedel (ORCID 0000-0002-2701-9356)
      Klassischer Archäologe, promovierte 2019 in Köln mit einer Arbeit über römische Bogenmonumente in Nordafrika.
      Seit 2012 in unterschiedlichen Konstellationen tätig für die Universität Köln und für das DAI (iDAI.welt, Datenmanagement, später auch Programmierung) sowie für die Max Weber Stiftung in Bonn (2017).
      Seit 2020 fester DAI-Mitarbeiter für die ZWD / Redaktion (Berlin) als Manager für Content- und Data-Publishing.

      Speakers: Emmanuel Söding, Janine Felden, Peter Baumeister, Marcel Riedel
    • 11:00 12:30
      FAIR in der Praxis 1h 30m

      1. Vortrag: FAIR Prinzipien aus Sicht des OpenScience Aggregators - OpenAIRE

      (Andreas Czerniak, Bielefeld University - Library, OpenAIRE-NEXUS)

      Abstract:
      Der Metadaten-Aggregator OpenAIRE - Open Access Infrastructure for Research in Europe (https://www.openaire.eu) - aggregiert weltweit von tausenden Repositorien und Forschungsinformationssystem Metadaten, die den Richtlinien von OpenAIRE entsprechend (https://guidelines.openaire.eu). Auf dessen Grundlage wird der OpenAIRE Research Graph (https://graph.openaire.eu) erstellt und enthält zur Zeit ca. 130 Millionen deduplizierte Datensätze.
      Der Vortrag wird zur Einführung die Geschichte von OpenAIRE und dessen Richtlinien aufzeigen, um darauf folgend die Unterstützung von Repositorien- und FIS-Manager in Bezug auf das RDA FAIR (Data) Maturity Model darzulegen. Abschliessend wird auf bereits bestehende Möglichkeiten zu einem kontinuierlichen FAIR-Assessment eingegangen.

      Kurzbiografie:
      Andreas Czerniak ist an der Universitätsbibliothek Bielefeld als Projekt Officer für OpenAIRE, akronym für "Open Access Infrastructure for Research in Europe", seit 2018 beschäftigt und studierte Informatik an der Universität Kiel in der Kombination mit Ozeanographie und der Modellierung von Ozean-, wie auch Informationssystemen. Im 'OpenAIRE-Advance' Projekt war er verantwortlich für das Arbeitspaket 6 'Towards a scholarly Commons' und ist weiterhin verantwortlich für die Integration von Repositorien-, Journalen und FIS-Systemen, deren Harmonisierung und sowie Unterstützung bei den FAIR Prinzipien, für das OpenAIRE und EOSC Ökosystem, speziell dem OpenAIRE Research Graph.
      Er begann seine Forschungsdatenmanager Tätigkeit am IFM-GEOMAR, Leibniz-Instiutut für Meereswissenschaften in Kiel, welches jetzt das GEOMAR, Helmholtz-Zentrum für Ozeanforschung Kiel, ist. Dort begleitete er mehrere internationale, EU und national geförderte Projekte als Forschungsdatenmanager.

      Bevor er am IFM-GEOMAR tätig wurde, war er in der freien Wirtschaft bei IBM Global Services und SAP als Trainer und Berater, sowie Leiter der IT einer Firma für elektronische Seekarten-Systeme tätig.
      In seiner Freizeit beschäftigt er sich mit Open-Knowledge und -Source Projekten meist in Kombination mit seinen Hobbies, dem Frei- und Gerätetauchen, sowie dem Segeln.

      2. Vortrag: F-UJI ein Werkzeug zur automatisierten Bewertung der FAIRness von Forschungsdaten

      (Dr. Robert Huber, MARUM - Center for Marine Environmental Sciences University Bremen)

      Abstract:
      Im Rahmen des EOSC Projektes FAIRsFAIR wurden Metriken und Werkzeuge zur Einschätzung der FAIRness von Forschungsdaten entwickelt, die auf den von der RDA FAIR Data Maturity Model Working Group entwickelten Indikatoren beruhen. Darunter ist F-UJI, eines der wenigen verfügbaren
      Tools, das die automatisierte Analyse der FAIRness eines Datensatzes anhand der FAIRsFAIR Metriken erlaubt. F-UJI nutzt hierbei vor allem gängige domänenunabhängige Standards und Best-Practices zur Verbreitung von Metadaten und Daten und unterstützt auch einige disziplinspezifische Formate. F-UJI ist als Webservice konzipiert und
      als Open Source verfügbar. Unter https://www.f-uji.net ist eine
      benutzerfreundliche Webanwendung für FAIR Tests öffentlich zugänglich.

      Kurzbiografie:
      Dr. Robert Huber ist Meeresgeologe und Informationsspezialist. Er arbeitete mehrere Jahre als Systemarchitekt für die Luft- und Raumfahrtindustrie und im Bereich erneuerbare Energien. Seit 2002 ist er am Zentrum für Marine Umweltwissenschaften (MARUM) an der Universität Bremen beschäftigt und dort in der PANGAEA Arbeitsgruppe (https://www.pangaea.de) verantwortlich für Projekte im Bereich wissenschaftliches Datenmanagement mit den Schwerpunkt Forschungsinfrastrukturen und FAIR Implementierung.

      3. Vortrag: FAIR uptake in the Nordics and Baltics (Vortrag auf Englisch)

      Mari Kleemola (Tampere University)

      Abstract: One of the goals of the EOSC Nordic project is to facilitate FAIR digital objects and trustworthy digital repositories in the Nordic and Baltic region. The project has measured the FAIRness of the repositories' metadata records using automated FAIR assessments and supported the uptake of FAIR and certification of repositories. This presentation will describe the work done and discuss the outcomes and lessons learned. Kurzbiografie: Mari Kleemola is Development Manager at the Finnish Social Science Data Archive (FSD), Tampere University. She has 20+ years of experience in digital data preservation and open science, and her expertise areas include metadata, standards, and certification of repositories. She is CESSDA Tools Working Group leader and CoreTrustSeal Board Secretary and currently works on projects related to the European Open Science Cloud (EOSC) on topics related to metadata and certification.
      Speakers: Andreas Czerniak, Henriette Senst (Deutsches Archäologisches Institut), Mari Kleemola, Robert Huber