People sorting papers with the phases of the research data lifecycle

Was bedeutet es, geisteswissenschaftliches Forschungsdatenmanagement im digitalen Zeitalter zu lehren? #dhiha8

Cite as: Ulrike Wuttke, Was bedeutet es, geisteswissenschaftliches Forschungsdatenmanagement im digitalen Zeitalter zu lehren? #dhiha8 , Blogpost, 01.07.2019, CC-BY 4.0. Link: https://ulrikewuttke.wordpress.com/2019/07/01/geisteswissenschaftliches-forschungsdatenmanagement-im-digitalen-zeitalter/

Am 17. und 18. Juni 2019 fand am Deutschen Historischen Institut Paris die internationale Tagung “Teaching History in the Digital Age – International Perspectives” statt. In ihrem Mittelpunkt standen die Herausforderungen in der Lehre angesichts der zunehmenden Digitalisierung der Geschichtswissenschaften. Die Tagung fiel in drei Teile: 1) zwei Hands-On Workshops, 2) Vorträge und 3) Barcamp, sowie eine virtuelle “Blogparade” und es wurde fleißig unter dem Hashtag #dhiha8 getweetet. 

Da ich es nicht geschafft habe, im Vorfeld einen Beitrag zur Blogparade zu liefern, habe ich beschlossen, meine persönlichen Eindrücke von dem von mir geleiteten Forschungsdatenmanagement-Workshop “Is your Research Future Proof? Data Management Techniques & Tools for Digital Historians” in diesem Blogbeitrag zu teilen.

Im Mittelpunkt der gesamten Tagung stand die Frage, was es bedeutet, Geschichte im digitalen Zeitalter zu lehren. Nun habe ich zwar nie wirklich Geschichte gelehrt, abgesehen von ein paar Gastseminaren, aber als Digitale Humanista mit den Schwerpunkten mediävistische Literaturwissenschaft, Editionswissenschaften, Open Science und Forschungsdatenmanagement, habe ich mir anlässlich der DHI-Tagung ein paar Gedanken zu diesem Thema gemacht, mit denen ich meinen Bericht einleiten möchte.

Wer und wie bewahren wir geschichtliche Quellen im digitalen Zeitalter? Eine Annäherung aus infrastruktureller Sicht

Die Quelle der Geschichte ist die Vergangenheit. Ein großer Teil unseres Wissens über die Vergangenheit beruht seit der Erfindung der Schrift auf schriftlichen Quellen. Quellen sind also der Forschungsschatz der Geschichtsforschung schlechthin. Hier kommen sich Literaturgeschichte und Geschichte sehr nahe, auch wenn sie unterschiedliche Quellen und Methoden zentral stellen. Ein wichtiger Aspekt scheint mir daher in der Lehre der Geschichte die Zeitlichkeit von Quellen, in dem Sinne eines Verständnisses für die Fragilität dieser Quellen, zu sein.

Was verstehe ich unter Zeitlichkeit? Welche historischen Quellen wir untersuchen können, scheint vom Zufall abhängig zu sein. Viele historische Quellen sind im Verlauf der Geschichte unwiederbringlich verloren gegangen. Doch es ist nicht allein der Zufall, der über die Überlieferung entscheidet. In vielen Fällen danken wir den Erhalt historischer Quellen der gezielten Sammlung und Bestandserhaltungsmaßnahmen durch Bibliotheken, Archive und in Einzelfällen Privatpersonen, die durch die Aufnahme dieser Quellen in ihren Bestand, also den gezielten Akt des Sammelns und Bewahrens, einen großen Anteil daran, ob eine Quelle überhaupt zum Objekt der historischen Forschung werden werden kann. Dann erst treffen Historiker*innen eine Auswahl, ob und wie diese Quellen in ihr Forschungskonzept passen.

Durch diese ihnen inhärente fragile Zeitlichkeit sind die Quellen der historischen Forschung immer grundsätzlich von der Vernichtung bedroht, existieren viele Leerstellen und bedarf es gezielter Maßnahmen, damit die Quellen auch in der Zukunft der Forschung zur Verfügung stehen. Diese Aufgabe wurde für analoge Objekte lange Zeit vor allem durch Archive und Bibliotheken erfüllt. Durch die zunehmende Digitalisierung der Forschung und Lehre verändert sich diese Situation und werden althergebrachte Rollenverteilungen und Tradierungswege in Frage gestellt. Dazu kommt, dass digitale Quellen fragiler sind als analoge Quellen. Vereinfacht ausgedrückt, verhält es sich so, dass während man analoge Quellen am Besten “in Ruhe lässt” (wenig Licht, wenig Bewegung etc.), digitale Quellen ständig “betreut” werden müssen, also einen viel höheren Betreuungsaufwand erfordern. Mit anderen Worten, digital codierte Informationen sind flüchtiger und erfordern intensivere Erhaltungsmaßnahmen (Stichworte: Forschungsdatenmanagement, Datenkuration etc.) als analoge Quellen. Grundvoraussetzung hier ist natürlich, dass diese Quellen (aka Forschungsdaten) überhaupt zur Verfügung stehen, eine Frage bei der Wissenschaftler*innen auch stark individuell gefordert sind (Stichwort Open Science und FAIRe Daten) und dann gemeinsame Anstrengungen aller beteiligter Akteure, um dieses Ziel zu erreichen. Für weiterführende Gedanken hierzu verweise ich gerne auf meinen Blogpost “Here be dragons: Open Access to Research Data in the Humanities” (2019)

https://platform.twitter.com/widgets.js

Ein wichtiger Aspekt ist angesichts dieser Überlegungen die Bewusstseinsförderung und die Vermittlung konkreter Technikenbei (zukünftiger) Historiker*innen im Bereich Forschungsdaten und nachhaltiges Forschungsdatenmanagement. Diese Aspekte sollten sowohl schon in der Lehre eine Rolle spielen, auch wenn die Curriculum-Entwicklung noch in den Kinderschuhen steckt (über dieses Thema haben wir ausführlicher während einer Sessions des Barcamps gesprochen), als auch nach dem Studium. Ein probates Mittel für die außercurriculare Vermittlung von Forschungsdatenkompetenz sind Workshops, wie der von mir angeleitete Workshop vor dem Anfang der Tagung, von dem ich im Folgenden detaillierter berichten möchte. 

Workshop “Is your Research Future Proof? Data Management Techniques & Tools for Digital Historians”

Durch verschiedene Impulsvorträge und spielerische Übungen wurden die Teilnehmer*innen für aktives Forschungsdatenmanagement,  z. B. mit einem Datenmanagementplanungstool wie RDMO (Research Data Management Organiser) sensibilisiert. Das Ziel von aktivem Forschungsdatenmanagement ist die Produktion und nachhaltige Bereitstellung von Daten nach den FAIR-Prinzipien. Im Workshop kamen Punkte wie die Grundprinzipien von Open Science und die Relevanz der FAIR-Prinzipien für die digitalen Geisteswissenschaften zur Sprache, sowie verschiedene Datentypen und -formate in den Geisteswissenschaften und der Lebenszyklus von Forschungsdaten und die Themengebiete eines Datenmanagementplans (Data Collection, Data Documentation, Ethics and Legal Compliance, Storage and Backup, Selection and Preservation, Data Sharing and Responsibility and Resources). Viele der Übungen und inhaltliche Anregungen verdanke ich übrigens dem Train-the-Trainer Konzept zum Thema Forschungsdatenmanagement von FD-Mentor.  

Angeregte Diskussion um die Reihenfolge des Forschungsdatenlebenzyklus
Das Ergebnis einer der Gruppen: Forschungsdatenlebenzyklus mit WOW-Effekt!

Bei der Übung zum Datenlebenszyklus wurde deutlich, dass Geisteswissenschaftler*innen unter Preservation etwas anderes verstehen als FDM-Expert*innen, Preservation war für die Teilnehmer*innen alles Speicherung… Diese Beobachtung weist darauf hin, dass wir uns stärker diese “Sprachunterschiede” bewusst machen müssen. Sie können auch Auswirkungen darauf haben, wie Geisteswissenschaftler*innen die Fragen eines Datemenmanagementplanungstools verstehen (oder im schlimmsten Fall nicht verstehen…)

Während des Workshops war auch Zeit für kritische Diskussionen, z. B. dass der für gutes Datenmanagement notwendige Aufwand noch in keinem guten Verhältnis zur (fehlenden) Anerkennung steht. Hier sind Forschungseinrichtungen und -förderer gefragt, entsprechende Anreize zu liefern. Warum nicht nachhaltiges Forschungsdatenmanagement und die Bereitstellung von FAIRen Forschungsdaten besser belohnen, z. B. als Teil von Ausschreibungsprofilen oder bei der Fördermittelvergabe (“Hand in your CV and a data management plan”, How have you contributed to Open Science and what are your plans in the future?). Richtungsweisend könnte diesbezüglich DORA sein. 

Angeregt diskutiert wurde durch die Teilnehmer*innen die Frage, ob Datenmanagementpläne die Illusion erwecken, dass geisteswissenschaftliche Forschung ein vorhersehbarer Prozess ist, was von den Teilnehmer*innen verneint wurde. Ich habe den Standpunkt vertreten, dass in fast allen Fällen, in denen man Mittel einwerben möchte, ein Forschungsplan erforderlich ist, dessen Bestandteil zunehmend ein dedizierter DMP ist. Letzterer ist nicht in Stein gemeißelt, sondern sollte im Projektverlauf angepasst werden, besonders unter dem Vorzeichen des “aktiven Datenmanagements”, d. h. dem Projektverlauf entsprechend geupdated werden. Der Forschungsdatenmanagementplan ist eine ausgezeichnete Chance, den geplanten Projektverlauf gezielt von der digitalen Seite zu betrachten (mehr hierzu in einem lesenwerten Artikel von Marina Lemaire). 

Auch wurde die Frage gestellt, ab wann man eigentlich einen Datenmanagementplan  schreiben sollte, besonders wenn man eigentlich nicht besonders “digital” forscht? Hierzu kamen mir im Nachhinein zwei Gedanken. 

  1. Durch die zunehmende Digitalisierung aller Bereiche der Gesellschaft, nicht nur der Wissenschaft, stehen wir momentan vor der fast paradoxen Situation, dass wir potenziell über eine ungekannte Menge an Daten verfügen, die zum Einen schnell wieder verloren gehen können und zum Anderen auch nicht alle aufgehoben werden müssen. Eine sinnvolle Selektion gehörte schon immer zum Bestandsmanagement von Bibliotheken und Archiven. Für die Forschung bedeutet die zunehmende Digitalisierung einen Paradigmenwechsel, der mehr Verantwortung auf die einzelnen Wissenschaftler*innen überträgt, nicht zuletzt auch durch die damit einhergehende Relevanz offener Prinzipien (Open Science). Ein Paradigmenwechsel, der auch, ich möchte fast sagen, vor allem seinen Niederschlag in der Lehre finden sollte, wobei die Grenzen zwischen Basic Skills des Personal Archiving und wissenschaftlichem Forschungsdatenmanagement fließend sind, wobei gerade im letzteren Bereich sehr viel zusätzliche Unterstützungsangebote existieren (sollten!).  
  2. Studierende und Forschende sollten die Grundbegriffe und -prinzipien eines nachhaltigen Forschungsdatenmanagements unter dem Open Science Paradigma kennen. So werden sie selbst ermächtigt, sich den neuen Herausforderungen zu stellen bzw. diese Kenntnisse weiterzugeben. Vielleicht ist es sogar kontraproduktiv, das Ziel “Schreiben eines Datenmanagementplans (DMP)” zu sehr in den Mittelpunkt von Trainings zu stellen, da es um Methoden geht, die eigentlich in Fleisch und Blut übergehen sollten? Letztendlich ist der DMP ein Mittel zum Zweck, sich zu allen wichtigen Bereichen Gedanken zu machen und die Ergebnisse strukturiert festzuhalten.

Workshop: Ablauf und Feedback

Abschließend ein paar Gedanken zum Ablauf des Workshops unter Einbeziehung des Feedbacks der Teilnehmer*innen. 

Es ist das erste Mal und daher etwas unheimlich, aber ich hege die Hoffnung, dass andere Trainer*innen hiervon etwas für ihre eigenen Trainings etwas haben könnten.

Eigene Einschätzung:

  • Workshop ist sehr gut gelaufen und gutes Feedback 
  • Relativ víel Stoff und Übungen geplant für 3h, erfordert straffes Zeitmanagement, da wir die Pause überzogen hatten, war am Ende die Zeit etwas knapp  
  • Die Teilnehmer*innen haben den meisten Lernerfolg, wenn sie selbst etwas machen bzw. diskutieren können 
  • Es war relativ wenig Zeit, um RDMO auszuprobieren, auch wenn das nicht unmittelbar im Mittelpunkt stand
  • Vorheriges Bereitstellen der Folien erleichtert Partizipation, sogar von “außerhalb” (Danke für’s Feedback!) 

Feedback der Teilnehmer*innen (alles Wissenschaftler*innen):

  • Gesamteindruck der Teilnehmer: Zwischen 1 und 2 (1 ist die Beste Note) 
  • Größte Schwäche des Workshops: mehr Raum für Diskussionen lassen, z. B. über spezifische Forschungsansätze der Teilnehmer*innen, noch mehr gezielte Nachfragen, ob es Fragen gibt, mehr Zeit zum Schreiben des eigenen DMP, noch mehr konkrete Beispiele, z. B. wie Geisteswissenschaftler*innen Daten produzieren, publizieren, relevante Projekte 
  • Bedeutendste Stärke des Workshops: klare Struktur, interessante Selektion der Themengebiete, gute Übersicht zu Open Science, interessante Werkzeuge, Links, Materialien etc., Pädagogik, Präsentation, interaktive Gruppenarbeit  
  • Weitere Kommentare: Dank für alle interessanten Werkzeuge, weniger zu Open Access, mehr konkrete Arbeit am DMP, mehr Zeit für Diskussionen, mehr konkrete Beispiele
  • die Mehrzahl der Teilnehmer*innen bewertete ihren eigenen Lernerfolg und die praktische Anwendbarkeit der Workshopinhalte als “very good” bis “good” auch diejenigen, die schon viel Erfahrung hatten 

Lessons Learned: 

  • Wichtig ist: Management der Erwartungshaltung (Was wird im Workshop behandelt? An wen richtet sich der Workshop?)
  • Erkennen, dass man es nicht allen Recht machen kann, aber stärker versuchen auf Interessen der Teilnehmer*innen einzugehen (z. B. Themenabfrage) 
  • Weniger Stoff ist mehr! Aber schwieriger Balanceakt, weil Gruppen qua Vorkenntnissen und Disziplin oft gemischt sind, schwer bestimmte Aspekte als bekannt vorauszusetzen (z. B. in Zukunft weniger auf Open Science im Allgemeinen eingehen und Fragen des geisteswissenschaftlichen FDM noch stärker in den Vordergrund rücken)  
  • Noch mehr Zeit für Diskussionen und Gruppenaktivitäten einplanen bzw. “Zeitpuffer” 
  • Grundsätzliche Frage: Was sind allgemeine Aspekte geisteswissenschaftlichen Forschungsdatenmanagements, was sind disziplinspezifische Aspekte und was ist spezifisches Digital Humanities-Wissen? Inwieweit überlappen sich dieser Bereiche (DINI UAG Schulungen und Lehre) 
  • Coole Incentives mitbringen, z. B. Sticker wie die von @MelImming und @Protohedgehog 😉

Some Research Data Management resources I recommend: 

Cite as: Ulrike Wuttke, Was bedeutet es, geisteswissenschaftliches Forschungsdatenmanagement im digitalen Zeitalter zu lehren? #dhiha8 , Blogpost, 01.07.2019, CC-BY 4.0. Link: https://ulrikewuttke.wordpress.com/2019/07/01/geisteswissenschaftliches-forschungsdatenmanagement-im-digitalen-zeitalter/

Advertisements

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.