Tag Archives: Digital Humanities

“DH ist kein Ponyhof”: Erfahrungen vom Super-Experiment #twitter101dh bei der vDHd2021

Zitierempfehlung: Ulrike Wuttke, “DH ist kein Ponyhof”: Erfahrungen vom Super-Experiment #twitter101dh bei der vDHd2021, Blogpost, 12.04.2021, CC BY 4.0, Link: https://ulrikewuttke.wordpress.com/2021/04/10/dh-ist-kein-ponyhof/

Die erste Eventwoche der vDHD2021 ist vorbei und damit auch die vier Datensalons von des “#twitter101dh: Superexperiment zu Twitter, Bibliotheken und COVID-19”. In diesem Blogpost möchte ich ein wenig über unsere Erfahrungen berichten.

In der Einreichung und Ankündigung des Super-Experiments haben wir, d. h. das Organisationsteam (Daniel Brenn, Lisa Kolodzi, Mareike König und ich) von einem “Twitter-Labor” gesprochen, in dem wir verschiedene Experimente rund um Twitterdaten durchführen wollen. Im Mittelpunkt sollte eine ergebnisoffene Auseinandersetzung mit den Möglichkeiten der Analyse von Twitterdaten sowie die ersten Schritte der praktischen Durchführung stehen, ganz im Sinne des Mottos der vDHD2021 “Experimente”.

Wir waren sehr froh, dafür mit Paul Ramisch und Sophie Schneider zwei erfahrene Tool- und Datenbuddies gewonnen zu haben, die uns auf unserem Weg begleiten wollten. Außerdem hatten wir über Twitter noch weitere Teilnehmer*innen gesucht, eine kleine Webseite mit Github-Repo und einen Discord-Kanal für die Kommunikation erstellt und so konnte das Experiment losgehen.

In insgesamt vier Datensalons widmeten wir uns unterschiedlichen Aspekten der Analyse von Twitterdaten, vom Tweet-Scraping und ersten Analysen mit R (1. Datensalon mit Paul Ramisch), über die Entwicklung von Forschungsfragen (2. Datensalon mit Mareike König), bis zur Netzwerkanalyse mit Gephi (3. Datensalon mit Sophie Schneider). Für die ersten Schritte mit R und Gephi haben Paul Ramisch und Sophie Schneider jeweils fantastische Tutorials und Ressourcen zur Verfügung gestellt, die über die Webseite zur Nachnutzung zur Verfügung stehen. Danke!

Wir hatten uns als Fokus die Analyse von Twitterdaten zum Thema COVID-19 und Bibliotheken genommen, um anhand dieses Use Cases das Werkzeug für die selbstständige Analyse von Twitterdaten zu lernen. Was haben wir nun in den vier Datensalons gelernt? Darüber haben wir sehr ausführlich im 4. Datensalon reflektiert. Hier kann ich natürlich nur für mich sprechen, aber denke, dass es einigen der Teilnehmer*innen durchaus ähnlich gegangen ist, wie die Diskussion zeigte.

Zunächst war es eine tolle Erfahrung zusammen mit dieser Gruppe zu experimentieren und unseren beiden Daten- und Toolbuddies Fragen zu praktischen und theoretischen Aspekten zu stellen. Denn gerade das Erlernen des Umgangs mit Tools hat eine hohe Lernkurve und manche kleine Probleme stellen Newbies vor große Herausforderungen. Dabei ging es nicht nur um praktische Hürden, wie z. B. die komische Fehlermeldung in RStudio, die ich erst beheben konnte, nachdem ich eine Weile gegoogelt habe (denn Paul sagte: beim Coden ist Google unser bester Freund), es stellte sich heraus, dass ich auf meinem neuen Computer R noch nicht installiert hatte (phu!). Es ging auch um Metathemen wie Daten- und Tool-Literacy. Was sind Twitterdaten eigentlich, was können sie uns sagen und was nicht, wie interpretiere und überprüfe ich die Ergebnisse? Welche Fragen kann ich mit Hilfe quantitativer Statistik beantworten, welche Rolle spielen qualitative Analysen und wo setzt die Interpretation an? Vor allem zu den Möglichkeiten und Herausforderungen der Netzwerkanalyse mit Gephi hatten wir mit Sophie Schneider eine sehr angeregte Diskussion. Denn ohne tiefgehendes Verständnis der unterliegenden Konzepte der Netzwerkanalyse und der Parameter ist es zwar sehr spannend mit Gephi zu experimentieren, aber das Tool und die Ergebnisse sind eigentlich eine Black Box. Besonders spannend fand ich es auch, dass wir als Daten- und Toolbuddies zwei Studierende gewinnen konnten, was wieder zeigt, dass jede*r ein*e Expert*in sein kann!

Ich habe mich dann für meinen praktischen Teil auf R konzentriert und einige erste Analysen zum Thema des Superexperiments, der Twitterkommunikation von Bibliotheken zu COVID-19, durchgeführt, dazu hoffentlich an anderer Stelle mehr. Ich habe dafür nicht nur die Twitterdaten analysiert, sondern auch versucht, jeden Schritt ausführlich zu dokumentieren. Und das kostet wirklich viel Zeit (hallo Ressourcenplanung für das Datenmanagement)! Schon alleine deswegen sollte meiner Meinung nach eigentlich jeder einmal ein wenig coden und dokumentieren, der*die auch nur ansatzweise mit solchen Themen in Berührung kommt (oder gar Aufwände abschätzen oder absegnen soll), oder jemanden fragen, der*die sich da aus der Praxis auskennt.

Paul Ramisch hatte uns gleich am Anfang seines Tutorials gesagt, dass er mit uns mit  dem Konzept der permanenten Überforderung arbeiten wird, d. h. dass wir erst einmal ein paar Dinge mit R machen werden, die wir vielleicht noch nicht vollständig nachvollziehen können, das käme dann später. Und das war auch für mich eine zentrale Erkenntnis: Alles braucht seine Zeit. Das wir in vier Sitzungen umfassend R und Gephi lernen werden, war doch etwas optimistisch gedacht. Was wir erreicht haben und das ist eigentlich viel wichtiger, ist eine kritische Auseinandersetzung mit diesen beiden Tools anhand der praktischen Anwendung und ein tieferes Verständnis für die mit ihrem sicheren Einsatz verbundene Deep-Learning-Curve. Der wissenschaftlich fundierte Einsatz von Digital Humanities-Methoden und -Tools bedeutet mehr als nur auf irgendwelche Knöpfchen von Tools zu drücken (nicht das ich das jemals behauptet hätte, aber daher auch der ironische Titel dieses Blogposts), sondern erfordert umfassende Daten-, Code- und Tool-Literacy (Digital Literacy) und theoretische Reflexionen, beides Themen, die in letzter Zeit zu Recht im Fokus stehen.

Franz & P, Das Leben ist kein Ponyhof, St. Oberholz, Berlin, Flickr, CC BY-NC-SA 2.0

Noch mehr zu #twitter101dh gibt es im Blogpost von Sophie Schneider “#vdhd2021 – Erste Eventtage”. Wer Twitteranalysen in Python durchführen will, auch hierzu hat Sophie Schneider ein Tutorial geschrieben. Weitere Links zu Tutorials und Ressourcen finden sich auf den Seiten der Datensalons. Einige spannende Gedanken in diesem Zusammenhang sind auch in Markus Krajewskis Artikel “Hilfe für die digitale Hilfswissenschaft: Eine Positionsbestimmung.” in der Zeitschrift für Medien- und Kulturforschung 10: 1 (2019), S. 71–80 zu finden [Link zum PDF].

Über weitere Hinweise zu Twitterdaten-Tutorials zu R, aber auch daraus entstandene Studien freue ich mich über die Kommentare, Twitter oder andere Kanäle!

Concrete Steps towards FAIR Data in the Arts and Humanities: Recap from Open Science Barcamp 2020

Cite as: Ulrike Wuttke, Concrete Steps towards FAIR Data in the Arts and Humanities: Recap from Open Science Barcamp 2020, Blogpost, 05.10.2020, CC BY 4.0. Link: https://ulrikewuttke.wordpress.com/?p=1830

Resources:

On the 10th March 2020, the Barcamp Open Science, organized by the Leibniz Research Alliance Open Science took place at Berlin. Around 50 very diverse individuals came together at the facilities of Wikimedia Germany at Berlin to discuss urgent matters in Open Science from various perspectives. This year’s Barcamp was already overshadowed by the outbreak of the Covid-19 pandemic, that’s why there were much less participants than the previous years and strong hygienic measures had been taken. Only a few days after, our world as such was changed forever. This is also one of the reasons why it took me quite long to finally publish this blog post. But here it is, with huge thanks to Erzébeth Tóth-Czifra for her comments on an earlier draft of this post.

Source: https://www.open-science-conference.eu/wp-content/uploads/2020/03/200310-open-science-barcamp-UC1A5768.jpg, All photos are also published at Wiki Commons under a CC BY 4.0 license.

After the introductory round and the Ignition Talk by Birgit Schmidt from SUB Göttingen, sessions were pitched and organized and the discussions got going! While you can read an overview about the Barcamp in the Blogpost by ZBW Media Talk and listen to summaries of some sessions at Open Science Radio, in this blogpost, you will find a short recap of the session Concrete steps towards FAIR data as prerequisite for Open Scholarship in the Arts and Humanities that I moderated with Erzsébet Tóth-Czifra (DARIAH-EU). 

Last year Erzsébet and I had discussed the state of Open Science in the Arts and Humanities in the session “Loners, Pathfinders, or Explorers? How are the Humanities Progressing in Open Science?” [Read our recap on the GenR Blog Link). Together with the participants we came to the conclusion, that while a lot of progress already has been made, that there was still a lot to do to transform the Humanities towards Open Humanities. 

While discussing Openness in the Humanities was a very intriguing experience, it also became clear that the term Open Humanities is rather unclear. Sometimes it seems like a big bubble and is rather difficult for readers to grasp. 

Open Humanities is, at least in my view, the translation of Open Science principles to the Humanities as the Open Science discussion is rather STEM-dominated. While not sharing all of his views, I warmly suggest to read in this context Marcel Knöchelmann’s article “Open Science in the Humanities, or: Open Humanities?” [Link to the article: http://dx.doi.org/10.3390/publications7040065]. Viewing Open Humanities as Open Science “with a Humanities touch” it also seems obvious  that it may comprise all different shades of Open practices that are cuddled under the Open Science umbrella, like Open Access, Open Source, Open Data, the FAIR Principles, Research Data Management, transparent research workflows, early sharing of outputs, Citizen Science or Open Infrastructures (and this list is not exhaustive…). So Open Humanities are at its heart very colourful, while data sharing is one of its compound principles, it is not exclusive.

For this year’s Open Science Barcamp we decided to focus on one topic that we see as a core component or important policy component for Open Science: the FAIR Data Principles [Link: https://www.go-fair.org/fair-principles/]. In the context of the previous paragraph we also acknowledge that you can do steps in the context of Open Science without FAIR data and also, that you can make steps towards FAIR data without knowing what FAIR is. Though that last is probably becoming more and more difficult, given the recent omnipresence of the FAIR principles.

During the session, more than a dozen researchers from the humanities and beyond energetically and controversially discussed the state of FAIR and Open principles in the Humanities. While some argued that FAIR is not enough and progress is being stalled by missing open licences, others stressed that the nature of some humanities data requires different levels of access that are not Open, but fall under FAIR data (e. g. sensitive data, personal data, data without consent, data without clear copyright). Also, in many cases of Humanities workflows the major obstacle is not so much open vs. closed, but insufficient documentation of access conditions, which is rather a FAIR-related problem (more precisely, related to the A of FAIR).

Participants noticed a tendency that humanities scholars seem to be more in favour of FAIR Data than of Open Data (because of various obstacles that prevent full Open Access to the data as described in the previous paragraph) and also that unfortunately often unclear licence statements can be found. They explained that for software engineering and broader reuse scenarios FAIR data often isn’t enough and that more efforts should be made to think of Open as the default and only restrict access if really necessary in order to let the FAIR principles not become an excuse for not sharing data. “Excuses” for not sharing data are (not specifically for the Humanities) depicted with a little ironic twist in the “Open Data Bingo”, a resource that was pointed out by one of the participants.

Open Data Bingo, Original can be found here (no apparent author, OpenAire?)

During the closing round of the session, some concrete steps were discussed related to overcoming tendencies of finding easy excuses for not sharing data. The most important  point was that the FAIR principles should be propagated as good scientific practice, with Open as the default, but with acknowledgement for valid reasons for not sharing or only granting limited access. This means that legal aspects of (not) data sharing need to be understood better in the community. There are helpful tools, resources and initiatives related to licencing and other legal problems in this context, for example:

To achieve a culture of FAIR data sharing in the Humanities more discipline specific training and training materials were seen as required as well as institutional support for sharing data and data sharing infrastructures. Other points we could only touch upon in our 45 minutes session were the CARE principles and data quality.  

A lasting open transformation requires (not only in the Humanities!) institutional resources (e. g. research data management support, legal counselling, sustainable open infrastructures) and therefore should also be supported by research funders. Research funders and institutions play a crucial role in building the pedagogical curve toward more open licences and overcoming obstacles and restraints towards a culture of sharing, in short we need a “Fellowship of the Data” for Open Access to Research Data in the Humanities. And, to truly create a lasting change, we need the transformation to reach the heart of the humanities community itself. More humanists that understand the need for data-citation, that “Open Science is just good science”, and last but not least that implement digital research practices into their workflows.

Listen here to the Open Science Radio Episode OSR188 about our session (short recap with Konrad Förster, Ulrike, and Erszébeth: http://www.openscienceradio.org/2020/07/05/osr188-fair-data-in-the-arts-and-humanities-oscibar-en/

To sum up and take the discussion to another level: Open Humanities are predominantly digitally empowered humanities. While we cannot bluntly say: “Hey, it’s 2020, wake up and learn coding!”, we should strive to “leave noone behind”. Humanities scholars need to keep up with new developments in the area of digital research practices (RDM, digital publishing, etc.). It seems highly recommendable that Humanists learn at least a little bit of coding to understand its basic underlying principles. While in some near future coding will probably be seen in the Humanities as an additional Scholarly Primitive this does not mean that in future every humanities scholar will need to be a full scale programmer or data wizard, also we would not like to see the concept of research excellence be strongly linked to the scale or level of computational readiness. Digital empowered humanities are to be situated, like the FAIRness of data, on a sliding scale.

Picture: Makaristo, Olympic-flag-Victoria, Link Source: https://commons.wikimedia.org/wiki/File:Olympic-flag-Victoria.jpg”, Selection, CC0 1.0

There are different tastes of Open Humanities. Everyone can contribute her and his share to it. While we strive for a culture of Open Data Sharing, other aspects of Open Scholarly Communication are as important. I always like to compare it with the spirit of the Olympic Games: Be part of it! 

What are your thoughts? You are welcome to discuss with me on Twitter (@uwuttke) or leave a comment below.

Home (sweet) Home: My “OpenMethods” desk

Cite as: Ulrike Wuttke, Home (sweet) Home: My “OpenMethods” desk, Blogpost, 01.04.2020, CC BY 4.0. Link: https://ulrikewuttke.wordpress.com/2020/04/01/my-openmethods-desk/

This is a special blog post initiated by our brilliant OpenMethods Chief Editor Erzsébet Tóth-Czifra (@etothczifra) who asked all OpenMethods-Editors to write a brief comment about their (work) life during the current COVID-19 (Corona) crisis. So I made myself a cup of tea, put on my favourite singer-songwriter Leonard Cohen and thought about the impact this event. It became probably one of the most personal posts on this blog. If you want to read good stuff about online learning and collaborating try for example searching Twitter for  #twittercampus or #virtualcollaboration

Picture: OpenMethods: Show your desk

While spring is breaking, the world is in a lock-down. In the fierce hands of the dangerous COVID-19 virus and so far the only way we can try to stop its impact is staying away from others as far and much as possible. For some reasons unknown for me this strategy is called social distancing, while what we have to do is physical distancing. Social contacts are still possible, but reduced more or less to call, video calls, social media. Only after a few days at home and lock-down here at Berlin, I deeply miss my family, friends, and colleagues, my choir, my fellow-yogis, going out just for fun.

While musing about things I miss, I do not forget that I am very privileged. I have a nice home, my living room sports a desk and even a real office chair, I have a phone, a computer and wifi to stay connected and can do my work from home. When I go out, only for food, being grateful for all people out there, who keep things going. They definitely should earn much more than clapping. For the rest, I stay home, try to remember myself to do my yoga in my living room with my favourite YouTube-Yoga-Channels. And besides my couch I have “Invisible Women” by Caroline Criado Perez. I really hope to start reading more in it soon.

Leisure: Yoga and Scrabble

So here I am, in my “Home Office”. My employer, the University of Applied Sciences Potsdam (FHP), sent almost everyone to work from home as soon as possible, as a safety measure, and my boss allowed me to stay home for safety reasons even earlier. Since last week, the university is in “emergency mode”, officially closed. But, luckily, that doesn’t mean I am out of work.

Even under these unusual circumstances, of course, my research goes on. I work for the FHP in the project RDMO and as a distributed team we are used to online collaboration, so we are set up for this and nothing really changes. Actually, most of my collaborations are in virtual teams and also many research projects I have contributed before. But face to face meetings are important from time to time, to keep the glue together. Now, many of them have been and will be cancelled or replaced by virtual meetings.

What is harder ist that next week, the students were supposed to return to the university I teach at and new ones to arrive. I was very much looking forward to the courses I am to teach this term. At the moment being, the start of the term has been postponed until 20th of April and then the courses will start online. I am not sure if I will see my students this semester in person this year. This makes me sad and I wonder how this feels for the students.

I will do my best to teach my students online and prepared a Moodle-course for my master course “Research Data Management”, as are so many of us already or preparing to do so, often with a lot of support from our institutions. Where would we be without our eLearning-specialists to guide us? All the teaching staff who now deep-dive into digital tools they had only vaguely heard of? Without the librarians and IT-ers who work hard to give us access? The administrative staff who keeps everything on?

So, on my (virtual) desk is at the moment a lot of material about Research Data Management. Preparing online courses and working in a locked down city, also the importance of unrestricted access becomes more and more an pressing issue. I have been advocating Open Science for a while, now this demand is more urgent and obvious for so many reasons. While I cannot solve problems like people not having access to the internet or suitable devices, one of the basic requirements for more equality in digital research and teaching is more Open Access to articles and books and more OER (Open Educational Resources), Open Data, digital skills, and communication tools we can trust (and pay). I see progress and maybe even a fast-forward of the Open revolution coming, all hands are “on deck” now, and I fear that we go back to business once this crisis is over.

One of the great Open initiatives I am involved in as Deputy Chief Editor is the Digital Humanities metablog OpenMethods, a DARIAH-ERIC initiative. OpenMethods highlights curated Open Access content about Digital Humanities Methods and Tools in many languages. The curation is done by the OpenMethods Editorial Team, a very diverse group of Digital Humanities experts from around the globe. Mostly we meet online, either in a virtual meeting, or reacting to each other’s comments on the nominated posts. Last year, some of us had the chance to come together at DH Utrecht, where we promoted OpenMethods to the community. Some of us met there for the first time!

So, if you come across some great DH stuff, let us know. You can send a link, tweet to us or join us. Learn more about how to help OpenMethods grow by following this link. Spread the word about useful resources in your social networks, make your stuff Open, write a blogpost about what keeps you going, what makes you think, and new skills and perspectives you gained from this experience. I have some things coming to you too in the near future to spread the Open Revolution, like a short annotated list I dubbed “The medievalist essential guide to Open Science (Communication)”.

I truly sense the spirit that we are in this together. I am deeply grateful for my professional network and fellow tweeps (people on twitter) who share tips, ressources, and sometimes silliness. We even created a virtual space on discord for German speaking Digital Humanities. A place to “have a coffee” or an “evening beer”, hangout together and discuss eLearning or professional topics, but also to “gossip in the kitchen”! And I follow a virtual “Thursday night TEI evening class”, an initiative from great folks from the TEI who now live accompany the TEI MOOC. I joined the course especially to finally ask everything about XSLT, I didn’t dare to ask yet!

My kitchen company, I have wild ideas how to animate these cuties for a new episode of the Akademie der Wissensschafe @AKWissensschafe

Did someone just say kitchen? As an extreme coffee addict and collector of DH mugs, I created with Torsten Roeder (@torstenroeder) a little Twitter project dedicated to DH mugs. It’s called DH in a mug and you can find it under @dh_mug #DHinaMug and also #HomeOfficeDH.

Definition of a DH mug: “a DH mug” is a mug with an imprint related to Digital Humanities, a project, an institution, conference, or other nerdy stuff, but any other drinking devices are fine too, if they have a DH imprint. (Don’t get me started though on defining DH!)

So, check out the virtual collection and tweet your #mugshots to @dh_mug: the mug you use now in your HomeOfficeDH or once you are reunited with your favourite mug at your office. Tell a little story about you and your mug, where is it from? What makes it special to you? Like the little “mug story” below:

That’s so far for today. Take care, show care, and stay safe. It’s okay to be scared, it’s okay to be yourself. Be your best whatever that may be be now and be there for others if they need a you.

Maybe this is a chance to grow together virtually closer, but I am really looking forward to the real thing!

What are your thoughts? You are welcome to discuss with me on Twitter (@uwuttke) or leave a comment below.

Herausforderungen für die Open-Access-Transformation in den Geistes- und Sozialwissenschaften

Cite as: Ulrike Wuttke, Herausforderungen für die Open-Access-Transformation in den Geistes- und Sozialwissenschaften, Blogpost, 14.02.2020, CC BY 4.0. Link: https://ulrikewuttke.wordpress.com/2020/02/12/oa-in-den-geistes-und-sozialwissenschaften/

Einleitung

Immer wieder beschäftigt mich das Thema der Öffnung der Geisteswissenschaften, ob in Projekten, Workshops oder Publikationen. Gerne benutze ich in diesem Kontext die Bezeichnung Open Scholarship bzw. Open Humanities, weil der Begriff Open Science teilweise als ausgrenzend gegenüber den Geisteswissenschaften wahrgenommen wird.

Nach einem Blogpost zusammen mit E. Tóth-Czifa mit dem Thema Loners, Pathfinders, or Explorers? How are the Humanities Progressing in Open Science? mit vielen positiven Open Humanities-Beispielen, gebe ich in diesem Blogpost eine kurze Übersicht über sieben Herausforderungen der Open-Access-Transformation in den Geistes- und Sozialwissenschaften.

Meine Annäherung an das Thema erfolgt insbesondere aus der Sicht von wissenschaftlichen Bibliotheken und skizziert einige relevanten Open-Access-Publikationsdienstleistungen, Lösungsansätze und Handlungsempfehlungen. In der gemeinsamen Betrachtung der Geistes- und Sozialwissenschaften folge ich dem Beispiel wissenschaftspolitischer Diskussionen, in der oft die Kategorie SSH (Social Sciences and Humanities) zu finden ist, ich habe aber auch – trotz aller Kürze – dem Fakt Rechnung getragen, dass beide Disziplinen ihre Eigenheiten aufweisen.

Als Hauptherausforderung für die Open-Access-Transformation in den Geistes- und Sozialwissenschaften sehe ich den Fokus auf klassischen, narrativen Formaten, die in generellen Open-Access-Diskussionen nicht immer genügend Aufmerksamkeit bekommen, aber auch disziplinspezifische Barrieren bezüglich des offenen Zugangs zu Daten und fehlende Annerkennung für Datenpublikationen bzw. alternative Forschungsprodukte. Am Ende sind einige weiterführende für diesen Post verwendete Ressourcen aufgeführt.

Open Access: Vision und Status Quo

2003 wurde in der Berliner Erklärung Open Access zu wissenschaftlichen Publikationen und Forschungsdaten zum Ziel definiert. Wenn wir heute, fast 20 Jahre später, versuchen uns der Frage, wie es um diese aus der Wissenschaft heraus entstandene Bewegung mit der Vision des weltweiten, freien Zugangs zum menschlichen Wissen über das Internet, in den Geistes- und Sozialwissenschaften steht, quantitativ zu nähern, stoßen wir schnell an Grenzen. Aufgrund der Komplexität der Fragestellung liegen momentan kaum umfassende, verlässliche Erhebungen über den OA-Anteil in bestimmten Disziplinen vor.

Open-Access.net Logo (Public Domain), Quelle Wikimedia

2018 wurde geschätzt, dass weltweit erst circa 25% ALLER publizierten Artikel Open Access sind, zu Forschungsdaten liegen keine belastbaren Zahlen vor. Oftmals werden die Geistes- und Sozialwissenschaften als OA-“Nachzügler” bezeichnet und es weisen auch einige quantitative Erhebungen in diese Richtung. Daher ist es berechtigt, die Gründe für den langsamen Fortschritt beziehungsweise spezifische Herausforderungen bezüglich einer umfassenden Open-Access-Transformation in den Geistes- und Sozialwissenschaften zu hinterfragen, weil sie insbesondere
1) bei wissenschaftspolitischen Diskussionen,
2) im Gespräch mit Wissenschaftler*innen sowie
3) der Konzeption von OA-Dienstleistungen zu bedenken sind.

Die folgende Zusammenschau disziplinspezifischer Herausforderungen soll insbesondere die Gefahr unterstreichen, konkrete Bedarfe der Geistes- und Sozialwissenschaften zu übersehen, wenn der OA-Diskurs zu stark durch die STEM-Fächer dominiert wird, wie z. B. bezüglich der PlanS-Initiative kritisiert. Das nimmt natürlich nicht weg, dass die Geistes- und Sozialwissenschaften nicht aus in den STEM-Fächern bereits gemachten Erfahrungen lernen können.

Spezifische Herausforderungen der Open-Access-Transformation in den Geistes- und Sozialwissenschaften

Klassische, narrative Publikationen

Herausforderung Nummer 1: Open-Access-Monografien

Weil die Geistes- und Sozialwissenschaften im Gegensatz zu den STEM-Fächern “Buchwissenschaften” sind, stellt die Integration von Open-Access-Büchern (d. h. von Monografien und Sammelbänden) eine großer Herausforderung dar. Handlungsbedarfe bestehen u. a. bezüglich tragfähiger Geschäftsmodelle für Open-Access-Monografien, der Sichtbarkeit von Open-Access-Monografien in lokalen Bibliothekskatalogen und darüber hinaus sowie der Metadatenqualität und -harmonisierung (siehe HIRMEOS).

Herausforderung Nummer 2: Überwindung des Printparadigmas

Die Publikationskultur der Geistes- und Sozialwissenschaften ist noch immer stark durch das Printparadigma geprägt. Die damit verbundenen starken allgemeinen Vorbehalte gegen das elektronische Publizieren im Allgemeinen (Zweifel an der Langzeitarchivierung und -verfügbarkeit) wirken sich auch negativ auf die Akzeptanz von Open Access aus.

Herausforderung Nummer 3: Spezifika des Gratifikationssystems

Zu den Besonderheiten des geistes- und sozialwissenschaftlichen Gratifikationssystems zählt einerseits, dass ausschlaggebende Auswahlfaktoren für Zeitschriften vor allem “weiche” Metriken wie Prestige und Reputation (Renommee!) sind, weniger der (umstrittene) JIF oder andere bibliometrische Metriken wie der h-Index (beide durch Open Access durchaus “boostbar”) bzw. Open Access selbst. Dazu kommen anderseits Vorbehalte gegen die Qualität von Open-Access-Publikationen (die im Zusammenhang mit den Vorbehalten gegen elektronischen Publizieren stehen): selbst dort, wo gleichwertige Review-Verfahren Anwendung finden, gewährleisten diese bislang keineswegs eine gleichwertige Anerkennung.

Herausforderung Nummer 4: Finanzielle Besonderheiten der Forschungskultur

In den Geistes- und Sozialwissenschaften gibt es im Vergleich zu Natur- und Lebenswissenschaften weniger durch Drittmittelgeförderte Projekte. Hierdurch fehlen Wissenschaftler*innen der ersteren Disziplinen Projektmittel um Open-Access-Publikationen in der Form von APCs (Artikel Processing Charges) bzw. noch höheren Beträgen für Open-Access-Monografien in Author-Pays-Modellen zu bestreiten. Zumindest in Deutschland sind hierdurch auch ihre Möglichkeiten eingegrenzt legal das Recht auf Zweitveröffentlichung wahrzunehmen. Außerdem fehlt Fördergebern hierdurch der sanfte “Hebel” Open-Access-Publikationen durch Fördervorgaben zu stimulieren.

Herausforderung Nummer 5: Unsicherheiten im Umgang mit offenen Lizenzen

Der hohe Stellenwert der Integrität der eigenen Publikationen und der allgemein unsichere Umgang mit rechtlichen Rahmenbedingungen führt zu Vorbehalten gegen offene Lizenzen.

Open Data

Open Data, d. h. Open Access zu Forschungsdaten, scheint in den Geistes- und Sozialwissenschaften noch wenig ausgeprägt. Die vielfältigen Gründe, die einer stärkeren Umsetzung des Open-Data-Prinzips in diesen Disziplinen, entgegenstehen, hängen teilweise mit bereits unter der Kategorie “Klassische, narrative Publikationen” zusammen.

Herausforderung Nummer 6: Fehlende Rechte an Forschungsdaten und sensible Forschungsdaten

Auch im Bereich Forschungsdaten stehen rechtliche Unsicherheiten einer umfassenden Open-Access-Transformation im Weg. Insbesondere in den Geisteswissenschaften ist es hinderlich, dass Forschungsdaten oft Digitalisate von Dokumenten der kulturellen Überlieferung aus dem GLAM-Bereich (Galleries, Libraries, Archives, and Museums) sind, die oft nicht unter freien Lizenzen bzw. nur unklaren Bedingungen zur Verfügung stehen. In den Sozialwissenschaften stellt der hohe Anteil besonders schützenswerter, sensibler Forschungsdaten eine Herausforderung dar. Hier bietet der Bezug auf die FAIR-Prinzipien und das Prinzip “so offen wie möglich, so geschlossen wie nötig”, einen Lösungsweg.

Herausforderung Nummer 7: Mentalitätsfragen

Dazu kommen viele ungelöste Fragen bezüglich der Qualitätssicherung, der Verantwortlichkeiten der Langzeitarchivierung von Forschungsdaten und mit dem Gratifikationssystem zusammenhängende Mentalitätsfragen: Daten zählen in diesen Disziplinen noch nicht wirklich als eigenständige wissenschaftliche Objekte und selbstproduzierte Daten werden zudem stark als Eigentum, als Datenschatz für eigene klassisch, narrative Publikationen betrachtet. Einen Weg zeigt hier z. B. DORA (San Francisco Declaration on Research Assessment) auf, in der “the value and impact of all research outputs (including datasets and software) in addition to research publications” betont wird.

Fazit

Es gibt natürlich weder DIE Geistes- noch DIE Sozialwissenschaften. Es gibt sowohl Unterschiede zwischen beiden Disziplinen als auch intradisziplinäre Unterschiede, d. h. Unterschiede zwischen einzelnen Fächern dieser Disziplinen, auf die an dieser Stelle nicht weiter eingegangen werden kann. Ganz allgemein wird den Digital Humanities eine hohe Open Access-Affinität nachgesagt und die methodisch zwischen Geistes- und Naturwissenschaften stehenden Sozialwissenschaften mit ihrer aus beiden Richtungen geprägten Publikationskultur scheinen insgesamt etwas OA-affiner zu sein.

In den Geistes- und Sozialwissenschaften finden wir eine ausgeprägte Open-Access-Theorie- und Praxisschere: viele Wissenschaftler*innen finden Open Access im Prinzip gut, nicht zuletzt weil sie vom besseren Zugang profitieren, aber zögern (noch) es in der Praxis umzusetzen. Bei dieser positiven Grundeinstellung zu Open Access gilt es anzusetzen, insbesondere in den Bereichen:

  1. Entwicklung zeitgemäßer Anreizsysteme,
  2. Förderung von längerfristigen Lernprozessen durch Best-Practice-Beispiele und
  3. Verstärkter Nachdruck auf Data Literacy und Informationskompetenz bereits in der Lehre, denn Open Access und die FAIR-Prinzipien sind “gekommen um zu bleiben” als Teil der Leitlinien zur Sicherung der guten wissenschaftlichen Praxis (DFG-Kodex GWP 2019).

Die noch geringe Durchdringung der Geistes- und Sozialwissenschaften durch die Open-Access-Transformation bietet aber auch Chancen, z. B. zur Entwicklung fairer Modelle für den Nachweis, d. h. umfassender und unabhängiger Findewerkzeuge, die wiederum impulsgebend für andere momentan stark “kommerzialisierte” Disziplinen sein können, sowie alternativer Open-Access-Geschäftsmodelle.

Sandipoutsider, Open wing posture basking of Danaus melanippus Cramer, 1777 – White Tiger (Male) WLB DSC 2695, CC BY-SA 4.0

Hier sind natürlich nicht nur wissenschaftliche Bibliotheken gefragt, aber ihre besondere Stellung im Wissenschaftssystem bietet ihnen die Chance weitere Entwicklungen federführend zu prägen u. a.:

  • durch die nutzergetriebene Entwicklung von disziplin- und fachspezifischen Open Access-Publikationsdienstleistungen und -infrastrukturen (Repositorien, konsortiale Verlagsmodelle wie OLH, Open Knowledge Maps)
  • flankierende Aufklärungs- und Schulungsmaßnahmen in Zusammenarbeit mit Wissenschaftler*innen (z. B. open-access.net, forschungsdaten.info)
  • aber auch als Datengeber durch die Bereitstellung von (Meta-)Daten (aus Digitalen Sammlungen etc.) unter offenen Lizenzen, offenen Schnittstellen und offenen Formaten. Hierdurch leben sie vor, was von Wissenschaftler*innen gefordert wird und ermöglichen maßgeblich die Öffnung der Forschung.

Ich freue mich über Kommentare und Anmerkungen, über Twitter, Kommentare unten und natürlich persönlich!

Weiterführende Ressourcen (alphabetisch):

Biesenbender, Kristin / Ralf Flohr / Monika Linne / Olaf Siegert, ‘Open-Access-Tage 2018 – Teil II: Wie entwickelt sich Open Access in einzelnen Fächern und Projekten?’, Blogpost, ZBW Mediatalk

Graf, Dorothee / Veronika Burovikhina / Natalie Leinweber, ‘Zukunftsmodell Monografien im Open Access: Aus der Praxis von Bibliotheken, Verlagen, Wissenschaft und Lehre im gemeinsamen Projekt OGeSoMo’, in: o-Bib 6 (2019):4

Kleineberg, Michael / Ben Kaden, ‘Open Humanities? ExpertInnenmeinungen über Open Access in den Geisteswissenschaften’. in: LIBREAS. Library Ideas 32 (2017).

Söllner, Konstanze / Mittermaier, Bernhard (Hg.) (2017). Praxishandbuch Open Access (De Gruyter Praxishandbuch), De Gruyter Saur (Open Access): u. a. die Kapitel zu Open Access in den Geisteswissenschaften, Open Access in den Sozialwissenschaften, zur Rolle von Bibliotheken, Data Publishing etc.)

Tóth-Czifra, Erzsébet: ‘Open Access in the Arts, Humanities, and Social Sciences’. Short video with links to resources

Tóth-Czifra, Erzsébet / Wuttke, Ulrike (2019): ‘Loners, Pathfinders, or Explorers? How are the Humanities Progressing in Open Science?’. Blogpost from Open Science Barcamp 2019 auf GenR

People sorting papers with the phases of the research data lifecycle

Was bedeutet es, geisteswissenschaftliches Forschungsdatenmanagement im digitalen Zeitalter zu lehren? #dhiha8

Cite as: Ulrike Wuttke, Was bedeutet es, geisteswissenschaftliches Forschungsdatenmanagement im digitalen Zeitalter zu lehren? #dhiha8, Blogpost, 01.07.2019 (CC-BY 4.0).

Am 17. und 18. Juni 2019 fand am Deutschen Historischen Institut Paris die internationale Tagung “Teaching History in the Digital Age – International Perspectives” statt. In ihrem Mittelpunkt standen die Herausforderungen in der Lehre angesichts der zunehmenden Digitalisierung der Geschichtswissenschaften. Die Tagung fiel in drei Teile: 1) zwei Hands-On Workshops, 2) Vorträge und 3) Barcamp, sowie eine virtuelle “Blogparade” und es wurde fleißig unter dem Hashtag #dhiha8 getweetet. 

Da ich es nicht geschafft habe, im Vorfeld einen Beitrag zur Blogparade zu liefern, habe ich beschlossen, meine persönlichen Eindrücke von dem von mir geleiteten Forschungsdatenmanagement-Workshop “Is your Research Future Proof? Data Management Techniques & Tools for Digital Historians” in diesem Blogbeitrag zu teilen.

Im Mittelpunkt der gesamten Tagung stand die Frage, was es bedeutet, Geschichte im digitalen Zeitalter zu lehren. Nun habe ich zwar nie wirklich Geschichte gelehrt, abgesehen von ein paar Gastseminaren, aber als Digitale Humanista mit den Schwerpunkten mediävistische Literaturwissenschaft, Editionswissenschaften, Open Science und Forschungsdatenmanagement, habe ich mir anlässlich der DHI-Tagung ein paar Gedanken zu diesem Thema gemacht, mit denen ich meinen Bericht einleiten möchte.

Wer und wie bewahren wir geschichtliche Quellen im digitalen Zeitalter? Eine Annäherung aus infrastruktureller Sicht

Die Quelle der Geschichte ist die Vergangenheit. Ein großer Teil unseres Wissens über die Vergangenheit beruht seit der Erfindung der Schrift auf schriftlichen Quellen. Quellen sind also der Forschungsschatz der Geschichtsforschung schlechthin. Hier kommen sich Literaturgeschichte und Geschichte sehr nahe, auch wenn sie unterschiedliche Quellen und Methoden zentral stellen. Ein wichtiger Aspekt scheint mir daher in der Lehre der Geschichte die Zeitlichkeit von Quellen, in dem Sinne eines Verständnisses für die Fragilität dieser Quellen, zu sein.

Was verstehe ich unter Zeitlichkeit? Welche historischen Quellen wir untersuchen können, scheint vom Zufall abhängig zu sein. Viele historische Quellen sind im Verlauf der Geschichte unwiederbringlich verloren gegangen. Doch es ist nicht allein der Zufall, der über die Überlieferung entscheidet. In vielen Fällen danken wir den Erhalt historischer Quellen der gezielten Sammlung und Bestandserhaltungsmaßnahmen durch Bibliotheken, Archive und in Einzelfällen Privatpersonen, die durch die Aufnahme dieser Quellen in ihren Bestand, also den gezielten Akt des Sammelns und Bewahrens, einen großen Anteil daran, ob eine Quelle überhaupt zum Objekt der historischen Forschung werden werden kann. Dann erst treffen Historiker*innen eine Auswahl, ob und wie diese Quellen in ihr Forschungskonzept passen.

Durch diese ihnen inhärente fragile Zeitlichkeit sind die Quellen der historischen Forschung immer grundsätzlich von der Vernichtung bedroht, existieren viele Leerstellen und bedarf es gezielter Maßnahmen, damit die Quellen auch in der Zukunft der Forschung zur Verfügung stehen. Diese Aufgabe wurde für analoge Objekte lange Zeit vor allem durch Archive und Bibliotheken erfüllt. Durch die zunehmende Digitalisierung der Forschung und Lehre verändert sich diese Situation und werden althergebrachte Rollenverteilungen und Tradierungswege in Frage gestellt. Dazu kommt, dass digitale Quellen fragiler sind als analoge Quellen. Vereinfacht ausgedrückt, verhält es sich so, dass während man analoge Quellen am Besten “in Ruhe lässt” (wenig Licht, wenig Bewegung etc.), digitale Quellen ständig “betreut” werden müssen, also einen viel höheren Betreuungsaufwand erfordern. Mit anderen Worten, digital codierte Informationen sind flüchtiger und erfordern intensivere Erhaltungsmaßnahmen (Stichworte: Forschungsdatenmanagement, Datenkuration etc.) als analoge Quellen. Grundvoraussetzung hier ist natürlich, dass diese Quellen (aka Forschungsdaten) überhaupt zur Verfügung stehen, eine Frage bei der Wissenschaftler*innen auch stark individuell gefordert sind (Stichwort Open Science und FAIRe Daten) und dann gemeinsame Anstrengungen aller beteiligter Akteure, um dieses Ziel zu erreichen. Für weiterführende Gedanken hierzu verweise ich gerne auf meinen Blogpost “Here be dragons: Open Access to Research Data in the Humanities” (2019)

https://platform.twitter.com/widgets.js

Ein wichtiger Aspekt ist angesichts dieser Überlegungen die Bewusstseinsförderung und die Vermittlung konkreter Technikenbei (zukünftiger) Historiker*innen im Bereich Forschungsdaten und nachhaltiges Forschungsdatenmanagement. Diese Aspekte sollten sowohl schon in der Lehre eine Rolle spielen, auch wenn die Curriculum-Entwicklung noch in den Kinderschuhen steckt (über dieses Thema haben wir ausführlicher während einer Sessions des Barcamps gesprochen), als auch nach dem Studium. Ein probates Mittel für die außercurriculare Vermittlung von Forschungsdatenkompetenz sind Workshops, wie der von mir angeleitete Workshop vor dem Anfang der Tagung, von dem ich im Folgenden detaillierter berichten möchte. 

Workshop “Is your Research Future Proof? Data Management Techniques & Tools for Digital Historians”

Durch verschiedene Impulsvorträge und spielerische Übungen wurden die Teilnehmer*innen für aktives Forschungsdatenmanagement,  z. B. mit einem Datenmanagementplanungstool wie RDMO (Research Data Management Organiser) sensibilisiert. Das Ziel von aktivem Forschungsdatenmanagement ist die Produktion und nachhaltige Bereitstellung von Daten nach den FAIR-Prinzipien. Im Workshop kamen Punkte wie die Grundprinzipien von Open Science und die Relevanz der FAIR-Prinzipien für die digitalen Geisteswissenschaften zur Sprache, sowie verschiedene Datentypen und -formate in den Geisteswissenschaften und der Lebenszyklus von Forschungsdaten und die Themengebiete eines Datenmanagementplans (Data Collection, Data Documentation, Ethics and Legal Compliance, Storage and Backup, Selection and Preservation, Data Sharing and Responsibility and Resources). Viele der Übungen und inhaltliche Anregungen verdanke ich übrigens dem Train-the-Trainer Konzept zum Thema Forschungsdatenmanagement von FD-Mentor.  

Angeregte Diskussion um die Reihenfolge des Forschungsdatenlebenzyklus
Das Ergebnis einer der Gruppen: Forschungsdatenlebenzyklus mit WOW-Effekt!

Bei der Übung zum Datenlebenszyklus wurde deutlich, dass Geisteswissenschaftler*innen unter Preservation etwas anderes verstehen als FDM-Expert*innen, Preservation war für die Teilnehmer*innen alles Speicherung… Diese Beobachtung weist darauf hin, dass wir uns stärker diese “Sprachunterschiede” bewusst machen müssen. Sie können auch Auswirkungen darauf haben, wie Geisteswissenschaftler*innen die Fragen eines Datemenmanagementplanungstools verstehen (oder im schlimmsten Fall nicht verstehen…)

Während des Workshops war auch Zeit für kritische Diskussionen, z. B. dass der für gutes Datenmanagement notwendige Aufwand noch in keinem guten Verhältnis zur (fehlenden) Anerkennung steht. Hier sind Forschungseinrichtungen und -förderer gefragt, entsprechende Anreize zu liefern. Warum nicht nachhaltiges Forschungsdatenmanagement und die Bereitstellung von FAIRen Forschungsdaten besser belohnen, z. B. als Teil von Ausschreibungsprofilen oder bei der Fördermittelvergabe (“Hand in your CV and a data management plan”, How have you contributed to Open Science and what are your plans in the future?). Richtungsweisend könnte diesbezüglich DORA sein. 

Angeregt diskutiert wurde durch die Teilnehmer*innen die Frage, ob Datenmanagementpläne die Illusion erwecken, dass geisteswissenschaftliche Forschung ein vorhersehbarer Prozess ist, was von den Teilnehmer*innen verneint wurde. Ich habe den Standpunkt vertreten, dass in fast allen Fällen, in denen man Mittel einwerben möchte, ein Forschungsplan erforderlich ist, dessen Bestandteil zunehmend ein dedizierter DMP ist. Letzterer ist nicht in Stein gemeißelt, sondern sollte im Projektverlauf angepasst werden, besonders unter dem Vorzeichen des “aktiven Datenmanagements”, d. h. dem Projektverlauf entsprechend geupdated werden. Der Forschungsdatenmanagementplan ist eine ausgezeichnete Chance, den geplanten Projektverlauf gezielt von der digitalen Seite zu betrachten (mehr hierzu in einem lesenwerten Artikel von Marina Lemaire). 

Auch wurde die Frage gestellt, ab wann man eigentlich einen Datenmanagementplan  schreiben sollte, besonders wenn man eigentlich nicht besonders “digital” forscht? Hierzu kamen mir im Nachhinein zwei Gedanken. 

  1. Durch die zunehmende Digitalisierung aller Bereiche der Gesellschaft, nicht nur der Wissenschaft, stehen wir momentan vor der fast paradoxen Situation, dass wir potenziell über eine ungekannte Menge an Daten verfügen, die zum Einen schnell wieder verloren gehen können und zum Anderen auch nicht alle aufgehoben werden müssen. Eine sinnvolle Selektion gehörte schon immer zum Bestandsmanagement von Bibliotheken und Archiven. Für die Forschung bedeutet die zunehmende Digitalisierung einen Paradigmenwechsel, der mehr Verantwortung auf die einzelnen Wissenschaftler*innen überträgt, nicht zuletzt auch durch die damit einhergehende Relevanz offener Prinzipien (Open Science). Ein Paradigmenwechsel, der auch, ich möchte fast sagen, vor allem seinen Niederschlag in der Lehre finden sollte, wobei die Grenzen zwischen Basic Skills des Personal Archiving und wissenschaftlichem Forschungsdatenmanagement fließend sind, wobei gerade im letzteren Bereich sehr viel zusätzliche Unterstützungsangebote existieren (sollten!).  
  2. Studierende und Forschende sollten die Grundbegriffe und -prinzipien eines nachhaltigen Forschungsdatenmanagements unter dem Open Science Paradigma kennen. So werden sie selbst ermächtigt, sich den neuen Herausforderungen zu stellen bzw. diese Kenntnisse weiterzugeben. Vielleicht ist es sogar kontraproduktiv, das Ziel “Schreiben eines Datenmanagementplans (DMP)” zu sehr in den Mittelpunkt von Trainings zu stellen, da es um Methoden geht, die eigentlich in Fleisch und Blut übergehen sollten? Letztendlich ist der DMP ein Mittel zum Zweck, sich zu allen wichtigen Bereichen Gedanken zu machen und die Ergebnisse strukturiert festzuhalten.

Workshop: Ablauf und Feedback

Abschließend ein paar Gedanken zum Ablauf des Workshops unter Einbeziehung des Feedbacks der Teilnehmer*innen. 

Es ist das erste Mal und daher etwas unheimlich, aber ich hege die Hoffnung, dass andere Trainer*innen hiervon etwas für ihre eigenen Trainings etwas haben könnten.

Eigene Einschätzung:

  • Workshop ist sehr gut gelaufen und gutes Feedback 
  • Relativ víel Stoff und Übungen geplant für 3h, erfordert straffes Zeitmanagement, da wir die Pause überzogen hatten, war am Ende die Zeit etwas knapp  
  • Die Teilnehmer*innen haben den meisten Lernerfolg, wenn sie selbst etwas machen bzw. diskutieren können 
  • Es war relativ wenig Zeit, um RDMO auszuprobieren, auch wenn das nicht unmittelbar im Mittelpunkt stand
  • Vorheriges Bereitstellen der Folien erleichtert Partizipation, sogar von “außerhalb” (Danke für’s Feedback!) 

Feedback der Teilnehmer*innen (alles Wissenschaftler*innen):

  • Gesamteindruck der Teilnehmer: Zwischen 1 und 2 (1 ist die Beste Note) 
  • Größte Schwäche des Workshops: mehr Raum für Diskussionen lassen, z. B. über spezifische Forschungsansätze der Teilnehmer*innen, noch mehr gezielte Nachfragen, ob es Fragen gibt, mehr Zeit zum Schreiben des eigenen DMP, noch mehr konkrete Beispiele, z. B. wie Geisteswissenschaftler*innen Daten produzieren, publizieren, relevante Projekte 
  • Bedeutendste Stärke des Workshops: klare Struktur, interessante Selektion der Themengebiete, gute Übersicht zu Open Science, interessante Werkzeuge, Links, Materialien etc., Pädagogik, Präsentation, interaktive Gruppenarbeit  
  • Weitere Kommentare: Dank für alle interessanten Werkzeuge, weniger zu Open Access, mehr konkrete Arbeit am DMP, mehr Zeit für Diskussionen, mehr konkrete Beispiele
  • die Mehrzahl der Teilnehmer*innen bewertete ihren eigenen Lernerfolg und die praktische Anwendbarkeit der Workshopinhalte als “very good” bis “good” auch diejenigen, die schon viel Erfahrung hatten 

Lessons Learned: 

  • Wichtig ist: Management der Erwartungshaltung (Was wird im Workshop behandelt? An wen richtet sich der Workshop?)
  • Erkennen, dass man es nicht allen Recht machen kann, aber stärker versuchen auf Interessen der Teilnehmer*innen einzugehen (z. B. Themenabfrage) 
  • Weniger Stoff ist mehr! Aber schwieriger Balanceakt, weil Gruppen qua Vorkenntnissen und Disziplin oft gemischt sind, schwer bestimmte Aspekte als bekannt vorauszusetzen (z. B. in Zukunft weniger auf Open Science im Allgemeinen eingehen und Fragen des geisteswissenschaftlichen FDM noch stärker in den Vordergrund rücken)  
  • Noch mehr Zeit für Diskussionen und Gruppenaktivitäten einplanen bzw. “Zeitpuffer” 
  • Grundsätzliche Frage: Was sind allgemeine Aspekte geisteswissenschaftlichen Forschungsdatenmanagements, was sind disziplinspezifische Aspekte und was ist spezifisches Digital Humanities-Wissen? Inwieweit überlappen sich dieser Bereiche (DINI UAG Schulungen und Lehre) 
  • Coole Incentives mitbringen, z. B. Sticker wie die von @MelImming und @Protohedgehog 😉

Some Research Data Management resources I recommend: 

Siehe auch:
Jan-Luca Albrecht; Ina Serif, Tagungsbericht: Teaching History in the Digital Age – International Perspectives #dhiha8, 17.06.2019 – 18.06.2019 Paris, in: H-Soz-Kult, 26.08.2019, <www.hsozkult.de/conferencereport/id/tagungsberichte-8405>.