Monthly Archives: April 2021

“DH ist kein Ponyhof”: Erfahrungen vom Super-Experiment #twitter101dh bei der vDHd2021

Zitierempfehlung: Ulrike Wuttke, “DH ist kein Ponyhof”: Erfahrungen vom Super-Experiment #twitter101dh bei der vDHd2021, Blogpost, 12.04.2021, CC BY 4.0, Link: https://ulrikewuttke.wordpress.com/2021/04/10/dh-ist-kein-ponyhof/

Die erste Eventwoche der vDHD2021 ist vorbei und damit auch die vier Datensalons von des “#twitter101dh: Superexperiment zu Twitter, Bibliotheken und COVID-19”. In diesem Blogpost möchte ich ein wenig über unsere Erfahrungen berichten.

In der Einreichung und Ankündigung des Super-Experiments haben wir, d. h. das Organisationsteam (Daniel Brenn, Lisa Kolodzi, Mareike König und ich) von einem “Twitter-Labor” gesprochen, in dem wir verschiedene Experimente rund um Twitterdaten durchführen wollen. Im Mittelpunkt sollte eine ergebnisoffene Auseinandersetzung mit den Möglichkeiten der Analyse von Twitterdaten sowie die ersten Schritte der praktischen Durchführung stehen, ganz im Sinne des Mottos der vDHD2021 “Experimente”.

Wir waren sehr froh, dafür mit Paul Ramisch und Sophie Schneider zwei erfahrene Tool- und Datenbuddies gewonnen zu haben, die uns auf unserem Weg begleiten wollten. Außerdem hatten wir über Twitter noch weitere Teilnehmer*innen gesucht, eine kleine Webseite mit Github-Repo und einen Discord-Kanal für die Kommunikation erstellt und so konnte das Experiment losgehen.

In insgesamt vier Datensalons widmeten wir uns unterschiedlichen Aspekten der Analyse von Twitterdaten, vom Tweet-Scraping und ersten Analysen mit R (1. Datensalon mit Paul Ramisch), über die Entwicklung von Forschungsfragen (2. Datensalon mit Mareike König), bis zur Netzwerkanalyse mit Gephi (3. Datensalon mit Sophie Schneider). Für die ersten Schritte mit R und Gephi haben Paul Ramisch und Sophie Schneider jeweils fantastische Tutorials und Ressourcen zur Verfügung gestellt, die über die Webseite zur Nachnutzung zur Verfügung stehen. Danke!

Wir hatten uns als Fokus die Analyse von Twitterdaten zum Thema COVID-19 und Bibliotheken genommen, um anhand dieses Use Cases das Werkzeug für die selbstständige Analyse von Twitterdaten zu lernen. Was haben wir nun in den vier Datensalons gelernt? Darüber haben wir sehr ausführlich im 4. Datensalon reflektiert. Hier kann ich natürlich nur für mich sprechen, aber denke, dass es einigen der Teilnehmer*innen durchaus ähnlich gegangen ist, wie die Diskussion zeigte.

Zunächst war es eine tolle Erfahrung zusammen mit dieser Gruppe zu experimentieren und unseren beiden Daten- und Toolbuddies Fragen zu praktischen und theoretischen Aspekten zu stellen. Denn gerade das Erlernen des Umgangs mit Tools hat eine hohe Lernkurve und manche kleine Probleme stellen Newbies vor große Herausforderungen. Dabei ging es nicht nur um praktische Hürden, wie z. B. die komische Fehlermeldung in RStudio, die ich erst beheben konnte, nachdem ich eine Weile gegoogelt habe (denn Paul sagte: beim Coden ist Google unser bester Freund), es stellte sich heraus, dass ich auf meinem neuen Computer R noch nicht installiert hatte (phu!). Es ging auch um Metathemen wie Daten- und Tool-Literacy. Was sind Twitterdaten eigentlich, was können sie uns sagen und was nicht, wie interpretiere und überprüfe ich die Ergebnisse? Welche Fragen kann ich mit Hilfe quantitativer Statistik beantworten, welche Rolle spielen qualitative Analysen und wo setzt die Interpretation an? Vor allem zu den Möglichkeiten und Herausforderungen der Netzwerkanalyse mit Gephi hatten wir mit Sophie Schneider eine sehr angeregte Diskussion. Denn ohne tiefgehendes Verständnis der unterliegenden Konzepte der Netzwerkanalyse und der Parameter ist es zwar sehr spannend mit Gephi zu experimentieren, aber das Tool und die Ergebnisse sind eigentlich eine Black Box. Besonders spannend fand ich es auch, dass wir als Daten- und Toolbuddies zwei Studierende gewinnen konnten, was wieder zeigt, dass jede*r ein*e Expert*in sein kann!

Ich habe mich dann für meinen praktischen Teil auf R konzentriert und einige erste Analysen zum Thema des Superexperiments, der Twitterkommunikation von Bibliotheken zu COVID-19, durchgeführt, dazu hoffentlich an anderer Stelle mehr. Ich habe dafür nicht nur die Twitterdaten analysiert, sondern auch versucht, jeden Schritt ausführlich zu dokumentieren. Und das kostet wirklich viel Zeit (hallo Ressourcenplanung für das Datenmanagement)! Schon alleine deswegen sollte meiner Meinung nach eigentlich jeder einmal ein wenig coden und dokumentieren, der*die auch nur ansatzweise mit solchen Themen in Berührung kommt (oder gar Aufwände abschätzen oder absegnen soll), oder jemanden fragen, der*die sich da aus der Praxis auskennt.

Paul Ramisch hatte uns gleich am Anfang seines Tutorials gesagt, dass er mit uns mit  dem Konzept der permanenten Überforderung arbeiten wird, d. h. dass wir erst einmal ein paar Dinge mit R machen werden, die wir vielleicht noch nicht vollständig nachvollziehen können, das käme dann später. Und das war auch für mich eine zentrale Erkenntnis: Alles braucht seine Zeit. Das wir in vier Sitzungen umfassend R und Gephi lernen werden, war doch etwas optimistisch gedacht. Was wir erreicht haben und das ist eigentlich viel wichtiger, ist eine kritische Auseinandersetzung mit diesen beiden Tools anhand der praktischen Anwendung und ein tieferes Verständnis für die mit ihrem sicheren Einsatz verbundene Deep-Learning-Curve. Der wissenschaftlich fundierte Einsatz von Digital Humanities-Methoden und -Tools bedeutet mehr als nur auf irgendwelche Knöpfchen von Tools zu drücken (nicht das ich das jemals behauptet hätte, aber daher auch der ironische Titel dieses Blogposts), sondern erfordert umfassende Daten-, Code- und Tool-Literacy (Digital Literacy) und theoretische Reflexionen, beides Themen, die in letzter Zeit zu Recht im Fokus stehen.

Franz & P, Das Leben ist kein Ponyhof, St. Oberholz, Berlin, Flickr, CC BY-NC-SA 2.0

Noch mehr zu #twitter101dh gibt es im Blogpost von Sophie Schneider “#vdhd2021 – Erste Eventtage”. Wer Twitteranalysen in Python durchführen will, auch hierzu hat Sophie Schneider ein Tutorial geschrieben. Weitere Links zu Tutorials und Ressourcen finden sich auf den Seiten der Datensalons. Einige spannende Gedanken in diesem Zusammenhang sind auch in Markus Krajewskis Artikel “Hilfe für die digitale Hilfswissenschaft: Eine Positionsbestimmung.” in der Zeitschrift für Medien- und Kulturforschung 10: 1 (2019), S. 71–80 zu finden [Link zum PDF].

Über weitere Hinweise zu Twitterdaten-Tutorials zu R, aber auch daraus entstandene Studien freue ich mich über die Kommentare, Twitter oder andere Kanäle!