Category Archives: Uncategorized

IIIF: Gekommen um zu bleiben?

Nachlese zu: Johannes Baiter: Offene und entwicklerfreundliche APIs für digitales Kulturerbe, Oder: von bibliothekarischen Standards zu Web-Standards (06.04.2018, BBAW)

Letzten Freitag hatte das sehr lobenswerte “DH-Kolloqium” Johannes Baiter von der Bayerischen Staatsbibliothek zu Gast, der die zahlreich erschienenen Interessenten über die Möglichkeiten von IIIF, einem in der letzten Zeit immer mehr im Interesse stehendem offenen Standard für die Präsentation digitaler Kulturdaten, einweihte. Auf die Gefahr hin, mich in mir fremden Fahrwassern zu verfahren, ein Versuch, die wichtigsten Punkte des Vortrags zusammenzufassen. Für technische Details verweise ich mit Nachdruck auf die Folien von Johannes Baiters (Link am Ende der Seite).

Johannes Baiter schilderte zunächst die Ausgangslage: die Viewer-Landschaft für Digitalisate ist inzwischen sehr verwirrend, jeder kocht sein eigenes Süppchen, baut digitale Silos und die Nutzenden müssen sich ständig in neue nicht miteinander operable Systeme einarbeiten. Hier genau setzt IIIF (International Image Interoperability Framework) an. Wer sich schon immer gefragt hat, wie man das wohl ausspricht: Triple-I-F, ist die Lösung, ob man das dann Englisch oder Deutsch ausführt, scheint, wie auch bei TEI, dem eigenen Geschmack überlassen zu sein.

IIIF hat seine Ursprünge im bibliothekarischen Kontext (Zusammenarbeit von u.a. British Library, Stanford, Oxford, BNF) und ist ein Versuch, der sehr komplexen deskriptiven Semantik von METS/MODS (das versucht alle Informationen zu einem digitalen Objekt abzubilden), eine Art „light weight“ Präsentations-Semantik (die nur die minimal für die Präsentation notwendigen Metadaten ausliefert) entgegenzusetzen: das so genannte IIIF-Manifest. Johannes Baiter fasste zusammen, dass sich die IIIF-Community sich vor allem die Maximen Offene Standards, Nutzerfreundlichkeit und Entwicklerfreundlichkeit (Linked Open Data Usable) auf die Fahne geschrieben hat .

Anschließend präsentierte Johannes Baiter einige interessante Praxisbeispiele anhand des Viewers Mirador (sehr schön war übrigens der in die Präsentation eingebaute illustrative Screencast). So kann man sich nicht nur verschiedene Handschriften sehr einfach gleichzeitig anzeigen lassen und annotieren, sondern auch verteilte Handschriften virtuell rekonstruieren, zum Beispiel ausgeschnittene Miniaturen wieder in die „Löcher“ einfügen. Das sind natürlich Möglichkeiten, die zum Beispiel für alle mit historischen Handschriften und Büchern Forschenden nicht nur eine Arbeitserleichterung darstellen, sondern auch spannende neue Präsentationsmöglichkeiten und Herangehensweisen an Forschungsfragen eröffnen, genau wie die geplante Erweiterung um 3D-Support.

Nun ist nicht alles rosig im IIIF-Land. IIIF ist ein recht junger, voll in der Entwicklung begriffener Standard (seit 2011), der demensprechend auch einige Kinderkrankheiten hat. Besonders problematisch an dem sehr minimalistischen Metadaten-„Paketen“ von IIIF ist die Frage der Discovery: Wie finde ich eigentlich IIIF-Manifeste (um meinen Viewer zu „füttern“). In der Diskussion würde festgestellt, dass dieses Problem zwar erkannt ist, aber sich bisher noch niemand an diese „Büchse der Pandora“, so O-Ton Baiter, herangewagt hat. Es wird jedoch nicht mehr lange möglich sein, dieser Frage aus dem Weg zu gehen. Eine Discovery-App scheint für Herbst 2018 vorgesehen und im Zuge der IIF-Entwicklungen scheint auch JPEG 2000 als offenen Standard wieder neues Leben eingehaucht zu werden.

Eine weitere Baustelle sind die IIIF-Viewer (wie Mirador oder Universal-Viewer), die schlichtweg auf Grund von fehlenden Frontend-Entwickler-Ressourcen noch lange nicht ihre Potential an Möglichkeiten und Benutzerfreundlichkeit ausschöpfen. So richtig eignen sie sich momentan noch nicht wirklich zum Lesen von Handschriften. Auch die Annotationsfunktionalitäten, insbesondere die Nachhaltigkeit, bzw. der Austausch von Annotationen scheinen noch in den Kinderschuhen zu stecken. Noch annotiert jeder (idiosynkratrisch) für sich selbst.

Es war ein ziemlich technischer Vortrag, der Nicht-Entwicklern einige Gedankensprünge abverlangte, dafür aber einen sehr interessanten Einblick in das momentan sehr en vogue IIIF bot, bei dem sich, wie bei allen Standards die Frage stellt, ist er gekommen, um zu bleiben (in Anwandlung an Wir sind Helden „Gekommen um zu bleiben“)? Hier wird die Community entscheiden, sowohl von Entwicklerseite, als auch aus fachwissenschaftlicher Sicht.

Die Folien des Vortrags hat Johannes Baiter auf GitHub hinterlegt. Das ist natürlich sehr lobenswert, war für mich als Nicht-GitHub Userin jedoch eine Herausforderung. Auf den ersten Blick ist es nämlich nicht besonders eindeutig, wie man sich die Folien anzeigen kann. Irgendwie ist es mir dann doch gelungen, eine Anzeige zu bewerkstelligen. Es zeigt sich immer wieder, der Mensch lernt mit seinen Aufgaben…!

Die Ankündigung und mehr Informationen zum Referenten sind auf der Webseite des ifDHb zu finden (wie auch die Termine weiterer DH-Kolloquien und was sonst so alles im Raum Berlin spannendes im Bereich DH passiert).

Screen Shot 2018-04-10 at 22.45.54

IIIF Logo

Advertisements

Safe the date: 22-23 September THAT Camp Göttingen

Recently I moved to Göttingen to start working on a new project for the Akademie der Wissenschaften Göttingen (more over that later). Göttingen is an awesome little town right in the centre of Germany (and quite rainy, so that makes me feel a bit like in Ghent) with the very renowned Georg-August-Universität, the oldest German AdW, many Max-Planck-Institute and a very active DH scene. Check the website of the GCDH (Göttingen Center for Digital Humanities).

In case you got curious and want to visit, why not use the opportunity and attend the 2014 THAT Camp Göttingen that is organized by my fantastic new colleagues Sally Chambers and Jörg Wettlaufer! Just to mention that I actually met Sally first during the 2013 THAT-Camp at Ghent, were I talked about the possibilities of TEI for manuscript description (http://ghent2013.thatcamp.org/2013/05/24/manuscript-description-and-the-possibilities-of-digital-editing-with-tei-conformant-xml/).

All information can be found here and registration starts on the 4th June. Better be fast!

See you in Göttingen!

Upcoming: Research stay for TEI-edition of Velthem’s Fourth Part of the ‘Spiegel Historiael’ at Staatsbibliothek Berlin

I am very excited that I was awarded a grant from the Staatsbibliothek zu Berlin (Berlin State Library) for a pilot study for a digital edition of Velthem’s Fourth Part of the ‘Spiegel Historiael’, using TEI-conformant XML. More about this project you can find out from the poster I presented at the DH Summer School Leuven (Belgium), 18 to 20 September 2013. You can access the poster via SSRN: http://ssrn.com/abstract=2329548.

I hope I will be able to transcribe and code a great deal of this fascinating manuscript during my two month stay and make its content more accessible to other researchers as well as to the public. I am grateful to everybody who supported the proposal and gave me valuable advice while I was writing it. I will keep you updated about further developments!

Upcoming: Digital.Humanities@Oxford Summer School

I am very excited to go soon to Oxford and get hands-on teaching on TEI and hear more about general recent developments in the Digital Humanities. The schedule looks very interesting! And not to forget about the Banquet at Queens College…

I still have to think of the best moment to sneak out and visit the Bodleain Library and have a closer look at ms. Marshall 28 that contains a medieval Dutch translation of the Livre de Sidrac and have a look how the end time prophecy looks like in the real manuscript (the old edition is not really useful in this point)!

http://digital.humanities.ox.ac.uk/dhoxss/

One Day Introduction to Topic Modeling with LDA and Distributional Semantics, 30 May 2013

This day was an initiative of the Vlaamse Werkgroep Medievistik and held at the University of Antwerp. Our teacher was Martin Riedl from the Technische Universität Darmstadt.

During the day Martin initiated us to topic modeling, a research methodology of the Digital Humanities that in theory allows us to analyze in a relative simple way huge textual corpora according to their main topics. The underlying algorithms look very complicated, but using special software lets you ignore them and in a relative simply way shows you the most common clusters of words that – in ideal case – represent a topic in the corpus. Thus in an ideal world, topic modeling will show you the main topics in a corpus and their distribution and also the distribution of different words in a topic. It can then attribute these topics also to new documents and may help structure a corpus.

However, you cannot just take let’s say a digitized Middle Dutch text and run the software, because first of all your results will be spoiled by structural words and very common words (think of articles, auxiliary verbs…) and also the un-standardized medieval orthography causes a problem, but there are solution for this, think of removing the very common “non-content” words and automatically standardize  the orthography. Currently Mike Kerstemont is working on applying this technique to medieval texts and some first results look quite promising. To learn more about topic modeling in the Digital Humanities, its methods, advantages, problems, and theoretical reflection I think this issue of the Journal of Digital Humanities is very interesting. As for most medievalists the underlying technique may be too complicated to grasp, the good thing is, that many computer scientists who master these techniques seem more than willing to apply them to interesting corpora, so one should not be afraid to seek co-operations!