普通视图

Received before yesterday

Eindrücke der Digital Humanities Benelux 2025 in Amsterdam

2026年1月1日 01:00

Die Digital Humanities Benelux 2025 fand in diesem Jahr vom 4.-6. Juni in den Niederlanden, genauer gesagt in Amsterdam, statt und wurde dort an der Freien Universität (Vrije Universiteit) ausgerichtet. Der gesamte Universitätskomplex ist neu und umfangreich ausgestattet. So gab es eine größere Outdoor-Anlage mit Möglichkeiten für Calisthenics sowie drei Beachvolleyballcourts mitten auf dem Unicampus. Das machte gleich zu Beginn Eindruck.

Anlage auf dem Campus der Universität in Amsterdam (Vrije Universiteit) mit Trainingsmöglichkeiten.
Anlage auf dem Campus der Universität (Bild: Vivian Rätzke).

Aber der Grund für meine Reise war ein anderer – gerne wollte ich die Digital Humanities Benelux besuchen und durfte eine ereignisreiche Tagung miterleben. Ich bin sehr dankbar, dass ich die Möglichkeit dazu hatte und möchte mich an dieser Stelle sehr herzlich bei dem Verband Digital Humanities im deutschsprachigen Raum (DHd e.V.) für die großzügige Unterstützung in Form eines Reisekostenstipendiums bedanken, das mir die Konferenzteilnahme ermöglichte.

Im Vorfeld zur Tagung gab es eine Vielzahl an Pre-Workshops, die am Tag vor dem offiziellen Beginn stattfanden. In meinem Fall fiel die Wahl auf Working with colonial Digital Cultural Heritage, Approaches, Tools, and Transnational Insights. Es handelte sich dabei um einen Workshop zum Umgang mit kritischen Metadaten bei Museumsobjekten aus dem Kolonialkontext. Dieser Workshop beleuchtete unterschiedliche Perspektiven und machte bewusst, was nicht auf Anhieb offensichtlich war, zum Beispiel den Verlust an Informationen bei Objekten aus dem rituellen Kontext. In diesem Rahmen konnten Beispielobjekte aufgezeigt werden, für die weitere Metadaten in Gruppenarbeiten von uns hinzugefügt wurden. Dies geschah unter dem Gesichtspunkt, welche Metadaten fehlen, aber auch welche Metadaten verändert werden müssten. Einer der aufgeworfenen Punkte, war, inwiefern Personen der betreffenden kulturellen Einflüsse in die Erstellung von Metadaten des jeweiligen Objekts einbezogen wurden oder werden sollten, um die Informationen weiterzugeben und darüber hinaus die Suche zu erleichtern. Es wäre ein wichtiger Beitrag, dass essentielle Informationen zu den Objekten und dem Kontext nicht verloren gingen, sondern für die Nachwelt erhalten blieben. Dies wäre auch ein Zeichen des Respekts im Rahmen der Aufarbeitung.

Da der Workshop nur einen halben Tag gehen sollte, buchte ich mir für den restlichen Tag einen Slot im Museum und hatte die Gelegenheit, das Kulturangebot der Stadt Amsterdam genießen zu dürfen.

Fußweg zur Tagung durch die Natur mit einem Gewässer.

Fußweg zur Tagung (Bild: Vivian Rätzke).

Am nächsten Tag ging es weiter mit der offiziellen Eröffnung der Tagung, die insgesamt zweieinhalb Tage gehen sollte. Jedoch ahnten wir zu diesem Zeitpunkt noch nicht, wie sie zum Wochenende hin enden würde, aber dazu später mehr.

Insgesamt gab es während sämtlicher Präsentationen, Vorträge zu drei parallel stattfindenden Sessions. Dies bot ein überaus umfangreiches und vielseitiges Programm für jeden Geschmack und unterschiedliche fachliche Hintergründe. Darunter fielen zum Beispiel Vorträge zur 3D-Modellierung in der Archäologie und X-Analysen anhand von Daten der Geschichtswissenschaften.

Das Reisestipendium eignete sich ideal für die Reise nach Amsterdam, denn die Tagung war international gut besucht und dementsprechend anregend im Austausch über aktuelle Themen der Digital Humanities (DH). Eröffnet wurde die Vortragsreihe mit einer Keynote von Barbara McGillivray vom King’s College London mit Tracing meaning across time: computational and human-centred approaches to semantic change. Noch eine Keynote gab es von Lise Jaillant mit AI to Unlock Archives: Revolutionising Access to our Digital Past. Beide Vorträge waren über die Maße interessant und stark besucht. Mit großem Interesse wurden zum Schluss Diskussionen mit den Tagungsteilnehmenden geführt.

Während der Tagung konnte ein dynamisches Miteinander unter den Tagungsteilnehmenden beobachtet werden. Nicht nur spannende Vorträge gab es, sondern auch eine Poster-Session sowie eine Demonstrationssitzung. Diese sowie das Rahmenprogramm förderten die Möglichkeiten der Vernetzung innerhalb der Digital Humanities Community.

Ein interessanter Punkt des angebotenen Zusatzprogramms war die Möglichkeit, an der Bibliotheksführung der ausrichtenden Universität teilzunehmen. Bei dieser Gelegenheit wurde nicht nur ein Einblick in historische Objekte wie einen Globus oder eine Karte von Japan gegeben, sondern auch ein Projekt vorgestellt, bei dem es darum ging, assyrische Tontafeln für Unterrichtszwecke zu scannen, als 3D-Modelle zu erstellen sowie mit dem 3D-Drucker zu drucken. Diese Kopien der Tontafeln wurden herumgereicht und konnten angefasst sowie ausführlich begutachtet und untersucht werden.

Wann bekommt man schon einmal die Gelegenheit, die Struktur eines antiken Objektes ausgiebig abtasten und die Keilschrift erfühlen zu dürfen? Alles natürlich unter dem Gesichtspunkt, dass das Original unberührt, unversehrt und geschützt blieb. Nicht zu vergessen, dass sogleich eine Expertin unter uns Teilnehmerinnen und Teilnehmern anfing zu erklären, worum es sich dabei genau handelte. Frau Dr. Anouk Nuijten, die auch Ansprechpartnerin für das Projekt ist, berichtete uns zusammen mit ihrem Kollegen Aidan Houtkamp mehr über die Eindrücke von den 3D-Modellen und den angefertigten Repliken im Rahmen von Digital Impressions: Creating 3D Models of Clay Tablets. Weiterhin können die Objekte hier gefunden werden.

Eine Tontafel wird gescannt.
Eine Tontafel wird gescannt (Bild: Vivian Rätzke).
Ausschnitt aus einem Projekt der Universität in Amsterdam.
Ausschnitt des Modells (Bild: Vivian Rätzke).

Der Austausch während der Tagung war produktiv und förderte die internationale Vernetzung zwischen den mehr als 200 Tagungsteilnehmenden sehr. Die anschließenden Diskussionen waren anregend und ermöglichten neue Ideen für Herangehensweisen zukünftiger Forschungsprojekte. Aber auch die Poster- und Demo-Sessions gaben Aufschluss über vielversprechende Möglichkeiten, die in DH genutzt werden können.

Das Organisationsteam vollbrachte eine reife Leistung. Wie schon erwähnt, bot das Ende der Tagung eine überraschende Herausforderung. Bereits zu Beginn stießen die Raumkapazitäten an ihre Grenzen und es mussten kurzerhand größere Räumlichkeiten der Universität zur Verfügung gestellt werden. Zwischenzeitlich gab es ein hohes Aufkommen, dass zuvor sogar auf dem Fußboden Platz genommen worden war, da sich niemand die spannenden Präsentationen entgehen lassen konnte. Womit zu guter Letzt jedoch kaum jemand gerechnet hatte, war der landesweite Bahnstreik der niederländischen Bahn, der dafür sorgte, dass spontan umdisponiert werden musste. So kam es, dass einige bereits einen Tag früher abreisten und andere wiederum ihren Aufenthalt um einen Tag verlängerten. Gleichzeitig wurde das Programm von einem auf den anderen Tag von einem Präsenzmodell zur Hybridtagung am letzten Veranstaltungstag umgewandelt. Der Plan ging auf und alle Vorträge konnten stattfinden. Organisatorisch wurde dies flexibel gehandhabt, jedoch waren am letzten Tagungstag keine Fahrten innerhalb der Niederlande möglich. Ich hatte ohnehin geplant, eine Nacht länger zu bleiben und konnte erfreulicherweise ohne Probleme am nächsten Tag weiterfahren.

Die Digital Humanities Benelux 2025 war ein Erlebnis, das ich nicht vergessen werde. Der Besuch der Tagung hat mich fachlich weitergebracht, dazu geführt, dass ich mich intensiver mit bestimmten DH-Themen auseinandergesetzt habe und mir durch die Vorträge und den Austausch dabei geholfen, neue Ideen im Rahmen meiner Masterarbeit zu entwickeln. Sogar die Aussicht auf ein Ministipendium im Rahmen meiner Abschlussarbeit für die Nutzung eines KI-Tools habe ich dadurch bekommen. Die Möglichkeit und die besondere Erfahrung möchte ich nicht missen und werde mit Freude daran zurückdenken.

Unterwegs zur Tagung durch die Natur mit Blick auf einen Fluss.
Unterwegs zur Tagung durch die Natur (Bild: Vivian Rätzke).

Die Digital Humanities Benelux wird im kommenden Jahr 2026 erneut in den Niederlanden, aber dieses Mal in Maastricht, stattfinden. Wir können gespannt sein, was uns beim nächsten Mal erwartet.

Abschluss der Konferenz am letzten Tag im Hörsaal.
Abschlussbild der Tagung (Foto: Vivian Rätzke).

Bericht zum Workshop „APIs for text-based digital editions“ am 25.09.2025

2025年11月17日 19:13

Wird es sie bald geben, die eine API, sie alle zu finden und auf ewig zu binden? Im Workshop „APIs for text-based digital editions“, der in Kooperation der Universitätsbibliothek Heidelberg und Text+ am 25.09.2025 online stattfand, wurde unter anderem auch das diskutiert. Mehr Informationen dazu gibt es im folgenden Beitrag, der den Workshop und dessen zentrale Ergebnisse zusammenfasst.

Einleitung

Was sind APIs?​

Programmierschnittstellen („API“ von Application Programming Interface) stellen Funktionen bereit, mit denen Informationen aus einem System abgerufen oder gesendet werden können. Da die zulässigen Abfragen, möglichen Parameter und Rückgaben einer API genau definiert sind, können verschiedene Systeme und Anwendungen so einheitlich und effizient auf die Daten zugreifen, ohne die genaue Struktur des zugrundeliegenden Systems kennen zu müssen. 

Beispielsweise bietet das Hochschulbibliothekszentrum des Landes NRW die API lobid-gnd an, durch die der Zugriff auf die Bestände der Gemeinsamen Normdatei (GND) der Deutschen Nationalbibliothek verhältnismäßig aufwandsarm in andere Anwendungen integriert werden kann. In dem Webportal einer digitalen Edition könnten zum Beispiel weitere Informationen zu einer Named Entity angezeigt werden, indem beim Klick auf diese im Hintergrund eine Anfrage an einen Endpunkt der lobid-gnd-API gesendet wird (z.B.: https://lobid.org/gnd/search?q=Heidelberg&format=json). Diese liefert die in der GND gespeicherten Informationen in einem einheitlichen – und in der Dokumentation der API beschriebenen – Format aus, das so seitens des Webportals für die Anzeige aufbereitet werden kann und die gewünschte Information angezeigt wird (z.B.: „Heidelberg – Stadt am Neckar, Regierungsbezirk Karlsruhe, 1196 urkundl. erwähnt“).

Die Zugänglichmachung der Datenschicht einer Edition über eine API kann damit die Recherche, Vernetzung und Nachnutzung der Editionsdaten bedeutend erleichtern; sie trägt also auch zur Umsetzung der FAIR-Prinzipien bei. Nicht ohne Grund fragt der Kriterienkatalog der Rezensionszeitschrift für digitale Editionen RIDE explizit nach dem Vorhandensein von technischen Schnittstellen.1

Idee eines Workshops zum Thema APIs

APIs finden jedoch trotz der vielen Möglichkeiten, die sie mit sich bringen, bisher noch keine breite Anwendung im Bereich der digitalen Editionen und der auf ihnen aufbauenden Forschung. Deshalb wurde in Kooperation der Universitätsbibliothek Heidelberg mit Text+ ein gemeinsamer Workshop zum Thema „APIs for text-based digital editions“ veranstaltet.

Ziel des Workshops war es, mögliche API-Nutzer:innen (z.B. Editionswissenschaftler:innen, Digital Humanists, Sprachwissenschaftler:innen) mit den Dienstanbieter:innen und Entwickler:innen zusammenzubringen, um gemeinsam Grenzen und Möglichkeiten der Schnittstellen zu erkunden, Bedarfe, Wünsche und Weiterentwicklungsmöglichkeiten zu sammeln sowie eventuelle Hürden bei der Verwendung und Implementierung zu minimieren.

Der Workshop

Teilnehmer:innen

Am 25.09. trafen über 60 Personen für den Online-Workshop zusammen. Neben Forscher:innen aus Deutschland, Österreich und der Schweiz waren auch Teilnehmende aus u.a. Polen, der Türkei, Italien und den USA dabei, womit sich die Entscheidung, Englisch als Workshop-Sprache zu verwenden, direkt als richtig erwies. Vertreten waren u.a. Bibliotheken, Forschungsinstitute, dedizierte DH-Zentren und Data Science Labs sowie auch konkrete Forschungsprojekte.

Programm

Das etwa sechsstündige Programm gliederte sich dabei in drei Teile:

  • Vortragsteil: Vier Präsentationen à 20 Minuten zu konkreten Schnittstellen(-spezifikationen) mit jeweils unmittelbar anschließender, kurzer Fragerunde
  • Diskussionsteil: Zwei Breakouträume (einmal mit technischem Fokus und einmal mit Fokus auf Nutzung und Bereitstellung) mit anschließender gemeinsamer Zusammenfassung
  • Anwendungsteil: Vortrag zur Implementierung der DTS-Spezifikation im TEI Publisher als praktisches Beispiel für die Schnittstellenintegration; ebenfalls mit anschließender Diskussionsrunde.

Vorgestellte APIs

Die vier vorgestellten Schnittstellen(-spezifikationen) werden nachfolgend zum besseren Überblick kurz erläutert.

Distributed Text Services

Diese API-Spezifikation wird seit 2015 unter ständigem Input der Community gemeinschaftlich entwickelt und liegt aktuell als Release Candidate vor; die Veröffentlichung von Version 1.0 soll dieses Jahr erfolgen. Die Spezifikation sieht neben dem Einstiegspunkt drei Endpunkte (d.h. Orte, an die Anfragen gesendet werden können) vor:

Citable units können dabei grundsätzlich jeder Art sein; denkbar wären z.B. Kapitel, Paragraphen, Seiten oder auch Verszeilen. Durch einen oder mehrere sogenannte citationTrees wird für jede Ressource hinterlegt, welche Strukturen für sie als mögliche Zugriffsform bereitstehen, sodass beispielsweise vom selben Text (sofern implementiert) sowohl die ersten 20 Seiten als auch semantisch-logische Einheiten wie z.B. 3 Kapitel abgerufen werden könnten. Das primäre Format, das über den document-Endpoint bereitgestellt wird, ist TEI-XML; über den mediaType-Parameter können jedoch auch andere verfügbare Serialisierungen der Daten abgerufen werden, z.B. plain text, HTML oder ganz andere. Die übrigen DTS-Endpunkte nutzen JSON-LD zur Auslieferung der Informationen.

SHINE API

Die SHINE API-Spezifikation wurde im Kontext des RISE-Projektes vom Max-Planck-Institut für Wissenschaftsgeschichte in Berlin sowie der Staatsbibliothek zu Berlin entwickelt und liegt in Version 1 vor. Ähnlich wie bei DTS werden Texte hier als Hierarchie von content units und sections verstanden, die in resources enthalten sind, wobei die Ressourcen wiederum in collections gesammelt werden. Über insgesamt 7 Endpunkte ist dabei u.a. Folgendes möglich, wobei die Antwort stets im JSON-Format erfolgt:

  • collections, resources, sections und content units sowie deren zugehörige Metadaten  einsehen
  • eigene Korpora aus resources zusammenstellen und diese abrufen
  • verfügbare Forschungswerkzeuge für collections abrufen/hinterlegen

Zum letzten Punkt: Ressourcen, die über eine SHINE API zugreifbar sind, können die RISE-Infrastruktur nachnutzen; darunter den Import in Textanalyse- oder Annotationsplattformen wie MARKUS und Recogito oder die Einbindung in den RISE Catalog. Über die RISE-Middleware kann zudem beim Zugriff auf ausgewählte Ressourcen ein Authentifizierungsschritt ergänzt werden, wenn gewünscht.

UDT-ITF API

Dieser API-Spezifikationsvorschlag orientiert sich am IIIF-Standard und wurde in dem 2-Jahres-Projekt „Unlocking Digital Texts: Towards an Interoperable Text Framework“ erarbeitet. Er liegt aktuell in Version 0.1.0-beta vor und wird weiter ausgebaut. 

Der Zugriff auf Textfragmente erfolgt hier mittels der Text Fragment API, während die Text Information API Metadaten zu den Textressourcen und eventuellen Versionen ausliefert. Anders als die bisher vorgestellten API-Spezifikationen ist die Versionierung damit explizit in der Spezifikation enthalten – während bei DTS z.B. indirekt mittels Dublin Core-Metadateneinträgen angegeben werden könnte, dass eine Ressource eine andere ersetzt, ist die Version hier Teil der Fragment-Anfrage: http://{server}{/prefix}/{identifier}/{version}/{mode}/{fragment}/{quality}{.format}

Die Fragmente werden dabei durch sogenannte modes spezifiziert. Vordefiniert sind u.a. char, token und book – bei char würden Fragmente z.B. anhand von character offsets zugreifbar sein, während book eine weitere Untergliederung in Seiten, Zeilen und Zeichen zulässt, sodass book-Fragmente mittels Koordinaten aus Seite–Zeile–Zeichen gebildet werden können. Diese Fragmente werden stets anhand der plaintext-Version einer Ressource berechnet, d.h. ein Server, der diese API-Spezifikation implementiert, muss sicherstellen, dass eventuelles Tagging ignoriert wird. Weitere, selbst definierte modes auf Basis der vordefinierten Möglichkeiten sind ebenso zulässig wie das Zugreifen auf die gesamte Textressource mittels der mode “full”. Als auslieferbare Formate sind dabei txt, TEI-XML, HTML und Markdown im Entwurf vorgesehen. 

Auf die weitere Gliederung der Textressourcen in übergreifende Sammlungen wird hier verzichtet, d.h. das Konzept der collections gibt es hier nicht.

TextAPI

Die TextAPI-Spezifikation ist ebenfalls von IIIF inspiriert und wird von der SUB Göttingen entwickelt. Die Spezifikation liegt in Version 1.4.2 vor, wobei das Release der Version 2.0.0 aktuell in Planung ist. 

Mittels der TextAPI können collections, manifests (physische Expression eines Werks) sowie items oder jeweils zugehörige Metadaten abgerufen, erstellt, gelöscht und ersetzt werden. Im JSON-Inhaltsobjekt können beliebige Serialisierungen der Ressourcen per URL verlinkt werden; worum genau es sich bei einem item handelt, wird dabei durch den Typ-Eintrag im JSON-Objekt klar, der frei gewählt werden kann. Ebenfalls enthalten ist dort auch ein data integrity object, in welchem die Prüfsumme der referenzierten Ressource sowie der zur Generierung verwendete Algorithmus hinterlegt werden. Diese Möglichkeit zur Sicherstellung der Datenintegrität ist in den anderen Spezifikationen nicht integriert oder zumindest nicht pflichtmäßig enthalten.

Das hier entwickelte Ökosystem umfasst neben der TextAPI auch eine AnnotationAPI, SearchAPI und IndexAPI sowie insbesondere den Text Viewer for Digital Objects (TIDO), der TextAPI-JSON konsumiert und als Frontend einer darauf aufbauenden Web Application verwendet werden kann. Ein Beispiel dafür findet sich hier: https://ahiqar.uni-goettingen.de/arabic-karshuni.html?tido=m5_i0_p0.0-1.0-2.1-3.0

Zentrale Ergebnisse der gemeinsamen Diskussion

#OneAPIToRuleThemAll?

Ausgehend von der Feststellung, dass die diskutierten API-Spezifikationen ein ähnliches Textverständnis zugrundelegen und REST-basiert sind, stellte sich gleich zu Beginn der Diskussionsrunde die Frage, ob die vier verschiedenen Spezifikationen in einen gemeinsamen Standard zusammengeführt werden könnten. 

Dagegen spricht, dass die präsentierten APIs natürlich nicht die Gesamtheit aller Schnittstellen in diesem Bereich darstellen und schon die vier genannten durch die unterschiedlichen Entwicklungs- und Anwendungskontexte verschiedene Fokusse und damit auch unterschiedliche Features mitbringen. Zudem sind manche der Schnittstellen bereits Teil eines größeren Ökosystems, sodass Änderungen hin zu einer gemeinsamen Spezifikation für Inkompatibilitäten und damit nachträglichen Anpassungsaufwand sorgen würden.

Allerdings brächte ein gemeinsamer Standard enorme Vorteile sowohl für Forschende als auch Infrastrukturanbietende mit sich: Durch ein abstraktes und flexibles Textmodell (wie es die bisher betrachteten APIs verwenden) wäre es möglich, einheitlich auf Texte und zugehörige Metadaten unterschiedlichster Editionsprojekte zuzugreifen. Die einmalige Einarbeitung in diesen Standard und die API-Verwendung würde also den Zugang zu einer Fülle von mit viel Mühe und Zeit aufbereitetem Forschungsmaterial erlauben. Mit Sicherheit würde das auch die Nachnutzung dieser Daten fördern. Infrastrukturanbieter:innen müssten gleichzeitig lediglich einen einzigen Standard implementieren und zugehörige Skripte pflegen, was die Etablierung und Verfügbarhaltung dieser Services deutlich erleichtert. Gleiches gilt für Entwickler:innen von Forschungssoftware, die so leichter überblicken könnten, welche Schnittstellen ihr Produkt vielleicht anbieten sollte.

Für die Zusammenführung der verschiedenen Spezifikationen wären dabei natürlich viele Abstimmungen nötig – idealerweise nicht nur zwischen den Entwickler:innen, sondern auch innerhalb der Community. Vielleicht kann die zur Vorbereitung des Workshops erstellte Übersicht der vier Spezifikationen neben der Überblicksfunktion hierfür auch als Diskussionsgrundlage dienen: https://doi.org/10.11588/DATA/4EKAGI (falls Interesse besteht, dort weitere APIs aufzunehmen, gerne melden!). 

Use Cases sammeln

Während der Diskussionsrunden stelle sich mehrmals die Frage, wer genau APIs nutzt und zu welchem Zweck – dies sowohl von Seiten der Wissenschaftler:innen aus, die mögliche Einsatzzwecke und damit Mehrwerte der Schnittstellen kennenlernen wollen, als auch von den Entwickler:innen, die konkrete Fallbeispiele nutzen können, um die API-Spezifikation weiterzuentwickeln und an die Bedarfe der Community anzupassen. Beispielsweise bat Hugh Cayless um Textzeugen mit komplexeren Strukturen aus Editionsprojekten, um sicherstellen zu können, dass das Design des DTSnavigation-Endpunktes die API-Implementierung in einem Projekt nicht behindert. 

Im ersten Schritt könnten die (geplanten oder bereits umgesetzten) Anwendungsfälle über die jeweiligen GitHub-/GitLab-Repositorien oder mittels der auf den API-Webseiten angegebenen Kontaktmöglichkeiten übermittelt werden. Die auf den Webseiten oft schon enthaltenen Informationen zur API-Nutzung in bestimmten Projekten könnten dann noch weiter ausgebaut werden und so vielleicht auch weitere Nachnutzungen inspirieren.

Implementierung einer API-Spezifikation: DTS im TEI Publisher

Der Vortrag von Magdalena Turska und Wolfgang Meier zur Implementierung der DTS-Spezifikation im TEI Publisher stellte den letzten Teil des Workshops dar. In der aktuellen Version 9 des TEI Publishers sind die beiden DTS-Endpunkte collection und document – jeweils zur Einsicht in Dokumentensammlungen und zum Herunterladen von Ressourcen – bereits integriert; in Version 10 soll der fehlende navigation-Endpunkt folgen. Den Nutzenden des TEI Publishers soll es dabei möglich sein, die DTS-Komponente mit wenigen Klicks zu ihrer Editionsapp hinzuzufügen oder abzuwählen, ohne selbst etwas implementieren zu müssen. 

Dies stellt jedoch besondere Herausforderungen an die Entwicklung seitens TEI Publisher, da der navigation-Endpunkt Wissen zur Textstruktur fordert, die je nach Ressource sehr unterschiedlich ausfallen kann. Das aktuell dafür herangezogene TEI-Element citeStructure ist jedoch für die Abbildung sehr komplexer Strukturen nur bedingt geeignet. Magdalena Turska schlug deshalb nach der Darlegung der Schwierigkeiten als eine mögliche Lösung vor, die ODDs (One Document Does it All – das TEI-eigene Schemaformat) derart anzupassen, dass über sie Aussagen zur Textstruktur gewonnen werden können. Damit einher ging die Idee, eine Registry dieser ODD-Dateien und DTS-nutzenden Projekte zu nutzen, da die dafür nötigen Informationen dann ohnehin im TEI Publisher vorlägen. 

Persönliches Fazit

Insgesamt sind meine Kollegen und ich mit vielen Fragen in den Workshop gestartet und mit mindestens so vielen Anregungen auch wieder davon zurückgekommen. Die allgemeine Bereitschaft, Erfahrungen zu teilen, Entwicklungsentscheidungen zu diskutieren und erneut zu durchdenken sowie das große Interesse an einem gemeinsamen Standard haben mich dabei besonders gefreut. Letzteres haben wir zusammen mit dem Wunsch nach mehr Orientierung und Nutzungsbeispielen auch klar als Bedarfe festgestellt. Gelegentlich hatten wir in den Diskussionsrunden den Eindruck, dass sich die Nicht-API-Entwickler:innen noch etwas zurückhielten – vielleicht, weil das Thema neu ist und man sich erst einmal einen Eindruck davon machen wollte. Dass wir dies mit der Kombination aus Vorträgen und Fragerunden unterstützen konnten, ist gut; zukünftige Angebote könnten hier aber vielleicht noch expliziter auf API-Neulinge eingehen. Vielleicht gibt es ja sogar bald Schulungen zu einem gemeinsamen API-Standard… In jedem Fall hoffen wir als Veranstalter, dass alle Teilnehmenden etwas aus dem Workshop für sich mitnehmen konnten, und bedanken uns noch einmal herzlich für die gemeinsame Zeit.

 

Verfasst von Katharina Brückmann, mit freundlicher Unterstützung von Philipp Hegel, Jakub Šimek und Leonhard Maylein.

  1. Siehe Punkt 4.9 in: Sahle, Patrick et al.: „Criteria for Reviewing Scholarly Digital Editions, version 1.1“, abgerufen unter https://www.i-d-e.de/publikationen/weitereschriften/criteria-version-1-1/ am 17.11.2025. ↩

Olá, Lisboa: DH2025 – Building Access and Accessibility, open science to all citizens

2025年8月28日 22:51

Die diesjährige Digital Humanities Konferenz fand im schönen (wenn auch ziemlich heißen!) portugiesischen Sommer in Lissabon statt. Als Brasilianerin war ich besonders froh, die DH-Community in einem portugiesischsprachigen Umfeld zu erleben, und bin mit Unterstützung eines Reisestipendiums des Verbands Digital Humanities im deutschsprachigen Raum (DHd) nach Lissabon gegangen. Ich bin daher dem Dhd für die Unterstützung sehr dankbar, welche mir die Teilnahme an der Konferenz ermöglicht hat. Ohne diese Unterstützung hätte ich diese Erfahrung nicht erleben können.

Unter anderem hatte ich vor, Ergebnisse aus dem Projekt „digitale Edition von Fernando Pessoa – Projekte und Publikationen” zu präsentieren, einem Text+ Kooperationsprojekt mit Prof. Ulrike Henny-Krahmer (Universität Rostock), mit der ich 2023 zusammengearbeitet habe. Das Projekt sollte die Infrastruktur der digitalen Edition auf den neuesten Stand bringen. Da Fernando Pessoa einer der wichtigsten Autoren der Literatur in portugiesischer Sprache und ein echter Lisboeta ist, war Lissabon der perfekte Ort, um die Ergebnisse des Projekts zu teilen.

In diesem Blogbeitrag teile ich ein paar Eindrücke von der DH2025 und während wir auf das Abstract-Buch warten, möchte ich auch ein paar Eindrücke vom Programm zeigen.

DH in Lissabon

Ein gelber Straßenbahnwagen fährt durch eine sonnige Stadtstraße, umgeben von Gebäuden, Bäumen und Oberleitungen.

Unter dem Motto „Accessibility & Citizenship“ ging es bei der Konferenz darum, den Zugang zu Wissen demokratischer zu machen, das Engagement der Community zu fördern und aktuelle gesellschaftliche Probleme auf sinnvolle Weise anzugehen. Barrierefreiheit war nicht nur ein Thema, sondern hat auch die Organisation beeinflusst. Bei der Eröffnungsfeier gab es sowohl im Saal als auch beim Zoom-Livestream Gebärdensprachdolmetscher. Das hybride Format, das an sich schon ein Zeichen für Barrierefreiheit ist, baut auf den letzten Konferenzen in Graz (2023) und Washington, DC (2024) auf und versucht, die Online-Teilnahme zu verbessern. Obwohl ich vor Ort in Lissabon war, finde ich es sehr wichtig, dass unsere Community weiterhin den Möglichkeiten für DHler:innen und Interessierte, die nicht reisen können, Priorität einräumt.

Auch die Multilingualität stand im Mittelpunkt. Präsentationen in anderen Sprachen als Englisch sind auf DH-Konferenzen nichts Neues, aber in Lissabon gab es mehrere Vorträge auf Italienisch, Portugiesisch und Spanisch. Da die ADHO neue Mitglieder wie die Associazione per l’Informatica Umanistica e la Cultura Digitale (AIUCD) aufnimmt, sollten wir den wissenschaftlichen Austausch über Sprach- und Landesgrenzen hinweg weiter fördern. Englisch ist vielleicht die Lingua franca der Wissenschaft, aber als Geisteswissenschaftler:innen sollten wir die damit verbundenen Auswirkungen kritisch hinterfragen.

Aus einer brasilianischen akademischen Perspektive ist diese Diskussion bekannt: Englisch ist oft die gemeinsame Sprache in der Wissenschaft, aber es kann auch eine Barriere darstellen, die Leute von der Teilnahme ausschließt, und zwar selbst wenn es, z.B., auf Portugiesisch fundierte wissenschaftliche Arbeiten gibt. Für uns, bei einem Vortrag über einen portugiesischen Autor im Herzen Portugals durch eine brasilianische Forscherin, haben wir (das Team: Ulrike Henny-Krahmer, Erik Renz und ich) uns dafür entschieden, auf Portugiesisch zu präsentieren. Es war wie eine Heimkehr für Pessoas Ausgabe in seine Heimatstadt.

Ich werde hier nicht versuchen, das Problem zu lösen, aber die Anzahl der mehrsprachigen Vorträge auf der Konferenz unter dem Motto „Accessibility“ hat mich wieder an diese Fragen erinnert. Das ist es meiner Meinung nach, was ein Konferenzmotto bewirken sollte. Gut gemacht, Organisationskomitee!

Die DH-Konferenz in Lissabon war nicht nur mehrsprachig, sondern auch echt international. Die Referenten kamen aus Institutionen von 45 Ländern. Die Karte unten zeigt die Teilnahme nach Ländern, basierend auf dem Konferenzprogramm und den Angaben der Teilnehmer zu ihrer jeweiligen institutionellen Zugehörigkeit. (Die Karte zeigt das Land der Institution der Referenten, nicht ihre Staatsangehörigkeit.)

Die Grafik zeigt eine Weltkarte mit der Anzahl der Präsentationen pro Land, dargestellt durch verschiedene Farbabstufungen von hellviolett bis dunkelviolett. Je dunkler die Farbe, desto mehr Präsentationen fanden in diesem Land statt.

Bei der Eröffnung hat ADHO sein 20-jähriges Jubiläum in Erinnerung gerufen (gegründet 2005) und Italien über AIUCD als neues Mitglied begrüßt. Der Antonio Zampolli Preis 2026 wurde für das Stylo Tool und die Computational Stylistics Group verliehen, deren R-Library für stilometrische Analysen und ihr Engagement für den Aufbau einer Community gewürdigt wurden. Michael Sperberg-McQueen (1954–2024) wurde außerdem in Erinnerung gerufen und der Michael Sperberg-McQueen Digital Nachlass vorgestellt (https://dh.phil-fak.uni-koeln.de/en/research/cmsmcq), eine Initiative des Departments für Digital Humanities der Universität zu Köln zur Bewahrung seines digitalen Nachlasses unter der Leitung von Elisa Cugliana und Øyvind Eide. Das Programmkomitee unter der Leitung von Gimena del rio Riande (IIBICRIT- CONICET/ USAL) und Manuel Portela (Fachbereich für Sprachen, Literatur und Kulturen, UCoimbra) folgte mit einem lustigen Sketch über KI-„Halluzinationen” und die Schwierigkeiten des akademischen Lebens, der die Stimmung auflockerte und uns gleichzeitig auf die Themen des Jahres zurückführte: Mehrsprachigkeit, Politik, Barrierefreiheit und Wissenschaft als citizenship.

Javier Cha steht vor dem Publikum im Konferenzraum und präsentiert Folien mit Schriftzeichen, während ein Dolmetscher daneben steht.

Dann kam die Keynote von Javier Cha. Cha erzählte von seiner Karriere und seiner Sicht auf (digitale) Geschichte, von seinen ersten netzwerkbasierten Rereadings historischer Quellen bis hin zu aktuellen Anwendungen von KI, die uns helfen, Archive besser im Kontext zu lesen. Der Fokus liegt nicht darauf, mit KI das Rad neu zu erfinden, sondern anders zu lesen: mithilfe von Computern Verbindungen, Nuancen und Kontexte zu erkennen, die durch Schlüsselwörter und Häufigkeit nicht erfasst (oder erkennt) werden, während der Historiker:in die Kontrolle behält. Er bezeichnete dies als „fine-tuning the historian’s macroscope”: die Fähigkeit, das Ganze zu überblicken und die richtigen Stellen zu finden, um näher hinzuschauen und genauer zu lesen.

Überblick: Poster, Präsentationen und Panels

Ein Balkendiagramm zeigt die Anzahl der Präsentationen nach Typ. "Short paper" hat mit 218 die meisten Beiträge, gefolgt von "Poster" mit 133 und "Long paper" mit 118. Weitere Kategorien sind "Workshop" (17), "Panel" (10), "Mini conference" (8) und "SIG workshop/event" (7).

Das Programmheft ist noch nicht da, aber während wir warten, können wir uns schon mal das Programm anschauen und, um einen Begriff von Cha zu verwenden, mit unserem Makroskop die Konferenz aus der Ferne betrachten und versuchen, einen Eindruck davon zu bekommen, was unsere DH Community so treibt. Ein Überblick über die Arten der eingereichten Beiträge zeigt uns die Verteilung des diesjährigen Programms (siehe oben). Die Daten für diesen Überblick stammen aus dem Programm auf Conftool (https://dh2025.adho.org/browse-the-program-agenda/), wurden maschinell erfasst und anschließend mit Python bereinigt und analysiert.

Ein Balkendiagramm zeigt die häufigsten n-Grams. "Large language models" und "cultural heritage" sind am häufigsten, gefolgt von "machine learning" und "open source".

Wenn man sich die Abstracts der Vorträge im Programm anschaut (Workshops und Panels nicht mitgerechnet), zeigt das Balkendiagramm die häufigsten N-Grams, also wie oft ein Begriff in den Abstracts vorkommt. Das Thema, das ganz klar dominiert, sind „Large Language Models” (LLMs). Das zeigt, dass der Einsatz von LLMs in den Digital Humanities weiterhin ein Trend ist, der sich durchsetzt. Gleich danach kommt „cultural heritage”, was zeigt, dass GLAM und die Arbeit mit Kulturgütern nach wie vor ein zentraler Anwendungsbereich für DH sind. Methoden sind sehr präsent, vor allem KI („machine learning” und „large language models” stehen ganz oben), während „“computational Methods” und „text analysis” den methodischen Fokus verstärken. Der Fokus auf KI und LLMs ist nicht überraschend und war auch schon in der letzten DH zu sehen. Offenheit zieht sich durch das ganze Programm, wobei „open source”, „open science”, „open data” und „FAIR principles ” häufig auftauchen. Auch Wissensrepräsentation ist ein lebhaftes Thema, wobei „knowledge graphs” und „linked open data” auf Interoperabilität und semantische Anreicherung hinweisen.

Eine zweite Visualisierung zeigt, wie Themen in den Abstracts der Vorträge zusammen auftreten. In dieser Co-Occurrence-Heatmap zählt jede Zelle die Abstracts, die ein Paar der Top N-Grams im selben Text erwähnen (die Diagonale ist ausgegraut, weil Selbstpaare raus sind). Die Matrix ist ziemlich sparsam, was darauf hindeutet, dass sich viele Beiträge auf ein einziges Hauptthema konzentrieren, aber es gibt auch klare Überschneidungen. Begriffe rund um Offenheit wie “open science”, „open source”, „open data” und „FAIR principles” tauchen zusammen auf, oft in Kombination mit „research data“ und oft in Kombination mit „cultural heritage“. Methodische Themen bilden ein weiteres Cluster, insbesondere „large language models“, „machine learning“ und „computational methods“, die gelegentlich gemeinsam mit „text analysis“ erscheinen. „Cultural heritage“ zeigt Verbindungen zu mehreren dieser Bereiche, was darauf hindeutet, dass Kulturgüter häufig durch offene Praktiken, datengetriebene Ansätze und KI-gestützte Methoden in Fallstudien integriert werden.

Ein Heatmap zeigt die Co-Occurrence der häufigsten n-Grams. Dunkle Felder markieren häufige gemeinsame Vorkommen von Begriffen wie "large language models", "cultural heritage" und "open science".

Was ich mitnehme…

Die Teilnahme an der DH ist immer eine Chance, Freunde zu treffen, neue Leute kennenzulernen und viel zu lernen. Als ich Lissabon verlassen habe, hatte ich frische Ideen für LLM-basierte Methoden zum Erfassen und Analysieren von Daten im Gepäck. Wie Cha uns betonte, müssen wir uns nicht zwischen dem Überblick und den Details entscheiden; wir können zwischen beiden hin- und herwechseln und LLMs kritisch einsetzen, während wir selbst entscheiden, wann wir den Fokus auf Nuancen legen wollen. Außerdem wurde mir wieder bewusst, wie wichtig Dokumentation und Wiederverwendbarkeit sind: Unsere beste Arbeit ist für andere nur dann nützlich, wenn sie gut dokumentiert und frei verfügbar ist. Die DH2025 hat meine Neugier geweckt und mein Notizbuch mit Ideen gefüllt. Vielleicht werden wir uns 2026 in Wien zur DHd wieder treffen.

Tchau, Lisboa, até a próxima! Bis dahin hat Lissabon uns allen beigebracht, was Saudade bedeutet.

Ein Flugzeug fliegt über Lissabon bei Sonnenuntergang, die Skyline ist im Schatten sichtbar.

DH2025: Building Access and Accessibility, open science to all citizens – Meine ersten Schritte in die Forschungswelt

2025年8月15日 23:22
Vom 14. bis 18. Juli 2025 fand in Lissabon die Digital Humanities Konferenz unter dem Motto „Building access and accessibility, open science to all citizens“ statt. Gemeinsam mit meiner Kommilitonin und Dozentin durfte ich unser Projekt als „Long Presentation“ vorstellen. Was als Kursprojekt begann, wurde zu meiner ersten internationalen Konferenzteilnahme und einer wichtigen Erfahrung für meine berufliche Zukunft. Besonders dankbar bin ich dem Verband „Digital Humanities im deutschsprachigen Raum e.V.“, der mir über das DHd-Reisestipendium die Teilnahme ermöglicht hat. Ohne diese großzügige Unterstützung wäre es mir nicht möglich gewesen, diese wertvolle Erfahrung zu sammeln.

 

Von der Studienarbeit zur internationalen Konferenz

Ich befinde mich gerade in der finalen Phase meines Masterstudiums und arbeite parallel am Institut für Digital Humanities der Universität zu Köln. Dort bekomme ich viel von den Abläufen hinter den Kulissen mit, besonders wie Promotionen und Forschungsprojekte vonstattengehen. Ursprünglich hatte ich nie vor, zu promovieren. Der Master sollte mein letzter Meilenstein sein, danach wollte ich direkt ins Berufsleben einsteigen. Die Pandemie und einige Umwege verlängerten mein Studium, wodurch ich mich unter Zeitdruck fühlte.

Doch wie so vieles in meinem Studium entwickelte sich auch diese Perspektive ganz natürlich. Dass ich überhaupt im Bereich Digital Humanities studieren würde, hätte ich mir früher nie vorstellen können. Inzwischen bin ich für neue Möglichkeiten offen. Die Konferenzerfahrung hat mein Interesse an einer Promotion geweckt.

Den Grundstein legte ein Kurs namens „Digital Humanities – Theorie und Praxis“, in dem wir als Gruppe ein Virtual-Reality-Projekt in der Spiel-Engine Unreal Engine 5 entwickelten. Mit Unterstützung unserer Dozentin wählten wir das Thema und erstellten eine Anwendung über mittelalterliche Losbücher, speziell das „Prenostica Socratis Basilei” in seinen mittelalterlichen deutschen Versionen. Diese historischen Wahrsagetexte haben ihre Wurzeln in der Spätantike und wurden vor allem vom 14. bis 16. Jahrhundert zur Zukunftsvorhersage verwendet. Typisch war dabei der Einsatz von interaktiven Ritualen wie Würfeln, um durch den nicht linearen Text zu navigieren. Als konkrete Grundlage diente uns das Losbuch Konrad Bollstatters, eine Handschrift aus dem 15. Jahrhundert, die charakteristische Merkmale dieser Textgattung zeigt.

Wir platzierten dieses Losbuch in drei virtuellen Umgebungen: einer Klosterbibliothek, einem Astrologenlabor und einer Taverne. Damit wollten wir die unterschiedlichen Nutzungskontexte der Zeit nachbilden, von spirituellen über wissenschaftliche bis hin zu unterhaltenden Zwecken.

Die von uns entwickelte VR Anwendung ermöglicht es Nutzern, das Losbuch in seinen historischen Zusammenhängen zu erleben. Dabei können sie die typischen multisensorischen Interaktionen nachempfinden, etwa das Blättern in den Pergamentseiten oder das ritualisierte Würfeln, die für die mittelalterliche Nutzung dieser Texte entscheidend waren. Schon während der Entwicklung war klar, dass wir das Projekt weiterführen und einem größeren Publikum zeigen wollten. Wir schrieben ein Paper darüber, das tatsächlich für die DH Conference akzeptiert wurde!

Die Reise nach Lissabon

Da alles sehr schnell ging, konnte nicht das gesamte Team teilnehmen. Als Studierende fehlten uns schlichtweg die finanziellen Mittel, und die Flüge und Unterkünfte waren während der Sommerzeit besonders teuer. Auch zeitliche Konflikte verhinderten, dass wir von Anfang an dabei sein konnten. Unsere Teammitglieder waren in unseren Gedanken dabei. Wir stellten sicher, dass ihre Arbeit gewürdigt wurde. Am Abend des 17. Juli landeten wir in Lissabon. Nach der Ankunft freuten wir uns sehr über das tolle Wetter. Wir nahmen die Bahn zu unserem Airbnb, das glücklicherweise nicht weit vom Flughafen entfernt lag. Unser Host war eine nette portugiesische Familie, die uns Zugang zu den meisten Räumlichkeiten gewährte.

Erste Eindrücke auf der Konferenz

Bei der Ankunft zur Konferenz war ich überwältigt von der Menschenvielfalt aus aller Welt. Nach der Anmeldung erhielten wir unsere Namensschilder mit Affiliationen. Unsere Präsentation war für Donnerstag um 14 Uhr geplant, die Slots dauerten jeweils 1,5 Stunden und begannen um 10 Uhr. Über die Whova-App konnte man sich vernetzen und für interessante Sessions eintragen. Zusätzlich gab es eine komplette Teilnehmer:innenliste und eine Messaging-Funktion für die Vernetzung. Zwei Personen mit DH2025 Konferenz-Namensschildern (Pascale Boisvert und Nadjim Noori, University of Cologne) unter einem Baum

Wir waren sehr aufgeregt, da wir uns noch nicht vollständig vorbereitet fühlten. Neue Ängste kamen auf: Was, wenn niemand oder zu wenige zu unserem Panel kommen? Was, wenn Fragen gestellt werden, die wir nicht beantworten können? Wir hatten uns zwar auf spezifische Fragen vorbereitet, aber unser Projekt würde sicherlich komplexe Fragen aufwerfen.

Ich fühlte mich etwas eingeschüchtert, denn die meisten Teilnehmenden waren Postdocs oder Promovierende. Genau deshalb wollte ich herausfinden, ob ich mir eine Karriere in diesem Bereich vorstellen kann, und suchte aktiv Gespräche in den Pausen.

Die Präsentation

Am Abend zuvor übten wir unsere Passagen und nahmen das VR-Headset für eine mögliche Live-Demo mit. Letztlich zeigten wir jedoch nur ein Video, um das Risiko technischer Probleme oder von Zeitverzögerungen zu vermeiden. Unsere Präsentationszeit war auf 20 Minuten begrenzt.

Während der Präsentation betonte unsere Dozentin, dass wir Masterstudierende seien, die zum ersten Mal in dieser Form präsentieren. Die Präsentation verlief sehr gut. Wir hielten die Zeit ein, stotterten kaum, das Englisch funktionierte, und die Diskussionsrunde war lebendig. Es gab viele Fragen, was uns freute. Kritische Stimmen gab es auch: Jemand hinterfragte unsere Methodik, doch eine andere Person wies die Kritik zurück und bezeichnete unseren Ansatz als intuitiv.

Die Konferenztage

Wir gingen relativ spät schlafen und mussten früh aufstehen. Am ersten Tag ging ich in den Pausen zu unserer Dozentin, die unsere Präsentation unterstützte und die Session moderierte. Unser Institut war schön auf der DH-Konferenz vertreten. Ich sah viele Dozent:innen und Kommiliton:innen, die ebenfalls präsentierten.

Die Mittagspause am Donnerstag war hektisch, doch ich nutzte die kurze Zeit, um etwas von Lissabon zu sehen und zu essen. Nach der Präsentation besuchten wir bis tief in den Abend weitere Sessions.

Der Freitag war viel entspannter, da der Druck weg war. Wir suchten in Ruhe interessante Sessions aus und aßen entspannt zu Mittag. Ich erlebte viele spannende Präsentationen, besonders gefielen mir die mit viel Programmierung.

Die abschließende Keynote

Am Ende des Freitags gab es die Final Keynote, bei der wir unbedingt dabei sein wollten. Roopika Risam vom Dartmouth College hielt einen Vortrag über „Digital Humanities for a World Unmade“. Sie forderte die DH-Community heraus, nicht nur technische Expert:innen, sondern auch politische Akteur:innen zu sein. Besonders hängen geblieben ist mir ihr Aufruf, digitale Forschung als Mittel für soziale Gerechtigkeit zu nutzen und marginalisierte Stimmen sichtbar zu machen.

Fachliche Einblicke und neue Horizonte

Die Sessions, die ich besuchte, zeigten die Vielfalt der Digital Humanities: von Machine-Learning-Ansätzen für Gothic Novels über Netzwerkanalysen antiker griechischer Texte bis hin zu automatisierten Text-Processing-Tools. Besonders beeindruckt hat mich der Session-Slot „Automating Text Processing with LLMs & Data Visualization Tools“. Die Präsentation zu CodeFlow” zeigte mir, wie weit wir bereits in der Automatisierung gekommen sind. Tools wie diese können digitale Geisteswissenschaften zugänglicher machen, indem sie auch weniger technisch versierten Forschenden den Zugang zu komplexen Analysemethoden erleichtern. Konferenzraum mit Teilnehmern während eines Vortrags, Blick von hinten auf das Publikum und die Präsentation vorne

Eine andere Präsentation, die mich besonders fesselte, war „Comparing Human and AI Performance in Visual Storytelling through Creation of Comic Strips“. Der Präsentierende war trotz seiner Online-Teilnahme so unterhaltsam, und die Erkenntnisse reflektierten die Vielseitigkeit und Kreativität der DH-Forschung. In der Präsentation wurde eine Studie vorgestellt, in der Menschen und KI darin verglichen wurden, einen dreiteiligen Nancy-Comic nachzustellen. Menschen mit grundlegender künstlerischer Ausbildung überzeugten durch zusammenhängende visuelle Erzählungen, während die KI trotz beeindruckender künstlerischer Replikation Schwierigkeiten hatte, eine stimmige Geschichte zu erzeugen. Die Ergebnisse zeigen, dass Menschen nach wie vor überlegen sind, Anweisungen in sinnvolle Geschichten umzusetzen.

Überraschende Erkenntnisse und Vernetzung

Was mich am meisten überrascht hat, war die Selbstverständlichkeit, mit der hier Geisteswissenschaftler:innen, Informatiker:innen, Bibliothekar:innen und Künstler:innen zusammenarbeiten. Die Bandbreite reichte von technischen Ansätzen bis zu konzeptuellen Reflexionen über digitale Kultur. Es war faszinierend zu beobachten, wie schnell sich Trends und Technologien im Feld entwickeln. 

Die Vernetzung war ein Höhepunkt der Konferenz. Ich konnte mich mit Forschenden aus Polen, den Niederlanden und den USA austauschen. Eine US-amerikanische Professorin zeigte großes Interesse an unserer Präsentation und wollte Einblicke für ihre Kurse, um ähnliche Projekte mit ihren Studierenden zu realisieren. Solche direkten Angebote für Kollaborationen hätte ich nicht erwartet.

Ein neuer Blick auf die Promotion

Eine meiner Hauptemotionen während der Konferenz war die Angst vor dem Ungewissen, vielleicht auch ein bisschen Imposter-Syndrom. Noch vor einem Jahr hätte ich gesagt, dass ein PhD für mich keine Option ist. Mir fehlte einfach der Anknüpfungspunkt. In meinem Umfeld kannte ich kaum jemanden, der eine Promotion anstrebte.

Die Konferenz ermöglichte mir einen Einblick in die weltweite DH-Forschung. Es gab sogar ein Online-Board mit Job- und PhD-Angeboten, und ich sprach mit vielen Gleichaltrigen über ihre Erfahrungen und ob sie eine Promotion empfehlen würden.

Die positive Resonanz auf unser Projekt gibt mir Mut, tiefer in dieses Forschungsfeld einzutauchen, und ich werde mich demnächst von meiner Dozentin beraten lassen.

Ausblick und Ratschläge

Nach der Masterarbeit stehen die PhD-Pläne im Raum. Vielleicht führt mich das sogar ins Ausland. Für unser VR-Projekt hoffen wir auf Funding. Diese Antwort musste ich während der Diskussionsrunde nach unserer Präsentation häufig geben, wenn gefragt wurde, warum wir bestimmte Aspekte nicht anders umgesetzt haben. Mit zusätzlichen Ressourcen könnten wir das Projekt für noch mehr Menschen zugänglich machen.

Anderen Masterstudierenden, die ihre erste Konferenz besuchen, würde ich raten: Lasst euch von eurer Unsicherheit nicht blockieren. Viele Menschen auf der Konferenz durchlaufen genau dasselbe wie ihr. Und nach der ersten Konferenz werden die nächsten viel leichter. Für zukünftige Präsentationen würde ich mein Zeitmanagement verbessern, um alles noch einmal in Ruhe durchzugehen, auch wenn mir bewusst ist, dass diese Konferenz für mich sehr plötzlich kam.

Fazit

Diese erste Konferenzerfahrung hat nicht nur meinen Blick auf eine mögliche Promotion verändert, sondern mir auch gezeigt, wie lebendig, vielfältig und zukunftsweisend die Digital Humanities sind. Die Begegnungen mit internationalen Forschenden und der Austausch über innovative Projekte haben mich bestärkt, meinen Weg in diesem Feld weiterzugehen.



DH Con – 2025: Building access and accessibility open science to all citizensIn Lisbon, Portugal

2025年8月14日 17:47
Dank der Unterstützung des Verbands der Digital Humanities im deutschsprachigen Raum in Form eines Reisestipendiums konnte ich an der DH Konferenz 2025 in Lissabon, Portugal, teilnehmen.
Passend zu diesem Beitrag entstand auch ein Vlog, der hier auf YouTube verfügbar ist.

Unter dem Motto „Building access and accessibility open science to all citizens” fand vom 14. bis 18. Juli 2025 in Lissabon die Konferenz  für Digital Humanities 2025 statt. Als Masterstudentin im letzten Semester war es für mich eine großartige Gelegenheit, an der Konferenz teilzunehmen und vor allem ein Universitätsprojekt vorstellen zu können. Es war auch eine Gelegenheit, den Forschungsaspekt der Digital Humanities zu erkunden und viel über verschiedene Projekte, Techniken und Pläne in diesem Bereich zu lernen. Bei dieser ersten Erfahrung war ich glücklicherweise nicht alleine, sondern wurde von einem Kollegen begleitet, der ebenfalls an dem zu präsentierenden Projekt mitgearbeitet hatte, sowie von unseren Professoren, die unsere Arbeit betreut haben.

Teilnahme an den Vorträgen

Obwohl die Konferenz bereits am Montag, dem 14. begann, kam ich erst am Mittwochabend an und war nur an den letzten beiden Tagen, Donnerstag und Freitag, anwesend. Dies lag hauptsächlich an den verfügbaren Flügen, Unterkünften, Kosten und der Möglichkeit, mir frei zu nehmen. Das bedeutet jedoch nicht, dass ich Zeit verschwendet habe. Die Workshops waren zu diesem Zeitpunkt bereits vorbei, aber mein Terminkalender war mit der Teilnahme an vielen verschiedenen Vorträgen zu einem breiten Spektrum von Themen, Methoden und Möglichkeiten gefüllt. Im Folgenden werden einige dieser Vorträge hervorgehoben, die meinen verschiedenen Interessengebieten nahe standen und die ich nicht nur aus technischer Sicht, sondern auch aus persönlichem Interesse am interessantesten fand.

Die erste Sitzung umfasste drei Vorträge zu den Themen Machine Learning (ML), Netzwerkanalyse und Diskursanalyse. Der erste Vortrag, gehalten von Mark Andrew Algee-Hewitt und Jessica Monaco, konzentrierte sich auf die Anwendung von Machine Learning, insbesondere eines BERT-Modells, zur Klassifizierung einzelner Passagen aus gotischen Romanen des 19. Jahrhunderts anhand ihrer Verbindungen zu anderen modernen, nicht-gotischen Genres. Der Vortrag lieferte nicht nur wertvolle Einblicke in verschiedene Romane, sondern stellte auch einen innovativen Ansatz zur Verfolgung von Veränderungen der Genremerkmale im Laufe der Zeit vor. Für mich war dies ein sehr interessantes Projekt, da ich Literatur als Teil meiner täglichen Hobbys genieße und es interessant und unterhaltsam fand, sie im Kontext der Digital Humanities präsentiert und untersucht zu sehen, insbesondere in Kombination mit Machine Learning, einem weiteren Interesse von mir, das ich während meines Studiums entwickelt habe. Da ich bisher noch nicht mit BERT-Modellen gearbeitet habe, bot dieser Vortrag gute Einblicke in das Modell, seine Verwendung und sein Potenzial.

In derselben Sitzung stellte Zef Segal seine Arbeit über die Kulturen der Wiederverwendung von Texten vor und verglich dabei amerikanische und hebräische journalistische Netzwerke aus dem 19. Jahrhundert. Die Sitzung wurde von Caoi Mello abgeschlossen, der verschiedene Strategien zur Identifizierung von Nuancen in Zeitungen vorstellt, die bis heute mit computergestützten Methoden nur schwer zu erreichen sind.

Die zweite Sitzung des Tages hatte als Hauptthema die Netzwerkanalyse. Der erste Vortrag von Christophe Malaterre und Francis Lareau befasste sich mit einer Methode zur Ableitung semantischer sozialer Netzwerke aus Textdaten. Dabei werden die Ähnlichkeiten in der Terminologie mithilfe von Topic Modelling analysiert. Dieser Ansatz hilft dabei, „hidden communities of interest” zu identifizieren, um die Entwicklung von Gemeinschaften analysieren zu können.

In derselben Sitzung erfuhr ich auch von den anderen Vorträgen und deren Nutzung von Netzwerken zur Unterstützung ihrer Forschung. Evelien de Graaf nutzt beispielsweise Co-occurrences in altgriechischen und lateinischen Texten, um die Erwähnungen von Platon in der vorchristlichen Literatur zu kartieren. Anschließend stellten Caio Mello seinen und den Ansatz seiner Kollegen Jen Pohlmann und Karin León Henneberg vor, indem sie die Debatte über das NetzDG, das neue deutsche Gesetz gegen Hassreden, untersuchten. Sie verwendeten Netzwerkanalysen, Methoden der Natural Language Processing und Close Reading, um getwitterte Inhalte verschiedener Accounts zu untersuchen, die das Gesetz erwähnten, um den potenziell hohen Einfluss dieser Accounts auf die Gestaltung der Diskussion zu diesem Thema zu untersuchen.

Anschließend stellte Katherine Ireland ihre vorläufige R Shiny Web-App vor, mit der sich die Tweet-Datensätze des National Health Service (NHS), des Center for Disease Control (CDC) und der Weltgesundheitsorganisation (WHO) aus dem Jahr 2020 visualisieren lassen. Die Web-App sieht eine interaktive Visualisierung der Datensätze vor, bietet aber auch die Möglichkeit der Textanalyse mit Tidytext und Quanteda.

Schließlich stellten Paul Girard, Alexis Jacomy, Benoît Simard und Mathieu Jacomy ihre Lite Webversion von Gephi vor: Gephi Lite. Die Hauptfunktionen bieten eine demokratisierte Netzwerkvisualisierung, die über eine Webplattform verfügbar ist.

Präsentation unseres Projekts

In der folgenden Sitzung stellten wir unser Projekt vor. Dies war für uns, zwei Masterstudenten, die von unseren beiden Professoren betreut und unterstützt wurden, eine großartige Gelegenheit, die Forscherseite der Digital Humanities als aktive Teilnehmer zu erleben.

Das Projekt selbst bestand in der Rekonstruktion der Verwendungskontexte der Sortes-Texte, einer beliebten Art interaktiver und divinatorischer Texte, die erstmals in der Spätantike auftauchen und im Mittelalter in Europa weit verbreitet waren. Anhand der Prenostica Socratis Basilei, einer Handschrift von Konrad Bollstatter aus den Jahren 1450 bis 1473, die als Grundlage für die Edition diente, wollten wir das „Äußere” dieser Editionen untersuchen. Das bedeutete, dass wir uns eher auf die Verwendungskontexte als auf den Inhalt des Textes konzentrierten.

Die Besonderheit der Sortes-Texte besteht darin, dass sie nicht linear und in hohem Maße interaktiv sind und performative Handlungen wie Würfeln, Kartenlegen usw. verwenden. Wissenschaftler haben sich bisher auf den Textinhalt konzentriert, aber nur sehr wenig Interesse an der nicht-textuellen Dimension dieser Texte gezeigt. Unser Projekt zielt darauf ab, diese andere wichtige Dimension der Sortes-Texte zu erschließen.

Wir haben daher eine Virtual Reality Anwendung bzw. ein Spiel entwickelt, das den bekannten Verwendungskontext im Mittelalter als wissenschaftliches Werkzeug, als Spiel und als religiöses Objekt rekonstruiert. Mithilfe der Quixel Megascan Bibliothek von Unreal Engine haben wir versucht, die Atmosphäre nachzubilden, in der die Texte möglicherweise verwendet wurden, wobei wir die historische Genauigkeit etwas außer Acht gelassen haben. In dem Projekt ist es möglich, die Verwendung des Buches und die erforderlichen Würfeln zu erleben sowie die verschiedenen Atmosphären zu genießen und zu erleben, wobei einige selbst erstellte 3D-Modelle auf der Grundlage historischer, dokumentierter Objekte verwendet werden.

Diese Präsentation war meine allererste im Rahmen einer Digital Humanities Konferenz, und der Stress war ziemlich hoch. Als ich jedoch zu sprechen begann, verlief im letzten Teil der Präsentation alles reibungslos, obwohl mir einige Sprachfehler unterliefen, die sich jedoch als völlig unproblematisch herausstellten. Die Fragerunde nach unserer Präsentation war für mich wahrscheinlich die größte Herausforderung, da die anwesenden Personen Doktoranden oder renommierte Forscher auf dem Gebiet der Digital Humanities waren. Sie zeigten mir jedoch, dass das Projekt tatsächlich interessant war und einen Beitrag zu den Digital Humanities leisten konnte. Sie bewiesen uns, meinem studentischen Kollegen und mir, dass wir unsere Projekte nicht herabsetzen, sondern stolz darauf sein sollten. Wir konnten die gestellten Fragen beantworten, und es entstand eine gute Diskussion über unsere Präsentation.

Diese erste Präsentationserfahrung war positiv und hat mir die Augen für die Möglichkeit eröffnet, meine Karriere in der Forschung im Bereich der Digital Humanities fortzusetzen. Die Diskussionen, die wir geführt haben, und die Menschen, die wir getroffen haben, haben wirklich zu einer positiven Gesamterfahrung beigetragen, und ich habe durch das Feedback in der Diskussion nach unserem Präsentationsblock viel Selbstvertrauen in mich selbst und die Projekte gewonnen. Diese Präsentationserfahrung war etwas, das ich nicht erwartet hatte, und hat mir geholfen, mehr über eine weitere mögliche Zukunft nach meinem Masterstudium zu erfahren.

Die Diskussionen ermöglichten es uns auch, andere Richtungen für unser Projekt in Betracht zu ziehen, wie beispielsweise die Verwendung von Augmented Reality statt Virtual Reality, die Veröffentlichung des Spiels auf Steam für einen besseren Zugang oder sogar die Hinzufügung weiterer Anwendungskontexte für die Sortes oder die Erweiterung der möglichen Barrierefreiheit. Unsere Entscheidungen wurden ebenfalls respektvoll hinterfragt und diskutiert, was mir ermöglichte, die Entscheidungen hinter dem Projekt näher zu erläutern und mir bewusst zu machen, dass ich trotz meiner geringen Erfahrung der Community etwas Neues und Interessantes vorschlagen konnte.

Nach der Präsentation habe ich keine weitere Sitzung besucht, da wir in viele verschiedene Gespräche mit Leuten verwickelt waren, die unsere Präsentation gesehen hatten und außerhalb der vorgesehenen Zeit weiter über das Projekt, die Techniken und unsere Überlegungen dazu diskutieren wollten. Obwohl ich die letzte Präsentationssitzung des Tages verpasst habe, haben mir diese zusätzlichen Gespräche und das Interesse der anderen Teilnehmer wirklich die Augen für die vielen Möglichkeiten und das Interesse geöffnet, die in den Digital Humanities zu finden sind.

Der letzte Tag der Konferenz

Am letzten Tag der Konferenz nahm ich im Gegensatz zum Donnerstag an allen möglichen Sitzungen teil, darunter auch an einer Panel-Diskussion, die sich in ihrem Format leicht von den anderen Präsentationen unterschied.

Im ersten Block stellten Glenn Roe, Valentina Fedchenko und Dario Nicolosi ihre Methoden vor, bei denen sie mithilfe einer fine-tuned BERT- und CamemBERT-Modelle diachrone semantische Verschiebungen in historischen Teilkorpora identifizierten. Dabei zeigten sich nuancierte Veränderungen in Schlüsselkonzeptclustern, die zur Weiterentwicklung der Methoden in der computergestützten Geistesgeschichte beitrugen.

Anschließend stellten Han-Chun Ko, Pin-Yi Lee, Ya-Chi Chan und Richard Tzong-Han Tsai ihr Framework zur Erklärung historischer Daten mithilfe von Graphen und Large Language Models (LLMs) vor. Dieser Vortrag war für mich besonders interessant, da die Referenten sehr detailliert auf die technischen Aspekte und Methoden eingingen, mit denen sie die LLMs in ihr System integrieren, um ihre Daten zu interpretieren. Es war eine interessante technische Präsentation, bei der ich sehen konnte, was ich bereits wusste und was ich noch lernen konnte.

In der letzten Präsentation stellte Paul Barrett sein aktuelles Forschungsprojekt vor, dessen Ziel es war, mithilfe von Methoden wie Named-Entity Recognition (NER), des Machine Learning (ML) und Optical Character Recognition (OCR) die neu entdeckte indigene Zeitschrift von John Norton, Teyoninhokarawen, zu modellieren und zu analysieren.

In dem folgenden Präsentationsblock stellten verschiedene Entwickler und Forscher ihre Projekte vor, die darauf abzielen, die Arbeit mit rechnergestützten technischen Aspekten in den Digital Humanities zu erleichtern. Von CodeFlow, einem automatisierten Codegenerator, der über LLMs optimiert wurde, zu Pandore, einer automatischen Textverarbeitungs-Workflow-Toolbox, zu FlowFilter, einem Visualisierungs- und Filtertool für große und detaillierte Datensätze, bis hin zu den Diskussionen über OpenScience Literacy in den Digital Humanities, jeder Vortragende stellte nützliche und unglaubliche Tools vor, von denen ich noch nie gehört hatte, die sich aber als sehr interessant herausstellten. Das hat mir die Augen für die Verfügbarkeit und den Bedarf von Forschern in den Digital Humanities geöffnet.

Die nächsten Vorträge waren Teil des Panels „Rethinking the Ethics of „Open“ in the Shadow of AI”, das sich mit der Ethik und den Herausforderungen in der modernen Digital Humanities Forschung befasste, insbesondere angesichts der Tatsache, dass künstliche Intelligenz mittlerweile eine wichtige Rolle im Alltag spielt. Obwohl die Präsentation recht lang war und den Diskussionsprozess, wie er normalerweise in einem Panel stattfindet, behinderte, gelang es mir, Informationen zu diesem Thema aus verschiedenen Perspektiven zu sammeln: data sovereignty, Projektdesign und Datenschutz, Pädagogik und künstlerische Arbeit, alles Themen, die wir auch im Masterstudium kurz angeschnitten hatten und die zeigen, wie wichtig es ist, sich mit diesen Fragen auseinanderzusetzen.

Der letzte Präsentationsblock ermöglichte mir, verschiedene Themen kennenzulernen. Zunächst stellten Andreas Niekler, Vera Piontkowitz, Sarah Schmidt, Janos Borst-Graetz und Manuel Burghardt ihre interdisziplinäre Arbeit vor: „Patterns of Play: A Computational Approach to Understanding Game Mechanics”. Ziel dieser Arbeit ist es, anhand eines großen Datensatzes von Spielen Trends hinsichtlich der Beliebtheit von Spielen, ihrer Entwicklung im Laufe der Zeit und ihrer Beziehung zu den beliebtesten Spielgenres zu identifizieren, um die Methode für computergestützte Game Studies zu demonstrieren, ein Forschungsgebiet, das mich besonders interessiert.

Anschließend stellten Chen Jing und Paul Spence ein Case-Study zwischen China und Großbritannien über die transnationalen Verbindungen und Hindernisse in den Digital Humanities vor, in der wichtige Gemeinsamkeiten und Unterschiede hervorgehoben wurden, um uns zu helfen, die Herausforderungen besser zu verstehen, denen wir noch gegenüberstehen, um einen intensiveren internationalen Austausch zu fördern. Zum Abschluss dieses Blocks präsentierten Patricia Martín-Rodilla und Paloma Piot ihre Arbeit, in der sie Vorurteile in 13 verschiedenen Datensätzen aus der größten Meta-Sammlung von Hassreden analysierten und dabei die Bedeutung einer kritischen Untersuchung der von uns verwendeten Datensätze für die Digital Humanities hervorgehoben, um intrinsische Vorurteile zu vermeiden.

Fazit

Insgesamt habe ich durch den Besuch der verschiedenen Präsentationen gelernt, wie breit und vielfältig das Gebiet der Digital Humanities ist. Ich hatte die Möglichkeit, verschiedene Projekte und Forschungsinteressen zu erkunden und kennenzulernen und viele Menschen zu treffen, die ebenfalls ein Interesse an Wissen haben und für die der Austausch in diesem Bereich wichtig ist. Durch die Teilnahme an einer Panel-Diskussion konnte ich aus erster Hand erfahren, wie wichtig Diskussionen sind und wie viele unterschiedliche Standpunkte und Probleme es in den Digital Humanities noch gibt.

Durch die verschiedenen Präsentationen konnte ich auch die unterschiedlichen Methoden kennenlernen, mehr über sie erfahren und erleben, wie sie in vielen verschiedenen Fragestellungen eingesetzt werden können. Diese Erfahrung war wirklich interessant und ermöglichte es mir, in das Forschungsgebiet der Digital Humanities einzutauchen, Möglichkeiten zu entdecken und sogar eine Zukunft in diesem Bereich in Betracht zu ziehen, in dem ich meinen Platz finden kann, da die Vielfalt die Digital Humanities zu einer breiten und interessanten Disziplin macht.

Eindrücke von der DH2025 – “Accessibility & Citizenship”, 14.-18. Juli, Lissabon, Portugal

2025年8月12日 16:01

Zunächst möchte ich mich beim Verband der Digital Humanities im deutschsprachigen Raum bedanken, durch den mir die Teilnahme bei der diesjährigen ADHO-Konferenz in Form eines Reisestipendiums ermöglicht wurde.

Vor dieser Tagung haben für mich die Digitalen Geisteswissenschaften primär im Seminarraum existiert. Weitere Berührungspunkte fanden medial statt: In Büchern, in Artikeln, im Internet. Wenn ich draußen zum unzähligen Mal einem verwirrten Gesicht erklären muss, was ich da eigentlich studiere, dann fühlt sich die DH-Welt, die für mich so groß ist, immer wieder sehr klein an. In Lissabon zeigte sich: Hunderte Menschen aus aller Welt reisen an und alle wollen über DH reden.

“Accessibility & Citizenship – Building Access and Accessibility, Open Science to all Citizens.”– unter diesem Motto fand vom 14. bis 18. Juli die diesjährige ADHO-Konferenz an der NOVA-FCSH in Lissabon statt. 

Angeboten wurde eine Fülle an Workshops, Panels und Vorträgen zu verschiedensten Themen. Da ich Beiträge nach meinen Interessen ausgewählt habe, bleibt mein hier beschriebener Eindruck sehr subjektiv. Im Allgemeinen lässt sich allerdings sagen, dass sich viele der Beiträge – dem Thema der Tagung folgend – mit ethischen Überlegungen zu Offenheit, Inklusion und ethischer Verantwortung in der Forschung der digitalen Geisteswissenschaft befassten. Auffällig war zudem die starke Präsenz von Themen wie KI, Machine Learning, LLMs –  und der kritische, verantwortungsvolle Umgang mit diesen Technologien.

Was mir gleich zu Beginn sehr positiv auffiel, war die Verwendung der Whova-App zur Planung der Konferenz. Für mich als absoluten Tagungsneuling und damit etwas nervös, weil man nicht genau weiß, was einen erwartet, war sie auf vielen Ebenen eine enorme Hilfe: In erster Linie aus organisatorischer Sicht, denn man hatte einen Überblick über die gesamte Tagungsagenda, aus der man ganz einfach einzelne Beiträge in eine persönliche Agenda überführen konnte. Es gab auch die Möglichkeit, sich über die App mit Organisatoren, Vortragenden oder Teilnehmenden auszutauschen, hinsichtlich der Workshops und Vorträge oder in themenbezogenen Chatgruppen, sei es zu fachlichem Austausch, Stellenangeboten, oder auch einfach zu Essen, Musik oder Haustierfotos!

Pre-Conference-Workshops

Montag und Dienstag fanden jeweils die Pre-Conference-Workshops statt. Es wurde eine Reihe an verschiedenen Workshops angeboten, was die Auswahl nicht einfacher machte, aber ich entschied mich schlussendlich für die folgenden zwei Workshops:
1. “Using LLMs as Chainsaws – Fostering a Tool-Critical Approach for Information Extraction”, abgehalten von Aaron Maladry und Pranaydeep Singh der Universität Gent – und wie der Titel bereits teilweise verrät, ging es hier um die kritische Verwendung von LLMs zur Informationsgewinnung literarischer oder historischer Daten. Ich habe mich für diesen Workshop wegen eines grundsätzlichen Interesses und einer Faszination an LLMs entschieden. Bei ‘Information Extraction’ musste ich an Named Entity Recognition denken, in der Hoffnung hier möglicherweise neue Perspektiven mitzunehmen, vor allem in Bezug auf ein eigenes Projekt im Rahmen eines Projektseminars, auf dem auch meine Masterarbeit aktuell aufbaut, in der ich die Entitäten in Texten ausschließlich manuell extrahiere. 

Im zweiten Workshop “LEAF Commons: Flexible Digital Tools and Responsive Scholarly Workflows”, abgehalten von Diane Katherine Jakacki der Bucknell University, Susan Brown der University of Guelph und Rachel Milio der University of Crete, wurden die LEAF Commons vorgestellt. Dabei handelt es sich um eine Sammlung aus interoperablen Open-Source-Tools zur digitalen Editionsarbeit, etwa von der semantischen Kodierung (basierend auf TEI), über die Umwandlung von Textformaten, bishin zur Publikation interaktiver Online-Editionen.

Spannend war es, einen neuen Zugang zur digitalen Edition kennenzulernen, der keinerlei Kodierungskenntnisse erfordert. Das macht die Tools besonders geeignet für eine Zielgruppe, die Editionsprojekte umsetzen möchte, aber aus anderen Fachgebieten kommt oder sich nicht vertieft mit den Technologien im Hintergrund auseinandersetzen möchte und eine intuitive Oberfläche bevorzugt. Da ich in meinem Studium jedoch viel mit X-Technologien, von TEI bis zur Veröffentlichung, viel zu tun hatte und mich mit dieser Arbeitsweise sehr wohlfühle, wodurch die vorgestellten Tools wohl keine unmittelbare Alternative in meiner Arbeitsweise darstellen. 

Für beide Workshops lässt sich festhalten, dass schrittweise in die behandelten Themen eingeführt wurde und ein Raum geschaffen wurde, in dem Fragen willkommen waren. Und obwohl ich anfangs Sorge hatte, als Studentin eventuell nicht mithalten zu können, war Gegenteiliges der Fall – die drei Stunden vergingen jeweils sehr schnell und am Ende hätte ich mir sogar mehr Zeit gewünscht, da vieles nur an der Oberfläche behandelt werden konnte.

Die Konferenz

Dienstagabend wurde die Tagung offiziell von Javier Cha der University of Hong Kong mit seiner Keynote “Automating the past: Artificial Intelligence and the next frontiers of Digital History” eröffnet. Dabei ging es darum, wie KI-Technologien die Arbeit mit großen, komplexen historischen Datenbeständen verändern und bereichern können, und wie sich dieser Mehrwert mit der Bewahrung der menschlichen interpretativen Komponente in historischer Forschung vereinbaren lässt. 

Darauf folgte eine Inclusive Dance Perfomance, die das Tagungsmotto auch nonverbal und ästhetisch einführte, bis schließlich Mittwoch bis Freitag ganztägig ein dichtes Programm an Präsentationen in thematischen Panels stattfand. Besonders interessant war es, einen Einblick in die Workflows und verwendeten Tools verschiedener Forschungsprojekte zu erhalten. Vieles war neu und ich konnte mir eine Reihe an potenziell nützlichen Tools und Methoden, von OCR- und Transkriptionswerkzeugen zu LLMs, mitnehmen.

Zwei Paperpräsentationen sind mir dabei besonders in Erinnerung geblieben. Mariona Coll Ardanuy des Barcelona Supercomputing Center (BSC) stellte mit “Towards an automatic transcription of Catalan notarial manuscripts from the Late Middle Ages” ein Projekt vor, das sich die automatische Transkription von amtlichen Schreiben wie Urkunden, Abschriften und Seiten aus Notariatsregistern aus dem Spätmittelalter aus Barcelona, zum Ziel nimmt.

Christoph Sander und Jörg Hörnschemeyer vom Deutschen Historischen Institut in Rom stellten das Projekt GRACEFUL17, das aus einer Kombination aus KI, Knowledge Graphs und Visualisierungstools eine digitale Strategie zur Analyse frühneuzeitlicher Daten zur Kirchenverwaltung vor. Da ich mich in meiner Masterarbeit mit frühneuzeitlichen kirchenrechtlichen Akten beschäftige, fand ich die vorgestellte Strategie sehr inspirierend – insbesondere in Bezug darauf, wie derartige Verwaltungsprozesse und Netzwerke dargestellt werden können. Zwar liegt der Schwerpunkt meiner Masterarbeit auf TEI und ihrer Eignung als Modellierungswerkzeug für diese Akten, für eine weiterführende Auseinandersetzung mit diesen oder ähnlichen Daten könnten die vorgestellten Ansätze allerdings sehr wertvoll sein.

Für ein nächstes Mal – oder was ich gerne vorher gewusst hätte: 

  • Die Atmosphäre ist entspannt und es wird Raum für Fragen geschaffen, sowohl vor Ort als auch virtuell.
  • Ein genauer Blick auf das Tagungsprogramm zahlt sich wirklich aus, da in der Fülle des Angebots interessante Beiträge leicht übersehen werden können.
  • Gleichzeitig lohnt sich eine gewisse Offenheit: Einige spannende Eindrücke konnte ich aus Vorträgen mitnehmen, die zunächst gar nicht auf meiner Liste standen.

Tagungsbericht – Science MashUp 2025 (10. Mai  2025, HTWK Leipzig)

2025年6月24日 00:31

Am 10. Mai 2025 öffnete die HTWK Leipzig ihre Türen zur „Langen Nacht der Computerspiele“. Im Rahmen dieser Veranstaltung fand die hybride Fachtagung “Science MashUp“ statt, organisiert von Prof. Dr. Gabriele Hooffacker in Kooperation mit Dr. Benjamin Bigl und Dr. Sebastian Stoppe, welche durch das Programm führten. Die jährliche Tagung, die nun bereits zum sechsten Mal stattfand, widmete sich in diesem Jahr der komplexen Beziehung zwischen digitalen Spielen und Büchern und bot eine interdisziplinäre Plattform Raum für den Austausch zwischen Interessierten, Lehrenden und Akteur:innen aus der Spieleindustrie sowie Forschenden aus Literaturwissenschaft, Medienwissenschaft, Game Studies und Digital Humanities.

Einführung

Der Rektor der HTWK Leipzig Prof. Dr. Jean-Alexander Müller eröffnete die Tagung mit einem Grußwort. Dabei hob er hervor, dass die Verbindung von Games und Büchern auf den ersten Blick möglicherweise nicht offensichtlich erscheint, beide Medienformen jedoch eine herausragende Rolle in Kultur und Bildung einnehmen. Er plädierte für ein integratives Verständnis, das die mediale Vielfalt als Chance begreift, anstatt die Medien in Konkurrenz zu setzen.

Wie ein Zusammenspiel der Medien konkret aussehen kann, verdeutlichten Jonathan Werneburg (10) zusammen mit seinem Vater Dr. Sebastian Stoppe in der anschließenden Keynote „Games und Bücher – ein Primer aus dem Kinderzimmer“. Hier stellen sie die Buchwerke der Influencer Benx (Benjamin Krüger) und Paluten (Patrick Mayer) vor, die das Spieluniversum Minecrafts (Mojang, 2009) originär erweitern. Bücher wie Die Schmahamas-Verschwörung (2018) oder Benx und die Hexen der Bataquampa (2021) sind dabei keine offiziellen Erweiterungen des Franchises, sondern eigenständige Erzählungen, die sich narrativer und ästhetischer Elemente der Spielwelt und der Marke bedienen. Vater und Sohn verdeutlichen, dass durch diese literarischen Erweiterungen ein komplexes intermediales Medienfeld entsteht, das nicht nur die analogen Bücher und das digitale Spiel umfasst, sondern auch weitere Facetten der Spielkultur aufgreift: die Geschichten der Influencer und die Aktivitäten ihrer Communities.

Panel 1: „Narrative Strukturen und Erzähltechniken in Games und Büchern”

Der erste von drei Vortragsblöcken bot facettenreiche Einblicke in die Wechselwirkungen zwischen digitalen Spielen und literarischer Narration.

Robert Böhm analysierte in „Vom unzuverlässigen Erzähler zum unzuverlässigen Avatar“ anhand von Beispielen die Missachtung des Kooperationsprinzips in narrativen Spielen. Er analysierte dabei das Spannungsfeld zwischen konsistenter Erzählkonstruktion und zufallsbasierten Mechanismen, die zu einer ludonarrativen Dissonanz führen.

Leon Noel Micheel erläuterte in “Dem literarischen System auf der Spur: Untersuchungen zu einem intermedialen Literaturkonzept“, unter Rückgriff auf den Ansätzen von Frasca (2003), Aarseth (1997) und Ingarden (1972), die strukturellen Unterschiede von Spielen als simulational media gegenüber Büchern als representational media. Spiele eröffnen somit nicht nur Erzählräume, sondern auch aktive Partizipation.

Lara Konkel zeigte in “Katharsis next Level: Multiperspektivisches Erzählen und Identifikationsangebote in THE LAST OF US PART II“ auf, wie in diesem Spiel multiperspektivisches Erzählen Empathie fördert und moralisch komplexe Identifikationsangebote schafft. So werden Spielende in ambivalente Konflikte eingebunden, die bestehende Narrative von Rache und Vergeltung hinterfragen.

Roberto Zeugner schließlich analysierte in “„The Stanley Parable“ als performative Parabel im Unterricht” wie das Spiel durch ständige Meta-Narration und wiederkehrende Entscheidungen die Agency der Spielenden reflektiert. Gleichzeitig identifizierte er Potenziale für philosophische und ethische Diskussionen im schulischen Kontext.

Abschließend verdeutlicht dieser Block, dass die Digital Humanities durch die Analyse narrativer Strukturen und interaktiver Erzähltechniken in Games einen erweiterten Zugang zu Fragen von Partizipation, Ethik und kultureller Codierung bieten.

Panel 2: “Medienübergreifende Aspekte und kulturelle Bedeutung von Spielen und Büchern”

Das zweite Panel beleuchtete die vielfältigen Schnittstellen zwischen digitalen Spielen und Literatur sowie deren kulturelle und ästhetische Bedeutung.

Lena Falkenhagen kritisiert in „Zwischen Trivialisierung und Droge: Games im Kulturjournalismus“ die geringe kulturelle Anerkennung von Spielen. Sie zeigte auf, dass Berichterstattung zu Games selten im Kulturressort erscheint und häufig auf problematische Themen wie Sucht oder Rechtsextremismus verengt wird. Nur herausragende ästhetische oder musikalische Leistungen verschaffen Spielen punktuell Anerkennung und den Feuilleton-Redaktionen einen vermeintlich leichteren Zugang.

Prof. Marcus Klöppel und Prof. Dr. Christian Bachmann diskutierten in “Formen narrativer und spielmechanische Hybridität von Comic, Spiel und Buch” die medialen Überschneidungen hybrider Formate. Bachmann betonte die Medialität und Materialität von Büchern über deren literarischen Gehalt hinaus und analysierte Spielbücher und -Comics als Verbindungen von Lesefluss und Spielmechanik. Klöppel hob die Potenziale hybrider Formate wie „Exit Games“ und „Adventure Games“ hervor, die kognitive und soziale Kompetenzen fördern und neue Schnittstellen zwischen Literatur, Spiel und Gemeinschaft schaffen.

Ich, Alina Menten, untersuchte in “Romantik reloaded? Die literarischen Spuren des Waldes in schwedischen Games” die Rolle des Waldes als ästhetisch-romantisches Motiv anhand des Spieles Bramble: The Mountain King (Dimfrost Studio, 2023). Dabei arbeitete ich heraus, wie die digitale Naturästhetik romantische Traditionen aufgreift und in den Kontext gegenwärtiger Narrative übersetzt.

Prof. Dr. Dr. Rudolf Inderst schloss dieses Panel mit seinem Vortrag “„No Running in the Library!“ Zu Bedeutung und Funktion des Schauplatzes ‚Bibliothek‘ in digitalen Spielen”. Er demonstrierte anhand mehrerer Beispiele, wie Bibliotheken in Spielen nicht nur Kulissen sind, sondern als Orte des Wissensspeicherns fungieren, wie etwa durch das Sammeln des spielinternen Wissens in The Elder Scrolls V: Skyrim (Bethesda Game Studios, 2011) oder durch die Zugänglichmachung realer zensierter Artikel auf dem von der Organisation Reporter ohne Grenzen betriebenen Minecraftserver „The Uncensored Library“.

Abschließend zeigt dieses Panel auf, wie digitale Spiele medienübergreifende ästhetische Praktiken und Bedeutungsräume erschließen. Für die Digital Humanities eröffnet sich hier ein zentrales Forschungsfeld, das interdisziplinäre Perspektiven auf Narrative, Materialität und gesellschaftliche Diskurse in digitalen Kulturen ermöglicht.

Panel 3: “Interaktive Formate und die Rolle des Spielers”

Das dritte und letzte Vortragspanel widmete sich interaktiven Formaten und der vielseitigen Rolle der Spieler:innen in Spielwelten.

Prof. Nadine Trautzsch zeigte in „Interactive Fiction und KI: Narrative Freiheit als Weg zu digitaler Kompetenz“, dass Interactive Fiction als pädagogisches Werkzeug Entscheidungsfähigkeit und Selbstwirksamkeit fördert. Sie stellte verschiedene Tools sowie den Einsatz von KI für die Erstellung fiktionaler Werke vor. 

Melanie Fussenegger betrachtete in “Games als Gedichte lesen am Beispiel von „Monument Valley“” digitale Spiele als „Game Poems“ (vgl. Magnuson 2023). Damit eröffnete sie einen innovativen Ansatz zur literarischen und ästhetischen Analyse von Spielen.

Lara Konkel beleuchtete in ihrem zweiten Vortrag des Tages “GONE HOME und niemand zu Hause. Der Walking Simulator zwischen Videospiel und Detektivroman” das hybride Format des Walking Simulators, das Detektivroman-Elemente aufgreift und Spieler:innen in die Diegese integriert. Sie zeigte, wie hier eine besondere Form von Agency und multiperspektivisches Erzählen entsteht.

Prof. Jörg Burbach schloss die Vortragspanels mit seinem online gehaltenen Vortrag in “Von Spielern geschrieben: Der kulturelle Effekt von User Generated Content in Büchern und Spielen”. Er zeigte, wie partizipatives Storytelling in Spielen und Büchern eine neue Ebene der Immersion und kollaborativen Autorschaft schafft.

Abschließende Podiumsdiskussion „Games und Bücher“

Die Beiträge wurden durch eine abschließende Podiumsdiskussion mit Leon Noel Micheel (Bildung), Prof. Dr. Dr. Rudolf Inderst (Game Studies), Melanie Fussenegger (Games-Branche) und mir als Entwicklerin ergänzt. Zunächst fokussierte sich die Diskussion auf die Rolle von Büchern als Inspirations- und Quellenmaterial in der Spielentwicklung, verlagerte sich jedoch rasch auf die Produktion von Games und den Einsatz Künstlicher Intelligenz.

Diskutiert wurden ethische und rechtliche Fragestellungen wie unklare Urheberrechtslagen, die Gefahr inhaltlicher Vereinheitlichung („Einheitsbrei“) bei KI-generierten Inhalten sowie der wachsende Bedarf an Fachwissen. Gleichzeitig wurde das Potenzial von KI betont, kreative Prozesse wie Übersetzungen zugänglicher zu machen – vorausgesetzt, ihr Einsatz erfolgt transparent und reflektiert. Deutlich wurde zudem, dass der Diskurs um KI hoch emotional geführt wird und differenzierte Aufklärung über Chancen und Risiken entscheidend ist, um sowohl Verteufelungen als auch überhöhte Erwartungen an diese Technologie zu vermeiden.

Die „Lange Nacht der Computerspiele“

Im Anschluss an die Fachtagung bot die „Lange Nacht der Computerspiele“ vielfältige Einblicke in die Praxis digitaler und analoger Spielkulturen. Indie-Entwickler:innen präsentierten ihre Spiele zum Testen, ergänzt durch Retro-Klassiker und analoge Spiele. Im „Minecraft-Raum“ wurden grundlegende Programmierkenntnisse vermittelt, während Trading-Card-Fans in einem eigenen Raum spielerisch ihr Wissen vertiefen konnten. Arbeiten verschiedener Artists und ein E-Sports-Turnier in „League of Legends“ rundeten das Programm ab.

Dieser Beitrag entstand mit Unterstützung des DHd-Reisekostenstipendiums. Mein herzlicher Dank gilt der Organisation für die Ermöglichung meiner Teilnahme an der Konferenz.

Genannte Werke 

Spiele

Bramble: The Mountain King. Dimfrost Studio, 2023.
The Elder Scrolls V: Skyrim. Bethesda Game Studios, 2011.
The Last of Us Part II. Naughty Dog, 2024.
The Stanley Parable. Galactic Cafe, 2011.
Minecraft. Mojang, 2009.
Monument Valley. ustwo studio Ltd., 2014.

Literatur

Aarseth, E.J. (1997): Cybertext: Perspectives on Ergodic Literature. Baltimore, MD: Johns Hopkins University Press.
Frasca, G. (2003): Simulation versus Narrative: Introduction to Ludology. London: Routledge.
Ingarden, R. (1972): Das Literarische Kunstwerk. Halle (Saale): de Gruyter.
Kern, K.; Mayer, P. (2018): Die Schmahamas-Verschwörung. Köln: CE Community Editions.
Magnuson, J. (2023): Game Poems: Videogame Design As Lyric Practice. Amherst, MA: Amherst College Press.
Rackwitz, T. (2021): Benx und die Hexen der Bataquampa. Köln: CE Community Editions.

Konferenzbericht DH2024 „Reinvention & Responsibility“, Washington DC

2024年9月20日 01:25

Dieser Beitrag ist im Rahmen eines Reisekostenstipendiums für die DH2024 entstanden. Ich möchte mich an dieser Stelle herzlich beim Verband Digital Humanities im deutschsprachigen Raum (DHd) dafür bedanken, mir die Teilnahme an der Konferenz zu ermöglichen. Auch möchte ich die tolle Arbeit der Organisator:innen hervorheben und mich dafür bedanken.

Die DH2024, organisiert von der Alliance of Digital Humanities Organizations (ADHO), fand vom 6. bis 9. August 2024 an der George Mason University in Arlington, Virginia, statt. Unter dem Thema „Neuerfindung & Verantwortung“ bot die Tagung Digital Humanists aus aller Welt eine Plattform, um ihre Forschungsergebnisse und aktuelle Entwicklungen im Feld zu präsentieren.

Workshops und Eröffnung

Die Konferenz begann am Montag und Dienstag mit praxisorientierten Workshops, die sich auf die Anwendung von Methoden, Software und Werkzeugen konzentrierten. Der offizielle Konferenzbeginn folgte am Dienstagabend mit der Eröffnungszeremonie, einem Empfang und einer Keynote von Susan Brown, der in diesem Rahmen auch der „Roberto Busa Preis“ verliehen wurde. In ihrer Keynote gab Susan Brown einen Einblick in ihre Arbeit zur Verknüpfung von Forschungsdaten (Linked Open Data). Den Mittwoch eröffnete die Datenjournalistin Linda Ngari mit einer weiteren Keynote. In dieser berichtete sie aus ihrer Erfahrung als Journalistin, ein interprofessioneller Ausflug, der auch für die Digitalen Geisteswissenschaften relevante Erkenntnisse mit sich brachte, wie beispielsweise den eindringlichen Appell die Integrität von Forschungsdaten – insbesondere wenn diese durch Dritte erzeugt werden – kritisch zu hinterfragen.

Einige Beobachtungen aus den Panels

Im Anschluss starteten die thematischen Panels. Bei fast 90 parallel laufenden Panels, die sich meist aus mehreren kürzeren Vorträgen zusammensetzten, bleibt mir nur die Möglichkeit, einige aggregierte (und vermutlich subjektive) Eindrücke zu schildern.

Eine Reihe von Vorträgen beschäftigte sich mit der Langzeitverfügbarkeit und Nachnutzbarkeit von Forschungsdaten, Publikationsplattformen und digitalen Editionen. Besonders im gut besuchten Panel „Sustainability of Digital Publishing Platforms“ wurde diskutiert, welche Verbesserungen bereits erzielt wurden und was in Zukunft noch optimiert werden könnte. Statt rein technischer Lösungen standen vor allem soziale und finanzielle Herausforderungen im Fokus, insbesondere die Vermittlung von Anforderungen zwischen verschiedenen Disziplinen und Funktionsträgern. Ein zentrales Fazit war, dass qualifiziertes, langfristig beschäftigtes Personal entscheidend zur Nachhaltigkeit von Publikationen beitragen kann. Technisch gesehen wurde der Trend sichtbar, etablierte Standards und Anwendungen zu bevorzugen und die Stabilität gegenüber der Innovationsfreude zu priorisieren.

Ein weiterer wiederkehrender Themenkomplex drehte sich um Large Language Models (LLMs). Stabile, nachvollziehbare und reproduzierbare Ergebnisse konnten vor allem die Ansätze erzielen, die auf bewährte Komponenten von Sprachmodellen zurückgreifen, wie z. B. die Verwendung von LLM-Embeddings. Auch die Nutzung von LLMs als „eigenständige Agenten“ zur Automatisierung von Arbeitsschritten wurde thematisiert, wobei viele dieser Ansätze noch im Planungsstadium stecken, und konkrete Ergebnisse noch nicht präsentiert werden konnten. Zudem waren LLMs selbst Gegenstand der Forschung, etwa in einer qualitativen Analyse zu rassistischen Biases in Sprachmodellen.

Ein für mich besonders interessantes Panel stellte neue Ansätze in der historischen Reiseforschung vor. Diese Ansätze lösen sich von der konventionellen Geolokalisierung und ermöglichen es, Quellen zu berücksichtigen, die keine eindeutigen geographischen Verortungen zulassen. In der Analyse und Visualisierung werden diese Informationen in Form von Netzwerkgraphen oder gewichteten Punkten dargestellt. Da die Forschung sich noch in der Entwicklung befindet, bin ich gespannt, wie sich diese Ansätze weiter entwickeln.

Neben den zahlreichen Vorträgen gab es zwei Poster-Sessions. Am Freitagnachmittag präsentierte ich das Poster unseres Projektteams und konnte dabei interessante Gespräche mit den Teilnehmer:innen der Konferenz führen. Gleich im Anschluss daran endete die DH2024 mit der Abschlusszeremonie. Die abschließende Keynote hielt Shannon Mattern, die die Verschränkung sozialer und technischer Aspekte in der Medienkommunikation thematisierte. Besonders inspirierend fand ich ihren Gedanken, dass Kommunikationsmedien nicht voraussetzungslos existieren, und man die eigene Nutzung kritisch dahingehend prüfen sollte, ob sie nicht möglicherweise die Grundlagen untergräbt, auf denen man aufbaut.

Fazit

Die DH2024 in Arlington war eine spannende und bereichernde Konferenz. Der Austausch mit internationalen Kolleg:innen und die Vielfalt der Themen haben mir wertvolle neue Impulse für meine eigene Arbeit gegeben und ich freue mich darauf, an zukünftigen Konferenzen teilzunehmen.

Die Vernetzung von Akteuren und Ressourcen – OER in der NFDI und in den Datenkompetenzzentren: ein Workshopbericht

2024年9月3日 22:30

Autor:innen: Jonathan D. Geiger; Katharina Bergmann; Johanna Konstanciak; Marina Lemaire; Andrea Polywka; Ruth Reiche; Sibylle Söring; Anne Voigt

Lehr-Lernmaterialien (Open Educational Resources, OER) zur Entwicklung von Data Literacy und Kompetenzen im Forschungsdatenmanagement (FDM) sind in der Nationalen Forschungsdateninfrastruktur (NFDI) und darüber hinaus ein zentrales Thema. Die meisten FDM-Projekte und -Netzwerke sammeln und/oder produzieren OER und setzen sich dabei mit Fragen nach der Verstetigung, der Sammlung, der Kuratierung und der Verknüpfung auseinander. Die FAIR-Prinzipien sind hier genauso anwendbar wie auf Forschungsdaten.

Vor diesem Hintergrund fanden sich am 22. und 23. April 2024 Vertreter*innen der NFDI-Konsortien NFDI4Culture, NFDI4Memory, der Datenkompetenzzentren QUADRIGA und HERMES und des Infrastrukturprojekts der NFDI-Sektion Training & Education – DALIA – in der Akademie der Wissenschaften und der Literatur Mainz zu einem gemeinsamen Workshop zusammen. Die Projekte präsentierten ihre jeweiligen Arbeitsstände und im Anschluss wurden in interaktiven Formaten Kollaborationsmöglichkeiten, Synergieeffekte und zentrale Diskussionspunkte ausgelotet.

Gruppe der Workshopteilnehmenden am 23.4.2024 (Foto: Aglaia Schieke)

Das NFDI-Konsortium NFDI4Culture (Projektlaufzeit 2020–2025) hat einen Dienst vorgestellt, der eine Auswahl an OER bereitstellt, die sich an die geistes- und kulturwissenschaftlichen Communities richten und sowohl generische als auch fachspezifische Angebote zu Forschungsdatenmanagement und Datenkompetenzen beinhalten. Im Vorfeld hat das Team der “Cultural Research Data Academy” in ausgewählten Veranstaltungen und Formaten die Bedarfe der NFDI4Culture Communities abgefragt, in einem Portfolio gesammelt und mit ausgewählten Qualitätskriterien evaluiert. Daraus entstand der “Educational Resource Finder” (ERF), eine kuratierte Auswahl an deutsch- und englischsprachigen Schulungs- und Weiterbildungsangeboten, die sich an Interessierte aller Wissensstufen richten und fortwährend aktualisiert werden.

Das NFDI-Konsortium NFDI4Memory (Projektlaufzeit 2023–2028) stellte seine Arbeitspakete der Task Area “Data Literacy” im Bereich OER vor. Die Task Area hat zur Aufgabe die Datenkompetenzen in Forschung und Lehre der historisch arbeitenden Disziplinen zu verbessern. Dafür werden u. a. ein Data-Literacy-Trainingskatalog mit didaktischen und inhaltlichen Empfehlungen erstellt sowie zielgruppenspezifische Trainingsmodule entwickelt. Die Inhalte des Trainingskatalogs werden durch eigene Recherchen, selbstentwickelte Materialien sowie durch eine Erhebung in der Community zusammengetragen. Anschließend werden die Informationen in einem in Entwicklung befindlichen Workflow für die Online-Präsentation und Suche aufbereitet.

Das vom BMBF geförderte  Datenkompetenzzentrum QUADRIGA (Projektlaufzeit 2023-26) vereint die vier Disziplinen Digital Humanities, Verwaltungswissenschaft, Informatik und Informationswissenschaft entlang der Datentypen Text, Tabelle und Bewegtes Bild am Wissenschaftsstandort Berlin-Brandenburg. Auf der Grundlage von Fallstudien erarbeitet das Zentrum interaktive Lehrbücher (Jupyter Notebooks), die QUADRIGA Educational Resources (QER), die modular aufgebaut sind, und die die Lernzielkontrolle mittels eines Assessments ermöglichen. Workflows – insbesondere das Zusammenspiel mit dem QUADRIGA Space sowie dem QUADRIGA Navigator – und beispielhafte Ausgestaltungen wurden im Rahmen des Workshops von Zhenya Samoilova, Sonja Schimmler und Bettina Buchholz vorgestellt. Für das Teilprojekt Verstetigung nahm Sibylle Söring teil.

Das Datenkompetenzzentrum HERMES (Humanities Education in Research, Data, and Methods), gefördert vom BMBF (Projektlaufzeit 2023–2026), hat das Ziel, Datenkompetenzen im Bereich der Geistes- und Kulturwissenschaften zu vermitteln und weiterzuentwickeln. Anwesend bei dem Workshop waren die Mitarbeiter:innen der HERMES-Formate „Open Educational Resources“ und „HERMES-Hub“: In HERMES werden sowohl OER erstellt als auch in einer Ressource Base aggregiert. Hierfür wird eine Metadatenempfehlung entwickelt, die auf einem projektübergreifenden Metadaten-Basisschema aufbauen soll. HERMES legt dabei besonderen Wert auf die Verschlagwortung der Ressourcen mit der TaDiRAH-Taxonomie, um nach Forschungsmethoden filtern zu können. Forschende wird das HERMES-Team zudem in der Konzeption und Umsetzung von OER-Materialien beratend unterstützen.

Das Projekt DALIA ist ein vom BMBF gefördertes Infrastrukturprojekt (Laufzeit 2022–2025) der Sektion Training und Education (EduTrain) der Nationalen Forschungsdateninfrastruktur. Das Projektziel ist der Aufbau eines Knowledge Graphen für Data-Literacy- und FDM-Kompetenz-bezogene OER. Dabei sollen auch Akteure des Feldes zusammengebracht und ihre Vorarbeiten und Bedarfe erhoben und berücksichtigt werden. Der Knowledge Graph ist Grundlage einer Plattform, über die OER von Nutzer*innen gefunden und von Autor*innen verzeichnet werden können.

Ergebnisse des Workshops

Als zentrale Herausforderungen für die weitere Harmonisierung der Projekt-Arbeitsprozesse wurden insbesondere drei Handlungsfelder identifiziert:

  • Metadaten und Interoperabilität von OER (Materialien und Repositorien)
  • Nachhaltigkeit
  • Kooperationen

Brainstorming-Ergebnisse 1. Tag (Foto: Simon Donig)

Metadaten und Interoperabilität: Um OER gemäß der FAIR-Prinzipien zu gestalten, muss sich deren Beschreibung (Metadaten) an Normdaten und kontrollierten Vokabularen orientieren. Für OER liegen verschiedene Metadatenstandards vor, insgesamt liegt die Herausforderung aber im Spagat zwischen vorhandenen Standards und den eigenen Bedarfen, die sich zwischen den Polen der eigenen Kapazitäten, technischen Rahmenbedingungen und Bedarfen der jeweiligen Community aufspannen. Synergien ergeben sich aus einem gemeinsam entwickelten Applikationsprofil sowie die gemeinsame Evaluation des DALIA OER-Metadatenbasisschema “DALIA Interchange Format” (DIF). Weitere Potenziale für Kooperationen liegen in der Anfertigung von Fallstudien, Schulungen und Bedarfsanalysen.

Ergebnisse Ermittlung des IST-Zustandes zum Themenfeld „Metadaten“ (Foto: Simon Donig)

Nachhaltigkeit: Das Thema Nachhaltigkeit von Infrastrukturangeboten umfasst verschiedene Ebenen. Klar ist, dass ein Dienst keinen langfristigen Bestand haben kann, der nicht nachhaltig organisiert und dauerhaft finanziert wird. Neben den Betriebsmodellen ist auch die Verwendung offener Datenstandards notwendig, um die Abhängigkeiten von proprietären Formaten und Werkzeugen zu reduzieren. Die Teilnehmenden des Workshops konzentrierten sich allerdings auf einen dritten Aspekt von Nachhaltigkeit: Die Akzeptanz und Nutzung des Angebotes durch die Community. Für die Akquirierung von finanziellen Ressourcen bedarf es einer nachweislichen Relevanz des Angebots für die jeweilige Fachcommunity. Diese muss beispielsweise über Zugriffs- oder Downloadzahlen sowie Interaktionen mit den Betreibenden nachgewiesen werden. Wie die Zielgruppen angesprochen und gehalten werden können, eine konkrete OER-Plattform zu nutzen, ist eine offene Frage. Dabei spielt selbstverständlich die optimale Bedienung der Bedarfe eine große Rolle, jedoch sind diese im vollen Umfang noch nicht bekannt. So wurde festgestellt, dass insbesondere die Bedarfe der Lehrenden und ihr OER-Nutzungsverhalten weniger bekannt sind.

Kooperationen: Das dritte Themencluster bestand in Überlegungen zur weiteren Kooperationen der am Workshop beteiligten Personen und Projekte. Neben den im Bereich Metadaten und Nachhaltigkeit diskutierten Maßnahmen wie Use Cases und synoptische Metadatenschema-Vergleiche zwischen den Projekten, wurden mehrere nachfolgende Meetings sowie ein Anschlussworkshop für das Frühjahr 2025 vereinbart. Wo möglich, soll Doppelarbeit vermieden werden, sowie der Austausch zwischen den Projekten erhalten bleiben. 

Ergebniszusammenfassung zu welchen Themenbereichen die Gruppe zusammenarbeiten möchte (Foto: Simon Donig)

Zusammenfassend lässt sich festhalten, dass es große Überschneidungen der Arbeitsprogramme aller Workshop-Beteiligten (NFDI-Konsortien und Datenkompetenzzentren) gibt und der Diskurs durch gemeinsame Veranstaltungen nicht nur fruchtbarer wird, sondern auch Doppelarbeit identifiziert und reduziert werden kann. Ebenfalls wurde offensichtlich, dass quasi sämtliche Aspekte (Metadaten, Förderung, Community-Akzeptanz etc.) eng miteinander gekoppelt und aufeinander bezogen sind. Dementsprechend wurde eine Reihe nächster Schritte geplant – neben weiteren Meetings zum Austausch zu den Metadatenprofilen insbesondere ein Anschlussworkshop, in dem der Kreis der beteiligten FDM-Projekte aus dem Umkreis der Geistes- und Sozialwissenschaften noch erweitert werden soll.

ECHOES24 Conference: Mit dem digitalen Echolot zu den Untiefen musikwissenschaftlicher Erkenntnis

2024年7月5日 20:19

Das Forschungsprojekt „Echoes from the Past: Unveiling a Lost Soundscape with Digital Analysis” (2023-2026), angesiedelt an der Universidade NOVA de Lisboa, untersucht die Musik des Mittelalters mit digitalen Methoden. Auf interdisziplinärem Terrain verspricht es somit neue Erkenntnisse für die historische Musikforschung und Musiktheorie, die Digital Humanities (Computational Musicology) und das Music Information Retrieval (MIR) gleichermaßen.
Teil des Projekts war die einmalig stattfindende Konferenz „ECHOES24“, auf der ich Ende Juni erste Ergebnisse meines Promotionsprojekts vorstellen durfte. Sie führte weltweit führende Wissenschaftler:innen des Forschungsbereichs, ebenso wie Promovierende, Early Career Scholars und Professor:innen in Lissabon zusammen, um über „Digital Technologies Applied to Music Research: Methodologies, Projects and Challenges“ zu diskutieren.

In meiner Promotion beschäftige ich mich im Rahmen einer digitalen Korpusstudie mit Polymetrik und metrischen Irregularitäten in den Kompositionen Hugo Distlers, Béla Bartóks und Paul Hindemiths. (Polymetrik nennt man – ganz allgemein – gleichzeitig auftretende, unterschiedliche Taktarten, siehe Abb. 1.) Darauf aufbauend möchte ich ein eigenes Bayessches Modell für Polymetrik entwickeln. Solche metrisch komplexen Strukturen werden in der aktuellen Forschung zur computergestützten Musikwissenschaft noch weitgehend außen vor gelassen, unter anderem da deren Modellierung und computergestützte Analyse bestehende Ansätze und Codierungsformate an ihre Grenzen führt. Mit meinem Forschungsvorhaben möchte ich diese Lücke schließen und mittels einer ergebnisoffenen Grundlagenforschung einen signifikanten Beitrag zur Analyse komplexer Musik, insbesondere des 20. Jahrhunderts, leisten. Daher interessierten mich explizit die auf der Konferenz behandelten Themenbereiche „Key challenges in applying digital technologies to music research” sowie „Music encoding”.

Beginn von Hugo Distlers Motette „O Heiland, reiß die Himmel auf“ aus Der Jahrkreis op. 5 (1933). Jede Stimme wird in ihrer je eigenen Metrik ausgestaltet; die Taktarten wechseln sehr häufig.
Abb. 1: Beginn von Hugo Distlers Motette „O Heiland, reiß die Himmel auf“ aus Der Jahrkreis op. 5 (1933). Jede Stimme wird in ihrer je eigenen Metrik ausgestaltet; die Taktarten wechseln sehr häufig.[1]

 

Herausforderungen bei der Codierung von Polymetrik

Für meine Promotion und beginnende wissenschaftliche Karriere stellte diese Konferenz ein wichtiges Sprungbrett dar. Dort konnte ich zum ersten Mal mein eigenes Forschungsprojekt in einem öffentlichen Vortrag international präsentieren. Explizit stellte ich die Möglichkeiten und Grenzen der Codierung von Polymetrik in verschiedenen Musikcodierungsformaten vor (Folien; Videomitschnitt, leider ohne Ton). Zu meiner Freude war mein Vortrag sehr gut besucht und das Publikum aufmerksam interessiert. Mein Befund, dass Polymetrik in den bestehenden Formaten MusicXML, MEI und Humdrum (noch) nicht originalgetreu codiert werden kann, überraschte die Anwesenden. An den drei Konferenztagen konnte ich mich darüber in vielen Gesprächen austauschen – deshalb wurden gerade die Kaffeepausen zu den wichtigsten Zeiten für mich. Wir haben auch schon gemeinsam erste Lösungsansätze diskutiert, die aufgrund des starken Alte-Musik-Fokus der Konferenz neben dem modernen Westlichen Notationssystem dankenswerterweise auch die Mensuralnotation einschlossen – ein vielversprechender Ansatz!

Deckblatt meines Konferenzvortrags bei der ECHOES24
Abb. 2: Deckblatt meines Konferenzvortrags bei der ECHOES24
Interessiert-lockere Atmosphäre während des Vortrags
Abb. 3: Interessiert-lockere Atmosphäre während des Vortrags

 

Musikforschung zwischen Gaga und Bioinformatik

Insgesamt hörte ich in den drei Tagen 15 Vorträge sowie zwei Keynotes, und besuchte zwei Workshops: in toto eine Tour d’Horizon durch die digitale Musikforschung. In Parallel Sessions fanden gleichzeitig Vorträge in den Bereichen „Digital Early Music“ und „Digital Musicology“ statt. Hier eine Auswahl:

Tillman Weyde (City, University of London) stellte kollaborative Tools in der Jazz-Forschung vor, die synergetisch Methoden des Music Information Retrieval (MIR) und des maschinellen Lernens kombinieren. Insbesondere besprach er seine JazzDAP Studien, die auf den bekannten Arbeiten zur Dig That Lick Database sowie dem Jazzomat Research Project aufbauen.

Das Warschauer Fryderyk-Chopin-Institut um Marcin Konik, Jacek Iwaszko und Craig Sapp stellte das beeindruckende Projekt „Polish Music Heritage in Open Access“ (siehe Polish Scores) vor: ein Online-Repositorium polnischer Musik aus sechs Jahrhunderten, das rund 25.000 Manuskripte und Partituren mit insgesamt einer halben Million Seiten Musik umfasst. Die digitalen Editionen enthalten Codierungen im Humdrum-Format, die mittels IIIF-Koordinaten mit den originalen Partiturseiten verbunden sind.

Andreas Waczkats (Göttingen) forscht zur Rekonstruktion des Klangs einer Londoner Orgel, auf der Georg Friedrich Händel einst spielte. Dem Klangideal nähert sich Waczkat mithilfe des Tools „SOUND“ (FU Berlin), das 3D Sound-Daten verwendet, sowie der VR-Anwendung „Virtual Acoustics“ (RWTH Aachen).

Maria Navarro Cáceres (Salamanca) untersuchte in 20.000 irischen und spanischen volkstümlichen Melodien die Verwendung verschiedener Kirchenmodi. Interessant: Vor allem im spanischen Raum ist Phrygisch sehr beliebt!

Tim Eipert (Würzburg) und Francisco Camas (Madrid) verwendeten in Ihrer Forschung zu mittelalterlichen Tropen unabhängig voneinander bioinformatische Methoden der Phylogenese, um die Provenienz verschiedener Gesänge mit ihren musikalischen Stilen abzugleichen. Daraus ließ sich eine „Stammesgeschichte“ verschiedener mittelalterlicher Gesänge ableiten. Insbesondere diese beiden Forschungsprojekte stießen auf großes Interesse, da hier sowohl die Integration in die historische Musikforschung als auch der erwartete Erkenntnisgewinn sehr vielversprechend ist.

Ganz allgemein war der Wunsch nach Interdisziplinarität im Plenum deutlich spürbar. In diesem Sinne warb Cory McKay (Marianopolis College) für mehr Kommunikation und Offenheit bei Kooperationen zwischen der Musikwissenschaft und der Informatik bzw. dem MIR. Seinem Vortrag stellte er die methodologisch entscheidende Frage voran, „how to make musicological sense out of computer data“. Neben der gründlichen Vor- und Aufbereitung musikalischer Daten, um Biases zu vermeiden, trügen vor allem Visualisierungen zum Verständnis bei.

Adam Knight Gilbert (USC, Los Angeles) entwickelte gemeinsam mit Andrew Goldman (Indiana University) den GaGA-(Gilbert-and-Goldman)-Algorithm, mit dem sie Symmetrien in Kontrapunktwerken des 15. Jahrhunderts identifizieren können. Auf diese Weise untersuchten sie verschiedene Formen musikalischer Palindrome („Inversodrome“, „Crabindrome“) in Chansons von Gilles Binchois sowie in Messen und Motetten Johannes Ockeghems. Sie stellten die Frage in den Raum, inwieweit solche Symmetrien kompositorisches Spiel oder kontrapunktisches Derivat sind.

 

Keynotes: Schon viel erreicht und noch mehr zu tun

Besonders beeindruckend war die abendliche Keynote von Ichiro Fujinaga (McGill University), der seit 40 Jahren Pionierarbeit auf dem Gebiet der Optical Music Recognition (OMR) leistet. Humorvoll veranschaulichte er die Errungenschaften in diesem Bereich und ermutigte, die aktuellen Herausforderungen anzugehen. Er warb insbesondere für das Konzept der „Mechagogy“, dem Machine Teaching als Fähigkeit, Computer und Künstliche Intelligenzen richtig zu „erziehen“ und somit leistungsstärker und lösungsorientierter zu machen. An dieses Konzept konnten auch die Kunstsoziologen Denise Petzold und Jorge Diaz Granados (Maastricht) anschließen, die zur Diskussion über die Frage anregten, ob digitale Technologien als Musikinstrumente angesehen werden sollten.

In der zweiten Keynote mit dem Titel „Sustaining Digital Musicology“ plädierte Jennifer Bain (Dalhousie University) für mehr Kooperation innerhalb der Musikforschung, um Forschungsdaten langfristig erhalten zu können. Mit erschreckenden Zahlen aus den vergangenen drei Jahren warnte sie vor Datenverlust durch Cyberattacken. Das Rechenzentrum der Dalhousie University etwa (mit ihren 20.000 Studierenden) blockiert täglich 800.000 Spam-Mails. Die British Library arbeitet seit einem verheerenden Hacker-Angriff vergangenen Oktober immer noch an der Wiederherstellung wertvoller Daten. Leider seien es häufig DH-Projekte, die den Weak Link ins Unisystem darstellen, da ältere Online-Projekte oftmals keine Updates mehr durchlaufen. Der Nachhaltigkeit solcher Projekte abträglich seien zudem schlechte Dokumentation und ein erschwerter Zugang zu Fördermitteln. Was also tun? Zielführend seien gemeinsame, interdisziplinäre Projekte, die auf bestehenden Tools aufbauen, und vor allem gemeinsame Metadaten-Standards innerhalb der Community. Jennifer Bain schloss zuversichtlich: „The future of Digital Musicology looks bright. Let us be more intentional.”

Ein solches verheißungsvoll-intentionales Projekt stellte Ichiro Fujinaga abschließend in einem interaktiven Workshop vor: LinkedMusic. Dessen Ziel ist es, von einer Website aus in verschiedenen Musikdatenbanken suchen zu können, und zwar ausdrücklich auch in anderen Sprachen als Englisch. Die Herausforderung dabei: Die 14 verbundenen Datenbanken haben 14 inkompatible Datenbankstrukturen. Integrierte Bestandteile von LinkedMusic sind u. a. Linked Open Data, Semantic Web (für Interoperability und Data Integration), der RDF-Standard, die SPARQL Language sowie OpenRefine zur Bereinigung und Konvertierung von Daten.

Abb. 4: 14 Datenbanken in LinkedMusic
Abb. 4: 14 Datenbanken in LinkedMusic

Quintessenz

Quinte

Was nehme ich von der Konferenz mit? Einen vollen Kopf, eine Liste an Mailadressen, viele offene Google-Tabs und noch mehr offene Fragen, etliche Forschungsideen und sogar schon Angebote für Forschungsaufenthalte an der Stanford University und der McGill University. In jedem Fall waren meine Erlebnisse auf der ECHOES24 überaus positiv, vor allem geprägt durch das angenehme Konferenzklima (sowohl zwischenmenschlich als auch meteorologisch). Dazu beigetragen haben allem voran das ehrliche Interesse der Teilnehmenden und die wertschätzende Feedback-Kultur, die in dieser Form insbesondere für Promovierende wünschenswert ist.

Abb. 5: Ein Kalauer am Ende des Vortrags leitete zur Diskussion über.
Abb. 5: Ein Kalauer am Ende des Vortrags leitete zur Diskussion über.

 

Der Autor dankt dem DHd-Verband für die Ermöglichung der Konferenzteilnahme durch das Reisekostenstipendium für DH-nahe Tagungen (Sommer 2024).

Kontakt: lucas.hofmann@uni-wuerzburg.de

 

[1] Hugo Distler, „O Heiland, reiß die Himmel auf“, in: Der Jahrkreis op. 5, Kassel 1933, S. 8, Beginn.

Konversationen im digitalen Raum: Eine Analyse der DHd 2024 auf Mastodon

2024年4月2日 19:25

Dieser Beitrag ist im Rahmen meines Reisestipendiums für die DHd 2024 vom 26. Februar bis 1. März 2024 entstanden. Ich möchte mich an dieser Stelle noch einmal bei NFDI4Culture und den Organisatoren bedanken, die mir durch dieses Stipendium die Teilnahme an der Konferenz ermöglicht haben.

DALL·E 3: „A detailed panorama of a workspace dedicated to digital humanities data analysis, in landscape mode. The desk is cluttered with notes, charts, graphs, and digital devices. A Jupyter Notebook is open, displaying code and statistical data. Symbols of digital communication, including social media icons related to Mastodon, are scattered around. A large digital screen in the background shows a complex network of connections with the hashtag #dhd2024, symbolizing the digital humanities ecosystem. The scene conveys an immersive research environment, focusing on discovering patterns and insights within digital humanities.“

In diesem Konferenzbericht wenden wir uns einem eher unkonventionellen Untersuchungsgegenstand zu: den Diskussionen innerhalb der Digital Humanities auf Mastodon, markiert durch den Hashtag #dhd2024. Die Analyse zielt darauf ab, die digitale Resonanz auf die DHd 2024 zu kartografieren, indem die Dynamik der Konversationen, die führenden Stimmen, die zeitlichen Muster der Interaktion und die vorherrschenden Themen untersucht werden. Ein Jupyter Notebook, das als Teil dieses Berichts erstellt wurde, sucht nach Mustern und Einblicken in die Art und Weise, wie die Community kommuniziert, welche Themen besondere Aufmerksamkeit erregen und wie sich die Diskussionskultur innerhalb eines digitalen Ökosystems wie Mastodon entwickelt. Vier Fragen sind von Interesse: Wie gut wurde diskutiert? Wer hat am meisten diskutiert? Wann wurde am meisten diskutiert? Und vor allem: Worüber wurde am meisten diskutiert?

Dazu werden unter anderem die Informationen aus dem Programm der DHd 2024 verwendet, um sogenannte Prompts zu generieren, die an das LLM weitergeleitet werden. Für jeden Beitrag wird geprüft, welche Sessions zeitlich mit dem Veröffentlichungsdatum des Toots übereinstimmen. Ziel ist es, nur die Sessions zu berücksichtigen, die zum Zeitpunkt des jeweiligen Toots stattgefunden haben (und damit das Context Window des LLMs nicht zu überschreiten).

Das Jupyter Notebook ist auf GitHub verfügbar. Alle Statistiken der Mastodon-Toots können dort eingesehen und zur eigenen Analyse geklont werden.

Unter dem Big Tent der Digital Humanities: Ein Einblick in die DHd 2024

2024年3月7日 20:26

Im Idealfall zeichnet sich eine Konferenz durch vielfältige Einblicke, neue Erlebnisse und ein reichhaltiges Wissensspektrum aus, während kluge Köpfe und ihre Ideen sich an einem Ort – sei es im Hörsaal oder im eigenen Geist – versammeln. Nach einer Woche solcher intensiven Eindrücke kann es durchaus vorkommen, dass der Kopf vor lauter Impressionen zu rauchen beginnt. Mir erging es nicht anders nach meiner Teilnahme an der diesjährigen DHd-Konferenz in Passau.

Mit dem Ziel, das komplexe Spektrum der Digital Humanities, auch als Big Tent[1] oder in der Closing Keynote als Big Cloud[2] bezeichnet, besser zu durchdringen, führte ich aufschlussreiche Interviews mit einigen Teilnehmenden durch (herzlichen Dank an dieser Stelle für die Teilnahme). Dabei setzte ich meine eigene Wahrnehmung in Bezug zu den Perspektiven der Interviewpartner*innen. In Gesprächen mit verschiedenen Teilnehmenden konzentrierte ich mich auf drei prägnante Fragen, stets im Sinne von „Weniger ist mehr“ und einer pragmatischen Ausrichtung auf das Wesentliche.

Diese persönlichen Dialoge verfolgen nicht nur das Ziel, inhaltliche Höhepunkte der Konferenz zu dokumentieren, sondern auch individuelle Perspektiven und Meinungen einzufangen. Auf diese Weise entsteht ein umfassendes Bild der DHd-Konferenz, das über den bloßen Ablauf hinausgeht und die Vielschichtigkeit der Veranstaltung widerspiegelt.

  1. Welche drei Keywords beschreiben für dich die Konferenz?

Drei Schlüsselbegriffe zur Konferenz kristallisierten sich heraus, wobei die Stichwörter „generative KI“ und „LLM“ besonders häufig genannt wurden. Die überwiegende Mehrheit der Befragten charakterisierte die Konferenz als äußerst divers und herausragend interdisziplinär. Auffallend ist, dass das Publikum nicht nur durch seine ausgeprägte Diskussionsbereitschaft beeindruckte, sondern auch ein beträchtliches Vorwissen (vor allem in den Workshops) mitbrachte.

Die präsentierten Stichpunkte verdeutlichen den Informationsgehalt der Veranstaltung, deren Kernpunkte durch die Schlagwörter „it’s connecting,“ „heterogen,“ und „Fächerverhältnis“ treffend umschrieben werden können. Es wurde betont, dass, obwohl ähnliche Diskussionen jedes Jahr stattfinden, die diesjährige Tagung durch eine erhebliche Anzahl an Neuigkeiten geprägt war.

Die Themenschwerpunkte erstreckten sich dabei über LLM- und Transformer-Technologien bis hin zu kulturellen Aspekten, Nachnutzbarkeit und Nachhaltigkeit der generierten Daten. Ebenfalls im Fokus standen Diskussionen zu Künstlicher Intelligenz (KI) und Vertrauen sowie dem Verhältnis der Fachgebiete im umfassenden Kontext des Big Tents. Zudem spielte der Themenkomplex der Nachhaltigkeit eine maßgebliche Rolle.

Am Ende dieses Beitrags steht eine Wordmap mit Begriffen aus den Konferenztiteln und den genannten Inhalten der Interviewpartner*innen zur Verfügung. Wer mag, kann gerne einen Vergleich anstellen, um Parallelen zu erkennen.

  1. Was war für dich unerwartet oder spannend?

Für mich persönlich erwiesen sich die Abweichungen in der Workshop-Gestaltung im Vergleich zu den Erwartungen als unerwartete, sehr positive Aspekte. Ein herausragendes Beispiel hierfür war die eigenmächtige Beschädigung eines Collaborative Tools (Google Colab) durch die Workshopleitung während des Workshops, was erneut die hohe Spontaneität und lösungsorientierte Arbeitsweise in den Digital Humanities verdeutlichte. Insgesamt wurden die Workshops durchgehend als aufschlussreich und bereichernd beschrieben. Besonders beeindruckend war die disziplinierte Teilnahme aller Workshop-Teilnehmer, die bereits um 9 Uhr anwesend waren, so die Workshop-Leitung.

Der Aspekt der LLM und generativen KI tauchte vor einiger Zeit als neues Thema auf, was für alle Beteiligten Neuland bedeutete und zu intensiven Diskussionen sowie überraschend starken emotionalen Reaktionen führte. Das Unklare und Unerwartete in diesem Kontext unterstreicht die Dynamik und Vielschichtigkeit der Veranstaltung.

Spannend waren für die meisten Interviewees die Vorträge über die Nutzungsanwendungen von Transformer-Architekturen und Chatbots. Besonders fesselnd gestaltete sich die Fishbowl-Diskussion, die nicht nur durch das innovative Format beeindruckte, sondern auch durch den Gehalt selbst. Sie verschaffte ein neues Verständnis für die zukünftige Entwicklung der Digital Humanities – ein „Quo Vadis“ der Disziplin.

Faszinierend war zudem die Beobachtung, dass sich die Forschungsfragen vermehrt über Digitale Editionen hinausbewegen und weiterführende Analysen der Forschungsdaten in den Mittelpunkt rücken, wie auch in der Keynote bemerkt wurde.

  1. Hast du einen Tipp für Digital Humanists, die am Beginn ihrer Karriere stehen?

Auswahl der Empfehlungen der Interviewpartner*innen:

„Besucht Konferenzen, präsentiert eure Arbeit und lasst euch nicht abschrecken. Jeder fängt irgendwo an.“ – Clemens

„Nehmt alles mit, was ihr kriegen könnt.“ – Linda

„Ausprobieren und aktiv teilnehmen.“ – Lina

„Sucht euch einen Platz im Big Tent und lasst euch nicht von der Überwältigung entmutigen, sonst könnte es frustrierend werden.“ – Manuel

„Bewerbt euch, wenn möglich, um Stipendien und Posterpräsentationen und versucht, Anschluss zu finden. Habt keine Scheu.“ – Martina

„Engagiert euch im Dialog, sprecht mit Menschen und ergreift aktiv die Initiative.“ – Martin

Fazit

Über die Fülle und Dynamik der DHd-Konferenz könnte ich hier noch lange schreiben, doch möchte ich lieber die beeindruckende Visualisierung durch die Wordmap für sich stehen lassen. Der Besuch einer solchen Veranstaltung, besonders für Neulinge in einem Fachgebiet, offenbart eine wahrhaft bereichernde Erfahrung. Somit möchte ich mich herzlich bei NFDI4Culture bedanken, dass sie mir die Teilnahme an der Konferenz ermöglicht haben.

Wordmap aus Vortragstiteln der DHd2024

[1] Patrik Svensson: Beyond the Big Tent. In: Debates in the Digital Humanities, 2012, pp. 36-72, URL:

https://www.jstor.org/stable/10.5749/j.ctttv8hq.7 (Zugriff 07.03.2024)

[2] Begriff von Michaela Mahlberg aus der Closing Keynote der Konferenz am Freitag, 01.03.2024. URL: https://dhd2024.dig-hum.de/programm-events/

Kleines Gedicht als Bonus:

Menschen, die wie Wellen aus Hörsälen rauschen

große Fragen – kleine Pausen

hello world



Julia Hintersteiner

Que Sera, DH? Ein Bericht von der DHd 2024 in Passau

2024年3月5日 19:00

Passau, wir schreiben das Jahr Zweitausendundvierzehn. Irgendwo fällt ein Bit vom Baum. Eine Geisteswissenschaftlerin bleibt verwundert stehen, hebt es auf und betrachtet es von allen Seiten – was lässt sich damit wohl alles anstellen?

Passauer Stadtansicht mit dem Fluss Inn.
Passau im Jahr 2024. Foto: CC-BY Sophie Schneider, Passau 27.02.24

Passau, 2024. Es hat sich eine Traube gebildet. Vereinzeltes Kopfschütteln, aber auch viel Zustimmung und Unterstützung. Getuschel, was hat man gemeinsam, wo liegen die Unterschiede? Hier und da ein Werkzeugkoffer, Brücken werden gebaut und erste Tests am unbekannten Untersuchungsobjekt durchgeführt. Begeisterung und Tatendrang liegen in der Luft. Sie nennen sich jetzt “Digital Humanists”. Naja, nicht alle. Aber viele – und es werden immer mehr. Wie geht es weiter (und war es wirklich genau so)?!

Quo Vadis

Gut, dass es RaDiHum20 gibt und wir somit nicht nur mit Unterhaltung für die teils sehr lange Bahnfahrt versorgt wurden, sondern auch der Erinnerung an die zurückliegenden Tagungen auf die Sprünge geholfen wurde (es gab übrigens auch ein strahlend schönes Poster). Parallel wurden die Tagungen 2014-2024 in einzelnen Beiträgen ausgewertet und analysiert: DHd Chronicles, Wer mit wem … und wo? Eine szientometrische Analyse der DHd-Abstracts 2014 – 2022 und Quo Vadis Fachbereiche und Schulen der DHd: Netzwerkanalyse der DHd Abstracts 2014-2023. In der Fishbowl wurde zudem viel diskutiert: Wer oder was ist DH, brauchen wir DH als Label, sind wir eine Disziplin? Was blieb über die Zeit bestehen, was ist gegangen und was kam neu dazu? Hilft uns die “Big Tent”-Metapher in der weiteren Ausdifferenzierung des Feldes – oder schadet sie womöglich sogar?

Die Ladenfront des Geschäfts "Dies und Das Geschenkartikel". In den Vitrinen: unterschiedlichste Objekte/Souvenirs (z.B. Schilder, Figuren, Schlüsselanhänger), sortiert nach Art des Gegenstands.
DH als Big Tent – durcheinander und dennoch sortiert? Foto: CC-BY Sophie Schneider, Passau 28.02.24

Diese Fragen sind nicht neu, müssen aber immer wieder neu gestellt und ausgehandelt werden. Letztlich geben auch die DHd-Jubiläums-Analysen Rückschluss auf einige der Punkte: DH ist, wer da ist (Patrick Sahle, damals noch über die blaue Brieftaube), aber eben insbesondere auch, wer wiederkommt und disziplinenübergreifend zusammenarbeitet. Insofern freute ich mich schon sehr auf das Wiedersehen mit vielen netten Kolleg:innen aus unterschiedlichen Kontexten (u.a. FH Potsdam, DHI Paris, BBAW/TELOTA bzw. allgemein #dhberlin) und den vergangenen DHd Konferenzen (z.B. mit Nadine Sutor, die schon 2020 im Blogpost „Ich kenn‘ dich von Twitter“ // #DHd2020 über unser Kennenlernen berichtete – wie gesagt, seitdem ist viel passiert in der (Social Media) Welt) und natürlich auch auf viele erste Begegnungen.

KI und neue Realitäten

Wie zu erwarten, waren KI und speziell LLMs eines der vorherrschenden Themen auf der DHd 2024 (sicher auch vor dem Hintergrund der neu gegründeten AGKI-DH). Gefreut hat mich, dass das Thema ganz unterschiedlich behandelt und auch kontrovers diskutiert wurde. Hier fehlt mir manchmal noch die kritische Auseinandersetzung, im Sinne einer “Kritik der digitalen Vernunft”. Nennenswert fand ich den Vortrag Vertrauen in die Wirklichkeit – AI, Trust und Reliability in den Digital Humanities, bei dem u.a. die Bedeutung, Erzeugung und Erkennung von Abbildern bzw. Fälschungen im Bereich des Kulturerbes thematisiert wurden. Auch bei uns an der Staatsbibliothek wurde im letzten Jahr ein Referat Data Science gegründet, in dem wir uns innerhalb verschiedener Projekte mit Künstlicher Intelligenz bzw. Maschinellem Lernen befassen – z.B. im aktuell laufenden Projekt Mensch.Maschine.Kultur. Mit Konstantin Baierer waren wir im Kontext von OCR-D vertreten (in den Workshops Edierst Du noch oder trainierst Du schon? Forschungsdaten als Grundlage von Trainingsdaten für die automatische Texterkennung sowie Das richtige Tool für die Volltextdigitalisierung). Zusätzlich konnte ich vielfältige Inspirationen sammeln, was über die bereits bei uns entwickelten Maschinellen Lernverfahren (z.B. für Named Entity Recognition und Linking oder Bildähnlichkeitssuche) hinaus noch alles mit den historischen Werken und Zeitschriften in unserem Bestand (z.B. aus den Digitalisierten Sammlungen oder dem Zeitungsinformationssystem ZEFYS) möglich ist.

The future’s not ours to see

Zum Glück hatten wir aber im Posterslam Besuch aus der Zukunft (s.a. das Poster „Roads? Where we’re going, we don’t need roads.“ Die Zukunft des Publizierens). Letztlich geht es im Kern wohl darum, experimentelle Ansätze und Fragestellungen auszutesten, mehr aus dem Bekannten auszubrechen und sich auf unsicheres Terrain zu wagen – Scheitern gehört dazu. Innovation und entsprechende Hürden können dann z.B. schon bei der Datensammlung entstehen, wie etwa im Vortrag „Da schunklet älli mit“ – Sammlung und Erforschung dezentraler Kulturdaten der schwäbisch-alemannischen Kneipenfastnacht des Doctoral Consortiums anschaulich dargelegt wurde. Ein noch relativ junges DH-Thema sind zudem die Digital bzw. Computational Games Studies, welche auf der diesjährigen DHd vergleichsweise stark vertreten waren (z.B. mit der AG Spiele oder den Vorträgen Katalog und Textkorpus zu Diskettenmagazinen der 1980er und 1990er (Re-)Digitalisierung frühen digitalen Kulturerbes sowie Computational Game Studies? Drei Annäherungsperspektiven). Während ich mich über diese Entwicklungen sehr freue, frage ich mich, wie wir ganz allgemein noch unbekannte, aber potentiell relevante Forschungsbereiche erschließen und mehr bestehende Vertreter:innen unterrepräsentierter Bereiche für die DH begeistern können. Auch das schien mir ein wichtiges Thema auf der DHd 2024 gewesen zu (u.a. „Digital Humanities interessieren uns nicht, das haben wir schon ausgeforscht“ – Resonanz der DH am Beispiel der Theologie) und wird uns wohl noch weiter beschäftigen – gerade mit Ausblick auf die nächsten 10 Jahre Digital Humanities im deutschsprachigen Raum.

Passau, 2034. To be continued…

Berichte von DH2023 ADHO Conference Bursary Award Empfänger*innen

2023年11月19日 23:17

As one ADHO’s constituent organizations and sponsor of DH2023 the Association for Digital Humanities in the German Speaking Areas (DHd) congratulates all recipients of ADHO-Travel bursaries for DH2023 at Graz (Austria). To promote these bursaries and to encourage applications in coming years DHd has asked recipients from the German speaking areas to write individually short blog posts about their experiences.

These posts are part of the series (German and English):

Enjoy reading and consider applying for ADHO-travel bursaries for DH2024 (Washington)!

Also DHd-offers travel bursaries for its annual conference and (new) independent travel bursaries.

Bericht von der DH2023 Graz (ADHO-Travel Awards)

2023年11月19日 23:13

Autorin: Ruth Sanders (BBAW)

As one ADHO’s constituent organizations and sponsor of DH2023 the Association for Digital Humanities in the German Speaking Areas (DHd) congratulates all recipients of ADHO-Travel bursaries for DH2023 at Graz (Austria). To promote these bursaries and to encourage applications in coming years DHd has asked recipients from the German speaking areas to write individually short blog posts about their experiences. This post is part of the series.

Seit 2021 bin ich wissenschaftliche Mitarbeiterin an der Berlin-Brandenburgischen Akademie der Wissenschaften und arbeite als Entwicklerin in der Abteilung TELOTA (The Electronic Life Of The Academy) an digitalen Editionen. Im Rahmen des DFG-Projekts „Der deutsche Brief im 18. Jahrhundert“ entwickle ich u. a. die Suchfunktionen von correspSearch weiter. Im Juli 2023 erhielt ich die Möglichkeit an der DH2023 in Graz teilzunehmen und correspSearch vorzustellen, einen Webservice, der die Suche nach historischen Briefen unterstützt. Es war für mich die erste DH-Konferenz und ich hatte das Glück eine der Stipendiat:innen des ADHO-Travel Bursary zu sein. Mit diesem Stipendium wird die Teilnahme junger Wissenschaftler:innen an dieser internationalen Tagungen gefördert. Dies umfasste eine Pauschale für Reisekosten und eine Einladung zum Conference Banquet.

Die DH2023 hatte viel zu bieten. Ganz oben auf der Liste stand die Möglichkeit sich mit Kolleg:innen aus der ganzen Welt zu vernetzen. Zwischen den Sitzungen, während des gemeinsamen Abendessens, in der Straßenbahn oder in der Eisdiele, jede:r war immer bereit ins Gespräch zu kommen. So lernte ich in kürzester Zeit Digital Humanists aus Kanada, den USA, Schottland, England, Hongkong und Finnland kennen und erfuhr von den verschiedensten Projekten. Als Neuling in den Digital Humanities beschleicht einen schnell das Gefühl, dass sich alle kennen. Die Tagung war daher der perfekte Ort, um Anschluss zu finden. Insbesondere den Austausch mit den promovierenden Teilnehmer:innen fand ich prägend. Ich finde es immer sehr spannend zu erfahren, wie andere zu den Digital Humanities gekommen sind und was sie noch alles vorhaben. Ich konnte die Motivation und Neugier förmlich spüren.

Es wurde natürlich nicht nur Eis gegessen und erzählt. Auch das Programm der Konferenz war überwältigend und anregend. In sieben parallelen Sitzungen, die sich an drei Tagen von morgens bis abends erstreckten, konnte ich Vorträge besuchen, die mit meiner Arbeit zu tun hatten, aber auch Einblicke in andere, mir weniger bekannte Bereiche gewinnen. Besonders interessant fand ich die Sitzungen zu ‚Networks and graphs‘ und ‚Gender asymmetries‘. Für mich ganz neue Themen wurden wiederum in der Sitzung ‚Geospatial methods‘ besprochen, z. B. die digitale Rekonstruktion der Fassaden von Venedig. Das Gleiche galt für die Workshops vor der Konferenz. Ich kann allen nur empfehlen an so vielen Workshops wie möglich teilzunehmen. Sie sind eine großartige Möglichkeit, neue Fähigkeiten zu erlernen (in Bezug auf Methoden, Werkzeuge, Denkweisen usw.), und sie sind der perfekte Einstieg in den Wirbelwind des Wissens, der die DH-Konferenz ist.

Eindrücke von der DH2023 – Austausch und Inspiration

2023年11月17日 01:20

Als eine der ADHO-Mitgliedsorganisationen und Sponsor der DH2023 gratuliert der Verein
Digital Humanities im deutschsprachigen Raum (DHd) allen Empfänger*innen der ADHO-Reisestipendien für die DH2023 in Graz (Österreich). Um die Stipendien bekannter zu machen und um Bewerbungen in den kommenden Jahren zu fördern, hat der DHd die Stipendiat*innen aus dem deutschsprachigen Raum gebeten, jeweils einen kurzen Blogbeitrag über ihre Erfahrungen zu schreiben. Dieser Beitrag ist Teil der Serie.

Mit großzügiger Unterstützung durch eines der Reisestipendien reiste ich von Darmstadt nach Graz, um an der DH2023 teilzunehmen – meiner ersten ADHO-Jahreskonferenz. Ich begann meine Konferenzwoche bei strahlendem Wetter mit einem Workshop über Werkzeuge und Strategien zur Datenvisualisierung, bevor ich am Dienstagabend an der Eröffnungskeynote und dem Empfang teilnahm. Im Innenhof des Messegeländes genossen wir einen schönen Sommerabend und die Gelegenheit, Freunde wiederzutreffen und neue Kontakte zu knüpfen.

Höhepunkte des Mittwochs, des ersten „richtigen“ Konferenztages, waren eine Session zu Literaturwissenschaft, meinem Arbeitsschwerpunkt, und ein langer Spaziergang durch die Postergalerie. Am Donnerstag konnte ich mir einige spannende Vorträge über Natural Language Processing und Sprachmodelle anhören, bevor ich in der letzten Session des Tages einen eigenen Vortrag halten durfte – mein erster Vortrag überhaupt auf einer Konferenz. Nach dem erfolgreichen Vortrag konnte ich zusammen mit allen anderen Empfänger*innen der Reisestipendien beim Konferenzdinner im Restaurant auf dem Schlossberg feiern.

Am Freitag gab es weitere Sessions zu Literaturwissenschaft, die ich nutzen konnte, um mich weiter mit Kolleg*innen aus nah und fern auszutauschen. Ich habe viel Inspirationen und neue Denkanstöße zu aktuell verwendeten Methoden und derzeit diskutierten Themen mitgenommen und verlasse diese DH-Konferenz motiviert und stolz auf meine erste Präsentation. Ich bin auch sehr dankbar für all die Menschen, die ich treffen und wieder treffen konnte, und ich freue mich darauf, in Zukunft mit einigen von ihnen zusammenzuarbeiten. Die Organisation und der Veranstaltungsort der Konferenz waren ausgezeichnet, auch in den Pausen wurden wir gut versorgt. Ich möchte mich bei den Unterstützer*innen der Reisestipendien bedanken und kann allen Early Career Researchers nur empfehlen, sich zu bewerben. Ich freue mich schon auf die nächsten DH-Konferenzen in Washington D.C. und Lissabon!

❌