普通视图

Received before yesterday

Rückblick auf die DHd 2026 – Nicht nur Text

2026年4月1日 15:53

Als Stipendiatin des DHd-Verbands obliegt es mir einen Blogeintrag bezüglich meiner Erfahrungen auf dieser Konferenz zu schreiben. An dieser Stelle möchte ich meinen herzlichen Dank an den DHd-Verband ausdrücken, ohne dessen Förderung ich nicht an dieser Konferenz hätte teilnehmen können. Da es sich dabei um meine allererste Konferenz gehandelt hat, bin ich dem DHd-Verband noch dankbarer für diese Chance!

Nachdem der genaue Programm-Ablauf online im Detail abgerufen werden kann, wollte ich die Konferenz nicht Schritt für Schritt protokollieren, sondern lieber erst etwas sacken lassen, um zu sehen, welche Elemente, denn den größten Eindruck hinterlassen haben. Zu den eindrucksvollsten Elementen zählen für mich die Räumlichkeiten, die eröffnende Keynote sowie einer der Workshops. Auch die hier nicht aufgeführten Panels, Sessions, Workshops, Vorträge und Diskussionen waren alle hervorragend und ich konnte aus allen, an denen ich teilgenommen habe, etwas mitnehmen, doch die im Folgenden genannten Elemente werden mich am längsten begleiten.

Imposante Räumlichkeiten

Auf Anhieb fällt da zunächst das imposante Hauptgebäude ein mit seiner in gleichem Maße wunderschönen als auch verwirrenden Architektur. Die zahlreichen breiten Treppen, die Statuen und der Stuck verleiten der Konferenz ein besonderes Flair, der schwer zu imitieren ist. Besonders stechen dabei natürlich die Festsäle heraus: nicht nur waren diese ein wahrer Augenschmaus mit ihren hohen, aufwändigen Stuck-Decken, es wurde auch besonders viel Zeit in ihnen verbracht, nachdem hier die regelmäßigen Kaffeepausen mit Gebäcken zur Stärkung zwischendurch verbracht wurden. Insgesamt hatte man dank der Kulisse das Gefühl in eine andere Welt eingetaucht zu sein, fern vom regulären Alltag und gefüllt mit Wissenschaft, Forscher:innen und digitalen Methoden.

An dieser Stelle kann auch generell die Verpflegung positiv hervorgehoben: zweimal am Tag wurden Kaffee, Tee und zahlreiche Variationen an Gebäck angeboten, mit sowohl pflanzlicher als auch tierischer Milch, die einen immer gestärkt in die nächste Veranstaltung ziehen haben lassen.

Eine andere Räumlichkeit, die starken Eindruck hinterlassen hat, war das Rathaus. Mit noch stärker verschachtelten Treppen als im Hauptgebäude der Universität Wien versetzt es einen direkt in vergangene Jahrhunderte. Noch beeindruckender war allerdings der Festsaal, welcher über und über mit Gold, Kristall und anderen Verzierungen prunkt. Während des Empfangs im Rathaus durch diesen Saal zu schlendern und die Verzierungen im Detail zu betrachten, war ein außergewöhnliches Vergnügen besonders, wenn man dabei in guter Gesellschaft war.

Keynotes und Datenaliens

Von den Keynotes ist mir vor allem die von Miriah Meyer zu „Data As _______: Exploring the Plurality of Data in Visualization“ in Erinnerung geblieben. Nicht nur war ihr Vortrag informativ und unterhaltsam, ihre PowerPoint-Präsentation war ein Zeichen ihrer Spezialisierung auf (Daten)Visualisierung. Grundlegend wurden in diesem Vortrag Fragen gestellt, wie Was sind Daten? Woher kommen sie? Wer macht Daten?. Eine Antwort, die mir dabei besonders in Erinnerung geblieben sind, waren die Datenaliens, die von Kindern kreiert und mit ihren eigenen Informationen gefüllt wurden. Das Konzept, das alles Daten sein können und jede:r Daten kreieren kann, mag zwar simpel sein, jedoch war es doch eine Epiphanie die mich in meinem weiteren Leben und Forschungsweg begleiten wird.

Ein beeindruckender Workshop

Besonders oft musste ich an den Workshop am Dienstag zu „LLMs unter Kontrolle: Offene Modelle in Forschung und Praxis“ von Jürgen Hermes, Kai Niebes, Sarah Oberbichler, Andreas Wagner zurückdenkend. Nicht nur wurde dieser sehr interessant und abwechslungsreich gestaltet, inhaltlich kann ich die vermittelten Kompetenzen, allen voran das Selbst-Hosten eines LLMs (selbst auf meinem alten Laptop), für meine Masterarbeit zur Erkennung generierter Paper direkt anwenden. Aus diesen Gründen möchte ich nun etwas vertiefter diesen Workshop beschreiben.

Beginnend mit einer theoretischen Einheit zu den Grundlagen von LLMs sowie verschiedenen Konzepte der Offenheit (Open Source vs. Open Weights) wurde eine solide gemeinsame Wissensbasis erarbeitet. Dabei wurde grundlegend die Architektur von LLMs erläutert sowie auf die Problematik von proprietären Modellen im Forschungskontext eingegangen. Im Anschluss gab es eine Praxis-Einheit in der gezeigt wurde, wie Modelle lokal auf dem eigenen Laptop zum Laufen gebracht werden können. Beginnend mit einer sehr hilfreichen Anleitung zum Starten einer virtuellen Umgebung und mehreren Python-Dateien mit denen man Schritt für Schritt an neue Elemente, wie System Prompts, herangeführt wurde. Eingegangen wurde dabei auch auf die verschiedenen Parameter, die zur Verfügung stehen, um den generierten Output zu beeinflussen, darunter auch die Temperatur oder der Seed.

Im Anschluss an die Mittagspause gab es dann den zweiten Theorieblock: der Einsatz offener LLMs (OpenLLMs) in den DH. Dabei wurde sowohl darauf eingegangen, welche Modelle verwendet werden und inwiefern general-purpose Modelle angemessen für die Forschung eingesetzt werden können als auch die Unterscheidung zwischen LLMs als Methode oder als Werkzeug erläutert und welche Folgen das jeweils mit sich bringt, vor allem in Bezug auf mögliche Risiken, die abgewogen werden müssen. Im Fokus stand dabei auch das Maß an Kontrolle über das verwendete Model: proprietäre Modelle bedeuten wenig Kontrolle, währen lokale Modelle mehr Kontrolle bieten können. Dann wurde noch darauf eingegangen, wie offene Modelle implementiert werden können: Beispiele für (Cloud) Server, wie HPC-Jupyter oder Huggingface Inference/Jobs und JupyterHubs, etwa vom Leibniz-Rechenzentrum oder vom RWTH der Universität Aachen wurden genannt. Außerdem wurde darauf aufmerksam gemacht, dass die eigenen Institutionen eventuell auch High Performance Computing (HPC)-Dienste anbieten. Zum Abschluss wurde der Fokus noch auf die Evaluation und die möglichen Optionen gelegt: von programmatischer Evaluation bis verschiedene, bereits existierende Metriken wurde einiges genannt.

Besonders positiv hervorzuheben sind hier auch die verwendeten Bilder im Foliensatz: die Bilder stammen von https://betterimagesofai.org/, einer non-profit Kollaboration mit dem Ziel nicht-generierte Bilder rund um das Thema Künstlicher Intelligenz zur Verfügung zu stellen, um somit Stereotype und Klischees zu reduzieren. In Anbetracht des exzessiven Einsatzes von generierten Bildern in unserem Alltag mittlerweile (von Werbung im Kino bis Serviettenmotive), war es eine sehr willkommene Abwechslung, gerade in einem Workshop zum Einsatz von KI, keine generierten Bilder zu sehen.

Im direkten Anschluss an den zweiten Theorieteil folgte der zweite Praxisteil, welcher die Leistungsfähigkeit offener Modelle, wie etwa OLMO, aufgezeigt hat. Dabei wurde sowohl gezeigt wie über die Hugging Face Inference API als auch HuggingFace Jobs eingesetzt werden können.

Da ich in meiner Masterarbeit viel mit LLMs arbeite, wird besonders der Part zum selbst-hosten von Modellen mir viel weiterhelfen können und mir neue Optionen ermöglichen.

Fazit

Insgesamt war die DHd 2026 eine eindrucksvolle Konferenz, die verschiedene Themen- und Forschungsbereiche abgedeckt hat, manche vertraut, andere komplett neu, jedoch alle verbunden durch die Digital Humanities. Es war ein guter Einblick in Konferenzen und einen Teil der wissenschaftlichen Welt mit dem ich bisher noch keinen Kontakt hatte. Somit möchte ich mich noch einmal explizit beim DHd-Verband bedanken mir die Mittel gegeben zu haben, an dieser wunderbaren Konferenz teilgenommen haben zu können sowie grundlegend für das Ausrichten dieser Konferenz!

Nicht nur Text, nicht nur Daten…Sondern?

2026年3月31日 23:42

Dieser Blogbeitrag zur DHd2026 in Wien entstand im Rahmen des DHd Early Career Reisestipendiums, gefördert durch NFDI 4 Culture. Neben der statischen Fassung hier im Blog ist über den Button auch eine scrollbare Version über GitHub verfügbar.






Unter dem Motto „Nicht nur Text, nicht nur Daten“ präsentierte sich die DHd 2026 in Wien als Einladung, die Vielfalt in der DH sichtbar zu machen. Als Erstbesucher, gefördert durch ein Early Career Reisestipendium von NFDI 4 Culture, konnte auch ich davon einen kleinen Ausschnitt erleben. Auch aus diesem begrenzten Blick sind dabei doch ein paar Themen geblieben, die sich in den von mir besuchten Sessions immer wieder verdichteten. Ausgehend davon stellt sich mein Bericht daher die im Motto implizit angelegte Frage nochmal ganz ausdrücklich:

Nicht nur Text, nicht nur Daten…SONDERN?


KI

Das Thema KI darf natürlich an keiner guten Konferenz fehlen – besonders nicht in den Digital Humanities. Auch an der diesjährigen DHd war das Thema daher wieder in vielen Beiträgen präsent. Dabei galt der Blick auf das Thema weniger dem Versprechen einer vollständigen Automatisierung bestimmter Schritte, sondern mehr als Werkzeug, um Zugänge zu schaffen. Zahlreiche Ansätze setzen auf geteilte Arbeit von Mensch und Maschine. Schlagwörter wie der Human-in-the-Loop markierten den Anspruch, selbst aktiv zu werden und gewonnene Ergebnisse nicht unreflektiert zu benutzen. Die Möglichkeit, durch die KI Zugänge zu schaffen wurde sowohl für DHler*innen, aber auch für potenzielle Nutzer*innen von DH-Produkten wie digitale Editionen erkannt. KI als archäologisches Werkzeug für ein Reverse Engineering vorhandener, nur schwer verständlicher Code- oder Datenstrukturen, aber auch durch die Verwendung eines Model Context Protocol als Zugriffspunkt für Nutzer*innen, die so im Dialog mit dem Sprachmodell die Daten durchsuchen können. Die Nutzung von KI als Aussicht auf neue Formen der Interaktion mit dem Material und als Mittel, um bestehende Barrieren zu senken.

Lessons Learned eines der ältesten DH-Projekte der Welt: Paradigmenwechsel von RDF-Strukturen zu AI-gestützter Erschließung in der MHDBDB

Zeppezauer-Wachauer, Katharina / Hintersteiner, Julia / van Beek, Alan / Steiner, Christian
Zum Beitrag auf Zenodo

Agenten im Dienst der Edition: Dialogische Zugänge zu digitalen Editionen mittels Model Context Protocol (MCP) basierten KI-Agenten

Westphal, Tim
Zum Beitrag auf Zenodo


Nachhaltigkeit

Auch das Thema Nachhaltigkeit hatte als Dauerbrenner der DH seinen festen Platz auf der diesjährigen DHd – nicht etwa deshalb, weil es so oft behandelt wird, sondern weil das Thema weiter brandaktuell bleibt. Zwischen technischem Anspruch, der Realität oft stark begrenzter Ressourcen und der Frage nach langfristiger Nutzung zeigt sich so eines der zentralen Spannungsfelder der Digital Humanities.

In den von mir besuchten Beiträgen wurde deutlich, dass digitale Editionen und Projekte nur dann langfristig erhalten werden können, wenn Nachhaltigkeit bereits früh in Planung und Konzeption mitgedacht wird. Projekte sollten ihre Komplexität am tatsächlichen Bedarf ausrichten und vorhandene Ressourcen berücksichtigen. Gleichzeitig können technische Strategien wie Reduktion (Minimalcomputing), die Nutzung wiederverwendbarer Module oder robuste Architekturen dazu beitragen, dass Projekte über längere Zeiträume nutzbar bleiben. Gerade Interfaces stehen hier im Fokus, da sie bei digitalen Editionen oft am zerbrechlichsten sind. Positiv aufgefallen war mir zumindest noch, dass in einem Beitrag auch die Barrierefreiheit über ARIA-Labeling berücksichtigt wurde – ein Ansatz, der gleichzeitig die Robustheit der Strukturen stärkt.

Der rosa Elefant im Raum oder: Wie viel Ewigkeit wollen wir uns leisten? Überlegungen zur langfristigen Verfügbarkeit digitaler Editionen

Esch, Claudia / Roeder, Torsten / Reul, Christian
Zum Beitrag auf Zenodo

QUEDEE: Quest for Unrelenting Experimentation of Durable Electronic Editions

van Zundert, Joris
Zum Beitrag auf Zenodo

Generische Editionen – Bottom up? Ein static-site-basiertes Template für die synoptische Darstellung der Textversionen von Wernhers driu liet von der maget – und anderer Texte.

Haak, Carl Friedrich / Viehhauser, Gabriel / Miklautsch, Lydia / Müller, Stephan / Andorfer, Peter
Zum Beitrag auf Zenodo

Nachhaltiger Betrieb generischer Forschungsdatenwerkzeuge: Erfahrungen aus 10 Jahren Spacialist

Derntl, Michael / Brendel, Heiko / Opel, Severin / Quénéherve, Geraldine / Offermann, Martin / Rosenkranz, Vinzenz
Zum Beitrag auf Zenodo


Perspektiven

Der Blick auf die eigene Arbeit und die erarbeiteten Ergebnisse wurde an der DHd in Wien aus verschiedenen Perspektiven. Verschiedene Beiträge wollten dafür sensibilisieren auch solche zuzulassen, die vielleicht weniger prominent sind – oder andere Aspekte betonen. Dabei lässt sich aus Bereichen wie der Gender-Forschung, Diversität, Multilingualität, Barrierefreiheit oder der Theorie viel Potential für eine inklusive und reflektierte Forschungspraxis gewinnen. Neue Perspektiven können in Daten neue Kontexte sichtbar machen. Methoden wie Data Crafting oder Entagled Data zeigen, dass Daten nicht nur produziert und gesammelt werden sollten, sondern stellen die Reflexion über verschiedene Kontexte von Daten in den Mittelpunkt. Perspektive in der DH heißt demnach, die eigenen Rahmenbedingungen mit-, um-, oder manchmal auch neuzudenken. Beginnen tut das oftmals aber erst bei der nötigen Sensibilisierung für diese.

The Dark Sides of DH revisited: From Utopia to Reality

Arnold, Matthias / Horváth, Alíz / Lang, Sarah / Müller-Laackman, Jonas / Roeder, Torsten
Zum Beitrag auf Zenodo

Nicht nur Text, nicht nur Daten … aber was dann? – ‚Theoretisieren‘ durch Praktiken in der digitalen Editorik, der Digital History und den Computational Literary Studies

Lucke, Alexa / Eggert, Lisa / Geiger, Jonathan D. / Gengnagel, Tessa / Hainke, Jessica / Hegel, Philipp / Schwandt, Silke / Untner, Laura / Wachter Christian
Zum Beitrag auf Zenodo

Translations and the gender gap in the German National Library: A case study for women writers

Teichmann, Lisa
Zum Beitrag auf Zenodo

Data As _______: Exploring the Plurality of Data in Visualization

Meyer, Miriah
Zum Text auf der DHd-Website

Digital Humanities Unpacked: The Politics and Practices of Data Work

Kinder-Kurlanda, Katharina
Zum Text auf der DHd-Website


Bilder

Die Beschäftigung mit Bildern in der DH wirkt – für mich zumindest – oft noch wie der Sonderfall. Wenn sich doch die meisten mit Texten beschäftigen, wirken Bilder mehr wie dekorativer Zusatz. Dass sich das vielleicht aktuell zu ändern scheint zeigten einige Beiträge an der DHd. Insbesondere aus der Digital Art History rückten mehrere Vorträge die Analyse, Erschließung und Auswertung von Bildmaterial in den Blick. Ob es um die optimale Mischung von Bildern aus Herbarien und Drucken als Trainingsdaten für KI, die Entwicklung von Klassifizierungssystemen für Bildbeschreibungen oder die Erkennung historischer Szenen geht – Bilder traten hier als eigenständige Forschungsobjekte auf, die neue Perspektiven ermöglichen. Die Ausführungen zeigten das ihnen innewohnende Potenzial, das weit über bloße Illustration hinausgeht.

Deep Seeing the Sacred: Zur KI-gestützten Analyse historischer Bilderzählungen

Bell, Peter / Verstegen, Ute
Zum Beitrag auf Zenodo

Die Erkennung von Pflanzen in Herbarien und Drucken: Kollektionsaufbau und Klassifikationsexperimente mit Bildanalyse-Systemen

Lindemaier, Lisa / Diem, Sebastian / Feuerstein-Herz, Petra / Draheim, Christina / Strötgen, Robert / Mandl, Thomas
Zum Beitrag auf Zenodo

From Miniature to Metadata: Transferring AI-Assisted Iconography to Medieval Manuscripts

Hintersteiner, Julia / Thomas, Drew B.
Zum Beitrag auf Zenodo




Mit Blick zurück sind mir doch einige Themen von der DHd 2026 in Wien ganz gut in Erinnerung geblieben. Insgesamt aber bleibt der Überblick aber weiter nur ein Ausschnitt. Auf jeden Fall zeigte sich für mich an der DHd die Vielfalt, die in den Digital Humanities steckt. Vielleicht lässt sich ja an das ein oder andere noch anknüpfen…

Nicht nur Text, nicht nur Daten – die DHd Community

2026年3月20日 19:35

Ein gemeinsamer Erfahrungsbericht von Luise Prager und Cris Ortega

Wir in den DH – Unsere akademischen Wege

Die DHd 2026 ist die erste große Digital Humanities Konferenz für uns beide und wir würden lügen, würden wir sagen, wir hätten keinen Respekt vor der uns erwartenden Woche. Erst im vergangenen Oktober haben wir unsere Stellen als Doktorand*innen im Graduiertenkolleg „Literatur und Öffentlichkeit in differenten Gegenwartkulturen“ an der FAU Erlangen-Nürnberg angetreten. Die nächsten Jahre beschäftigen wir uns beide mit Projekten, die uns in den Digital Humanities verorten, auch wenn wir aus unterschiedlichen Blickrichtungen auf dieses komplexe Fachgebilde blicken.

Luise: Ich habe im Bachelor noch Deutsch und Musik auf Lehramt studiert. Meinen Master habe ich dann in Germanistik mit dem Schwerpunkt Literaturwissenschaft gemacht. Mein erster Berührungspunkt mit den DH entstand durch einen Corona-Zufall: In der zähen Zeit des Zoom-Studiums wollte ich mit einer Freundin aus der Anglistik einen Kurs zusammen belegen – das war nur möglich im Wahlpflichtmodul „Einführung in die digitale Literaturwissenschaft“. Bei der digitalen DHd 2022 war ich dann bereits als Hilfskraft dabei und begann, im Team von Peer Trilcke an dem Annotationsprojekt von Henny Sluyther-Gäthje zu arbeiten. Noch bei der Digital Humanities Winter School der Freien Universität Berlin und der Hebräischen Universität Jerusalem 2023 fand ich die vorgestellten Methoden zwar wahnsinnig interessant, war mir aber sicher, meine eigenen Forschungsfragen nicht computergestützt verfolgen zu können. Ich interessiere mich vor allem für Gegenwartsliteratur und hatte die DH und die CLS bislang nur im Kontext historischer Forschungsgegenstände kennengelernt.
Aber der zarte Keim ging auf und in meiner Masterarbeit habe ich ein kleines Korpus deutschsprachiger Gegenwartsromane quantitativ untersucht. Und nun promoviere ich: Ich erstelle ein Korpus von 168 Gegenwartsromanen und untersuche es mit den Methoden der digitalen Stilometrie und der hermeneutischen Textanalyse. Dadurch möchte ich erforschen, wie die Festschreibung von Gruppen und die Selbst- und Fremdzuschreibung von Gruppenzugehörigkeiten das literarische Feld der Gegenwartsliteratur organisieren. Ich möchte beides sein: Digital Humanist und Literaturwissenschaftlerin und das Wissen aus beiden Disziplinen bündeln, um weiterhin Gegenwartsliteratur zu untersuchen.

Cris: Für mich waren die Digital Humanities schon seit Beginn meines Studiums meine Kerndisziplin. Als einer der ersten Jahrgänge startete ich 2017 in ein grundständiges Bachelorstudium der Digitalen Geistes- und Sozialwissenschaften, sowie Soziologie an der FAU Erlangen-Nürnberg und war sehr schnell aktiv als Hilfskraft von Jacqueline Klusik-Eckert und Peter Bell in DH-Forschungsprojekte eingebunden. Zwischen eigenen Projekten, Hackathons, Summer Schools, ersten Symposien und Konferenzen, war mir klar: Das ist die Wissenschaftsumgebung, in der ich bleiben will!
Im konsekutiven Master Digital Humanities orientierte ich mich tiefer in den Critical Data Studies und Applied Digital Humanities. In meiner Masterarbeit erstellte ich das erste größere digitale Textkorpus zu deutschsprachiger Slam Poetry mit über 3800 publizierten Texten und untersuchte die textuelle Einschreibung von Körperlichkeit in Poetry Slam. In meiner Promotion führe ich diese Arbeit nun mit einer multimodalen Perspektive auf die verschiedenen Dimensionen von Körperlichkeit in Poetry Slam und seiner Rezeption fort. Hauptuntersuchungsobjekt sind für mich 2340+ YouTube-Videos von Slam Performances, sowie einzelne Live-Beobachtungen. Mit der ersten skalierten und computergestützten Studie zu Slam Poetry mit einem multimodalen methodischen Aufbau, bin ich aktuell ständig am Orientieren und Reflektieren, welche theoretischen und methodischen Best Practices für mein Projekt besonders ertragreich sind. Dazwischen habe ich manchmal das Gefühl auch innerhalb der DH neue Brücken zwischen Fachtraditionen bauen zu müssen. Dass ich Digital Humanist bin, steht jedoch fest.
Die kritische Perspektive auf das Fach und seine Praktiken, in denen ich mich so zuhause fühle, ist mir dabei wichtig. Das liegt vielleicht auch daran, dass mir das Wissenschaftssystem an sich manchmal befremdlich erscheint. Mehrere überschneidende Positionalisierungen lassen mich in meinen Erfahrungen manchmal als Minderheit in akademischen Räumen fühlen. Das bringt für mich eine gewisse Orientierungslosigkeit mit, wie das System Wissenschaft für mich am besten zu navigieren ist. Dis-Orientierung kann aber wohldosiert auch durchaus helfen, Praktiken und Systeme zu reflektieren. Als Early Career Researcher bin ich deshalb immer auf der Suche nach Wissenschaftler*innen, die heterogene Lebensläufe mitbringen und aus unterschiedlichen Positionalisierungen heraus sprechen.

Wir auf der DHd – Unser Blick auf den Flickenteppich der DH

So unterschiedlich unsere Wege in die DH auch sind, nun promovieren wir beide im Kolleg bei Anastasia Glawion. Jeder Weg in die DH ist einzigartig, doch übergreifende Muster machen sich bemerkbar. Luise ist nicht die einzige Literaturwissenschaftlerin, die aus Versehen in die DH stolpert und Cris gehört zur ersten Generation der DH-Studierenden. Daher hat uns auf der Konferenz interessiert, wie vielfältig die beruflichen, sozialen und akademischen Hintergründe derjenigen sind, die heute im Feld der Digital Humanities tätig sind. Die DHd 2026 ist unsere erste große Konferenz und mit orientierenden Blicken wollen wir festhalten, wer neben Text und Daten die Wissenschaftler*innen sind, die die DHd Community ausmachen.
Um dem nachzugehen, haben wir beobachtet, reflektiert und uns ausgetauscht. Auch haben wir einzelne Kurzinterviews mit anderen Teilnehmenden der Konferenz geführt und sie nach ihren Erfahrungen auf der DHd und im Fach Digital Humanities gefragt. Besonders interessierten uns in den Interviews vier Leitfragen:

  1. Welcher Vortrag oder Workshop hat Sie besonders inspiriert und warum?
  2. Wie sind Sie zu den Digital Humanities gekommen?
  3. Wenn Sie sich ihre bisherige wissenschaftliche Karriere anschauen, an welchen Stellen haben Sie für sich bisher die größte Herausforderung gesehen?
  4. Welchen Rat würden Sie jungen Wissenschaftler*innen wie uns geben?

Wir besuchten dabei gemeinsam Beiträge, divergierten jedoch auch in unserer Auswahl an Sessions. Zusammen waren wir bei dem Workshop „Beyond m/w/d“, der eine Plattform bot, um über die Erhebung von Genderdaten zu diskutieren.

Cris: Ich stellte im Rahmen des Workshops kurz mein Vorgehen zu einer zeit-sensitiven, community-zentrierten und kontext-abhängigen Erfassung von Gender für Korpora der Gegenwartsliteratur vor. Sonst besuchte ich in einem Querschnitt Beiträge zu verschiedensten Themen. Von der Session zu Digital Art History, über das Panel zu Intertext, dem Workshop zu Film- und Videoanalyse mit VIAN & TIB-AV-A und vielen weiteren Beiträgen, auf die ich später noch zu sprechen komme.

Luise: Auf der Konferenz haben mich die Beiträge der CLS interessiert, insbesondere das Panel, in dem das Korpus deutschsprachiger Gegenwartsliteratur DeLiKo@DNB vorgestellt wurde, da es meinem eigenen Korpus am nächsten kommt. Die DH-Calls der DNB haben sich auch später am Poster von Philipp Genêt als vielversprechend für mein Projekt erwiesen. Dort und im Panel zur Modellierung und Annotation von Intertext habe ich neue Ideen für die Nachnutzung meines Korpus erhalten, das urheberrechtsgeschützt ist.  Außerdem habe ich mit großem Interesse den Vortrag von Judith Brottrager verfolgt, die mit ihrem Kanon-Score Literaturgeschichte modelliert und ebenfalls mit Netzwerken arbeitet.

In diesem Blogbeitrag halten wir nun die Ergebnisse unserer persönlichen Reflexionen zur DHd und ausgewählte Ausschnitte der Interviews fest. Cris denkt vor allem über theoretische Positionierungen in und zwischen Fachtraditionen nach, während Luise ganz praktisch die Einbindung von Studierenden in die DH-Community reflektiert.

Cris: Dis-Orientierungen im Fächer-Flicken-Teppich

Die Ausrichtung der Konferenz „Nicht nur Text Nicht nur Daten“ hat mich von Beginn an abgeholt. Mit meinem Projekt, das sich im Kern mit multimodalen Analysen von Video-, Audio-, Text- und Rezeptions-Daten beschäftigt, war ich sofort gespannt darauf, neue Perspektiven zum Umgang mit Medien, die über Text hinausgehen, kennenzulernen.
Ein paar Tage vor der Reise nach Wien saß ich am Rechner und klickte mich durch das Programm und zwischendurch war die Aufregung so groß, dass meine Hände wild durch die Luft flatterten und ich Nachrichten an Luise und andere Kolleg*innen schicken musste, um meiner Vorfreude Raum zu geben. Im Raster fanden sich Sessions zu Digital Soundscapes, Operationalisierung, Multimodalität, Digital Art History – viele vielversprechende Vortragstitel hinter denen potenziell relevante Zugänge für meine Forschung lagen.
Im Prozess der Entscheidungsfindung, welche Beiträge ich denn nun besuchen möchte, las ich die vielen Beschreibungstexte und mir wurde schnell klar: Begriffe unter denen ich aus meiner fachlichen Perspektive eine bestimmte Vorstellung hatte, wurden von anderen durchaus sehr unterschiedlich behandelt. Anlehnungen an heterogene Fachtraditionen eröffneten mir ein Spannungsfeld, in dem ich nun meinen Platz suchte.
Während im Workshop zu Film- und Videoanalyse praktische Tools für die computergestützte Analyse von audiovisuellem Material anhand vieler Parameter vorgestellt wurden, fand am letzten Tag der Konferenz eine Diskussion im Panel „Is there a Digital Art History at the DHd?“ statt, in der unter anderem angemerkt wurde, dass eine brückenschlagendere Zusammenarbeit der Fachdisziplinen über das Bildmedium fruchtbar sein könnte. Das Panel zu Intertextualität und seiner spannenden Diskussion, welches ich ein paar Tage vorher besucht hatte, schien hier Welten entfernt. Irgendwo dazwischen sammelte ich Notizen für mein audiovisuelles Material mit literaturwissenschaftlich-soziologischen Fragestellungen auf multimodale Performance-Poetry.
Mit dem Gefühl, zeitweise schwindelerregend dis-orientiert zwischen Fächern zu sein und selbst in den DH erst den eigenen Ort finden zu müssen, scheine ich nicht alleine zu sein. In fast allen Gesprächen, zu Lebenswegen in die DH, die ich auf der DHd führte, spielte die Entgrenzung und Überschreitung sowie Neujustierung in und zwischen Fachtraditionen eine Rolle. Der Einstieg in das Fach passierte für viele dabei eher zufällig:

  • „Zu den DH bin ich ganz zufällig gekommen […]. Auf die Idee, das, was ich im Informatik-Studium gelernt habe, in meinem Geschichtsstudium anzuwenden, bin ich erstmal nicht gekommen und habe das ganz „getrennt“ gemacht. Erst nach dem Studium bin ich darauf aufmerksam geworden, dass es Anwendungen der Informatik in den Geisteswissenschaften gibt und habe dann als wissenschaftliche Mitarbeiterin in den DH angefangen.“
  • „Ich glaube, also ich wusste auf jeden Fall, dass ich interdisziplinär arbeiten will, weil mir einfach beides Spaß gemacht hat. Ich wusste nicht so wirklich, was DH ist. Ich wusste nicht, dass es existiert. Und dann habe ich fast zufällig meinen Weg dahin gefunden und war so: Ja, das ist eigentlich genau die Nische, wo ich sein will.“

Weitere Wissenschaftler*innen in verschiedenen Phasen ihrer Karriere berichteten, dass sie erst während und nach der Promotion mit digitalen Methoden in ihren geisteswissenschaftlichen „Heimaten“ in Berührung kamen und sich so schließlich den Digital Humanities näherten. 
Die Dis-Orientierung und das Stehen zwischen Traditionen ist dabei eine Hürde, kann aber auch eine Stärke sein, wie eine Person berichtet:

  • „[…] dadurch, dass man in den DH in so einer Schnittstelle ist zwischen Informatik und den Geisteswissenschaften, habe ich manchmal das Gefühl, dass man in beiden irgendwie ein Outsider ist und in beiden nicht so die fundierte Kenntnis hat und nicht so die richtige Fachwissenschaft machen kann. Ich glaube, das ist so ein bisschen ein Learning, was man mit der Zeit hat, dass man das als Stärke interpretiert, dass man eben in beiden Sachen irgendwie sein kann und Forschung machen kann und das ganz toll zusammenbringen kann, was auch nicht viele Leute können, weil sie ja immer eigentlich in ihren eigenen Disziplinen unterwegs sind.“

In einem intensiven Gespräch mit neuen Bekanntschaften in der Mittagspause sprachen wir darüber, dass die Digital Humanities wohl gerade ihre eigene Fachtradition baut. Die erste Generation an Jungwissenschaftler*innen hat Digital Humanities studiert. Ich gehöre zu ihnen. Was das genau bedeutet und welches Fachhandwerk je nach Studium mitgebracht wird, muss sich noch zeigen.
Vielleicht auf der Suche nach einer Annäherung an ebenjene Fachtradition der DH, besuchte ich am Ende besonders Sessions zu den theoretischen Zugängen zu DH. Im Panel „Nicht nur Text, nicht nur Daten … Aber was dann? – ‚Theoretisieren‘ durch Praktiken in der digitalen Editorik, der Digital History und den Computational Literary Studies“ und dessen Publikum begegneten sich verschiedene Fachdisziplinen und diskutierten über die Praktiken des Theoretisierens in den Digital Humanities. Besprochen wurden auch die „Wahlverwandschaften“, die die Digital Humanities mit Fächern der Geisteswissenschaften eingeht. Zentral waren Fragen, wie: Welche theoretischen Vorannahmen bringen wir in die methodische Arbeit in den Digital Humanities mit? Was geht in interdisziplinären und technologisch-methodischen Übersetzungen verloren? Was braucht es, um in den DH mit ihren vielen Facheinflüssen auch mit Rückbezug in die Geisteswissenschaften zu theoretisieren?
Gerade diese Diskussion und andere Inputs in den Sessions mit theoretischerem Fokus, wie die Session zu „Epistemologie und Interpretation“ oder „Operationalisierung“ schienen mir besonders anschlussfähig für meine Forschung zwischen den Stühlen der Disziplinen und insgesamt besonders interessant für multimodale und allgemeiner transdisziplinäre Ansätze, wie sie in den Digital Humanities immer mehr Einzug halten. Denn heterogene Fachrichtungen und Wahlverwandschaften bringen nun mal unterschiedliche Vorstellungen zu den Praktiken des Theoretisierens mit. Eine fruchtbare, manchmal auch furchtbare Dis-Orientierung in transdisziplinären Projekten.
Ein Ort, der sehr fruchtbar und innovativ zeigte, welche transdisziplinär-produktive Forschung im Kern der DH möglich ist, war das Doctoral Consortium auf der DHd. Gleich mehrere unserer Gesprächspartner*innen berichteten uns in kurzen Interviews, dass gerade diese Vorträge sie besonders inspiriert haben und nachhaltig in Erinnerung geblieben sind. So berichtet eine interviewte wissenschaftliche Mitarbeiterin:

  • „Ich hatte das Gefühl, die Leute haben da viel mitgenommen und generell fand ich das Doctoral Consortium ganz toll, weil ganz viele verschiedene innovative Ansätze aus allen möglichen Subdisziplinen da vorgestellt wurden.“

Auch eine Professorin antwortete uns auf die Frage, welcher Vortrag oder Workshop Sie besonders inspiriert hätte:

  • „Mir haben besonders die Vorträge im Doctoral Consortium gefallen – es ist toll, die Vielfalt der Themen zu sehen und die Tiefe zu sehen. Beeindruckt haben mich auch die vielen originellen Präsentationen beim Poster Slam.“

Sie gibt uns Early Career Researchern den Tipp:

  • „Sich so bald es geht in der Praxis zu versuchen – sei es als studentische Hilfskraft in einem Forschungsprojekt, als Teilnehmer*in an einer Tagung oder indem Sie eine eigene Idee umsetzen. Schauen Sie, wo Ihre Interessen liegen und seien Sie neugierig und eigeninitiativ – viele technische Themen kann man super anhand von Videos und Tutorials (und mit KI-Unterstützung…) lernen.“

Ein paar Tage nach der Konferenz landete die Mail mit der Aufnahmebestätigung zum Mailverteiler der AG Theorie in meinem Postfach. Im Rahmen der DHd konnte ich die AG und ein paar ihrer Mitglieder beim gemeinsamen Mittagessen und AG Treffen näher kennenlernen. Vielleicht finden sich auch in Zukunft für mich noch fachliche „Wahlverwandschaften“ und produktive Dis-Orientierungen für meine Forschung in den Gesprächen über die Praktiken des Theoretisierens in einem Fach, das aus so vielen heterogenen Wegen des wissenschaftlichen Werdens besteht.

Luise: Ein weiterer Flicken: Die Studierenden

Ähnlich wie Cris war ich selbst aufgeregt, zum ersten Mal nicht als wissenschaftliche Hilfskraft, sondern als Wissenschaftlerin an einer Konferenz teilzunehmen. Umso überraschter war ich von den vielen Studierenden aus vielen unterschiedlichen Fachrichtungen, die mir begegneten, die in den Workshops kluge Fragen stellten und in der Postersession ihre Abschlussarbeiten präsentierten. Habe ich als Studentin etwas versäumt, indem ich nicht an Konferenzen teilnahm, handelt es sich um einen neueren Trend und welche Rolle spielt die Nachwuchsförderung in den DH?
Einerseits verstehe ich die Teilnahme von Studierenden als ein ausgesprochen positives Signal. Sie verweist auf eine gezielte Förderung von Early-Career-Researchern und zeigt, dass studentische Forschungsleistungen zunehmend sichtbar gemacht und gewürdigt werden. Gerade im Feld der Digital Humanities, das sich durch Interdisziplinarität und methodische Offenheit auszeichnet, eröffnet dies Studierenden wertvolle Einblicke in aktuelle Forschungsprozesse und ermöglicht ihnen, sich frühzeitig als Teil der wissenschaftlichen Community zu positionieren. Gleichzeitig kann die aktive Teilnahme an Konferenzen dazu beitragen, das Feld überhaupt erst kennenzulernen und eigene Forschungsinteressen entsprechend weiterzuentwickeln.
Andererseits bin ich besorgt, ob diese Entwicklung nicht den Leistungsdruck der Studierenden zusätzlich erhöht. Präsentationsformate, wissenschaftliche Kommunikation und die Positionierung im akademischen Diskurs erfordern Kompetenzen, die im Studium oft erst im Aufbau begriffen sind. Problematisch erscheint dabei insbesondere der direkte Vergleich mit fortgeschrittenen Forschenden wie Doktorand*innen oder Postdocs, der implizit hohe Maßstäbe setzt und möglicherweise zu einer Überforderung führt. Ebenso wenig geklärt ist häufig die finanzielle Dimension: Reisekosten, Teilnahmegebühren und Unterkunft stellen für viele Studierende eine erhebliche Hürde dar und können zu sozialer Selektion führen. Die Erwartung, bereits im Studium eigenständige Forschungsleistungen auf Konferenzen zu präsentieren, kann mit einem erheblichen Arbeitsaufwand einhergehen, der häufig unbezahlt bleibt. Insgesamt entsteht daraus potenziell ein struktureller Druck auf Studierende, sich frühzeitig in einem kompetitiven Umfeld zu behaupten – nicht zuletzt vor dem Hintergrund späterer Bewerbungsverfahren, in denen solche Erfahrungen zunehmend vorausgesetzt werden könnten.
Vor diesem Hintergrund erscheinen gezielte strukturelle Maßnahmen sinnvoll. Denkbar wäre auf der Konferenz selbst etwa ein klar abgegrenztes Segment innerhalb der Postersession, beispielsweise durch eigene Räume oder Zeitfenster, das studentischen Beiträgen Sichtbarkeit verleiht, ohne sie dem direkten Vergleich etablierter Forschender auszusetzen. Ebenso könnten spezifische Stipendienprogramme für Studierende geschaffen werden, die nicht nur die Finanzierung sichern, sondern auch ein begleitendes Rahmenprogramm bieten. Solche Formate könnten Mentoring, Feedbackmöglichkeiten und niedrigschwellige Austauschformate umfassen und damit sowohl die Qualität der Beiträge als auch die Betreuungssituation während der Konferenz nachhaltig verbessern und den Druck auf die Studierenden verringern. Auch gemeinsame Seminarfahrten zu Konferenzen bergen ein großes Potenzial. In Begleitung von Lehrenden könnten Studierende gezielt auf Teilnahme und Präsentation vorbereitet werden, erhalten kontinuierliches Feedback und haben zugleich die Möglichkeit, Konferenzformate zunächst beobachtend kennenzulernen. Solche kollektiven Zugänge könnten dazu beitragen, die Schwelle zur aktiven Teilnahme zu senken und zugleich eine verantwortungsvolle Betreuung sicherzustellen. Ein solches Format erprobte gerade bspw. das Netzwerk Digitale Geisteswissenschaften (DH-Netzwerk) der Universität Potsdam in Kooperation mit der Potsdam Graduate School (PoGS). Sie boten ein Early Career Fellowship an, das eine praktische Einführung in digitale Methoden der Geisteswissenschaften beinhaltete und mit der gemeinsamen Reise zur DHd abgeschlossen wurde.
Als Alternative zur Teilnahme an Konferenzen erscheinen auch etablierte Formate wie Summer Schools und Winter Schools. Sie bieten Studierenden die Möglichkeit, methodische und theoretische Grundlagen in einem geschützten Rahmen zu vertiefen und mit etablierten Forschenden in Austausch zu treten, ohne unmittelbar dem Leistungs- und Vergleichsdruck großer Konferenzen ausgesetzt zu sein. Gleichzeitig fördern sie den Austausch unter Peers sowie den Aufbau erster wissenschaftlicher Netzwerke. Darüber hinaus sollte stärker darüber nachgedacht werden, studentische Forschungsarbeit strukturell zu vergüten, etwa über HiWi-Stellen. Dies würde nicht nur die oftmals unsichtbare Arbeitsleistung anerkennen, sondern auch zur sozialen Absicherung beitragen und Teilhabemöglichkeiten erhöhen.
Ich selbst habe auf meinem akademischen Weg von vielen dieser Angebote profitiert. Erst die Auseinandersetzung mit den methodischen Möglichkeiten der Digital Humanities hat mich dazu befähigt, meine eigenen geisteswissenschaftlichen Fragestellung in eine quantitative Richtung weiterzudenken und selbst an dem Flickenteppich mitzuwirken.

Wir nach der DHd – Was wir mitnehmen

Auf der DHd versammeln sich Wissenschaftler*innen mit ganz unterschiedlichen akademischen Lebenswegen – zu denen nun auch wir gehören. Hier begegnet die neue Generation DH-Studierender neugierigen Studierenden aller geisteswissenschaftlicher Fächer, Informatiker*innen treffen auf Fachexpert*innen, die für digitale Methoden offen sind, Quereinsteigende und Späteinsteigende auf die, die bereits eine ganze Karriere in den Digital Humanities hingelegt haben. Innerhalb der weit aufgespannten Community mit den eigenen Forschungsinteressen einen Platz zu finden, erweist sich als Herausforderung, vor allem für nicht textbasierte Projekte, aber auch als inspirierender Anstoß, den eigenen Ansatz konsequent weiterzudenken und sich auf neue Perspektiven einzulassen.
In diesem Sinne wollen wir die Heterogenität des Feldes als Aufforderung begreifen, den eigenen fachlichen Hintergrund immer wieder zu reflektieren und sich mit neuen Ansätzen zu konfrontieren. Um diese Haltung einzuüben, ist die DHd die geeignete Gelegenheit gewesen, gerade für uns als wissenschaftlichen Nachwuchs. Die Community selbst nimmt junge Wissenschaftler*innen und Studierende offen auf, doch wer erst spät seinen Weg hierher findet, ist ebenso willkommen.
Die DHd 2026 war die erste große Digital Humanities Konferenz für uns beide und wir würden lügen, würden wir sagen, wir würden uns nicht auf die nächste freuen.

Dank

Wir bedanken uns sehr bei den Teilnehmer*innen auf der DHd, die bereit waren, mit uns für die kurzen Interviews zu sprechen.
Dieser Blogbeitrag entstand im Rahmen eines Reisestipendiums für die DHd 2026 in Wien. Unser herzlicher Dank gilt NFDI4Culture für die Unterstützung unserer Teilnahme.

Ein Nachbericht zur DHd2026 in Wien – als JupyterBook

2026年3月17日 18:43

von Nina Brolich:

Im Rahmen der DHd2026 in Wien hatte ich die Gelegenheit, dank eines Early Career Reisestipendiums an der Konferenz teilzunehmen. Für die Förderung möchte ich mich ausdrücklich bedanken, insbesondere bei NFDI4Memory, die das Stipendium finanziert haben.

Den zugehörigen Nachbericht habe ich in Form eines JupyterBooks umgesetzt. Damit erprobe ich dieses Format gezielt für die Konferenzberichterstattung, um Inhalte strukturiert, transparent und nachnutzbar aufzubereiten.

Das JupyterBook gliedert sich in drei Teile: einen Bericht zur Tagung entlang ausgewählter, für mich relevanter thematischer Schwerpunkte, einen Abschnitt zum DHd-Mentoringprogramm mit persönlicher Reflexion sowie einen Überblick über die Arbeitsgruppen des DHd-Verbands.

👉 Zum Nachbericht: https://nina-bro.github.io/dhd2026/home.html

Nicht nur Text, nicht nur Daten: Erfahrungen von der DHd 2026 in Wien

2026年3月13日 00:39

Ich bin mit großer Vorfreude und dank des Reisekosten-Stipendiums des DHd-Verbandes zur DHd 2026 nach Wien gefahren. Die Universität Wien machte bereits beim Ankommen einen sehr imposanten Eindruck. Gleich am ersten Tag startete ich mit dem Workshop „Beyond entities: Inhaltsbasierte Erschließung digitaler Editionen mit KI“. Dort haben wir uns erst zu den Grundlagen von RDF und zu Ontologien wie z. B. FOAF bringen lassen, bevor wir praktisch wurden: Mithilfe vorgefertigter Jupyter-Notebooks und Beispieldatensätzen probierten wir verschiedene LLM-Modelle mit unterschiedlichen Parametern aus und schauten uns die Ergebnisse der RDF-Tripel-Extraktion an. Ein spannender und sehr praxisorientierter Einstieg.

Am nächsten Tag war ich beim Workshop „LLMs unter Kontrolle: Offene Modelle in Forschung und Praxis“. Der Workshop zielt genau auf das, was ich als Nachwuchswissenschaftler wichtig finde: einen transparenten und reflektierten Umgang mit generativer KI in den Digital Humanities zu fördern. Von besonderer Bedeutung für mich war der methodische Einsatz von LLMs in der eigenen Forschung. Die praktische Arbeit mit lokalen, offenen Modellen wie OLMo 2 (1B) und OLMo 3 (7B) über LM Studio zeigte, wie viel Kontrolle und Reproduzierbarkeit man dadurch gewinnt. Zugleich wurde deutlich, wie problematisch proprietäre Online-Modelle sein können, weil sie sich verändern, Outputs nicht dauerhaft dokumentiert sind und Trainingsdaten sowie Gewichtungen oft intransparent bleiben. Der darauffolgende Theorie-Block vermittelte entsprechende Evaluationsstrategien für den Einsatz solcher Modelle. Abschließend fand eine Reflexionsrunde statt, die dazu anregte, mögliche Use Cases für die eigene Forschung neu zu denken.

Zwischendurch besuchte ich Vorträge, die von technischen Umsetzungen bis zu praktischen Anwendungen reichten: Die Präsentation zur „Digitalen Erschließung des Schematismus“ demonstrierte eindrucksvoll, wie aus historischem Druck durch OCR, NER und Transformer-Modelle schrittweise eine vernetzte Graphdatenbank entsteht, mit dem Ziel, Personen verbindlich Verwaltungseinheiten zuzuordnen.

In den Poster-Sessions wurden viele überaus interessante Poster präsentiert. Eines davon befasste sich beispielsweise mit der Frage: „Wie kompatibel ist meine Bibliothek mit Digital Humanities?“ und erinnerte daran, dass Digital Humanities oft schon in den eigenen Beständen stecken und nur gefördert werden müssen.

Der Vortrag „Semantic Modelling of Intermedial and Intertextual References in Comics“ zeigte das epistemische Potenzial semantischer Modellierung: Am Beispiel von „Sibylla“ zeigte sich, wie Wissensgraphen literarisches und visuelles Wissen strukturiert, transparent und interoperabel abbilden können. Gerade für intermediale Forschung ein großer Gewinn. Ebenso praxisnah war der Beitrag zu „Fachspezifische Datenmodelle als Brücke zwischen materieller Kultur, Theorie und Praxis“: die Arbeit mit WissKI Barrels erschien mir als echter Gamechanger für kleinere Museen, weil sie Nachhaltigkeit und sofortige Einsatzfähigkeit im Sammlungsdaten-Lebenszyklus verbindet und damit Theorie und Praxis greifbar zusammenbringt.

Den Abschluss der Konferenz bildete die Keynote, die viele der zuvor diskutierten Fragen noch einmal auf einer übergeordneten Ebene bündelte: Ausgehend von der Kritik an Big Data als vermeintlichem Paradigmenwechsel wurde deutlich, dass digitale Daten keineswegs neutral oder automatisch erkenntnisfördernd sind. Vielmehr bestimmen Plattformen, APIs und intransparente Algorithmen maßgeblich, welche Daten überhaupt zugänglich sind und wie valide Forschungsergebnisse sein können. Besonders eindrücklich war der Punkt um Forschungsethik und den Umgang mit Social-Media-Daten, wie etwa die Frage nach Anonymisierung, Einwilligung und Zitierpraxis. Das zentrale Plädoyer lautete, statt nur kritische Distanz einzunehmen, eine „kritische Nähe“ zu Daten zu entwickeln: Verzerrungen und Lücken nicht nur zu bemängeln, sondern sie als Teil des analytischen Prozesses produktiv zu machen und die Politik der Daten sichtbar werden zu lassen. Für mich rundete dies Keynote den Kongress perfekt ab. Sie verband technische Praxis, ethische Reflexion und wissenschaftstheoretische Perspektive zu einem klaren Auftrag für die zukünftige Arbeit in den Digital Humanities.

Insgesamt nehme ich aus Wien nicht nur vielfältige Impulse und die fachlichen Erkenntnisse mit, sondern auch, das Gefühl mit den Digital Humanities eine wissenschaftliche Community kennengelernt zu haben, die einen sehr herzlichen, neugierigen und manchmal auch etwas selbstironischen Geist in sich vereint, mit dem ich mich sehr verbunden fühle.

Studiolo Digital Humanities Lab Winter school 2026 in Centre for the Study of Medicine and the Body in the Renaissance

2026年3月3日 22:07

Vom 25. bis 27. Februar 2026 wurde eine online Winter School zu Digital Humanities im Centre for the Study of Medicine and the Body in the Renaissance (CSMBR) in Pisa unter dem Namen Studiolo Digital Humanities veranstaltet. Vormittags widmeten wir uns einem praktischen Kurs zur Programmierung in Python für die Geisteswissenschaften; nachmittags fanden Workshops und Fachvorträge statt, die die praktische Anwendung der Digital Humanities in aktuellen Forschungsprojekten vorstellten.

The Centre for the Study of Medicine and the Body in the Renaissance
The Centre for the Study of Medicine and the Body in the Renaissance (Bild: Fabrizio Bigotti)

Studiolo Digital Humanities Lab gehört zur Reihe Winter Schools: Humanities for the Future des CSMBR, die alle zwei Jahre vom Zentrum veranstaltet wird. Dieses Jahr fand der zweite Kurs seit der Gründung des Zentrums im Jahr 2018 statt. Die Schulung bot mir eine einzigartige Gelegenheit, mehr über die Verwendung der Digital Humanities im medizinhistorischen Kontext zu erfahren und meine bisherigen Kenntnisse zu vertiefen. Dank des Stipendiums des Verbands Digital Humanities im deutschsprachigen Raum (DHd e.V.) wurde es mir ermöglicht, an dieser Winter School teilzunehmen, wofür ich mich herzlich bedanken möchte.

Die drei intensiven Tage waren vollständig durch die Veranstaltungen ausgefüllt. Vormittags hatten wir die Gelegenheit, uns in die Programmierung mit Python und ihre Anwendungen in den Geisteswissenschaften einzuarbeiten. Bei der Einführung in die Programmierung erwarben wir praktische Kenntnisse über Funktionen, Dateiverwaltung und Daten sowie über Module – vor allem über die Bibliothek Pandas. Damit konnten wir Datensätze genauer mittels Statistik und Grafiken untersuchen. Während jeder Sitzung hatten wir genügend Gelegenheit, gezielte Fragen zu stellen, die unsere eigene Forschung und unsere Forschungsperspektiven betrafen.

Jeder Nachmittag war wissenschaftlichen Anwendungsszenarien der DH in aktuellen Forschungsprojekten oder Workshops zum Thema Entwicklung interaktiver Forschungsergebnisse in der Wissenschaftsgeschichte gewidmet, mit aktiver Diskussion offener Fragen, wie zum Beispiel: Was ist eine interaktive wissenschaftliche Veröffentlichung? Dieser Workshop veränderte meine Sicht auf wissenschaftliches Arbeiten und auf Veröffentlichungsmethoden, da interaktive Publikationen die Möglichkeit bieten, komplexe Inhalte klarer und differenzierter darzustellen. Die Fragenstellungen führten unsere Forschungsideen an eigenen Feldern durch DH-Anwendungsszenarien zur Unterstützung. Bei mir handelt es sich vor allem um lateinische mittelalterliche medizinische Handschriften. Mit Hilfe der Bibliothek Pandas können Statistiken und Diagramme erstellt werden, was meiner Forschungsrichtung sehr nützlich sein kann. Ich habe vor, die lateinischen medizinischen Handschriften einer Gattung und deren Entwicklung im Laufe der Jahrhunderte genauer zu untersuchen, wozu mir das neu erlernte Modul unbedingt behilflich sein wird. Dadurch lässt sich die Entwicklung der Gattung „regimen sanitatis“ anhand der DH-Daten vergleichen. Die allgemeine Vertiefung der vorher erworbenen Kenntnisse inspirierte mich auch, mich mehr mit den digitalen Editionen der veröffentlichten Texte zu beschäftigen.

Mein zweites Forschungsfeld, das durch die Winter School sehr profitierte, ist meine Arbeit zu den mittelalterlichen Schreibern. Ich sammelte mittlerweile mehrere Dateneinträge zu einigen Schreibern der Handschriften, aber dank dieses Kurses bekam ich breiteren Überblick darüber, was und vor allem wie man mittels DH-Methoden erreichen kann. Sei es die Statistik der Überlieferung, die Ausbreitung der Handschriften oder Diagramme, mit denen man anschließend Vergleiche zu bereits existierenden Daten ziehen kann.

Die Vorträge der gegenwärtigen Forschungsprojekte waren vielfältig: Sie reichten von 3D-Modellierungen über Python-Datenbanken bis zur Gamification, von archäologischen Ansätzen (Digitalisierung der Handschriften) bis zur Medizin und zur Geschichte der Entwicklung von Vorstellungen über Organe. All diese Felder galten als nahezu unerschöpfliche Quellen für Anwendungsszenarien und Ideen für die zukünftigen Forschungsrichtungen der Teilnehmerinnen und Teilnehmer. Nach jedem Vortrag gab es genügend Zeit für einen bereichernden Austausch. Natürlich kann man während eines Kurses nur eine gewisse Menge an Kenntnissen erwerben, aber auch darauf war der Veranstalter vorbereitet. Für viele Themen gab es Literaturvorschläge und Hinweise zum Weiterlesen, um sich weiterzuentwickeln.

Das gesamte Programm kann man auf der Website des CSMBR unter folgendem Link genauer einsehen; dort findet man auch aktuelle Veranstaltungen, Schulungen und Konferenzen, die nicht nur mit Medizingeschichte zusammenhängen. Hiermit möchte ich mich beim Verband Digital Humanities im deutschsprachigen Raum nochmals für die Unterstützung bedanken und meine Überzeugung äußern, dass mir die Teilnahme an der Winter School nicht nur neue Kenntnisse in DH, sondern auch wissenschaftliche Kontakte in meinem Bereich der Medizingeschichte brachte, von denen sowohl mein Studium als auch meine Forschung profitieren werden.

Bericht vom NFDI4Culture Community Plenary 2025: „Gemeinsame Daten – Gemeinsame Praxis – Gemeinsames Wissen“ und die Stimmen der Community

2026年2月18日 19:23

NFDI4Culture, das Konsortium zur Förderung des Forschungsdatenmanagements für materielle und immaterielle Kulturgüter innerhalb der Nationalen Forschungsdateninfrastruktur (NFDI), zelebrierte vom 24. bis 26. September 2025 an der Akademie der Wissenschaften und der Literatur | Mainz bereits zum 5. Mal seine größte jährliche Zusammenkunft, das NFDI4Culture Community Plenary. Diskutiert wurde insbesondere das Fokusthema „Datensouveränität, infrastrukturelle Resilienz und Wissenschaftsfreiheit“, aber auch der aktuelle Stand, Ergebnisse des Arbeitsprogramms und die Strategie des Konsortiums für die Zukunft
Über die Details der drei Konferenz-Tage gibt dieser chronologisch-thematisch gegliederte Bericht ausführlich Auskunft, der gerne auch selektiv gelesen werden kann und zur Veranschaulichung viele authentische Stimmen von Plenary-Teilnehmenden aus der NFDI4Culture-Community wiedergibt. Eine englische Version des Berichts findet sich in Kürze auf dem NFDI4Culture Portal.

Gruppenfoto von NFDI4Culture und der Community, auf dem alle jubeln
NFDI4Culture und die Community – Autor:in: Alexander Stark

Vor allem begegneten sich die rund 100 Teilnehmenden vor Ort – Vertreter:innen der Mitgliedsinstitutionen, die Mitarbeitenden des Konsortiums sowie Besucher:innen aus der (inter-)nationalen Forschung und digitalen Infrastruktur – endlich (wieder) einmal persönlich. Bei einem großen und in weiten Teilen digital durchgeführten Projekt wie NFDI4Culture stärkte das Zusammentreffen spürbar das Netzwerk der fachlich sehr vielfältigen Community sowie die geteilte Motivation und Leidenschaft für Forschungsdatenmanagement im Bereich Kulturdaten. Auch europäische Besucher:innen und Interessierte reisten zum Community Plenary, um bei NFDI4Culture mitzuwirken und sich auszutauschen, wie beispielsweise Rafael Uriarte, Ph.D., vom Kunsthistorischen Institut in Florenz, der in einem kurzen Interview seine Beweggründe schilderte:

„I came here to see what kind of contribution we can make and how to convince people to open their data, especially in art history.“

Wer nicht persönlich nach Mainz kommen konnte, hatte Gelegenheit, virtuell an den wesentlichen Programmpunkten teilzunehmen.

Konferenz-Tag 1: Workshop-Wednesday, Helpdesk-Speed-Dating und DigAMus Award


Workshops zum Forschungsdatenmanagement und Helpdesk-Speed-Dating

Zu den besonderen Programm-Highlights zählte zunächst das attraktive Workshopangebot: In entspannter und kollegialer Atmosphäre konnten die Teilnehmenden neue Skills, Tools und Techniken entdecken und die eigenen praktischen Fähigkeiten erweitern – von Pythonprogrammierung über Knowledge Graphs bis hin zur Nachhaltigkeit im Forschungsdatenmanagement. Besonderer Beliebtheit erfreute sich der „Data Stories“-Workshop. Teilnehmer Thomas Kollatz (Akademie der Wissenschaften und der Literatur | Mainz) berichtet anschließend:

„Wir sind im Workshop verdammt weit gekommen, aus unseren Daten eine lebendige Story zu machen.“ 

Gleichzeitig bot das NFDI4Culture-Helpdesk-Team für alle Anliegen rund um Forschungsdaten Speed-Date-Beratungen für die Plenary-Teilnehmenden an, wie beispielsweise von Jun.-Prof. Dennis Ried (Universität Halle-Wittenberg) wahrgenommen:

„Das Beratungsgespräch mit Leuten, die sich mit Förderstrukturen auskennen, hatte einen großen Mehrwert für mich, einfach gemeinsam Ideen zu sortieren.“

Helpdesk-Mitarbeiter Dr. Grischka Petri resümiert:

„Es waren durchaus umfangreiche Beratungen und auch sehr dichte, teils spezielle Infogespräche dabei. Natürlich können auch wir in einer halben Stunde die Dinge nicht vollständig lösen, aber wir konnten Türen aufstoßen und einen Wegweiser für die weiteren Schritte mit auf den Weg geben.“


Verleihung des DigAMus Awards für herausragende digitale Projekte im Kulturbereich

Präsentation der DigAMus Award Figur auf einer offnen Handfläche
DigAMus Award Figur – Autor:in: DigAMus Award Team

Die festliche Abendveranstaltung bot Gelegenheit für die schicke Abendgarderobe: Die GLAMouröse Verleihung des DigAMus Awards, der für herausragende digitale Projekte im Kulturbereich vergeben wird, fand erstmals im Rahmen des NFDI4Culture Community Plenarys statt. Das Organisationsteam des DigAMus Awards kam dafür ganz in Gold und Silber. Zusammen mit den goldenen Award-Figuren verliehen sie dem Event einen Hauch von Oscar-Flair.
Ein Gong-Schlag (wie es in der Akademie der Wissenschaften und der Literatur Mainz Tradition ist) läutete die Zeremonie der Preisverleihung ein und lud die Teilnehmenden vor Ort in den Plenarsaal ein. Neben dem Live-Event wurde auch die Möglichkeit der Online-Teilnahme angeboten. Die anspruchsvolle Umsetzung des hybriden Events wurde als sehr gelungen gelobt: Das Ineinandergreifen von Technik (Zoom-Stream) und Live-Event vor Ort bot eine abwechslungsreiche und unterhaltsame Mischung aus Präsenz, Einspielung von Videos und Online-Beteiligung, die alle Zuschauenden von Nah und Fern inkludierte.
Nach Vorstellung der Favoriten-Projekte auf der Shortlist wurde der DigAMus Award in sechs verschiedenen Kategorien verliehen. Für die Gewinner-Projekte gab es viel Applaus, sogar Jubelrufe aus dem Publikum. Besonders die Freude der „Five Guides“ vom TikTok-Kanal @five.guides des LWL-Museums für Archäologie und Kultur (Gewinner-Projekt in der Kategorie “Zeitgemäße Vermittlung”) war regelrecht ansteckend und erfüllte den ganzen Raum. Man merkte den Guides einfach an, dass es ihnen eine Herzensangelegenheit ist, jungen Menschen einen Zugang zu Kultur und Museen auf Augenhöhe zu bieten. Die Projektbeteiligte Marie Jakob sagte nach der Verleihung:

„In das Projekt ist viel Arbeit hineingeflossen. Daher ist der Award eine tolle Bestätigung, dass wir damit einen Nerv getroffen und einen guten Job gemacht haben.“

DigAMus Award Preisträger:innen "Five Guides" bei der Verleihung der Kategorie "Zeitgemäße Vermittlung"
DigAMus Award Preisträger:innen „Five Guides“ bei der Verleihung der Kategorie „Zeitgemäße Vermittlung“ – Autor:in: DigAMus Award Team


Der Publikumspreis, für den 1500 Menschen abgestimmt hatten, ging an den Museums-Podcast „Auf die Ohren“ des Ägyptischen Museums München zur altägyptischen Kulturgeschichte. Die Gewinnerinnen Roxane Bicker und Nora Heil, beide online zugeschaltet, waren ehrlich „überrascht und unvorbereitet“, „Jetzt haben wir richtig was zu feiern auf unserem Team-Fest!“

Johannes Sauter vom DigAMus-Award-Team, extra aus Bern angereist, erläuterte die Kooperation zwischen NFDI4Culture und dem DigAMus Award:

„Da sind so viele Daten aus den eingereichten Projekten – die wollen wir weiter für die Community nutzbar machen.“ NFDI4Culture unterstützt dabei insbesondere in Punkto Datenqualität und -struktur bei der Datenübertragung zu Wikidata.

“Wikidata ist dabei nicht nur Beifang. Der Preis an sich ist natürlich wichtig, auch für die Sichtbarkeit, aber der Hauptwert liegt in den Daten. Von der Kooperation mit NFDI4Culture erhoffen wir uns, dass die Community diese kuratierten Daten aufgreift und nutzt”, erklärte Johannes Sauter und ergänzte:

“Es war cool, offizieller Programmpunkt beim NFDI4Culture Community Plenary zu sein. Wir sind hier so gut aufgenommen worden, sowohl organisatorisch als auch vom Publikum. Hier ist eine sehr offene und dynamische Community, die Bock hat, wirklich etwas zu machen!”

Seine Mitstreiterin Sonja Thiel, zugeschaltet aus den USA, bekräftigte, die Kooperation habe die Verleihung des DigAMus Award in dieser Form erst möglich gemacht.

Konferenz-Tag 2: Aktueller Stand des Konsortiums und Fishbowl-Diskussion „Datensouveränität, infrastrukturelle Resilienz und Wissenschaftsfreiheit“


Spokesperson-Report, Neuigkeiten zu den Diensten und Arbeitsbereichen von NFDI4Culture

Am Donnerstag, 25.09.25, präsentierte NFDI4Culture dem Plenum den aktuellen den Stand des Konsortiums mit Berichten und wissenschaftlich Beiträgen zu den neuesten Aktivitäten und Services sowie einem Ausblick auf kommende Vorhaben. Zum Warm-Up gab eine live-Umfrage Einblicke, welche NFDI4Culture-Dienste bereits besonders gern genutzt werden (was die geneigten Leser:innen im Übrigen gern für sich selbst entscheiden dürfen). Anschließend stellten die Mitarbeitenden von NFDI4Culture, ergänzt durch kreative Show-Einlagen, ihre Updates, Beispiele und Insights zu den verschiedenen NFDI4Culture-Diensten und Arbeitsbereichen vor, darunter: 

  • Neuer Research Data Management Organiser zum Erstellen von Datenmanagementplänen
  • Data Quality Assessment und FAIR-Check zur Einschätzung der Qualität der eigenen Daten, jetzt noch interaktiver und mit Fairness-Gradmesser
  • Zusammenarbeit von NFDI4Culture mit verschiedenen Fachinformationsdiensten
  • LIDO (Lightweight Information Describing Objects), ein internationaler XML-Standard zur Beschreibung von Objekten und Lingua Franca für Museen, zu der NFDI4Culture künftig auch eine LIDO-Service-Stelle anbieten will
  • MEI (Music Encoding Initiative), ein offener, von der Community entwickelt XML-Standard zur Codierung von Musiknoten, zu dem NFDI4Culture aktuell ein MEI-Repositorium und ein MEI-Korpus für Kulturschaffende und Wissenschaft plant
  • Daten der Theaterwissenschaften und Performing Arts: Entwicklung von Services für spezielle ereignisbezogene Daten (wie z.B. Aufführungen)
  • FOSS (Free Open Source Software): bestehende Dienste mit der Community weiterentwickeln
  • Release der 3. Version des NFDI4Culture Portals als Zugangspunkt zu Ressourcen und Diensten sowie als Forschungsinformationssystem
  • NFDI4Culture Registry für Forschungswerkzeuge und Datendienste – nicht nur zum Explorieren, Suchen, Filtern und Finden, sondern auch Anlaufstelle für Forschende und Entwickler:innen, die ihre Angebote (Software, Skripte, Webanwendungen, Datenrepositorien oder -portale) zur Nachnutzung zentral verzeichnen möchten
  • Der Culture Knowlege Graph (KG) stellt eine Verbindung zwischen allen Forschungsdaten der Community her (Daten zu inzwischen rund 18 Mio. Entitäten). Zum Durchsuchen des KGs bietet NFDI4Culture neben der SPARQL-Schnittstelle nun auch eine neue Data Search mit spezieller Incipit-Suche für Musiknotation und KI-basierter Bildersuche
  • Institutionelle Resilienz für Kulturerbe im digitalen Raum: Schutzstrategien für Kulturgüter und -Daten zur Prävention für den Katastrophen- oder Krisenfall

Die Präsentationen zu diesen sowie allen weiteren Vorträgen werden in Kürze auf dem NFDI4Culture Portal zur Verfügung gestellt.

Spokesperson Torsten Schrade präsentiert dem Publikum die Vision „Gemeinsame Daten – Gemeinsame Praxis – Gemeinsames Wissen“ – Autor:in: Alexander Stark
Spokesperson Torsten Schrade präsentiert dem Publikum die Vision „Gemeinsame Daten – Gemeinsame Praxis – Gemeinsames Wissen“ – Autor:in: Alexander Stark

Im Spokesperson-Report berichtet Konsortiumssprecher Prof. Torsten Schrade außerdem über die aktive Teilhabe diverser NFDI4Culture-Communities und der inzwischen rund 70 Participants, die beispielsweise Beiträge zu internationalen Metadatenstandards geleistet haben. Torsten Schrade betont:

„Partizipation ist das wichtigste, das Herz von NFDI4Culture ist eine gemeinsame, Community-geleitete Entwicklung einer gemeinsamen Datenkultur!”

Wegen der Breite der vertretenen Fachdisziplinen ist NFDI4Culture eines der größten und heterogensten Konsortien in der NFDI. Die Communities dieser verschiedenen Disziplinen sollen nun zu einer “Community of Practice” zusammengeführt werden, so Prof. Holger Simon, Co-Spokesperson von NFDI4Culture, „so wollen wir unsere Vision ‚Gemeinsame Daten – Gemeinsame Praxis – Gemeinsames Wissen‘ mit Leben füllen.“

Berichtet wurde weiter unter anderem über folgende Themen:

  • Der NFDI4Culture Helpdesk hat sich zum „Rückgrat“ von NFDI4Culture entwickelt und verzeichnet inzwischen über 760 Beratungsvorgänge zu Themen wie Copyright, Publikation und Databases. Dabei wird deutlich: Für Sustainability braucht es rechtliche Klarheit, rund 40% der Helpdesk-Anfragen gingen an den Legal Helpdesk.
  • Weiterbildung im Bereich Forschungsdatenmanagement (FDM) und Data/Code Literacy mit der Culture Research Data Academy, dem Educational Resource Finder und der Culture Knowledge Base (zentrales Informationsmedium zu FDM mit Handreichungen, Video-Tutorials und kuratierten Linkempfehlungen) – mit inzwischen rund 110 gut kuratieren Empfehlungen, alle maßgeschneidert für die NFDI4Culture-Community.
  • Der Research Output Index zeigt, was NFDI4Culture zu bieten hat: Konferenzbeiträge und -berichte, wissenschaftliche Literatur, Artikel und vieles mehr.
  • Community AAI (Authorization Authentification Identification), ein NFDI-Basis-Dienst, mit dem man sich sowohl für die Dienste von NFDI4Culture als auch für die anderer Konsortien anmelden kann – einmal anmelden, alle Dienste nutzen.
  • Dienste über Konsortien hinweg weiterentwickeln am Beispiel von Semantic Kompakkt (freie Software zur Annotation von 3D-Daten und gleichzeitig Repositorium zur Speicherung): erste Abbildung eines chemischen Moleküls in Semantic Kompakkt in Zusammenarbeit mit NFDI4Chem.
  • Internationalisierung: Ausloten der Zusammenarbeit mit fachspezifischen (inter-)nationalen GLAM-Infrastrukturen und Ausbau des internationalen Netzwerks.

Konsortiumssprecher Torsten Schrade fasste noch einmal zusammen:

„Back to the Future mit NFDI4Culture: mit Innovation, Partizipation, KI, 3D, KG, Datenqualität und Internationalisierung – das Abenteuer geht weiter!“


Datensouveränität, infrastrukturelle Resilienz und Wissenschaftsfreiheit – Fishbowl-Diskussion

Ein weiteres Highlight auf dem NFDI4Culture Community Plenary war das hochkarätig besetzten Panel „Datensouveränität, infrastrukturelle Resilienz und Wissenschaftsfreiheit“ mit Prof. Dr. Andrea Rapp (Präsidentin der Akademie der Wissenschaften und der Literatur | Mainz), Prof. Dr. York Sure Vetter (Direktor der NFDI) und Prof. Dr. Dörte Schmidt (NFDI-Kuratoriums-Mitglied). Dieser wichtige Programmpunkt konnte auch online verfolgt werden.
Das interaktive Fishbowl-Gespräch, an dem sich auch das Publikum beteiligen konnte, befasste sich nicht nur mit technischen Infrastrukturen und Datenräumen, sondern auch mit der Frage der Sicherung grundlegender Werte unserer digitalisierten Wissensgesellschaft. Digitale Souveränität und gesellschaftliche Resilienz werden in internationalen Aushandlungsprozessen mit geopolitischer Dimension verhandelt, die ein hohes Maß an „Datendiplomatie“ erfordern. Die Diskussionsrunde lotete aus, wie die NFDI und besonders ihre geistes- und kulturwissenschaftlichen Konsortien einen Beitrag zu einer verantwortungsvollen digitalen Transformation in Deutschland und Europa leisten können.

In ihren Eingangsstatements gaben die Panelist:innen Einblicke in ihre Perspektiven auf diese Themen. Den Anfang machte Prof. Andrea Rapp: Das NFDI4Culture Community Plenary zeige, was „durch die Wissenschaft organisiert“ bedeute: „Das sind mehr als eine Handvoll Nerds, sondern eine lebendige Community!“. Drei Punkte waren Andrea Rapp in ihrer Ansprache besonders wichtig: 1. In Verbindung mit dem Thema Wissenschaftsfreiheit sprach sie über langfristige Verpflichtungen am Beispiel von digitalen Editionen und wie diese die Wissenschaftsfreiheit stützen können, indem sie transparent Rechenschaft ablegen, was sich im Digitalen optimal organisieren lasse. 2. Datenqualität als Voraussetzung für KI-gestützte Verfahren: „Die unvermeidliche KI und Large Language Models sind Wahrscheinlichkeitsmodelle. Diese brauchen vertrauenswürdige Umgebungen und eine qualitätsgesicherte Datengrundlage.“ 3. Die fach- und domänenspezifischen Kompetenzen für die Langzeitverfügbarkeit von geisteswissenschaftlichen und Kulturgut-Daten sieht Andrea Rapp vor allem bei den Akademien, ergänzt durch die Universitäten: „Wir brauchen den Auftrag und die Ausstattung dafür, so fühlen wir uns gut gerüstet für diese Aufgabe“.

NFDI-Direktor Prof. York Sure-Vetter fasste zu Beginn zusammen, wie die NFDI in den letzten fünf Jahren gewachsen ist, hin zu einer „international sichtbaren Infrastruktur mit technischer Weitsicht“. Zwischen den Mitgliedern der NFDI sei trotz der fachlichen Unterschiede ein Vertrauensverhältnis aufgebaut worden, das es erlaube, gemeinsam an übergreifenden Querschnittsthemen zu arbeiten. Dabei verlieh York Sure-Vetter auch seiner Anerkennung für die hohe Professionalität von NFDI4Culture Ausdruck.
Einer seiner wichtigsten Talking Points galt der Demokratie: „Als eine Wissensinfrastruktur mit Bottom-up-Prinzip ist die NFDI wichtig für die Demokratie. Das müssen wir erhalten! Dafür ist auch Transparenz wichtig.“ Darüber hinaus schaffe die in Europa einzigartige föderierte Struktur der NFDI Resilienz, und zwar genau über diese Verteilung von technischen Ressourcen und auch Köpfen. Zur Resilienz-Strategie der NFDI gehören Cyber-Security, Redundanz und offene Standards. Mit ihren sicheren, interoperablen Diensten und ihrer förderierten Struktur könnte NFDI auch als strukturelles Role Model und Innovationsmotor in der EU dienen. 
Dass NFDI-Direktor York Sure-Vetter persönlich mit Diskussionsbeiträgen am NFDI4Culture Community Plenary teilnahm, ist bei 26 NFDI-Konsortien und nur 52 Wochen im Jahr keine Selbstverständlichkeit und freute die Community daher ganz besonders.

Prof. Dörte Schmidt eröffnete ihre Rede mit dem Statement, sie sei „geflasht, was wir geschafft haben in fünf Jahren: eine Vielfalt an Daten und wie kooperativ wir uns zusammenraufen, statt in Konkurrenz zueinander zu gehen“. Sie pflichtete York Sure-Vetter bei, dass Demokratie eine Grundvoraussetzung und die Wissenschafts- und Kunstfreiheit, die in Art. 5 des Grundgesetzes festgehalten ist, uns ermöglichen zu definieren, was für eine Gesellschaft wir sein wollen.
Beim Thema Datensouveränität sprach Dörte Schmidt von der NFDI als einem „vielköpfigen Souverän“, dessen Vorteile wir nutzen sollten, denn er bilde einen Gegenvorschlag zu Daten-Hegemonien und Monopolismen. Das bringe technische, ethische und rechtliche Anforderungen mit sich und mache Aushandlungen in unterschiedlichen Rechtsräumen nötig. „Für infrastrukturelle Resilienz müssen wir verteilt denken, denn verteilte Netzwerke sind nicht so angreifbar. Auch Redundanz wird in gewissem Maß wird gebraucht. Wir lernen gerade, was Resilienz bedeutet, und dass sie oft auch der Effizienz und vor allem dem Finanzierungskampf gegenübergestellt werden muss“. Dörte Schmidt beendet ihre Ansprache mit dem Aufruf „Denkt vernetzt! Das ist unsere demokratische Aufgabe“.

In der anschließenden Diskussionsrunde, der Fishbowl, nahmen neben den geladenen Panelist:innen auch wechselnde Diskutant:innen aus dem Publikum auf zusätzlichen freien Stühlen Platz und an der Diskussion teil. Moderiert wurde die Runde von Konsortiumssprecher Torsten Schrade.

Fishbowl Discussion mit Prof. Dörte Schmidt, Prof. Andrea Rapp, Peter Gietz, Prof. Torsten Schrade, Prof. York Sure Vetter, Dr. Grischka Petri
Fishbowl Discussion: Prof. Dörte Schmidt, Prof. Andrea Rapp, Peter Gietz, Prof. Torsten Schrade, Prof. York Sure Vetter, Dr. Grischka Petri – Autor:in: Alexander Stark

Beim Thema der europäischen Anschlussfähigkeit der NFDI stellt sich York Sure-Vetter verschiedene Dienste für die European Open Science Cloud (EOSC) vor, darunter auch der Authentifizierungsdienst. Daraufhin gab Moderator Torsten Schrade die Frage an das Publikum weiter: „Welche Dienste brauchen wir?” Peter Gietz (DAASI International) ergriff die Gelegenheit sowie einen freien Stuhl in der Diskussionsrunde und bestätigte: „Die NFDI4Culture-AAI [Authorization Authentification Identification] funktioniert. NFDI4Culture ist ein super Beispiel für Vernetzung, auch auf technischer Seite der Dienste.“ Als weiteres positives Beispiel wurde wiederholt Eduroam[1] genannt und mit viel Zustimmung aus dem Saal quittiert.
Auch über die angestrebte Verstetigung der NFDI wurde diskutiert. Dörte Schmidt machte sich dafür stark, die Politik zu überzeugen, „dass eine Investition in Köpfe einen Teil dieser Verstetigung darstellt“. Peter Gietz stimmte zu und merkte an: „In einem freien Raum sorgen eben diese Köpfe für Innovation“. Andrea Rapp nannte ergänzend die institutionelle Kontinuität. Einig waren sich alle, dass auch das bestehende Netzwerk verstetigt werden müsse, um nicht mit der Finanzierung wieder von vorne anfangen zu müssen.
Auch das Spannungsverhältnis zwischen Demokratie und Kapitalismus wurde in der Diskussion erneut aufgegriffen. Andrea Rapp brachte den Begriff der Allmende [im Sinne eines gemeinsamen Gutes der modernen Informationsgesellschaft, beispielsweise in Form von freier Software] in die Diskussion ein und merkte an: „Gemeingut macht Arbeit“. Moderator Torsten Schrade sprach den Konflikt zwischen Plattform-Ökonomie vs. Allmende an und fragte: „Können wir den Plattform-Giganten entkommen?“ York Sure-Vetter antwortete, es sei ein Machtkampf und führte ein Beispiel an: „Die großen Sprachmodelle haben sogar Experten überrascht, aber noch mehr Daten führen jetzt nicht mehr zu besseren Modellen, es tritt eine Saturierung ein. Für den Betrieb braucht man Rechenzentren so groß wie Manhattan. Wenn man da beispielsweise an Stromausfälle denkt… Es ist schwer, dem zu entkommen, wir müssen unsere Nische finden“.

[1] Eduroam: internationale Hochschul-Initiative, die Studierenden und Wissenschaftler:innen über ihren Universitätsaccount einen WLAN-Zugang an allen teilnehmenden Institutionen ermöglicht. Analog dazu funktioniert auch der NFDI4Culture-AAI-Dienst, über den allen Nutzenden, die über DFN bei NFDI4Culture registriert sind, der gesamte Dienste-Kosmos der NFDI zur Verfügung steht.

In ihren Schlussstatements gaben die Panelist:innen eine Einschätzung, was in den kommenden Jahren besonders wichtig werde. Dörte Schmidt sprach sich dafür aus, „dass wir uns auf unsere Aufgaben und Ziele besinnen, vor allem auf unser Alleinstellungsmerkmal, das uns von großen Playern unterscheidet. Wir können etwas leisten in der Gesellschaft“. 
Andrea Rapp stellte heraus, die Wissenschaft werde getragen von Personen, die ertüchtigt werden müssten, sich als Teil ihrer wissenschaftlichen Arbeit auch um Souveränität zu kümmern. Dafür bedürfe es Freiraum, Ansprechpartner und finanzieller Mittel.
York Sure-Vetter betonte die Bedeutung der Validierung der Dienste, die einerseits bottom-up funktioniere, indem die Communities durch ihre Nutzung zeigen, ob bestimmte Dienste, wie z.B. der Helpdesk, Anklang finden oder nicht. Gleichzeitig müsse die Führung top-down Entscheidungen treffen und „der Politik erklären können, wo wir das Geld gut investiert sehen”. Gebraucht werde also sowohl eine Politik, die unterstützt, als auch Nutzende, welche die Dienste wertschätzen.

Im Nachgang der Veranstaltung fasste Andrea Rapp ihre gewonnenen Erkenntnisse aus der Diskussion noch einmal für den vorliegenden Bericht zusammen:

„Die nachhaltige Zukunft der NFDI stellt uns vor große Herausforderungen, zugleich ist bei der Community, sowohl an der Basis als auch bei den Institutionen, Wille und Commitment groß, sich diesen Herausforderungen zu stellen und Verantwortung zu übernehmen. Dafür müssen Institutionen und Wissenschaftler:innen ertüchtigt werden.“


Rahmenprogramm: Spirio-Konzert, inspirierender Gesang, Ess- und Feierkultur

Aufgelockert wurden die Vorträge und Diskussionen von einem musikalischen Programm erster Güte. Die „Early Birds“ (die ersten 50 Plenary-Registrierten) wurden mit einem ganz besonderen Konzerterlebnis überrascht: Im Kalkhof-Rose-Saal, Deutschlands erstem Kammermusiksaal in Holzbauweise, wurde die innovative Steinway Spirio-Konzerttechnologie vorgeführt. Dabei handelt es sich um ein Selbstspielsystem, das live-Darbietungen von Pianist:innen weltweit von einem zum anderen Spirio-Flügel in Echtzeit übertragen oder aufzeichnen und originalgetreu wiedergeben kann, so authentisch, als würde die Künstlerin oder der Künstler selbst am Flügel sitzen. Geboten wurden Stücke gespielt von Hayato Sumino, Vladimir Horowitz, Jacob Collier und Arseniy Gusev.

Doch auch alle anderen Gäste kamen in den Genuss eines besonderen Konzerts: Zum musikalischen Rahmenprogramm des Plenarys zählte auch Sopranistin Lindsey Neumann aus den USA, begleitet am Klavier von Konzertpianistin Andrea Jantzen. Die beiden boten Lieder von F. Mendelssohn, R. Quilter und G. Puccini dar, mit einer Intensität und Präsenz in Stimme und Performance, die den Zuhörenden das Gefühl vermitteln konnte, ganz persönlich angesprochen zu sein. Lindsey Neumann berichtete, dass sie in der Vorbereitung auf ihren Auftritt den Auftrag erhalten habe, das Publikum zu inspirieren – was ihr zweifelsohne gelungen ist.

Konzert: Sopranistin Lindsey Neumann, begleitet am Klavier von Konzertpianistin Andrea Jantzen
Konzert: Sopranistin Lindsey Neumann, begleitet am Klavier von Konzertpianistin Andrea Jantzen – Autor:in: Team Social Media


Auch über das Konzert-Programm hinaus konnten die Plenary-Besucher:innen die Veranstaltung sinnlich und kulinarisch genießen. Das bunte Tagesprogramm wurde abends von einem Dinner, einem guten Glas Wein und anschließender Party gekrönt – letztere genießen in NFDI4Culture-Kreisen bereits einen legendären Ruf. DJane Fran(ziska Fritzsche) von BASE4NFDI sowie die Musik-Wünsche der Anwesenden sorgten für einen ausgelassenen (Tanz-)Abend, der sicher vielen in Erinnerung bleibt.

Party!! DJane Fran(ziska Fritzsche) dancing
Party!! DJane Fran(ziska Fritzsche) dancing – Autor:in: Team Social Media


Konferenztag 3: Markt der Möglichkeiten, 4CultureHour auf Mastodon und Stimmen aus der Community


Markt der Möglichkeiten und 4CultureHour auf Mastodon

Mit dem Markt der Möglichkeiten am Freitag, 26.09.25, bot NFDI4Culture einen Begegnungsraum vor Ort, in dem Services von NFDI4Culture, aber auch Participants und Partner:innen des Konsortiums sich anhand von Posterpräsentationen vorstellen und miteinander ins Gespräch kommen konnten. Die Marktbesucher:innen waren eingeladen zum Schlendern, Entdecken und Netzwerken. In der Speakers-Corner wurde in kurzen Marktreden auf interessante Marktstände, Veranstaltungen oder gute Ideen aufmerksam gemacht.

 
Menschen und Poster auf dem Markt der Möglichkeiten
Auf dem Markt der Möglichkeiten – Autor:in: Alexander Stark


Dr. Fabian Pittroff (Ruhr-University Bochum) stellte mit seinem Poster beispielsweise eine „Infrabel zur Ethnografie zum Umgang mit Forschungsdaten“ vor. Infrabel setzt sich zusammen aus den Wörtern Infrastruktur und Fabel und thematisierte in diesem Falle anhand der Feldmaus und des Pelikans verschiedene Arten der Pflege von Forschungsdaten. Im Unterschied zur klassischen Fabel, in der Tiere die Eigenschaften von Menschen verkörpern, haben diese in der Infrabel Eigenschaften von Infrastrukturen. Der Markt der Möglichkeiten hat sich laut Fabian Pittroff gelohnt: 

„Die Poster haben gut funktioniert, um ins Gespräch zu kommen.“ 

In einem kurzen Interview führte er auf die Frage nach seinen Eindrücken vom NFDI4Culture Community Plenary aus: 

„Ich bin zum Plenary gekommen, weil ich den Eindruck habe, dass mir NFDI4Culture beim Einarbeiten in das Thema FDM potenziell viel Arbeit abnehmen kann. Ich habe mir darüber hinaus viel Überraschendes notiert. Mich interessiert auch, wie sich NFDI4Culture organisiert. Es fand recht viel Selbstverständigung des Konsortiums statt, dadurch bekam man Einblicke in den Inner Circle – gleichzeitig fühlte ich mich sehr willkommen. Und was mir aus der Fishbowl-Diskussion noch in Erinnerung geblieben ist, waren Schlagworte wie ‚verteilte, aber vernetzte Strukturen‘, ‚mit stolz von unseren Daten sprechen‘ und ‚Lust an der Heterogenität‘.“

Auch andere Marktbesucher:innen konnten von den Posterpräsentationen profitieren:

„Bei den Postern habe ich sogar etwas gelernt, was ich für unser Projekt Buber-Korrespondenzen Digital verwenden kann“, freute sich Thomas Kollatz (Akademie der Wissenschaften und der Literatur | Mainz).

Eine Zusammenstellung aller vertretenen Poster wird in Kürze auf dem NFDI4Culture Portal veröffentlicht.

Collage aus den Postern vom Markt der Möglichkeiten
Poster-Collage – Autor:in: Katja Sternitzke


Mit der 4CultureHour, die sich dann sogar auf mehrere „Hours“ ausweitete, wurde der Markt der Möglichkeiten vom NFDI4Culture-Social-Media-Team live auf Mastodon begleitet. Bereits die Social-Media-Berichterstattung der beiden Vortage hatte viel Resonanz erzeugt. Während des letzten Konferenztages hatten Interessierte nun die Möglichkeit, direkt auf die Poster zu reagieren oder Fragen zu stellen. Teilweise konnten diese dann sogar von der Poster-betreuenden Person auf Mastodon beantwortet werden. So übertrug sich die allseitige Begeisterung auch in den digitalen Raum. Weitere Eindrücke von NFDI4Culture in den Sozialen Medien sind auch auf LinkedIn und auf Mastodon unter #4CultureCommunityPlenary zu finden.


Die Community resümiert

Bevor sich alle auf die Heimreise machten, rekapitulierten einige Plenary-Teilnehmende für uns ihre persönlichen Eindrücke von der Veranstaltung. Dennis Ried (Uni Halle-Wittenberg), der übrigens 2024 mit dem NFDI4Culture Music Award ausgezeichnet wurde, fasste seine Plenary-Erfahrung folgendermaßen zusammen:

„Ich wollte mir ein Bild machen, was für Dienste es bei NFDI4Culture gibt, was die können und wie sie funktionieren. Mich persönlich interessiert darüber hinaus besonders die Verbindung von 3D-Daten und Musikwissenschaft und wie man die einsetzen kann. Es gäbe da gute Möglichkeiten für fächerübergreifenden Datenaustausch, zum Beispiel bei antiker Musik mit der Archäologie, wenn sich beispielsweise Musik auf antiken Amphoren findet. Beim Data-Stories-Workshop habe ich nebenbei noch erfahren, was man mit dem Culture Knowledge Graph alles machen kann. Insgesamt finde ich es beeindruckend, wie stark die NFDI als Ganzes aus 1000 Einzelteilen hervorgegangen ist. Nur bei den ganzen internen Kürzeln blicke ich noch nicht durch – wenn ich mir etwas wünschen könnte, dann wäre es ein Glossar der Abkürzungen“.

Andreas Kohlbecker vom ZKM Karlsruhe, welches Participant bei NFDI4Culture ist, war zum NFDI4Culture Community Plenary gekommen, um zu erfahren, was der aktuelle Stand des Konsortiums ist und wohin die Reise künftig geht – und auch, weil er gerne die Kommunikationskanäle des Konsortiums, wie beispielsweise den RocketChat, nutzen möchte. Des Weiteren nahm er am Workshop zu den Base4NFDI-Services teil:

„Da konnte man sehen, was sich inzwischen in der NFDI alles getan hat. Ich wollte mich informieren, wie genau ich die Tools bei uns im Haus nutzen kann, um Probleme zu lösen. Der Workshop war echt ein Highlight, weil sich danach ein Gesprächsfäden über die drei Konferenztage hinweg ergeben hat. Insgesamt hat es sich wirklich gelohnt, nach Mainz zu kommen, ich habe mich sehr wohl gefühlt, konnte mein Netzwerk erweitern – und NFDI4Culture kann tolle Parties feiern!“

Für die Zukunft möchte er dem Konsortium noch mit auf den Weg geben: „NFDI4Culture muss europäischer werden!“. Genau das hat NFDI4Culture mit seinen Internationalisierungsbestrebungen auch vor.

NFDI-Kollegin Veronica Haas (Universität Mannheim) vom Konsortium BERD@NFDI verabschiedete sich mit den Worten:

„So eine schöne Konferenz – und die Musikeinlagen waren beeindruckend!“

Auch NFDI4Culture freut sich, besonders nach diesem fruchtbaren Austausch, dem gemeinsamen Lernen, Glitzern, Feiern, Netzwerken, Diskutieren, Konzert-Erleben, Schlemmen und Tanzen, auf ein Wiedersehen mit der Community – allerspätestens beim nächsten Culture Community Plenary!

Gruppenfoto von NFDI4Culture und der Community
NFDI4Culture und die Community – Autor:in: Alexander Stark

Eindrücke der Digital Humanities Benelux 2025 in Amsterdam

2026年1月1日 01:00

Die Digital Humanities Benelux 2025 fand in diesem Jahr vom 4.-6. Juni in den Niederlanden, genauer gesagt in Amsterdam, statt und wurde dort an der Freien Universität (Vrije Universiteit) ausgerichtet. Der gesamte Universitätskomplex ist neu und umfangreich ausgestattet. So gab es eine größere Outdoor-Anlage mit Möglichkeiten für Calisthenics sowie drei Beachvolleyballcourts mitten auf dem Unicampus. Das machte gleich zu Beginn Eindruck.

Anlage auf dem Campus der Universität in Amsterdam (Vrije Universiteit) mit Trainingsmöglichkeiten.
Anlage auf dem Campus der Universität (Bild: Vivian Rätzke).

Aber der Grund für meine Reise war ein anderer – gerne wollte ich die Digital Humanities Benelux besuchen und durfte eine ereignisreiche Tagung miterleben. Ich bin sehr dankbar, dass ich die Möglichkeit dazu hatte und möchte mich an dieser Stelle sehr herzlich bei dem Verband Digital Humanities im deutschsprachigen Raum (DHd e.V.) für die großzügige Unterstützung in Form eines Reisekostenstipendiums bedanken, das mir die Konferenzteilnahme ermöglichte.

Im Vorfeld zur Tagung gab es eine Vielzahl an Pre-Workshops, die am Tag vor dem offiziellen Beginn stattfanden. In meinem Fall fiel die Wahl auf Working with colonial Digital Cultural Heritage, Approaches, Tools, and Transnational Insights. Es handelte sich dabei um einen Workshop zum Umgang mit kritischen Metadaten bei Museumsobjekten aus dem Kolonialkontext. Dieser Workshop beleuchtete unterschiedliche Perspektiven und machte bewusst, was nicht auf Anhieb offensichtlich war, zum Beispiel den Verlust an Informationen bei Objekten aus dem rituellen Kontext. In diesem Rahmen konnten Beispielobjekte aufgezeigt werden, für die weitere Metadaten in Gruppenarbeiten von uns hinzugefügt wurden. Dies geschah unter dem Gesichtspunkt, welche Metadaten fehlen, aber auch welche Metadaten verändert werden müssten. Einer der aufgeworfenen Punkte, war, inwiefern Personen der betreffenden kulturellen Einflüsse in die Erstellung von Metadaten des jeweiligen Objekts einbezogen wurden oder werden sollten, um die Informationen weiterzugeben und darüber hinaus die Suche zu erleichtern. Es wäre ein wichtiger Beitrag, dass essentielle Informationen zu den Objekten und dem Kontext nicht verloren gingen, sondern für die Nachwelt erhalten blieben. Dies wäre auch ein Zeichen des Respekts im Rahmen der Aufarbeitung.

Da der Workshop nur einen halben Tag gehen sollte, buchte ich mir für den restlichen Tag einen Slot im Museum und hatte die Gelegenheit, das Kulturangebot der Stadt Amsterdam genießen zu dürfen.

Fußweg zur Tagung durch die Natur mit einem Gewässer.

Fußweg zur Tagung (Bild: Vivian Rätzke).

Am nächsten Tag ging es weiter mit der offiziellen Eröffnung der Tagung, die insgesamt zweieinhalb Tage gehen sollte. Jedoch ahnten wir zu diesem Zeitpunkt noch nicht, wie sie zum Wochenende hin enden würde, aber dazu später mehr.

Insgesamt gab es während sämtlicher Präsentationen, Vorträge zu drei parallel stattfindenden Sessions. Dies bot ein überaus umfangreiches und vielseitiges Programm für jeden Geschmack und unterschiedliche fachliche Hintergründe. Darunter fielen zum Beispiel Vorträge zur 3D-Modellierung in der Archäologie und X-Analysen anhand von Daten der Geschichtswissenschaften.

Das Reisestipendium eignete sich ideal für die Reise nach Amsterdam, denn die Tagung war international gut besucht und dementsprechend anregend im Austausch über aktuelle Themen der Digital Humanities (DH). Eröffnet wurde die Vortragsreihe mit einer Keynote von Barbara McGillivray vom King’s College London mit Tracing meaning across time: computational and human-centred approaches to semantic change. Noch eine Keynote gab es von Lise Jaillant mit AI to Unlock Archives: Revolutionising Access to our Digital Past. Beide Vorträge waren über die Maße interessant und stark besucht. Mit großem Interesse wurden zum Schluss Diskussionen mit den Tagungsteilnehmenden geführt.

Während der Tagung konnte ein dynamisches Miteinander unter den Tagungsteilnehmenden beobachtet werden. Nicht nur spannende Vorträge gab es, sondern auch eine Poster-Session sowie eine Demonstrationssitzung. Diese sowie das Rahmenprogramm förderten die Möglichkeiten der Vernetzung innerhalb der Digital Humanities Community.

Ein interessanter Punkt des angebotenen Zusatzprogramms war die Möglichkeit, an der Bibliotheksführung der ausrichtenden Universität teilzunehmen. Bei dieser Gelegenheit wurde nicht nur ein Einblick in historische Objekte wie einen Globus oder eine Karte von Japan gegeben, sondern auch ein Projekt vorgestellt, bei dem es darum ging, assyrische Tontafeln für Unterrichtszwecke zu scannen, als 3D-Modelle zu erstellen sowie mit dem 3D-Drucker zu drucken. Diese Kopien der Tontafeln wurden herumgereicht und konnten angefasst sowie ausführlich begutachtet und untersucht werden.

Wann bekommt man schon einmal die Gelegenheit, die Struktur eines antiken Objektes ausgiebig abtasten und die Keilschrift erfühlen zu dürfen? Alles natürlich unter dem Gesichtspunkt, dass das Original unberührt, unversehrt und geschützt blieb. Nicht zu vergessen, dass sogleich eine Expertin unter uns Teilnehmerinnen und Teilnehmern anfing zu erklären, worum es sich dabei genau handelte. Frau Dr. Anouk Nuijten, die auch Ansprechpartnerin für das Projekt ist, berichtete uns zusammen mit ihrem Kollegen Aidan Houtkamp mehr über die Eindrücke von den 3D-Modellen und den angefertigten Repliken im Rahmen von Digital Impressions: Creating 3D Models of Clay Tablets. Weiterhin können die Objekte hier gefunden werden.

Eine Tontafel wird gescannt.
Eine Tontafel wird gescannt (Bild: Vivian Rätzke).
Ausschnitt aus einem Projekt der Universität in Amsterdam.
Ausschnitt des Modells (Bild: Vivian Rätzke).

Der Austausch während der Tagung war produktiv und förderte die internationale Vernetzung zwischen den mehr als 200 Tagungsteilnehmenden sehr. Die anschließenden Diskussionen waren anregend und ermöglichten neue Ideen für Herangehensweisen zukünftiger Forschungsprojekte. Aber auch die Poster- und Demo-Sessions gaben Aufschluss über vielversprechende Möglichkeiten, die in DH genutzt werden können.

Das Organisationsteam vollbrachte eine reife Leistung. Wie schon erwähnt, bot das Ende der Tagung eine überraschende Herausforderung. Bereits zu Beginn stießen die Raumkapazitäten an ihre Grenzen und es mussten kurzerhand größere Räumlichkeiten der Universität zur Verfügung gestellt werden. Zwischenzeitlich gab es ein hohes Aufkommen, dass zuvor sogar auf dem Fußboden Platz genommen worden war, da sich niemand die spannenden Präsentationen entgehen lassen konnte. Womit zu guter Letzt jedoch kaum jemand gerechnet hatte, war der landesweite Bahnstreik der niederländischen Bahn, der dafür sorgte, dass spontan umdisponiert werden musste. So kam es, dass einige bereits einen Tag früher abreisten und andere wiederum ihren Aufenthalt um einen Tag verlängerten. Gleichzeitig wurde das Programm von einem auf den anderen Tag von einem Präsenzmodell zur Hybridtagung am letzten Veranstaltungstag umgewandelt. Der Plan ging auf und alle Vorträge konnten stattfinden. Organisatorisch wurde dies flexibel gehandhabt, jedoch waren am letzten Tagungstag keine Fahrten innerhalb der Niederlande möglich. Ich hatte ohnehin geplant, eine Nacht länger zu bleiben und konnte erfreulicherweise ohne Probleme am nächsten Tag weiterfahren.

Die Digital Humanities Benelux 2025 war ein Erlebnis, das ich nicht vergessen werde. Der Besuch der Tagung hat mich fachlich weitergebracht, dazu geführt, dass ich mich intensiver mit bestimmten DH-Themen auseinandergesetzt habe und mir durch die Vorträge und den Austausch dabei geholfen, neue Ideen im Rahmen meiner Masterarbeit zu entwickeln. Sogar die Aussicht auf ein Ministipendium im Rahmen meiner Abschlussarbeit für die Nutzung eines KI-Tools habe ich dadurch bekommen. Die Möglichkeit und die besondere Erfahrung möchte ich nicht missen und werde mit Freude daran zurückdenken.

Unterwegs zur Tagung durch die Natur mit Blick auf einen Fluss.
Unterwegs zur Tagung durch die Natur (Bild: Vivian Rätzke).

Die Digital Humanities Benelux wird im kommenden Jahr 2026 erneut in den Niederlanden, aber dieses Mal in Maastricht, stattfinden. Wir können gespannt sein, was uns beim nächsten Mal erwartet.

Abschluss der Konferenz am letzten Tag im Hörsaal.
Abschlussbild der Tagung (Foto: Vivian Rätzke).

Bericht zum Workshop „APIs for text-based digital editions“ am 25.09.2025

2025年11月17日 19:13

Wird es sie bald geben, die eine API, sie alle zu finden und auf ewig zu binden? Im Workshop „APIs for text-based digital editions“, der in Kooperation der Universitätsbibliothek Heidelberg und Text+ am 25.09.2025 online stattfand, wurde unter anderem auch das diskutiert. Mehr Informationen dazu gibt es im folgenden Beitrag, der den Workshop und dessen zentrale Ergebnisse zusammenfasst.

Einleitung

Was sind APIs?​

Programmierschnittstellen („API“ von Application Programming Interface) stellen Funktionen bereit, mit denen Informationen aus einem System abgerufen oder gesendet werden können. Da die zulässigen Abfragen, möglichen Parameter und Rückgaben einer API genau definiert sind, können verschiedene Systeme und Anwendungen so einheitlich und effizient auf die Daten zugreifen, ohne die genaue Struktur des zugrundeliegenden Systems kennen zu müssen. 

Beispielsweise bietet das Hochschulbibliothekszentrum des Landes NRW die API lobid-gnd an, durch die der Zugriff auf die Bestände der Gemeinsamen Normdatei (GND) der Deutschen Nationalbibliothek verhältnismäßig aufwandsarm in andere Anwendungen integriert werden kann. In dem Webportal einer digitalen Edition könnten zum Beispiel weitere Informationen zu einer Named Entity angezeigt werden, indem beim Klick auf diese im Hintergrund eine Anfrage an einen Endpunkt der lobid-gnd-API gesendet wird (z.B.: https://lobid.org/gnd/search?q=Heidelberg&format=json). Diese liefert die in der GND gespeicherten Informationen in einem einheitlichen – und in der Dokumentation der API beschriebenen – Format aus, das so seitens des Webportals für die Anzeige aufbereitet werden kann und die gewünschte Information angezeigt wird (z.B.: „Heidelberg – Stadt am Neckar, Regierungsbezirk Karlsruhe, 1196 urkundl. erwähnt“).

Die Zugänglichmachung der Datenschicht einer Edition über eine API kann damit die Recherche, Vernetzung und Nachnutzung der Editionsdaten bedeutend erleichtern; sie trägt also auch zur Umsetzung der FAIR-Prinzipien bei. Nicht ohne Grund fragt der Kriterienkatalog der Rezensionszeitschrift für digitale Editionen RIDE explizit nach dem Vorhandensein von technischen Schnittstellen.1

Idee eines Workshops zum Thema APIs

APIs finden jedoch trotz der vielen Möglichkeiten, die sie mit sich bringen, bisher noch keine breite Anwendung im Bereich der digitalen Editionen und der auf ihnen aufbauenden Forschung. Deshalb wurde in Kooperation der Universitätsbibliothek Heidelberg mit Text+ ein gemeinsamer Workshop zum Thema „APIs for text-based digital editions“ veranstaltet.

Ziel des Workshops war es, mögliche API-Nutzer:innen (z.B. Editionswissenschaftler:innen, Digital Humanists, Sprachwissenschaftler:innen) mit den Dienstanbieter:innen und Entwickler:innen zusammenzubringen, um gemeinsam Grenzen und Möglichkeiten der Schnittstellen zu erkunden, Bedarfe, Wünsche und Weiterentwicklungsmöglichkeiten zu sammeln sowie eventuelle Hürden bei der Verwendung und Implementierung zu minimieren.

Der Workshop

Teilnehmer:innen

Am 25.09. trafen über 60 Personen für den Online-Workshop zusammen. Neben Forscher:innen aus Deutschland, Österreich und der Schweiz waren auch Teilnehmende aus u.a. Polen, der Türkei, Italien und den USA dabei, womit sich die Entscheidung, Englisch als Workshop-Sprache zu verwenden, direkt als richtig erwies. Vertreten waren u.a. Bibliotheken, Forschungsinstitute, dedizierte DH-Zentren und Data Science Labs sowie auch konkrete Forschungsprojekte.

Programm

Das etwa sechsstündige Programm gliederte sich dabei in drei Teile:

  • Vortragsteil: Vier Präsentationen à 20 Minuten zu konkreten Schnittstellen(-spezifikationen) mit jeweils unmittelbar anschließender, kurzer Fragerunde
  • Diskussionsteil: Zwei Breakouträume (einmal mit technischem Fokus und einmal mit Fokus auf Nutzung und Bereitstellung) mit anschließender gemeinsamer Zusammenfassung
  • Anwendungsteil: Vortrag zur Implementierung der DTS-Spezifikation im TEI Publisher als praktisches Beispiel für die Schnittstellenintegration; ebenfalls mit anschließender Diskussionsrunde.

Vorgestellte APIs

Die vier vorgestellten Schnittstellen(-spezifikationen) werden nachfolgend zum besseren Überblick kurz erläutert.

Distributed Text Services

Diese API-Spezifikation wird seit 2015 unter ständigem Input der Community gemeinschaftlich entwickelt und liegt aktuell als Release Candidate vor; die Veröffentlichung von Version 1.0 soll dieses Jahr erfolgen. Die Spezifikation sieht neben dem Einstiegspunkt drei Endpunkte (d.h. Orte, an die Anfragen gesendet werden können) vor:

Citable units können dabei grundsätzlich jeder Art sein; denkbar wären z.B. Kapitel, Paragraphen, Seiten oder auch Verszeilen. Durch einen oder mehrere sogenannte citationTrees wird für jede Ressource hinterlegt, welche Strukturen für sie als mögliche Zugriffsform bereitstehen, sodass beispielsweise vom selben Text (sofern implementiert) sowohl die ersten 20 Seiten als auch semantisch-logische Einheiten wie z.B. 3 Kapitel abgerufen werden könnten. Das primäre Format, das über den document-Endpoint bereitgestellt wird, ist TEI-XML; über den mediaType-Parameter können jedoch auch andere verfügbare Serialisierungen der Daten abgerufen werden, z.B. plain text, HTML oder ganz andere. Die übrigen DTS-Endpunkte nutzen JSON-LD zur Auslieferung der Informationen.

SHINE API

Die SHINE API-Spezifikation wurde im Kontext des RISE-Projektes vom Max-Planck-Institut für Wissenschaftsgeschichte in Berlin sowie der Staatsbibliothek zu Berlin entwickelt und liegt in Version 1 vor. Ähnlich wie bei DTS werden Texte hier als Hierarchie von content units und sections verstanden, die in resources enthalten sind, wobei die Ressourcen wiederum in collections gesammelt werden. Über insgesamt 7 Endpunkte ist dabei u.a. Folgendes möglich, wobei die Antwort stets im JSON-Format erfolgt:

  • collections, resources, sections und content units sowie deren zugehörige Metadaten  einsehen
  • eigene Korpora aus resources zusammenstellen und diese abrufen
  • verfügbare Forschungswerkzeuge für collections abrufen/hinterlegen

Zum letzten Punkt: Ressourcen, die über eine SHINE API zugreifbar sind, können die RISE-Infrastruktur nachnutzen; darunter den Import in Textanalyse- oder Annotationsplattformen wie MARKUS und Recogito oder die Einbindung in den RISE Catalog. Über die RISE-Middleware kann zudem beim Zugriff auf ausgewählte Ressourcen ein Authentifizierungsschritt ergänzt werden, wenn gewünscht.

UDT-ITF API

Dieser API-Spezifikationsvorschlag orientiert sich am IIIF-Standard und wurde in dem 2-Jahres-Projekt „Unlocking Digital Texts: Towards an Interoperable Text Framework“ erarbeitet. Er liegt aktuell in Version 0.1.0-beta vor und wird weiter ausgebaut. 

Der Zugriff auf Textfragmente erfolgt hier mittels der Text Fragment API, während die Text Information API Metadaten zu den Textressourcen und eventuellen Versionen ausliefert. Anders als die bisher vorgestellten API-Spezifikationen ist die Versionierung damit explizit in der Spezifikation enthalten – während bei DTS z.B. indirekt mittels Dublin Core-Metadateneinträgen angegeben werden könnte, dass eine Ressource eine andere ersetzt, ist die Version hier Teil der Fragment-Anfrage: http://{server}{/prefix}/{identifier}/{version}/{mode}/{fragment}/{quality}{.format}

Die Fragmente werden dabei durch sogenannte modes spezifiziert. Vordefiniert sind u.a. char, token und book – bei char würden Fragmente z.B. anhand von character offsets zugreifbar sein, während book eine weitere Untergliederung in Seiten, Zeilen und Zeichen zulässt, sodass book-Fragmente mittels Koordinaten aus Seite–Zeile–Zeichen gebildet werden können. Diese Fragmente werden stets anhand der plaintext-Version einer Ressource berechnet, d.h. ein Server, der diese API-Spezifikation implementiert, muss sicherstellen, dass eventuelles Tagging ignoriert wird. Weitere, selbst definierte modes auf Basis der vordefinierten Möglichkeiten sind ebenso zulässig wie das Zugreifen auf die gesamte Textressource mittels der mode “full”. Als auslieferbare Formate sind dabei txt, TEI-XML, HTML und Markdown im Entwurf vorgesehen. 

Auf die weitere Gliederung der Textressourcen in übergreifende Sammlungen wird hier verzichtet, d.h. das Konzept der collections gibt es hier nicht.

TextAPI

Die TextAPI-Spezifikation ist ebenfalls von IIIF inspiriert und wird von der SUB Göttingen entwickelt. Die Spezifikation liegt in Version 1.4.2 vor, wobei das Release der Version 2.0.0 aktuell in Planung ist. 

Mittels der TextAPI können collections, manifests (physische Expression eines Werks) sowie items oder jeweils zugehörige Metadaten abgerufen, erstellt, gelöscht und ersetzt werden. Im JSON-Inhaltsobjekt können beliebige Serialisierungen der Ressourcen per URL verlinkt werden; worum genau es sich bei einem item handelt, wird dabei durch den Typ-Eintrag im JSON-Objekt klar, der frei gewählt werden kann. Ebenfalls enthalten ist dort auch ein data integrity object, in welchem die Prüfsumme der referenzierten Ressource sowie der zur Generierung verwendete Algorithmus hinterlegt werden. Diese Möglichkeit zur Sicherstellung der Datenintegrität ist in den anderen Spezifikationen nicht integriert oder zumindest nicht pflichtmäßig enthalten.

Das hier entwickelte Ökosystem umfasst neben der TextAPI auch eine AnnotationAPI, SearchAPI und IndexAPI sowie insbesondere den Text Viewer for Digital Objects (TIDO), der TextAPI-JSON konsumiert und als Frontend einer darauf aufbauenden Web Application verwendet werden kann. Ein Beispiel dafür findet sich hier: https://ahiqar.uni-goettingen.de/arabic-karshuni.html?tido=m5_i0_p0.0-1.0-2.1-3.0

Zentrale Ergebnisse der gemeinsamen Diskussion

#OneAPIToRuleThemAll?

Ausgehend von der Feststellung, dass die diskutierten API-Spezifikationen ein ähnliches Textverständnis zugrundelegen und REST-basiert sind, stellte sich gleich zu Beginn der Diskussionsrunde die Frage, ob die vier verschiedenen Spezifikationen in einen gemeinsamen Standard zusammengeführt werden könnten. 

Dagegen spricht, dass die präsentierten APIs natürlich nicht die Gesamtheit aller Schnittstellen in diesem Bereich darstellen und schon die vier genannten durch die unterschiedlichen Entwicklungs- und Anwendungskontexte verschiedene Fokusse und damit auch unterschiedliche Features mitbringen. Zudem sind manche der Schnittstellen bereits Teil eines größeren Ökosystems, sodass Änderungen hin zu einer gemeinsamen Spezifikation für Inkompatibilitäten und damit nachträglichen Anpassungsaufwand sorgen würden.

Allerdings brächte ein gemeinsamer Standard enorme Vorteile sowohl für Forschende als auch Infrastrukturanbietende mit sich: Durch ein abstraktes und flexibles Textmodell (wie es die bisher betrachteten APIs verwenden) wäre es möglich, einheitlich auf Texte und zugehörige Metadaten unterschiedlichster Editionsprojekte zuzugreifen. Die einmalige Einarbeitung in diesen Standard und die API-Verwendung würde also den Zugang zu einer Fülle von mit viel Mühe und Zeit aufbereitetem Forschungsmaterial erlauben. Mit Sicherheit würde das auch die Nachnutzung dieser Daten fördern. Infrastrukturanbieter:innen müssten gleichzeitig lediglich einen einzigen Standard implementieren und zugehörige Skripte pflegen, was die Etablierung und Verfügbarhaltung dieser Services deutlich erleichtert. Gleiches gilt für Entwickler:innen von Forschungssoftware, die so leichter überblicken könnten, welche Schnittstellen ihr Produkt vielleicht anbieten sollte.

Für die Zusammenführung der verschiedenen Spezifikationen wären dabei natürlich viele Abstimmungen nötig – idealerweise nicht nur zwischen den Entwickler:innen, sondern auch innerhalb der Community. Vielleicht kann die zur Vorbereitung des Workshops erstellte Übersicht der vier Spezifikationen neben der Überblicksfunktion hierfür auch als Diskussionsgrundlage dienen: https://doi.org/10.11588/DATA/4EKAGI (falls Interesse besteht, dort weitere APIs aufzunehmen, gerne melden!). 

Use Cases sammeln

Während der Diskussionsrunden stelle sich mehrmals die Frage, wer genau APIs nutzt und zu welchem Zweck – dies sowohl von Seiten der Wissenschaftler:innen aus, die mögliche Einsatzzwecke und damit Mehrwerte der Schnittstellen kennenlernen wollen, als auch von den Entwickler:innen, die konkrete Fallbeispiele nutzen können, um die API-Spezifikation weiterzuentwickeln und an die Bedarfe der Community anzupassen. Beispielsweise bat Hugh Cayless um Textzeugen mit komplexeren Strukturen aus Editionsprojekten, um sicherstellen zu können, dass das Design des DTSnavigation-Endpunktes die API-Implementierung in einem Projekt nicht behindert. 

Im ersten Schritt könnten die (geplanten oder bereits umgesetzten) Anwendungsfälle über die jeweiligen GitHub-/GitLab-Repositorien oder mittels der auf den API-Webseiten angegebenen Kontaktmöglichkeiten übermittelt werden. Die auf den Webseiten oft schon enthaltenen Informationen zur API-Nutzung in bestimmten Projekten könnten dann noch weiter ausgebaut werden und so vielleicht auch weitere Nachnutzungen inspirieren.

Implementierung einer API-Spezifikation: DTS im TEI Publisher

Der Vortrag von Magdalena Turska und Wolfgang Meier zur Implementierung der DTS-Spezifikation im TEI Publisher stellte den letzten Teil des Workshops dar. In der aktuellen Version 9 des TEI Publishers sind die beiden DTS-Endpunkte collection und document – jeweils zur Einsicht in Dokumentensammlungen und zum Herunterladen von Ressourcen – bereits integriert; in Version 10 soll der fehlende navigation-Endpunkt folgen. Den Nutzenden des TEI Publishers soll es dabei möglich sein, die DTS-Komponente mit wenigen Klicks zu ihrer Editionsapp hinzuzufügen oder abzuwählen, ohne selbst etwas implementieren zu müssen. 

Dies stellt jedoch besondere Herausforderungen an die Entwicklung seitens TEI Publisher, da der navigation-Endpunkt Wissen zur Textstruktur fordert, die je nach Ressource sehr unterschiedlich ausfallen kann. Das aktuell dafür herangezogene TEI-Element citeStructure ist jedoch für die Abbildung sehr komplexer Strukturen nur bedingt geeignet. Magdalena Turska schlug deshalb nach der Darlegung der Schwierigkeiten als eine mögliche Lösung vor, die ODDs (One Document Does it All – das TEI-eigene Schemaformat) derart anzupassen, dass über sie Aussagen zur Textstruktur gewonnen werden können. Damit einher ging die Idee, eine Registry dieser ODD-Dateien und DTS-nutzenden Projekte zu nutzen, da die dafür nötigen Informationen dann ohnehin im TEI Publisher vorlägen. 

Persönliches Fazit

Insgesamt sind meine Kollegen und ich mit vielen Fragen in den Workshop gestartet und mit mindestens so vielen Anregungen auch wieder davon zurückgekommen. Die allgemeine Bereitschaft, Erfahrungen zu teilen, Entwicklungsentscheidungen zu diskutieren und erneut zu durchdenken sowie das große Interesse an einem gemeinsamen Standard haben mich dabei besonders gefreut. Letzteres haben wir zusammen mit dem Wunsch nach mehr Orientierung und Nutzungsbeispielen auch klar als Bedarfe festgestellt. Gelegentlich hatten wir in den Diskussionsrunden den Eindruck, dass sich die Nicht-API-Entwickler:innen noch etwas zurückhielten – vielleicht, weil das Thema neu ist und man sich erst einmal einen Eindruck davon machen wollte. Dass wir dies mit der Kombination aus Vorträgen und Fragerunden unterstützen konnten, ist gut; zukünftige Angebote könnten hier aber vielleicht noch expliziter auf API-Neulinge eingehen. Vielleicht gibt es ja sogar bald Schulungen zu einem gemeinsamen API-Standard… In jedem Fall hoffen wir als Veranstalter, dass alle Teilnehmenden etwas aus dem Workshop für sich mitnehmen konnten, und bedanken uns noch einmal herzlich für die gemeinsame Zeit.

 

Verfasst von Katharina Brückmann, mit freundlicher Unterstützung von Philipp Hegel, Jakub Šimek und Leonhard Maylein.

  1. Siehe Punkt 4.9 in: Sahle, Patrick et al.: „Criteria for Reviewing Scholarly Digital Editions, version 1.1“, abgerufen unter https://www.i-d-e.de/publikationen/weitereschriften/criteria-version-1-1/ am 17.11.2025. ↩

Olá, Lisboa: DH2025 – Building Access and Accessibility, open science to all citizens

2025年8月28日 22:51

Die diesjährige Digital Humanities Konferenz fand im schönen (wenn auch ziemlich heißen!) portugiesischen Sommer in Lissabon statt. Als Brasilianerin war ich besonders froh, die DH-Community in einem portugiesischsprachigen Umfeld zu erleben, und bin mit Unterstützung eines Reisestipendiums des Verbands Digital Humanities im deutschsprachigen Raum (DHd) nach Lissabon gegangen. Ich bin daher dem Dhd für die Unterstützung sehr dankbar, welche mir die Teilnahme an der Konferenz ermöglicht hat. Ohne diese Unterstützung hätte ich diese Erfahrung nicht erleben können.

Unter anderem hatte ich vor, Ergebnisse aus dem Projekt „digitale Edition von Fernando Pessoa – Projekte und Publikationen” zu präsentieren, einem Text+ Kooperationsprojekt mit Prof. Ulrike Henny-Krahmer (Universität Rostock), mit der ich 2023 zusammengearbeitet habe. Das Projekt sollte die Infrastruktur der digitalen Edition auf den neuesten Stand bringen. Da Fernando Pessoa einer der wichtigsten Autoren der Literatur in portugiesischer Sprache und ein echter Lisboeta ist, war Lissabon der perfekte Ort, um die Ergebnisse des Projekts zu teilen.

In diesem Blogbeitrag teile ich ein paar Eindrücke von der DH2025 und während wir auf das Abstract-Buch warten, möchte ich auch ein paar Eindrücke vom Programm zeigen.

DH in Lissabon

Ein gelber Straßenbahnwagen fährt durch eine sonnige Stadtstraße, umgeben von Gebäuden, Bäumen und Oberleitungen.

Unter dem Motto „Accessibility & Citizenship“ ging es bei der Konferenz darum, den Zugang zu Wissen demokratischer zu machen, das Engagement der Community zu fördern und aktuelle gesellschaftliche Probleme auf sinnvolle Weise anzugehen. Barrierefreiheit war nicht nur ein Thema, sondern hat auch die Organisation beeinflusst. Bei der Eröffnungsfeier gab es sowohl im Saal als auch beim Zoom-Livestream Gebärdensprachdolmetscher. Das hybride Format, das an sich schon ein Zeichen für Barrierefreiheit ist, baut auf den letzten Konferenzen in Graz (2023) und Washington, DC (2024) auf und versucht, die Online-Teilnahme zu verbessern. Obwohl ich vor Ort in Lissabon war, finde ich es sehr wichtig, dass unsere Community weiterhin den Möglichkeiten für DHler:innen und Interessierte, die nicht reisen können, Priorität einräumt.

Auch die Multilingualität stand im Mittelpunkt. Präsentationen in anderen Sprachen als Englisch sind auf DH-Konferenzen nichts Neues, aber in Lissabon gab es mehrere Vorträge auf Italienisch, Portugiesisch und Spanisch. Da die ADHO neue Mitglieder wie die Associazione per l’Informatica Umanistica e la Cultura Digitale (AIUCD) aufnimmt, sollten wir den wissenschaftlichen Austausch über Sprach- und Landesgrenzen hinweg weiter fördern. Englisch ist vielleicht die Lingua franca der Wissenschaft, aber als Geisteswissenschaftler:innen sollten wir die damit verbundenen Auswirkungen kritisch hinterfragen.

Aus einer brasilianischen akademischen Perspektive ist diese Diskussion bekannt: Englisch ist oft die gemeinsame Sprache in der Wissenschaft, aber es kann auch eine Barriere darstellen, die Leute von der Teilnahme ausschließt, und zwar selbst wenn es, z.B., auf Portugiesisch fundierte wissenschaftliche Arbeiten gibt. Für uns, bei einem Vortrag über einen portugiesischen Autor im Herzen Portugals durch eine brasilianische Forscherin, haben wir (das Team: Ulrike Henny-Krahmer, Erik Renz und ich) uns dafür entschieden, auf Portugiesisch zu präsentieren. Es war wie eine Heimkehr für Pessoas Ausgabe in seine Heimatstadt.

Ich werde hier nicht versuchen, das Problem zu lösen, aber die Anzahl der mehrsprachigen Vorträge auf der Konferenz unter dem Motto „Accessibility“ hat mich wieder an diese Fragen erinnert. Das ist es meiner Meinung nach, was ein Konferenzmotto bewirken sollte. Gut gemacht, Organisationskomitee!

Die DH-Konferenz in Lissabon war nicht nur mehrsprachig, sondern auch echt international. Die Referenten kamen aus Institutionen von 45 Ländern. Die Karte unten zeigt die Teilnahme nach Ländern, basierend auf dem Konferenzprogramm und den Angaben der Teilnehmer zu ihrer jeweiligen institutionellen Zugehörigkeit. (Die Karte zeigt das Land der Institution der Referenten, nicht ihre Staatsangehörigkeit.)

Die Grafik zeigt eine Weltkarte mit der Anzahl der Präsentationen pro Land, dargestellt durch verschiedene Farbabstufungen von hellviolett bis dunkelviolett. Je dunkler die Farbe, desto mehr Präsentationen fanden in diesem Land statt.

Bei der Eröffnung hat ADHO sein 20-jähriges Jubiläum in Erinnerung gerufen (gegründet 2005) und Italien über AIUCD als neues Mitglied begrüßt. Der Antonio Zampolli Preis 2026 wurde für das Stylo Tool und die Computational Stylistics Group verliehen, deren R-Library für stilometrische Analysen und ihr Engagement für den Aufbau einer Community gewürdigt wurden. Michael Sperberg-McQueen (1954–2024) wurde außerdem in Erinnerung gerufen und der Michael Sperberg-McQueen Digital Nachlass vorgestellt (https://dh.phil-fak.uni-koeln.de/en/research/cmsmcq), eine Initiative des Departments für Digital Humanities der Universität zu Köln zur Bewahrung seines digitalen Nachlasses unter der Leitung von Elisa Cugliana und Øyvind Eide. Das Programmkomitee unter der Leitung von Gimena del rio Riande (IIBICRIT- CONICET/ USAL) und Manuel Portela (Fachbereich für Sprachen, Literatur und Kulturen, UCoimbra) folgte mit einem lustigen Sketch über KI-„Halluzinationen” und die Schwierigkeiten des akademischen Lebens, der die Stimmung auflockerte und uns gleichzeitig auf die Themen des Jahres zurückführte: Mehrsprachigkeit, Politik, Barrierefreiheit und Wissenschaft als citizenship.

Javier Cha steht vor dem Publikum im Konferenzraum und präsentiert Folien mit Schriftzeichen, während ein Dolmetscher daneben steht.

Dann kam die Keynote von Javier Cha. Cha erzählte von seiner Karriere und seiner Sicht auf (digitale) Geschichte, von seinen ersten netzwerkbasierten Rereadings historischer Quellen bis hin zu aktuellen Anwendungen von KI, die uns helfen, Archive besser im Kontext zu lesen. Der Fokus liegt nicht darauf, mit KI das Rad neu zu erfinden, sondern anders zu lesen: mithilfe von Computern Verbindungen, Nuancen und Kontexte zu erkennen, die durch Schlüsselwörter und Häufigkeit nicht erfasst (oder erkennt) werden, während der Historiker:in die Kontrolle behält. Er bezeichnete dies als „fine-tuning the historian’s macroscope”: die Fähigkeit, das Ganze zu überblicken und die richtigen Stellen zu finden, um näher hinzuschauen und genauer zu lesen.

Überblick: Poster, Präsentationen und Panels

Ein Balkendiagramm zeigt die Anzahl der Präsentationen nach Typ. "Short paper" hat mit 218 die meisten Beiträge, gefolgt von "Poster" mit 133 und "Long paper" mit 118. Weitere Kategorien sind "Workshop" (17), "Panel" (10), "Mini conference" (8) und "SIG workshop/event" (7).

Das Programmheft ist noch nicht da, aber während wir warten, können wir uns schon mal das Programm anschauen und, um einen Begriff von Cha zu verwenden, mit unserem Makroskop die Konferenz aus der Ferne betrachten und versuchen, einen Eindruck davon zu bekommen, was unsere DH Community so treibt. Ein Überblick über die Arten der eingereichten Beiträge zeigt uns die Verteilung des diesjährigen Programms (siehe oben). Die Daten für diesen Überblick stammen aus dem Programm auf Conftool (https://dh2025.adho.org/browse-the-program-agenda/), wurden maschinell erfasst und anschließend mit Python bereinigt und analysiert.

Ein Balkendiagramm zeigt die häufigsten n-Grams. "Large language models" und "cultural heritage" sind am häufigsten, gefolgt von "machine learning" und "open source".

Wenn man sich die Abstracts der Vorträge im Programm anschaut (Workshops und Panels nicht mitgerechnet), zeigt das Balkendiagramm die häufigsten N-Grams, also wie oft ein Begriff in den Abstracts vorkommt. Das Thema, das ganz klar dominiert, sind „Large Language Models” (LLMs). Das zeigt, dass der Einsatz von LLMs in den Digital Humanities weiterhin ein Trend ist, der sich durchsetzt. Gleich danach kommt „cultural heritage”, was zeigt, dass GLAM und die Arbeit mit Kulturgütern nach wie vor ein zentraler Anwendungsbereich für DH sind. Methoden sind sehr präsent, vor allem KI („machine learning” und „large language models” stehen ganz oben), während „“computational Methods” und „text analysis” den methodischen Fokus verstärken. Der Fokus auf KI und LLMs ist nicht überraschend und war auch schon in der letzten DH zu sehen. Offenheit zieht sich durch das ganze Programm, wobei „open source”, „open science”, „open data” und „FAIR principles ” häufig auftauchen. Auch Wissensrepräsentation ist ein lebhaftes Thema, wobei „knowledge graphs” und „linked open data” auf Interoperabilität und semantische Anreicherung hinweisen.

Eine zweite Visualisierung zeigt, wie Themen in den Abstracts der Vorträge zusammen auftreten. In dieser Co-Occurrence-Heatmap zählt jede Zelle die Abstracts, die ein Paar der Top N-Grams im selben Text erwähnen (die Diagonale ist ausgegraut, weil Selbstpaare raus sind). Die Matrix ist ziemlich sparsam, was darauf hindeutet, dass sich viele Beiträge auf ein einziges Hauptthema konzentrieren, aber es gibt auch klare Überschneidungen. Begriffe rund um Offenheit wie “open science”, „open source”, „open data” und „FAIR principles” tauchen zusammen auf, oft in Kombination mit „research data“ und oft in Kombination mit „cultural heritage“. Methodische Themen bilden ein weiteres Cluster, insbesondere „large language models“, „machine learning“ und „computational methods“, die gelegentlich gemeinsam mit „text analysis“ erscheinen. „Cultural heritage“ zeigt Verbindungen zu mehreren dieser Bereiche, was darauf hindeutet, dass Kulturgüter häufig durch offene Praktiken, datengetriebene Ansätze und KI-gestützte Methoden in Fallstudien integriert werden.

Ein Heatmap zeigt die Co-Occurrence der häufigsten n-Grams. Dunkle Felder markieren häufige gemeinsame Vorkommen von Begriffen wie "large language models", "cultural heritage" und "open science".

Was ich mitnehme…

Die Teilnahme an der DH ist immer eine Chance, Freunde zu treffen, neue Leute kennenzulernen und viel zu lernen. Als ich Lissabon verlassen habe, hatte ich frische Ideen für LLM-basierte Methoden zum Erfassen und Analysieren von Daten im Gepäck. Wie Cha uns betonte, müssen wir uns nicht zwischen dem Überblick und den Details entscheiden; wir können zwischen beiden hin- und herwechseln und LLMs kritisch einsetzen, während wir selbst entscheiden, wann wir den Fokus auf Nuancen legen wollen. Außerdem wurde mir wieder bewusst, wie wichtig Dokumentation und Wiederverwendbarkeit sind: Unsere beste Arbeit ist für andere nur dann nützlich, wenn sie gut dokumentiert und frei verfügbar ist. Die DH2025 hat meine Neugier geweckt und mein Notizbuch mit Ideen gefüllt. Vielleicht werden wir uns 2026 in Wien zur DHd wieder treffen.

Tchau, Lisboa, até a próxima! Bis dahin hat Lissabon uns allen beigebracht, was Saudade bedeutet.

Ein Flugzeug fliegt über Lissabon bei Sonnenuntergang, die Skyline ist im Schatten sichtbar.

DH2025: Building Access and Accessibility, open science to all citizens – Meine ersten Schritte in die Forschungswelt

2025年8月15日 23:22
Vom 14. bis 18. Juli 2025 fand in Lissabon die Digital Humanities Konferenz unter dem Motto „Building access and accessibility, open science to all citizens“ statt. Gemeinsam mit meiner Kommilitonin und Dozentin durfte ich unser Projekt als „Long Presentation“ vorstellen. Was als Kursprojekt begann, wurde zu meiner ersten internationalen Konferenzteilnahme und einer wichtigen Erfahrung für meine berufliche Zukunft. Besonders dankbar bin ich dem Verband „Digital Humanities im deutschsprachigen Raum e.V.“, der mir über das DHd-Reisestipendium die Teilnahme ermöglicht hat. Ohne diese großzügige Unterstützung wäre es mir nicht möglich gewesen, diese wertvolle Erfahrung zu sammeln.

 

Von der Studienarbeit zur internationalen Konferenz

Ich befinde mich gerade in der finalen Phase meines Masterstudiums und arbeite parallel am Institut für Digital Humanities der Universität zu Köln. Dort bekomme ich viel von den Abläufen hinter den Kulissen mit, besonders wie Promotionen und Forschungsprojekte vonstattengehen. Ursprünglich hatte ich nie vor, zu promovieren. Der Master sollte mein letzter Meilenstein sein, danach wollte ich direkt ins Berufsleben einsteigen. Die Pandemie und einige Umwege verlängerten mein Studium, wodurch ich mich unter Zeitdruck fühlte.

Doch wie so vieles in meinem Studium entwickelte sich auch diese Perspektive ganz natürlich. Dass ich überhaupt im Bereich Digital Humanities studieren würde, hätte ich mir früher nie vorstellen können. Inzwischen bin ich für neue Möglichkeiten offen. Die Konferenzerfahrung hat mein Interesse an einer Promotion geweckt.

Den Grundstein legte ein Kurs namens „Digital Humanities – Theorie und Praxis“, in dem wir als Gruppe ein Virtual-Reality-Projekt in der Spiel-Engine Unreal Engine 5 entwickelten. Mit Unterstützung unserer Dozentin wählten wir das Thema und erstellten eine Anwendung über mittelalterliche Losbücher, speziell das „Prenostica Socratis Basilei” in seinen mittelalterlichen deutschen Versionen. Diese historischen Wahrsagetexte haben ihre Wurzeln in der Spätantike und wurden vor allem vom 14. bis 16. Jahrhundert zur Zukunftsvorhersage verwendet. Typisch war dabei der Einsatz von interaktiven Ritualen wie Würfeln, um durch den nicht linearen Text zu navigieren. Als konkrete Grundlage diente uns das Losbuch Konrad Bollstatters, eine Handschrift aus dem 15. Jahrhundert, die charakteristische Merkmale dieser Textgattung zeigt.

Wir platzierten dieses Losbuch in drei virtuellen Umgebungen: einer Klosterbibliothek, einem Astrologenlabor und einer Taverne. Damit wollten wir die unterschiedlichen Nutzungskontexte der Zeit nachbilden, von spirituellen über wissenschaftliche bis hin zu unterhaltenden Zwecken.

Die von uns entwickelte VR Anwendung ermöglicht es Nutzern, das Losbuch in seinen historischen Zusammenhängen zu erleben. Dabei können sie die typischen multisensorischen Interaktionen nachempfinden, etwa das Blättern in den Pergamentseiten oder das ritualisierte Würfeln, die für die mittelalterliche Nutzung dieser Texte entscheidend waren. Schon während der Entwicklung war klar, dass wir das Projekt weiterführen und einem größeren Publikum zeigen wollten. Wir schrieben ein Paper darüber, das tatsächlich für die DH Conference akzeptiert wurde!

Die Reise nach Lissabon

Da alles sehr schnell ging, konnte nicht das gesamte Team teilnehmen. Als Studierende fehlten uns schlichtweg die finanziellen Mittel, und die Flüge und Unterkünfte waren während der Sommerzeit besonders teuer. Auch zeitliche Konflikte verhinderten, dass wir von Anfang an dabei sein konnten. Unsere Teammitglieder waren in unseren Gedanken dabei. Wir stellten sicher, dass ihre Arbeit gewürdigt wurde. Am Abend des 17. Juli landeten wir in Lissabon. Nach der Ankunft freuten wir uns sehr über das tolle Wetter. Wir nahmen die Bahn zu unserem Airbnb, das glücklicherweise nicht weit vom Flughafen entfernt lag. Unser Host war eine nette portugiesische Familie, die uns Zugang zu den meisten Räumlichkeiten gewährte.

Erste Eindrücke auf der Konferenz

Bei der Ankunft zur Konferenz war ich überwältigt von der Menschenvielfalt aus aller Welt. Nach der Anmeldung erhielten wir unsere Namensschilder mit Affiliationen. Unsere Präsentation war für Donnerstag um 14 Uhr geplant, die Slots dauerten jeweils 1,5 Stunden und begannen um 10 Uhr. Über die Whova-App konnte man sich vernetzen und für interessante Sessions eintragen. Zusätzlich gab es eine komplette Teilnehmer:innenliste und eine Messaging-Funktion für die Vernetzung. Zwei Personen mit DH2025 Konferenz-Namensschildern (Pascale Boisvert und Nadjim Noori, University of Cologne) unter einem Baum

Wir waren sehr aufgeregt, da wir uns noch nicht vollständig vorbereitet fühlten. Neue Ängste kamen auf: Was, wenn niemand oder zu wenige zu unserem Panel kommen? Was, wenn Fragen gestellt werden, die wir nicht beantworten können? Wir hatten uns zwar auf spezifische Fragen vorbereitet, aber unser Projekt würde sicherlich komplexe Fragen aufwerfen.

Ich fühlte mich etwas eingeschüchtert, denn die meisten Teilnehmenden waren Postdocs oder Promovierende. Genau deshalb wollte ich herausfinden, ob ich mir eine Karriere in diesem Bereich vorstellen kann, und suchte aktiv Gespräche in den Pausen.

Die Präsentation

Am Abend zuvor übten wir unsere Passagen und nahmen das VR-Headset für eine mögliche Live-Demo mit. Letztlich zeigten wir jedoch nur ein Video, um das Risiko technischer Probleme oder von Zeitverzögerungen zu vermeiden. Unsere Präsentationszeit war auf 20 Minuten begrenzt.

Während der Präsentation betonte unsere Dozentin, dass wir Masterstudierende seien, die zum ersten Mal in dieser Form präsentieren. Die Präsentation verlief sehr gut. Wir hielten die Zeit ein, stotterten kaum, das Englisch funktionierte, und die Diskussionsrunde war lebendig. Es gab viele Fragen, was uns freute. Kritische Stimmen gab es auch: Jemand hinterfragte unsere Methodik, doch eine andere Person wies die Kritik zurück und bezeichnete unseren Ansatz als intuitiv.

Die Konferenztage

Wir gingen relativ spät schlafen und mussten früh aufstehen. Am ersten Tag ging ich in den Pausen zu unserer Dozentin, die unsere Präsentation unterstützte und die Session moderierte. Unser Institut war schön auf der DH-Konferenz vertreten. Ich sah viele Dozent:innen und Kommiliton:innen, die ebenfalls präsentierten.

Die Mittagspause am Donnerstag war hektisch, doch ich nutzte die kurze Zeit, um etwas von Lissabon zu sehen und zu essen. Nach der Präsentation besuchten wir bis tief in den Abend weitere Sessions.

Der Freitag war viel entspannter, da der Druck weg war. Wir suchten in Ruhe interessante Sessions aus und aßen entspannt zu Mittag. Ich erlebte viele spannende Präsentationen, besonders gefielen mir die mit viel Programmierung.

Die abschließende Keynote

Am Ende des Freitags gab es die Final Keynote, bei der wir unbedingt dabei sein wollten. Roopika Risam vom Dartmouth College hielt einen Vortrag über „Digital Humanities for a World Unmade“. Sie forderte die DH-Community heraus, nicht nur technische Expert:innen, sondern auch politische Akteur:innen zu sein. Besonders hängen geblieben ist mir ihr Aufruf, digitale Forschung als Mittel für soziale Gerechtigkeit zu nutzen und marginalisierte Stimmen sichtbar zu machen.

Fachliche Einblicke und neue Horizonte

Die Sessions, die ich besuchte, zeigten die Vielfalt der Digital Humanities: von Machine-Learning-Ansätzen für Gothic Novels über Netzwerkanalysen antiker griechischer Texte bis hin zu automatisierten Text-Processing-Tools. Besonders beeindruckt hat mich der Session-Slot „Automating Text Processing with LLMs & Data Visualization Tools“. Die Präsentation zu CodeFlow” zeigte mir, wie weit wir bereits in der Automatisierung gekommen sind. Tools wie diese können digitale Geisteswissenschaften zugänglicher machen, indem sie auch weniger technisch versierten Forschenden den Zugang zu komplexen Analysemethoden erleichtern. Konferenzraum mit Teilnehmern während eines Vortrags, Blick von hinten auf das Publikum und die Präsentation vorne

Eine andere Präsentation, die mich besonders fesselte, war „Comparing Human and AI Performance in Visual Storytelling through Creation of Comic Strips“. Der Präsentierende war trotz seiner Online-Teilnahme so unterhaltsam, und die Erkenntnisse reflektierten die Vielseitigkeit und Kreativität der DH-Forschung. In der Präsentation wurde eine Studie vorgestellt, in der Menschen und KI darin verglichen wurden, einen dreiteiligen Nancy-Comic nachzustellen. Menschen mit grundlegender künstlerischer Ausbildung überzeugten durch zusammenhängende visuelle Erzählungen, während die KI trotz beeindruckender künstlerischer Replikation Schwierigkeiten hatte, eine stimmige Geschichte zu erzeugen. Die Ergebnisse zeigen, dass Menschen nach wie vor überlegen sind, Anweisungen in sinnvolle Geschichten umzusetzen.

Überraschende Erkenntnisse und Vernetzung

Was mich am meisten überrascht hat, war die Selbstverständlichkeit, mit der hier Geisteswissenschaftler:innen, Informatiker:innen, Bibliothekar:innen und Künstler:innen zusammenarbeiten. Die Bandbreite reichte von technischen Ansätzen bis zu konzeptuellen Reflexionen über digitale Kultur. Es war faszinierend zu beobachten, wie schnell sich Trends und Technologien im Feld entwickeln. 

Die Vernetzung war ein Höhepunkt der Konferenz. Ich konnte mich mit Forschenden aus Polen, den Niederlanden und den USA austauschen. Eine US-amerikanische Professorin zeigte großes Interesse an unserer Präsentation und wollte Einblicke für ihre Kurse, um ähnliche Projekte mit ihren Studierenden zu realisieren. Solche direkten Angebote für Kollaborationen hätte ich nicht erwartet.

Ein neuer Blick auf die Promotion

Eine meiner Hauptemotionen während der Konferenz war die Angst vor dem Ungewissen, vielleicht auch ein bisschen Imposter-Syndrom. Noch vor einem Jahr hätte ich gesagt, dass ein PhD für mich keine Option ist. Mir fehlte einfach der Anknüpfungspunkt. In meinem Umfeld kannte ich kaum jemanden, der eine Promotion anstrebte.

Die Konferenz ermöglichte mir einen Einblick in die weltweite DH-Forschung. Es gab sogar ein Online-Board mit Job- und PhD-Angeboten, und ich sprach mit vielen Gleichaltrigen über ihre Erfahrungen und ob sie eine Promotion empfehlen würden.

Die positive Resonanz auf unser Projekt gibt mir Mut, tiefer in dieses Forschungsfeld einzutauchen, und ich werde mich demnächst von meiner Dozentin beraten lassen.

Ausblick und Ratschläge

Nach der Masterarbeit stehen die PhD-Pläne im Raum. Vielleicht führt mich das sogar ins Ausland. Für unser VR-Projekt hoffen wir auf Funding. Diese Antwort musste ich während der Diskussionsrunde nach unserer Präsentation häufig geben, wenn gefragt wurde, warum wir bestimmte Aspekte nicht anders umgesetzt haben. Mit zusätzlichen Ressourcen könnten wir das Projekt für noch mehr Menschen zugänglich machen.

Anderen Masterstudierenden, die ihre erste Konferenz besuchen, würde ich raten: Lasst euch von eurer Unsicherheit nicht blockieren. Viele Menschen auf der Konferenz durchlaufen genau dasselbe wie ihr. Und nach der ersten Konferenz werden die nächsten viel leichter. Für zukünftige Präsentationen würde ich mein Zeitmanagement verbessern, um alles noch einmal in Ruhe durchzugehen, auch wenn mir bewusst ist, dass diese Konferenz für mich sehr plötzlich kam.

Fazit

Diese erste Konferenzerfahrung hat nicht nur meinen Blick auf eine mögliche Promotion verändert, sondern mir auch gezeigt, wie lebendig, vielfältig und zukunftsweisend die Digital Humanities sind. Die Begegnungen mit internationalen Forschenden und der Austausch über innovative Projekte haben mich bestärkt, meinen Weg in diesem Feld weiterzugehen.



DH Con – 2025: Building access and accessibility open science to all citizensIn Lisbon, Portugal

2025年8月14日 17:47
Dank der Unterstützung des Verbands der Digital Humanities im deutschsprachigen Raum in Form eines Reisestipendiums konnte ich an der DH Konferenz 2025 in Lissabon, Portugal, teilnehmen.
Passend zu diesem Beitrag entstand auch ein Vlog, der hier auf YouTube verfügbar ist.

Unter dem Motto „Building access and accessibility open science to all citizens” fand vom 14. bis 18. Juli 2025 in Lissabon die Konferenz  für Digital Humanities 2025 statt. Als Masterstudentin im letzten Semester war es für mich eine großartige Gelegenheit, an der Konferenz teilzunehmen und vor allem ein Universitätsprojekt vorstellen zu können. Es war auch eine Gelegenheit, den Forschungsaspekt der Digital Humanities zu erkunden und viel über verschiedene Projekte, Techniken und Pläne in diesem Bereich zu lernen. Bei dieser ersten Erfahrung war ich glücklicherweise nicht alleine, sondern wurde von einem Kollegen begleitet, der ebenfalls an dem zu präsentierenden Projekt mitgearbeitet hatte, sowie von unseren Professoren, die unsere Arbeit betreut haben.

Teilnahme an den Vorträgen

Obwohl die Konferenz bereits am Montag, dem 14. begann, kam ich erst am Mittwochabend an und war nur an den letzten beiden Tagen, Donnerstag und Freitag, anwesend. Dies lag hauptsächlich an den verfügbaren Flügen, Unterkünften, Kosten und der Möglichkeit, mir frei zu nehmen. Das bedeutet jedoch nicht, dass ich Zeit verschwendet habe. Die Workshops waren zu diesem Zeitpunkt bereits vorbei, aber mein Terminkalender war mit der Teilnahme an vielen verschiedenen Vorträgen zu einem breiten Spektrum von Themen, Methoden und Möglichkeiten gefüllt. Im Folgenden werden einige dieser Vorträge hervorgehoben, die meinen verschiedenen Interessengebieten nahe standen und die ich nicht nur aus technischer Sicht, sondern auch aus persönlichem Interesse am interessantesten fand.

Die erste Sitzung umfasste drei Vorträge zu den Themen Machine Learning (ML), Netzwerkanalyse und Diskursanalyse. Der erste Vortrag, gehalten von Mark Andrew Algee-Hewitt und Jessica Monaco, konzentrierte sich auf die Anwendung von Machine Learning, insbesondere eines BERT-Modells, zur Klassifizierung einzelner Passagen aus gotischen Romanen des 19. Jahrhunderts anhand ihrer Verbindungen zu anderen modernen, nicht-gotischen Genres. Der Vortrag lieferte nicht nur wertvolle Einblicke in verschiedene Romane, sondern stellte auch einen innovativen Ansatz zur Verfolgung von Veränderungen der Genremerkmale im Laufe der Zeit vor. Für mich war dies ein sehr interessantes Projekt, da ich Literatur als Teil meiner täglichen Hobbys genieße und es interessant und unterhaltsam fand, sie im Kontext der Digital Humanities präsentiert und untersucht zu sehen, insbesondere in Kombination mit Machine Learning, einem weiteren Interesse von mir, das ich während meines Studiums entwickelt habe. Da ich bisher noch nicht mit BERT-Modellen gearbeitet habe, bot dieser Vortrag gute Einblicke in das Modell, seine Verwendung und sein Potenzial.

In derselben Sitzung stellte Zef Segal seine Arbeit über die Kulturen der Wiederverwendung von Texten vor und verglich dabei amerikanische und hebräische journalistische Netzwerke aus dem 19. Jahrhundert. Die Sitzung wurde von Caoi Mello abgeschlossen, der verschiedene Strategien zur Identifizierung von Nuancen in Zeitungen vorstellt, die bis heute mit computergestützten Methoden nur schwer zu erreichen sind.

Die zweite Sitzung des Tages hatte als Hauptthema die Netzwerkanalyse. Der erste Vortrag von Christophe Malaterre und Francis Lareau befasste sich mit einer Methode zur Ableitung semantischer sozialer Netzwerke aus Textdaten. Dabei werden die Ähnlichkeiten in der Terminologie mithilfe von Topic Modelling analysiert. Dieser Ansatz hilft dabei, „hidden communities of interest” zu identifizieren, um die Entwicklung von Gemeinschaften analysieren zu können.

In derselben Sitzung erfuhr ich auch von den anderen Vorträgen und deren Nutzung von Netzwerken zur Unterstützung ihrer Forschung. Evelien de Graaf nutzt beispielsweise Co-occurrences in altgriechischen und lateinischen Texten, um die Erwähnungen von Platon in der vorchristlichen Literatur zu kartieren. Anschließend stellten Caio Mello seinen und den Ansatz seiner Kollegen Jen Pohlmann und Karin León Henneberg vor, indem sie die Debatte über das NetzDG, das neue deutsche Gesetz gegen Hassreden, untersuchten. Sie verwendeten Netzwerkanalysen, Methoden der Natural Language Processing und Close Reading, um getwitterte Inhalte verschiedener Accounts zu untersuchen, die das Gesetz erwähnten, um den potenziell hohen Einfluss dieser Accounts auf die Gestaltung der Diskussion zu diesem Thema zu untersuchen.

Anschließend stellte Katherine Ireland ihre vorläufige R Shiny Web-App vor, mit der sich die Tweet-Datensätze des National Health Service (NHS), des Center for Disease Control (CDC) und der Weltgesundheitsorganisation (WHO) aus dem Jahr 2020 visualisieren lassen. Die Web-App sieht eine interaktive Visualisierung der Datensätze vor, bietet aber auch die Möglichkeit der Textanalyse mit Tidytext und Quanteda.

Schließlich stellten Paul Girard, Alexis Jacomy, Benoît Simard und Mathieu Jacomy ihre Lite Webversion von Gephi vor: Gephi Lite. Die Hauptfunktionen bieten eine demokratisierte Netzwerkvisualisierung, die über eine Webplattform verfügbar ist.

Präsentation unseres Projekts

In der folgenden Sitzung stellten wir unser Projekt vor. Dies war für uns, zwei Masterstudenten, die von unseren beiden Professoren betreut und unterstützt wurden, eine großartige Gelegenheit, die Forscherseite der Digital Humanities als aktive Teilnehmer zu erleben.

Das Projekt selbst bestand in der Rekonstruktion der Verwendungskontexte der Sortes-Texte, einer beliebten Art interaktiver und divinatorischer Texte, die erstmals in der Spätantike auftauchen und im Mittelalter in Europa weit verbreitet waren. Anhand der Prenostica Socratis Basilei, einer Handschrift von Konrad Bollstatter aus den Jahren 1450 bis 1473, die als Grundlage für die Edition diente, wollten wir das „Äußere” dieser Editionen untersuchen. Das bedeutete, dass wir uns eher auf die Verwendungskontexte als auf den Inhalt des Textes konzentrierten.

Die Besonderheit der Sortes-Texte besteht darin, dass sie nicht linear und in hohem Maße interaktiv sind und performative Handlungen wie Würfeln, Kartenlegen usw. verwenden. Wissenschaftler haben sich bisher auf den Textinhalt konzentriert, aber nur sehr wenig Interesse an der nicht-textuellen Dimension dieser Texte gezeigt. Unser Projekt zielt darauf ab, diese andere wichtige Dimension der Sortes-Texte zu erschließen.

Wir haben daher eine Virtual Reality Anwendung bzw. ein Spiel entwickelt, das den bekannten Verwendungskontext im Mittelalter als wissenschaftliches Werkzeug, als Spiel und als religiöses Objekt rekonstruiert. Mithilfe der Quixel Megascan Bibliothek von Unreal Engine haben wir versucht, die Atmosphäre nachzubilden, in der die Texte möglicherweise verwendet wurden, wobei wir die historische Genauigkeit etwas außer Acht gelassen haben. In dem Projekt ist es möglich, die Verwendung des Buches und die erforderlichen Würfeln zu erleben sowie die verschiedenen Atmosphären zu genießen und zu erleben, wobei einige selbst erstellte 3D-Modelle auf der Grundlage historischer, dokumentierter Objekte verwendet werden.

Diese Präsentation war meine allererste im Rahmen einer Digital Humanities Konferenz, und der Stress war ziemlich hoch. Als ich jedoch zu sprechen begann, verlief im letzten Teil der Präsentation alles reibungslos, obwohl mir einige Sprachfehler unterliefen, die sich jedoch als völlig unproblematisch herausstellten. Die Fragerunde nach unserer Präsentation war für mich wahrscheinlich die größte Herausforderung, da die anwesenden Personen Doktoranden oder renommierte Forscher auf dem Gebiet der Digital Humanities waren. Sie zeigten mir jedoch, dass das Projekt tatsächlich interessant war und einen Beitrag zu den Digital Humanities leisten konnte. Sie bewiesen uns, meinem studentischen Kollegen und mir, dass wir unsere Projekte nicht herabsetzen, sondern stolz darauf sein sollten. Wir konnten die gestellten Fragen beantworten, und es entstand eine gute Diskussion über unsere Präsentation.

Diese erste Präsentationserfahrung war positiv und hat mir die Augen für die Möglichkeit eröffnet, meine Karriere in der Forschung im Bereich der Digital Humanities fortzusetzen. Die Diskussionen, die wir geführt haben, und die Menschen, die wir getroffen haben, haben wirklich zu einer positiven Gesamterfahrung beigetragen, und ich habe durch das Feedback in der Diskussion nach unserem Präsentationsblock viel Selbstvertrauen in mich selbst und die Projekte gewonnen. Diese Präsentationserfahrung war etwas, das ich nicht erwartet hatte, und hat mir geholfen, mehr über eine weitere mögliche Zukunft nach meinem Masterstudium zu erfahren.

Die Diskussionen ermöglichten es uns auch, andere Richtungen für unser Projekt in Betracht zu ziehen, wie beispielsweise die Verwendung von Augmented Reality statt Virtual Reality, die Veröffentlichung des Spiels auf Steam für einen besseren Zugang oder sogar die Hinzufügung weiterer Anwendungskontexte für die Sortes oder die Erweiterung der möglichen Barrierefreiheit. Unsere Entscheidungen wurden ebenfalls respektvoll hinterfragt und diskutiert, was mir ermöglichte, die Entscheidungen hinter dem Projekt näher zu erläutern und mir bewusst zu machen, dass ich trotz meiner geringen Erfahrung der Community etwas Neues und Interessantes vorschlagen konnte.

Nach der Präsentation habe ich keine weitere Sitzung besucht, da wir in viele verschiedene Gespräche mit Leuten verwickelt waren, die unsere Präsentation gesehen hatten und außerhalb der vorgesehenen Zeit weiter über das Projekt, die Techniken und unsere Überlegungen dazu diskutieren wollten. Obwohl ich die letzte Präsentationssitzung des Tages verpasst habe, haben mir diese zusätzlichen Gespräche und das Interesse der anderen Teilnehmer wirklich die Augen für die vielen Möglichkeiten und das Interesse geöffnet, die in den Digital Humanities zu finden sind.

Der letzte Tag der Konferenz

Am letzten Tag der Konferenz nahm ich im Gegensatz zum Donnerstag an allen möglichen Sitzungen teil, darunter auch an einer Panel-Diskussion, die sich in ihrem Format leicht von den anderen Präsentationen unterschied.

Im ersten Block stellten Glenn Roe, Valentina Fedchenko und Dario Nicolosi ihre Methoden vor, bei denen sie mithilfe einer fine-tuned BERT- und CamemBERT-Modelle diachrone semantische Verschiebungen in historischen Teilkorpora identifizierten. Dabei zeigten sich nuancierte Veränderungen in Schlüsselkonzeptclustern, die zur Weiterentwicklung der Methoden in der computergestützten Geistesgeschichte beitrugen.

Anschließend stellten Han-Chun Ko, Pin-Yi Lee, Ya-Chi Chan und Richard Tzong-Han Tsai ihr Framework zur Erklärung historischer Daten mithilfe von Graphen und Large Language Models (LLMs) vor. Dieser Vortrag war für mich besonders interessant, da die Referenten sehr detailliert auf die technischen Aspekte und Methoden eingingen, mit denen sie die LLMs in ihr System integrieren, um ihre Daten zu interpretieren. Es war eine interessante technische Präsentation, bei der ich sehen konnte, was ich bereits wusste und was ich noch lernen konnte.

In der letzten Präsentation stellte Paul Barrett sein aktuelles Forschungsprojekt vor, dessen Ziel es war, mithilfe von Methoden wie Named-Entity Recognition (NER), des Machine Learning (ML) und Optical Character Recognition (OCR) die neu entdeckte indigene Zeitschrift von John Norton, Teyoninhokarawen, zu modellieren und zu analysieren.

In dem folgenden Präsentationsblock stellten verschiedene Entwickler und Forscher ihre Projekte vor, die darauf abzielen, die Arbeit mit rechnergestützten technischen Aspekten in den Digital Humanities zu erleichtern. Von CodeFlow, einem automatisierten Codegenerator, der über LLMs optimiert wurde, zu Pandore, einer automatischen Textverarbeitungs-Workflow-Toolbox, zu FlowFilter, einem Visualisierungs- und Filtertool für große und detaillierte Datensätze, bis hin zu den Diskussionen über OpenScience Literacy in den Digital Humanities, jeder Vortragende stellte nützliche und unglaubliche Tools vor, von denen ich noch nie gehört hatte, die sich aber als sehr interessant herausstellten. Das hat mir die Augen für die Verfügbarkeit und den Bedarf von Forschern in den Digital Humanities geöffnet.

Die nächsten Vorträge waren Teil des Panels „Rethinking the Ethics of „Open“ in the Shadow of AI”, das sich mit der Ethik und den Herausforderungen in der modernen Digital Humanities Forschung befasste, insbesondere angesichts der Tatsache, dass künstliche Intelligenz mittlerweile eine wichtige Rolle im Alltag spielt. Obwohl die Präsentation recht lang war und den Diskussionsprozess, wie er normalerweise in einem Panel stattfindet, behinderte, gelang es mir, Informationen zu diesem Thema aus verschiedenen Perspektiven zu sammeln: data sovereignty, Projektdesign und Datenschutz, Pädagogik und künstlerische Arbeit, alles Themen, die wir auch im Masterstudium kurz angeschnitten hatten und die zeigen, wie wichtig es ist, sich mit diesen Fragen auseinanderzusetzen.

Der letzte Präsentationsblock ermöglichte mir, verschiedene Themen kennenzulernen. Zunächst stellten Andreas Niekler, Vera Piontkowitz, Sarah Schmidt, Janos Borst-Graetz und Manuel Burghardt ihre interdisziplinäre Arbeit vor: „Patterns of Play: A Computational Approach to Understanding Game Mechanics”. Ziel dieser Arbeit ist es, anhand eines großen Datensatzes von Spielen Trends hinsichtlich der Beliebtheit von Spielen, ihrer Entwicklung im Laufe der Zeit und ihrer Beziehung zu den beliebtesten Spielgenres zu identifizieren, um die Methode für computergestützte Game Studies zu demonstrieren, ein Forschungsgebiet, das mich besonders interessiert.

Anschließend stellten Chen Jing und Paul Spence ein Case-Study zwischen China und Großbritannien über die transnationalen Verbindungen und Hindernisse in den Digital Humanities vor, in der wichtige Gemeinsamkeiten und Unterschiede hervorgehoben wurden, um uns zu helfen, die Herausforderungen besser zu verstehen, denen wir noch gegenüberstehen, um einen intensiveren internationalen Austausch zu fördern. Zum Abschluss dieses Blocks präsentierten Patricia Martín-Rodilla und Paloma Piot ihre Arbeit, in der sie Vorurteile in 13 verschiedenen Datensätzen aus der größten Meta-Sammlung von Hassreden analysierten und dabei die Bedeutung einer kritischen Untersuchung der von uns verwendeten Datensätze für die Digital Humanities hervorgehoben, um intrinsische Vorurteile zu vermeiden.

Fazit

Insgesamt habe ich durch den Besuch der verschiedenen Präsentationen gelernt, wie breit und vielfältig das Gebiet der Digital Humanities ist. Ich hatte die Möglichkeit, verschiedene Projekte und Forschungsinteressen zu erkunden und kennenzulernen und viele Menschen zu treffen, die ebenfalls ein Interesse an Wissen haben und für die der Austausch in diesem Bereich wichtig ist. Durch die Teilnahme an einer Panel-Diskussion konnte ich aus erster Hand erfahren, wie wichtig Diskussionen sind und wie viele unterschiedliche Standpunkte und Probleme es in den Digital Humanities noch gibt.

Durch die verschiedenen Präsentationen konnte ich auch die unterschiedlichen Methoden kennenlernen, mehr über sie erfahren und erleben, wie sie in vielen verschiedenen Fragestellungen eingesetzt werden können. Diese Erfahrung war wirklich interessant und ermöglichte es mir, in das Forschungsgebiet der Digital Humanities einzutauchen, Möglichkeiten zu entdecken und sogar eine Zukunft in diesem Bereich in Betracht zu ziehen, in dem ich meinen Platz finden kann, da die Vielfalt die Digital Humanities zu einer breiten und interessanten Disziplin macht.

Eindrücke von der DH2025 – “Accessibility & Citizenship”, 14.-18. Juli, Lissabon, Portugal

2025年8月12日 16:01

Zunächst möchte ich mich beim Verband der Digital Humanities im deutschsprachigen Raum bedanken, durch den mir die Teilnahme bei der diesjährigen ADHO-Konferenz in Form eines Reisestipendiums ermöglicht wurde.

Vor dieser Tagung haben für mich die Digitalen Geisteswissenschaften primär im Seminarraum existiert. Weitere Berührungspunkte fanden medial statt: In Büchern, in Artikeln, im Internet. Wenn ich draußen zum unzähligen Mal einem verwirrten Gesicht erklären muss, was ich da eigentlich studiere, dann fühlt sich die DH-Welt, die für mich so groß ist, immer wieder sehr klein an. In Lissabon zeigte sich: Hunderte Menschen aus aller Welt reisen an und alle wollen über DH reden.

“Accessibility & Citizenship – Building Access and Accessibility, Open Science to all Citizens.”– unter diesem Motto fand vom 14. bis 18. Juli die diesjährige ADHO-Konferenz an der NOVA-FCSH in Lissabon statt. 

Angeboten wurde eine Fülle an Workshops, Panels und Vorträgen zu verschiedensten Themen. Da ich Beiträge nach meinen Interessen ausgewählt habe, bleibt mein hier beschriebener Eindruck sehr subjektiv. Im Allgemeinen lässt sich allerdings sagen, dass sich viele der Beiträge – dem Thema der Tagung folgend – mit ethischen Überlegungen zu Offenheit, Inklusion und ethischer Verantwortung in der Forschung der digitalen Geisteswissenschaft befassten. Auffällig war zudem die starke Präsenz von Themen wie KI, Machine Learning, LLMs –  und der kritische, verantwortungsvolle Umgang mit diesen Technologien.

Was mir gleich zu Beginn sehr positiv auffiel, war die Verwendung der Whova-App zur Planung der Konferenz. Für mich als absoluten Tagungsneuling und damit etwas nervös, weil man nicht genau weiß, was einen erwartet, war sie auf vielen Ebenen eine enorme Hilfe: In erster Linie aus organisatorischer Sicht, denn man hatte einen Überblick über die gesamte Tagungsagenda, aus der man ganz einfach einzelne Beiträge in eine persönliche Agenda überführen konnte. Es gab auch die Möglichkeit, sich über die App mit Organisatoren, Vortragenden oder Teilnehmenden auszutauschen, hinsichtlich der Workshops und Vorträge oder in themenbezogenen Chatgruppen, sei es zu fachlichem Austausch, Stellenangeboten, oder auch einfach zu Essen, Musik oder Haustierfotos!

Pre-Conference-Workshops

Montag und Dienstag fanden jeweils die Pre-Conference-Workshops statt. Es wurde eine Reihe an verschiedenen Workshops angeboten, was die Auswahl nicht einfacher machte, aber ich entschied mich schlussendlich für die folgenden zwei Workshops:
1. “Using LLMs as Chainsaws – Fostering a Tool-Critical Approach for Information Extraction”, abgehalten von Aaron Maladry und Pranaydeep Singh der Universität Gent – und wie der Titel bereits teilweise verrät, ging es hier um die kritische Verwendung von LLMs zur Informationsgewinnung literarischer oder historischer Daten. Ich habe mich für diesen Workshop wegen eines grundsätzlichen Interesses und einer Faszination an LLMs entschieden. Bei ‘Information Extraction’ musste ich an Named Entity Recognition denken, in der Hoffnung hier möglicherweise neue Perspektiven mitzunehmen, vor allem in Bezug auf ein eigenes Projekt im Rahmen eines Projektseminars, auf dem auch meine Masterarbeit aktuell aufbaut, in der ich die Entitäten in Texten ausschließlich manuell extrahiere. 

Im zweiten Workshop “LEAF Commons: Flexible Digital Tools and Responsive Scholarly Workflows”, abgehalten von Diane Katherine Jakacki der Bucknell University, Susan Brown der University of Guelph und Rachel Milio der University of Crete, wurden die LEAF Commons vorgestellt. Dabei handelt es sich um eine Sammlung aus interoperablen Open-Source-Tools zur digitalen Editionsarbeit, etwa von der semantischen Kodierung (basierend auf TEI), über die Umwandlung von Textformaten, bishin zur Publikation interaktiver Online-Editionen.

Spannend war es, einen neuen Zugang zur digitalen Edition kennenzulernen, der keinerlei Kodierungskenntnisse erfordert. Das macht die Tools besonders geeignet für eine Zielgruppe, die Editionsprojekte umsetzen möchte, aber aus anderen Fachgebieten kommt oder sich nicht vertieft mit den Technologien im Hintergrund auseinandersetzen möchte und eine intuitive Oberfläche bevorzugt. Da ich in meinem Studium jedoch viel mit X-Technologien, von TEI bis zur Veröffentlichung, viel zu tun hatte und mich mit dieser Arbeitsweise sehr wohlfühle, wodurch die vorgestellten Tools wohl keine unmittelbare Alternative in meiner Arbeitsweise darstellen. 

Für beide Workshops lässt sich festhalten, dass schrittweise in die behandelten Themen eingeführt wurde und ein Raum geschaffen wurde, in dem Fragen willkommen waren. Und obwohl ich anfangs Sorge hatte, als Studentin eventuell nicht mithalten zu können, war Gegenteiliges der Fall – die drei Stunden vergingen jeweils sehr schnell und am Ende hätte ich mir sogar mehr Zeit gewünscht, da vieles nur an der Oberfläche behandelt werden konnte.

Die Konferenz

Dienstagabend wurde die Tagung offiziell von Javier Cha der University of Hong Kong mit seiner Keynote “Automating the past: Artificial Intelligence and the next frontiers of Digital History” eröffnet. Dabei ging es darum, wie KI-Technologien die Arbeit mit großen, komplexen historischen Datenbeständen verändern und bereichern können, und wie sich dieser Mehrwert mit der Bewahrung der menschlichen interpretativen Komponente in historischer Forschung vereinbaren lässt. 

Darauf folgte eine Inclusive Dance Perfomance, die das Tagungsmotto auch nonverbal und ästhetisch einführte, bis schließlich Mittwoch bis Freitag ganztägig ein dichtes Programm an Präsentationen in thematischen Panels stattfand. Besonders interessant war es, einen Einblick in die Workflows und verwendeten Tools verschiedener Forschungsprojekte zu erhalten. Vieles war neu und ich konnte mir eine Reihe an potenziell nützlichen Tools und Methoden, von OCR- und Transkriptionswerkzeugen zu LLMs, mitnehmen.

Zwei Paperpräsentationen sind mir dabei besonders in Erinnerung geblieben. Mariona Coll Ardanuy des Barcelona Supercomputing Center (BSC) stellte mit “Towards an automatic transcription of Catalan notarial manuscripts from the Late Middle Ages” ein Projekt vor, das sich die automatische Transkription von amtlichen Schreiben wie Urkunden, Abschriften und Seiten aus Notariatsregistern aus dem Spätmittelalter aus Barcelona, zum Ziel nimmt.

Christoph Sander und Jörg Hörnschemeyer vom Deutschen Historischen Institut in Rom stellten das Projekt GRACEFUL17, das aus einer Kombination aus KI, Knowledge Graphs und Visualisierungstools eine digitale Strategie zur Analyse frühneuzeitlicher Daten zur Kirchenverwaltung vor. Da ich mich in meiner Masterarbeit mit frühneuzeitlichen kirchenrechtlichen Akten beschäftige, fand ich die vorgestellte Strategie sehr inspirierend – insbesondere in Bezug darauf, wie derartige Verwaltungsprozesse und Netzwerke dargestellt werden können. Zwar liegt der Schwerpunkt meiner Masterarbeit auf TEI und ihrer Eignung als Modellierungswerkzeug für diese Akten, für eine weiterführende Auseinandersetzung mit diesen oder ähnlichen Daten könnten die vorgestellten Ansätze allerdings sehr wertvoll sein.

Für ein nächstes Mal – oder was ich gerne vorher gewusst hätte: 

  • Die Atmosphäre ist entspannt und es wird Raum für Fragen geschaffen, sowohl vor Ort als auch virtuell.
  • Ein genauer Blick auf das Tagungsprogramm zahlt sich wirklich aus, da in der Fülle des Angebots interessante Beiträge leicht übersehen werden können.
  • Gleichzeitig lohnt sich eine gewisse Offenheit: Einige spannende Eindrücke konnte ich aus Vorträgen mitnehmen, die zunächst gar nicht auf meiner Liste standen.

Tagungsbericht – Science MashUp 2025 (10. Mai  2025, HTWK Leipzig)

2025年6月24日 00:31

Am 10. Mai 2025 öffnete die HTWK Leipzig ihre Türen zur „Langen Nacht der Computerspiele“. Im Rahmen dieser Veranstaltung fand die hybride Fachtagung “Science MashUp“ statt, organisiert von Prof. Dr. Gabriele Hooffacker in Kooperation mit Dr. Benjamin Bigl und Dr. Sebastian Stoppe, welche durch das Programm führten. Die jährliche Tagung, die nun bereits zum sechsten Mal stattfand, widmete sich in diesem Jahr der komplexen Beziehung zwischen digitalen Spielen und Büchern und bot eine interdisziplinäre Plattform Raum für den Austausch zwischen Interessierten, Lehrenden und Akteur:innen aus der Spieleindustrie sowie Forschenden aus Literaturwissenschaft, Medienwissenschaft, Game Studies und Digital Humanities.

Einführung

Der Rektor der HTWK Leipzig Prof. Dr. Jean-Alexander Müller eröffnete die Tagung mit einem Grußwort. Dabei hob er hervor, dass die Verbindung von Games und Büchern auf den ersten Blick möglicherweise nicht offensichtlich erscheint, beide Medienformen jedoch eine herausragende Rolle in Kultur und Bildung einnehmen. Er plädierte für ein integratives Verständnis, das die mediale Vielfalt als Chance begreift, anstatt die Medien in Konkurrenz zu setzen.

Wie ein Zusammenspiel der Medien konkret aussehen kann, verdeutlichten Jonathan Werneburg (10) zusammen mit seinem Vater Dr. Sebastian Stoppe in der anschließenden Keynote „Games und Bücher – ein Primer aus dem Kinderzimmer“. Hier stellen sie die Buchwerke der Influencer Benx (Benjamin Krüger) und Paluten (Patrick Mayer) vor, die das Spieluniversum Minecrafts (Mojang, 2009) originär erweitern. Bücher wie Die Schmahamas-Verschwörung (2018) oder Benx und die Hexen der Bataquampa (2021) sind dabei keine offiziellen Erweiterungen des Franchises, sondern eigenständige Erzählungen, die sich narrativer und ästhetischer Elemente der Spielwelt und der Marke bedienen. Vater und Sohn verdeutlichen, dass durch diese literarischen Erweiterungen ein komplexes intermediales Medienfeld entsteht, das nicht nur die analogen Bücher und das digitale Spiel umfasst, sondern auch weitere Facetten der Spielkultur aufgreift: die Geschichten der Influencer und die Aktivitäten ihrer Communities.

Panel 1: „Narrative Strukturen und Erzähltechniken in Games und Büchern”

Der erste von drei Vortragsblöcken bot facettenreiche Einblicke in die Wechselwirkungen zwischen digitalen Spielen und literarischer Narration.

Robert Böhm analysierte in „Vom unzuverlässigen Erzähler zum unzuverlässigen Avatar“ anhand von Beispielen die Missachtung des Kooperationsprinzips in narrativen Spielen. Er analysierte dabei das Spannungsfeld zwischen konsistenter Erzählkonstruktion und zufallsbasierten Mechanismen, die zu einer ludonarrativen Dissonanz führen.

Leon Noel Micheel erläuterte in “Dem literarischen System auf der Spur: Untersuchungen zu einem intermedialen Literaturkonzept“, unter Rückgriff auf den Ansätzen von Frasca (2003), Aarseth (1997) und Ingarden (1972), die strukturellen Unterschiede von Spielen als simulational media gegenüber Büchern als representational media. Spiele eröffnen somit nicht nur Erzählräume, sondern auch aktive Partizipation.

Lara Konkel zeigte in “Katharsis next Level: Multiperspektivisches Erzählen und Identifikationsangebote in THE LAST OF US PART II“ auf, wie in diesem Spiel multiperspektivisches Erzählen Empathie fördert und moralisch komplexe Identifikationsangebote schafft. So werden Spielende in ambivalente Konflikte eingebunden, die bestehende Narrative von Rache und Vergeltung hinterfragen.

Roberto Zeugner schließlich analysierte in “„The Stanley Parable“ als performative Parabel im Unterricht” wie das Spiel durch ständige Meta-Narration und wiederkehrende Entscheidungen die Agency der Spielenden reflektiert. Gleichzeitig identifizierte er Potenziale für philosophische und ethische Diskussionen im schulischen Kontext.

Abschließend verdeutlicht dieser Block, dass die Digital Humanities durch die Analyse narrativer Strukturen und interaktiver Erzähltechniken in Games einen erweiterten Zugang zu Fragen von Partizipation, Ethik und kultureller Codierung bieten.

Panel 2: “Medienübergreifende Aspekte und kulturelle Bedeutung von Spielen und Büchern”

Das zweite Panel beleuchtete die vielfältigen Schnittstellen zwischen digitalen Spielen und Literatur sowie deren kulturelle und ästhetische Bedeutung.

Lena Falkenhagen kritisiert in „Zwischen Trivialisierung und Droge: Games im Kulturjournalismus“ die geringe kulturelle Anerkennung von Spielen. Sie zeigte auf, dass Berichterstattung zu Games selten im Kulturressort erscheint und häufig auf problematische Themen wie Sucht oder Rechtsextremismus verengt wird. Nur herausragende ästhetische oder musikalische Leistungen verschaffen Spielen punktuell Anerkennung und den Feuilleton-Redaktionen einen vermeintlich leichteren Zugang.

Prof. Marcus Klöppel und Prof. Dr. Christian Bachmann diskutierten in “Formen narrativer und spielmechanische Hybridität von Comic, Spiel und Buch” die medialen Überschneidungen hybrider Formate. Bachmann betonte die Medialität und Materialität von Büchern über deren literarischen Gehalt hinaus und analysierte Spielbücher und -Comics als Verbindungen von Lesefluss und Spielmechanik. Klöppel hob die Potenziale hybrider Formate wie „Exit Games“ und „Adventure Games“ hervor, die kognitive und soziale Kompetenzen fördern und neue Schnittstellen zwischen Literatur, Spiel und Gemeinschaft schaffen.

Ich, Alina Menten, untersuchte in “Romantik reloaded? Die literarischen Spuren des Waldes in schwedischen Games” die Rolle des Waldes als ästhetisch-romantisches Motiv anhand des Spieles Bramble: The Mountain King (Dimfrost Studio, 2023). Dabei arbeitete ich heraus, wie die digitale Naturästhetik romantische Traditionen aufgreift und in den Kontext gegenwärtiger Narrative übersetzt.

Prof. Dr. Dr. Rudolf Inderst schloss dieses Panel mit seinem Vortrag “„No Running in the Library!“ Zu Bedeutung und Funktion des Schauplatzes ‚Bibliothek‘ in digitalen Spielen”. Er demonstrierte anhand mehrerer Beispiele, wie Bibliotheken in Spielen nicht nur Kulissen sind, sondern als Orte des Wissensspeicherns fungieren, wie etwa durch das Sammeln des spielinternen Wissens in The Elder Scrolls V: Skyrim (Bethesda Game Studios, 2011) oder durch die Zugänglichmachung realer zensierter Artikel auf dem von der Organisation Reporter ohne Grenzen betriebenen Minecraftserver „The Uncensored Library“.

Abschließend zeigt dieses Panel auf, wie digitale Spiele medienübergreifende ästhetische Praktiken und Bedeutungsräume erschließen. Für die Digital Humanities eröffnet sich hier ein zentrales Forschungsfeld, das interdisziplinäre Perspektiven auf Narrative, Materialität und gesellschaftliche Diskurse in digitalen Kulturen ermöglicht.

Panel 3: “Interaktive Formate und die Rolle des Spielers”

Das dritte und letzte Vortragspanel widmete sich interaktiven Formaten und der vielseitigen Rolle der Spieler:innen in Spielwelten.

Prof. Nadine Trautzsch zeigte in „Interactive Fiction und KI: Narrative Freiheit als Weg zu digitaler Kompetenz“, dass Interactive Fiction als pädagogisches Werkzeug Entscheidungsfähigkeit und Selbstwirksamkeit fördert. Sie stellte verschiedene Tools sowie den Einsatz von KI für die Erstellung fiktionaler Werke vor. 

Melanie Fussenegger betrachtete in “Games als Gedichte lesen am Beispiel von „Monument Valley“” digitale Spiele als „Game Poems“ (vgl. Magnuson 2023). Damit eröffnete sie einen innovativen Ansatz zur literarischen und ästhetischen Analyse von Spielen.

Lara Konkel beleuchtete in ihrem zweiten Vortrag des Tages “GONE HOME und niemand zu Hause. Der Walking Simulator zwischen Videospiel und Detektivroman” das hybride Format des Walking Simulators, das Detektivroman-Elemente aufgreift und Spieler:innen in die Diegese integriert. Sie zeigte, wie hier eine besondere Form von Agency und multiperspektivisches Erzählen entsteht.

Prof. Jörg Burbach schloss die Vortragspanels mit seinem online gehaltenen Vortrag in “Von Spielern geschrieben: Der kulturelle Effekt von User Generated Content in Büchern und Spielen”. Er zeigte, wie partizipatives Storytelling in Spielen und Büchern eine neue Ebene der Immersion und kollaborativen Autorschaft schafft.

Abschließende Podiumsdiskussion „Games und Bücher“

Die Beiträge wurden durch eine abschließende Podiumsdiskussion mit Leon Noel Micheel (Bildung), Prof. Dr. Dr. Rudolf Inderst (Game Studies), Melanie Fussenegger (Games-Branche) und mir als Entwicklerin ergänzt. Zunächst fokussierte sich die Diskussion auf die Rolle von Büchern als Inspirations- und Quellenmaterial in der Spielentwicklung, verlagerte sich jedoch rasch auf die Produktion von Games und den Einsatz Künstlicher Intelligenz.

Diskutiert wurden ethische und rechtliche Fragestellungen wie unklare Urheberrechtslagen, die Gefahr inhaltlicher Vereinheitlichung („Einheitsbrei“) bei KI-generierten Inhalten sowie der wachsende Bedarf an Fachwissen. Gleichzeitig wurde das Potenzial von KI betont, kreative Prozesse wie Übersetzungen zugänglicher zu machen – vorausgesetzt, ihr Einsatz erfolgt transparent und reflektiert. Deutlich wurde zudem, dass der Diskurs um KI hoch emotional geführt wird und differenzierte Aufklärung über Chancen und Risiken entscheidend ist, um sowohl Verteufelungen als auch überhöhte Erwartungen an diese Technologie zu vermeiden.

Die „Lange Nacht der Computerspiele“

Im Anschluss an die Fachtagung bot die „Lange Nacht der Computerspiele“ vielfältige Einblicke in die Praxis digitaler und analoger Spielkulturen. Indie-Entwickler:innen präsentierten ihre Spiele zum Testen, ergänzt durch Retro-Klassiker und analoge Spiele. Im „Minecraft-Raum“ wurden grundlegende Programmierkenntnisse vermittelt, während Trading-Card-Fans in einem eigenen Raum spielerisch ihr Wissen vertiefen konnten. Arbeiten verschiedener Artists und ein E-Sports-Turnier in „League of Legends“ rundeten das Programm ab.

Dieser Beitrag entstand mit Unterstützung des DHd-Reisekostenstipendiums. Mein herzlicher Dank gilt der Organisation für die Ermöglichung meiner Teilnahme an der Konferenz.

Genannte Werke 

Spiele

Bramble: The Mountain King. Dimfrost Studio, 2023.
The Elder Scrolls V: Skyrim. Bethesda Game Studios, 2011.
The Last of Us Part II. Naughty Dog, 2024.
The Stanley Parable. Galactic Cafe, 2011.
Minecraft. Mojang, 2009.
Monument Valley. ustwo studio Ltd., 2014.

Literatur

Aarseth, E.J. (1997): Cybertext: Perspectives on Ergodic Literature. Baltimore, MD: Johns Hopkins University Press.
Frasca, G. (2003): Simulation versus Narrative: Introduction to Ludology. London: Routledge.
Ingarden, R. (1972): Das Literarische Kunstwerk. Halle (Saale): de Gruyter.
Kern, K.; Mayer, P. (2018): Die Schmahamas-Verschwörung. Köln: CE Community Editions.
Magnuson, J. (2023): Game Poems: Videogame Design As Lyric Practice. Amherst, MA: Amherst College Press.
Rackwitz, T. (2021): Benx und die Hexen der Bataquampa. Köln: CE Community Editions.

Konferenzbericht DH2024 „Reinvention & Responsibility“, Washington DC

2024年9月20日 01:25

Dieser Beitrag ist im Rahmen eines Reisekostenstipendiums für die DH2024 entstanden. Ich möchte mich an dieser Stelle herzlich beim Verband Digital Humanities im deutschsprachigen Raum (DHd) dafür bedanken, mir die Teilnahme an der Konferenz zu ermöglichen. Auch möchte ich die tolle Arbeit der Organisator:innen hervorheben und mich dafür bedanken.

Die DH2024, organisiert von der Alliance of Digital Humanities Organizations (ADHO), fand vom 6. bis 9. August 2024 an der George Mason University in Arlington, Virginia, statt. Unter dem Thema „Neuerfindung & Verantwortung“ bot die Tagung Digital Humanists aus aller Welt eine Plattform, um ihre Forschungsergebnisse und aktuelle Entwicklungen im Feld zu präsentieren.

Workshops und Eröffnung

Die Konferenz begann am Montag und Dienstag mit praxisorientierten Workshops, die sich auf die Anwendung von Methoden, Software und Werkzeugen konzentrierten. Der offizielle Konferenzbeginn folgte am Dienstagabend mit der Eröffnungszeremonie, einem Empfang und einer Keynote von Susan Brown, der in diesem Rahmen auch der „Roberto Busa Preis“ verliehen wurde. In ihrer Keynote gab Susan Brown einen Einblick in ihre Arbeit zur Verknüpfung von Forschungsdaten (Linked Open Data). Den Mittwoch eröffnete die Datenjournalistin Linda Ngari mit einer weiteren Keynote. In dieser berichtete sie aus ihrer Erfahrung als Journalistin, ein interprofessioneller Ausflug, der auch für die Digitalen Geisteswissenschaften relevante Erkenntnisse mit sich brachte, wie beispielsweise den eindringlichen Appell die Integrität von Forschungsdaten – insbesondere wenn diese durch Dritte erzeugt werden – kritisch zu hinterfragen.

Einige Beobachtungen aus den Panels

Im Anschluss starteten die thematischen Panels. Bei fast 90 parallel laufenden Panels, die sich meist aus mehreren kürzeren Vorträgen zusammensetzten, bleibt mir nur die Möglichkeit, einige aggregierte (und vermutlich subjektive) Eindrücke zu schildern.

Eine Reihe von Vorträgen beschäftigte sich mit der Langzeitverfügbarkeit und Nachnutzbarkeit von Forschungsdaten, Publikationsplattformen und digitalen Editionen. Besonders im gut besuchten Panel „Sustainability of Digital Publishing Platforms“ wurde diskutiert, welche Verbesserungen bereits erzielt wurden und was in Zukunft noch optimiert werden könnte. Statt rein technischer Lösungen standen vor allem soziale und finanzielle Herausforderungen im Fokus, insbesondere die Vermittlung von Anforderungen zwischen verschiedenen Disziplinen und Funktionsträgern. Ein zentrales Fazit war, dass qualifiziertes, langfristig beschäftigtes Personal entscheidend zur Nachhaltigkeit von Publikationen beitragen kann. Technisch gesehen wurde der Trend sichtbar, etablierte Standards und Anwendungen zu bevorzugen und die Stabilität gegenüber der Innovationsfreude zu priorisieren.

Ein weiterer wiederkehrender Themenkomplex drehte sich um Large Language Models (LLMs). Stabile, nachvollziehbare und reproduzierbare Ergebnisse konnten vor allem die Ansätze erzielen, die auf bewährte Komponenten von Sprachmodellen zurückgreifen, wie z. B. die Verwendung von LLM-Embeddings. Auch die Nutzung von LLMs als „eigenständige Agenten“ zur Automatisierung von Arbeitsschritten wurde thematisiert, wobei viele dieser Ansätze noch im Planungsstadium stecken, und konkrete Ergebnisse noch nicht präsentiert werden konnten. Zudem waren LLMs selbst Gegenstand der Forschung, etwa in einer qualitativen Analyse zu rassistischen Biases in Sprachmodellen.

Ein für mich besonders interessantes Panel stellte neue Ansätze in der historischen Reiseforschung vor. Diese Ansätze lösen sich von der konventionellen Geolokalisierung und ermöglichen es, Quellen zu berücksichtigen, die keine eindeutigen geographischen Verortungen zulassen. In der Analyse und Visualisierung werden diese Informationen in Form von Netzwerkgraphen oder gewichteten Punkten dargestellt. Da die Forschung sich noch in der Entwicklung befindet, bin ich gespannt, wie sich diese Ansätze weiter entwickeln.

Neben den zahlreichen Vorträgen gab es zwei Poster-Sessions. Am Freitagnachmittag präsentierte ich das Poster unseres Projektteams und konnte dabei interessante Gespräche mit den Teilnehmer:innen der Konferenz führen. Gleich im Anschluss daran endete die DH2024 mit der Abschlusszeremonie. Die abschließende Keynote hielt Shannon Mattern, die die Verschränkung sozialer und technischer Aspekte in der Medienkommunikation thematisierte. Besonders inspirierend fand ich ihren Gedanken, dass Kommunikationsmedien nicht voraussetzungslos existieren, und man die eigene Nutzung kritisch dahingehend prüfen sollte, ob sie nicht möglicherweise die Grundlagen untergräbt, auf denen man aufbaut.

Fazit

Die DH2024 in Arlington war eine spannende und bereichernde Konferenz. Der Austausch mit internationalen Kolleg:innen und die Vielfalt der Themen haben mir wertvolle neue Impulse für meine eigene Arbeit gegeben und ich freue mich darauf, an zukünftigen Konferenzen teilzunehmen.

Die Vernetzung von Akteuren und Ressourcen – OER in der NFDI und in den Datenkompetenzzentren: ein Workshopbericht

2024年9月3日 22:30

Autor:innen: Jonathan D. Geiger; Katharina Bergmann; Johanna Konstanciak; Marina Lemaire; Andrea Polywka; Ruth Reiche; Sibylle Söring; Anne Voigt

Lehr-Lernmaterialien (Open Educational Resources, OER) zur Entwicklung von Data Literacy und Kompetenzen im Forschungsdatenmanagement (FDM) sind in der Nationalen Forschungsdateninfrastruktur (NFDI) und darüber hinaus ein zentrales Thema. Die meisten FDM-Projekte und -Netzwerke sammeln und/oder produzieren OER und setzen sich dabei mit Fragen nach der Verstetigung, der Sammlung, der Kuratierung und der Verknüpfung auseinander. Die FAIR-Prinzipien sind hier genauso anwendbar wie auf Forschungsdaten.

Vor diesem Hintergrund fanden sich am 22. und 23. April 2024 Vertreter*innen der NFDI-Konsortien NFDI4Culture, NFDI4Memory, der Datenkompetenzzentren QUADRIGA und HERMES und des Infrastrukturprojekts der NFDI-Sektion Training & Education – DALIA – in der Akademie der Wissenschaften und der Literatur Mainz zu einem gemeinsamen Workshop zusammen. Die Projekte präsentierten ihre jeweiligen Arbeitsstände und im Anschluss wurden in interaktiven Formaten Kollaborationsmöglichkeiten, Synergieeffekte und zentrale Diskussionspunkte ausgelotet.

Gruppe der Workshopteilnehmenden am 23.4.2024 (Foto: Aglaia Schieke)

Das NFDI-Konsortium NFDI4Culture (Projektlaufzeit 2020–2025) hat einen Dienst vorgestellt, der eine Auswahl an OER bereitstellt, die sich an die geistes- und kulturwissenschaftlichen Communities richten und sowohl generische als auch fachspezifische Angebote zu Forschungsdatenmanagement und Datenkompetenzen beinhalten. Im Vorfeld hat das Team der “Cultural Research Data Academy” in ausgewählten Veranstaltungen und Formaten die Bedarfe der NFDI4Culture Communities abgefragt, in einem Portfolio gesammelt und mit ausgewählten Qualitätskriterien evaluiert. Daraus entstand der “Educational Resource Finder” (ERF), eine kuratierte Auswahl an deutsch- und englischsprachigen Schulungs- und Weiterbildungsangeboten, die sich an Interessierte aller Wissensstufen richten und fortwährend aktualisiert werden.

Das NFDI-Konsortium NFDI4Memory (Projektlaufzeit 2023–2028) stellte seine Arbeitspakete der Task Area “Data Literacy” im Bereich OER vor. Die Task Area hat zur Aufgabe die Datenkompetenzen in Forschung und Lehre der historisch arbeitenden Disziplinen zu verbessern. Dafür werden u. a. ein Data-Literacy-Trainingskatalog mit didaktischen und inhaltlichen Empfehlungen erstellt sowie zielgruppenspezifische Trainingsmodule entwickelt. Die Inhalte des Trainingskatalogs werden durch eigene Recherchen, selbstentwickelte Materialien sowie durch eine Erhebung in der Community zusammengetragen. Anschließend werden die Informationen in einem in Entwicklung befindlichen Workflow für die Online-Präsentation und Suche aufbereitet.

Das vom BMBF geförderte  Datenkompetenzzentrum QUADRIGA (Projektlaufzeit 2023-26) vereint die vier Disziplinen Digital Humanities, Verwaltungswissenschaft, Informatik und Informationswissenschaft entlang der Datentypen Text, Tabelle und Bewegtes Bild am Wissenschaftsstandort Berlin-Brandenburg. Auf der Grundlage von Fallstudien erarbeitet das Zentrum interaktive Lehrbücher (Jupyter Notebooks), die QUADRIGA Educational Resources (QER), die modular aufgebaut sind, und die die Lernzielkontrolle mittels eines Assessments ermöglichen. Workflows – insbesondere das Zusammenspiel mit dem QUADRIGA Space sowie dem QUADRIGA Navigator – und beispielhafte Ausgestaltungen wurden im Rahmen des Workshops von Zhenya Samoilova, Sonja Schimmler und Bettina Buchholz vorgestellt. Für das Teilprojekt Verstetigung nahm Sibylle Söring teil.

Das Datenkompetenzzentrum HERMES (Humanities Education in Research, Data, and Methods), gefördert vom BMBF (Projektlaufzeit 2023–2026), hat das Ziel, Datenkompetenzen im Bereich der Geistes- und Kulturwissenschaften zu vermitteln und weiterzuentwickeln. Anwesend bei dem Workshop waren die Mitarbeiter:innen der HERMES-Formate „Open Educational Resources“ und „HERMES-Hub“: In HERMES werden sowohl OER erstellt als auch in einer Ressource Base aggregiert. Hierfür wird eine Metadatenempfehlung entwickelt, die auf einem projektübergreifenden Metadaten-Basisschema aufbauen soll. HERMES legt dabei besonderen Wert auf die Verschlagwortung der Ressourcen mit der TaDiRAH-Taxonomie, um nach Forschungsmethoden filtern zu können. Forschende wird das HERMES-Team zudem in der Konzeption und Umsetzung von OER-Materialien beratend unterstützen.

Das Projekt DALIA ist ein vom BMBF gefördertes Infrastrukturprojekt (Laufzeit 2022–2025) der Sektion Training und Education (EduTrain) der Nationalen Forschungsdateninfrastruktur. Das Projektziel ist der Aufbau eines Knowledge Graphen für Data-Literacy- und FDM-Kompetenz-bezogene OER. Dabei sollen auch Akteure des Feldes zusammengebracht und ihre Vorarbeiten und Bedarfe erhoben und berücksichtigt werden. Der Knowledge Graph ist Grundlage einer Plattform, über die OER von Nutzer*innen gefunden und von Autor*innen verzeichnet werden können.

Ergebnisse des Workshops

Als zentrale Herausforderungen für die weitere Harmonisierung der Projekt-Arbeitsprozesse wurden insbesondere drei Handlungsfelder identifiziert:

  • Metadaten und Interoperabilität von OER (Materialien und Repositorien)
  • Nachhaltigkeit
  • Kooperationen

Brainstorming-Ergebnisse 1. Tag (Foto: Simon Donig)

Metadaten und Interoperabilität: Um OER gemäß der FAIR-Prinzipien zu gestalten, muss sich deren Beschreibung (Metadaten) an Normdaten und kontrollierten Vokabularen orientieren. Für OER liegen verschiedene Metadatenstandards vor, insgesamt liegt die Herausforderung aber im Spagat zwischen vorhandenen Standards und den eigenen Bedarfen, die sich zwischen den Polen der eigenen Kapazitäten, technischen Rahmenbedingungen und Bedarfen der jeweiligen Community aufspannen. Synergien ergeben sich aus einem gemeinsam entwickelten Applikationsprofil sowie die gemeinsame Evaluation des DALIA OER-Metadatenbasisschema “DALIA Interchange Format” (DIF). Weitere Potenziale für Kooperationen liegen in der Anfertigung von Fallstudien, Schulungen und Bedarfsanalysen.

Ergebnisse Ermittlung des IST-Zustandes zum Themenfeld „Metadaten“ (Foto: Simon Donig)

Nachhaltigkeit: Das Thema Nachhaltigkeit von Infrastrukturangeboten umfasst verschiedene Ebenen. Klar ist, dass ein Dienst keinen langfristigen Bestand haben kann, der nicht nachhaltig organisiert und dauerhaft finanziert wird. Neben den Betriebsmodellen ist auch die Verwendung offener Datenstandards notwendig, um die Abhängigkeiten von proprietären Formaten und Werkzeugen zu reduzieren. Die Teilnehmenden des Workshops konzentrierten sich allerdings auf einen dritten Aspekt von Nachhaltigkeit: Die Akzeptanz und Nutzung des Angebotes durch die Community. Für die Akquirierung von finanziellen Ressourcen bedarf es einer nachweislichen Relevanz des Angebots für die jeweilige Fachcommunity. Diese muss beispielsweise über Zugriffs- oder Downloadzahlen sowie Interaktionen mit den Betreibenden nachgewiesen werden. Wie die Zielgruppen angesprochen und gehalten werden können, eine konkrete OER-Plattform zu nutzen, ist eine offene Frage. Dabei spielt selbstverständlich die optimale Bedienung der Bedarfe eine große Rolle, jedoch sind diese im vollen Umfang noch nicht bekannt. So wurde festgestellt, dass insbesondere die Bedarfe der Lehrenden und ihr OER-Nutzungsverhalten weniger bekannt sind.

Kooperationen: Das dritte Themencluster bestand in Überlegungen zur weiteren Kooperationen der am Workshop beteiligten Personen und Projekte. Neben den im Bereich Metadaten und Nachhaltigkeit diskutierten Maßnahmen wie Use Cases und synoptische Metadatenschema-Vergleiche zwischen den Projekten, wurden mehrere nachfolgende Meetings sowie ein Anschlussworkshop für das Frühjahr 2025 vereinbart. Wo möglich, soll Doppelarbeit vermieden werden, sowie der Austausch zwischen den Projekten erhalten bleiben. 

Ergebniszusammenfassung zu welchen Themenbereichen die Gruppe zusammenarbeiten möchte (Foto: Simon Donig)

Zusammenfassend lässt sich festhalten, dass es große Überschneidungen der Arbeitsprogramme aller Workshop-Beteiligten (NFDI-Konsortien und Datenkompetenzzentren) gibt und der Diskurs durch gemeinsame Veranstaltungen nicht nur fruchtbarer wird, sondern auch Doppelarbeit identifiziert und reduziert werden kann. Ebenfalls wurde offensichtlich, dass quasi sämtliche Aspekte (Metadaten, Förderung, Community-Akzeptanz etc.) eng miteinander gekoppelt und aufeinander bezogen sind. Dementsprechend wurde eine Reihe nächster Schritte geplant – neben weiteren Meetings zum Austausch zu den Metadatenprofilen insbesondere ein Anschlussworkshop, in dem der Kreis der beteiligten FDM-Projekte aus dem Umkreis der Geistes- und Sozialwissenschaften noch erweitert werden soll.

ECHOES24 Conference: Mit dem digitalen Echolot zu den Untiefen musikwissenschaftlicher Erkenntnis

2024年7月5日 20:19

Das Forschungsprojekt „Echoes from the Past: Unveiling a Lost Soundscape with Digital Analysis” (2023-2026), angesiedelt an der Universidade NOVA de Lisboa, untersucht die Musik des Mittelalters mit digitalen Methoden. Auf interdisziplinärem Terrain verspricht es somit neue Erkenntnisse für die historische Musikforschung und Musiktheorie, die Digital Humanities (Computational Musicology) und das Music Information Retrieval (MIR) gleichermaßen.
Teil des Projekts war die einmalig stattfindende Konferenz „ECHOES24“, auf der ich Ende Juni erste Ergebnisse meines Promotionsprojekts vorstellen durfte. Sie führte weltweit führende Wissenschaftler:innen des Forschungsbereichs, ebenso wie Promovierende, Early Career Scholars und Professor:innen in Lissabon zusammen, um über „Digital Technologies Applied to Music Research: Methodologies, Projects and Challenges“ zu diskutieren.

In meiner Promotion beschäftige ich mich im Rahmen einer digitalen Korpusstudie mit Polymetrik und metrischen Irregularitäten in den Kompositionen Hugo Distlers, Béla Bartóks und Paul Hindemiths. (Polymetrik nennt man – ganz allgemein – gleichzeitig auftretende, unterschiedliche Taktarten, siehe Abb. 1.) Darauf aufbauend möchte ich ein eigenes Bayessches Modell für Polymetrik entwickeln. Solche metrisch komplexen Strukturen werden in der aktuellen Forschung zur computergestützten Musikwissenschaft noch weitgehend außen vor gelassen, unter anderem da deren Modellierung und computergestützte Analyse bestehende Ansätze und Codierungsformate an ihre Grenzen führt. Mit meinem Forschungsvorhaben möchte ich diese Lücke schließen und mittels einer ergebnisoffenen Grundlagenforschung einen signifikanten Beitrag zur Analyse komplexer Musik, insbesondere des 20. Jahrhunderts, leisten. Daher interessierten mich explizit die auf der Konferenz behandelten Themenbereiche „Key challenges in applying digital technologies to music research” sowie „Music encoding”.

Beginn von Hugo Distlers Motette „O Heiland, reiß die Himmel auf“ aus Der Jahrkreis op. 5 (1933). Jede Stimme wird in ihrer je eigenen Metrik ausgestaltet; die Taktarten wechseln sehr häufig.
Abb. 1: Beginn von Hugo Distlers Motette „O Heiland, reiß die Himmel auf“ aus Der Jahrkreis op. 5 (1933). Jede Stimme wird in ihrer je eigenen Metrik ausgestaltet; die Taktarten wechseln sehr häufig.[1]

 

Herausforderungen bei der Codierung von Polymetrik

Für meine Promotion und beginnende wissenschaftliche Karriere stellte diese Konferenz ein wichtiges Sprungbrett dar. Dort konnte ich zum ersten Mal mein eigenes Forschungsprojekt in einem öffentlichen Vortrag international präsentieren. Explizit stellte ich die Möglichkeiten und Grenzen der Codierung von Polymetrik in verschiedenen Musikcodierungsformaten vor (Folien; Videomitschnitt, leider ohne Ton). Zu meiner Freude war mein Vortrag sehr gut besucht und das Publikum aufmerksam interessiert. Mein Befund, dass Polymetrik in den bestehenden Formaten MusicXML, MEI und Humdrum (noch) nicht originalgetreu codiert werden kann, überraschte die Anwesenden. An den drei Konferenztagen konnte ich mich darüber in vielen Gesprächen austauschen – deshalb wurden gerade die Kaffeepausen zu den wichtigsten Zeiten für mich. Wir haben auch schon gemeinsam erste Lösungsansätze diskutiert, die aufgrund des starken Alte-Musik-Fokus der Konferenz neben dem modernen Westlichen Notationssystem dankenswerterweise auch die Mensuralnotation einschlossen – ein vielversprechender Ansatz!

Deckblatt meines Konferenzvortrags bei der ECHOES24
Abb. 2: Deckblatt meines Konferenzvortrags bei der ECHOES24
Interessiert-lockere Atmosphäre während des Vortrags
Abb. 3: Interessiert-lockere Atmosphäre während des Vortrags

 

Musikforschung zwischen Gaga und Bioinformatik

Insgesamt hörte ich in den drei Tagen 15 Vorträge sowie zwei Keynotes, und besuchte zwei Workshops: in toto eine Tour d’Horizon durch die digitale Musikforschung. In Parallel Sessions fanden gleichzeitig Vorträge in den Bereichen „Digital Early Music“ und „Digital Musicology“ statt. Hier eine Auswahl:

Tillman Weyde (City, University of London) stellte kollaborative Tools in der Jazz-Forschung vor, die synergetisch Methoden des Music Information Retrieval (MIR) und des maschinellen Lernens kombinieren. Insbesondere besprach er seine JazzDAP Studien, die auf den bekannten Arbeiten zur Dig That Lick Database sowie dem Jazzomat Research Project aufbauen.

Das Warschauer Fryderyk-Chopin-Institut um Marcin Konik, Jacek Iwaszko und Craig Sapp stellte das beeindruckende Projekt „Polish Music Heritage in Open Access“ (siehe Polish Scores) vor: ein Online-Repositorium polnischer Musik aus sechs Jahrhunderten, das rund 25.000 Manuskripte und Partituren mit insgesamt einer halben Million Seiten Musik umfasst. Die digitalen Editionen enthalten Codierungen im Humdrum-Format, die mittels IIIF-Koordinaten mit den originalen Partiturseiten verbunden sind.

Andreas Waczkats (Göttingen) forscht zur Rekonstruktion des Klangs einer Londoner Orgel, auf der Georg Friedrich Händel einst spielte. Dem Klangideal nähert sich Waczkat mithilfe des Tools „SOUND“ (FU Berlin), das 3D Sound-Daten verwendet, sowie der VR-Anwendung „Virtual Acoustics“ (RWTH Aachen).

Maria Navarro Cáceres (Salamanca) untersuchte in 20.000 irischen und spanischen volkstümlichen Melodien die Verwendung verschiedener Kirchenmodi. Interessant: Vor allem im spanischen Raum ist Phrygisch sehr beliebt!

Tim Eipert (Würzburg) und Francisco Camas (Madrid) verwendeten in Ihrer Forschung zu mittelalterlichen Tropen unabhängig voneinander bioinformatische Methoden der Phylogenese, um die Provenienz verschiedener Gesänge mit ihren musikalischen Stilen abzugleichen. Daraus ließ sich eine „Stammesgeschichte“ verschiedener mittelalterlicher Gesänge ableiten. Insbesondere diese beiden Forschungsprojekte stießen auf großes Interesse, da hier sowohl die Integration in die historische Musikforschung als auch der erwartete Erkenntnisgewinn sehr vielversprechend ist.

Ganz allgemein war der Wunsch nach Interdisziplinarität im Plenum deutlich spürbar. In diesem Sinne warb Cory McKay (Marianopolis College) für mehr Kommunikation und Offenheit bei Kooperationen zwischen der Musikwissenschaft und der Informatik bzw. dem MIR. Seinem Vortrag stellte er die methodologisch entscheidende Frage voran, „how to make musicological sense out of computer data“. Neben der gründlichen Vor- und Aufbereitung musikalischer Daten, um Biases zu vermeiden, trügen vor allem Visualisierungen zum Verständnis bei.

Adam Knight Gilbert (USC, Los Angeles) entwickelte gemeinsam mit Andrew Goldman (Indiana University) den GaGA-(Gilbert-and-Goldman)-Algorithm, mit dem sie Symmetrien in Kontrapunktwerken des 15. Jahrhunderts identifizieren können. Auf diese Weise untersuchten sie verschiedene Formen musikalischer Palindrome („Inversodrome“, „Crabindrome“) in Chansons von Gilles Binchois sowie in Messen und Motetten Johannes Ockeghems. Sie stellten die Frage in den Raum, inwieweit solche Symmetrien kompositorisches Spiel oder kontrapunktisches Derivat sind.

 

Keynotes: Schon viel erreicht und noch mehr zu tun

Besonders beeindruckend war die abendliche Keynote von Ichiro Fujinaga (McGill University), der seit 40 Jahren Pionierarbeit auf dem Gebiet der Optical Music Recognition (OMR) leistet. Humorvoll veranschaulichte er die Errungenschaften in diesem Bereich und ermutigte, die aktuellen Herausforderungen anzugehen. Er warb insbesondere für das Konzept der „Mechagogy“, dem Machine Teaching als Fähigkeit, Computer und Künstliche Intelligenzen richtig zu „erziehen“ und somit leistungsstärker und lösungsorientierter zu machen. An dieses Konzept konnten auch die Kunstsoziologen Denise Petzold und Jorge Diaz Granados (Maastricht) anschließen, die zur Diskussion über die Frage anregten, ob digitale Technologien als Musikinstrumente angesehen werden sollten.

In der zweiten Keynote mit dem Titel „Sustaining Digital Musicology“ plädierte Jennifer Bain (Dalhousie University) für mehr Kooperation innerhalb der Musikforschung, um Forschungsdaten langfristig erhalten zu können. Mit erschreckenden Zahlen aus den vergangenen drei Jahren warnte sie vor Datenverlust durch Cyberattacken. Das Rechenzentrum der Dalhousie University etwa (mit ihren 20.000 Studierenden) blockiert täglich 800.000 Spam-Mails. Die British Library arbeitet seit einem verheerenden Hacker-Angriff vergangenen Oktober immer noch an der Wiederherstellung wertvoller Daten. Leider seien es häufig DH-Projekte, die den Weak Link ins Unisystem darstellen, da ältere Online-Projekte oftmals keine Updates mehr durchlaufen. Der Nachhaltigkeit solcher Projekte abträglich seien zudem schlechte Dokumentation und ein erschwerter Zugang zu Fördermitteln. Was also tun? Zielführend seien gemeinsame, interdisziplinäre Projekte, die auf bestehenden Tools aufbauen, und vor allem gemeinsame Metadaten-Standards innerhalb der Community. Jennifer Bain schloss zuversichtlich: „The future of Digital Musicology looks bright. Let us be more intentional.”

Ein solches verheißungsvoll-intentionales Projekt stellte Ichiro Fujinaga abschließend in einem interaktiven Workshop vor: LinkedMusic. Dessen Ziel ist es, von einer Website aus in verschiedenen Musikdatenbanken suchen zu können, und zwar ausdrücklich auch in anderen Sprachen als Englisch. Die Herausforderung dabei: Die 14 verbundenen Datenbanken haben 14 inkompatible Datenbankstrukturen. Integrierte Bestandteile von LinkedMusic sind u. a. Linked Open Data, Semantic Web (für Interoperability und Data Integration), der RDF-Standard, die SPARQL Language sowie OpenRefine zur Bereinigung und Konvertierung von Daten.

Abb. 4: 14 Datenbanken in LinkedMusic
Abb. 4: 14 Datenbanken in LinkedMusic

Quintessenz

Quinte

Was nehme ich von der Konferenz mit? Einen vollen Kopf, eine Liste an Mailadressen, viele offene Google-Tabs und noch mehr offene Fragen, etliche Forschungsideen und sogar schon Angebote für Forschungsaufenthalte an der Stanford University und der McGill University. In jedem Fall waren meine Erlebnisse auf der ECHOES24 überaus positiv, vor allem geprägt durch das angenehme Konferenzklima (sowohl zwischenmenschlich als auch meteorologisch). Dazu beigetragen haben allem voran das ehrliche Interesse der Teilnehmenden und die wertschätzende Feedback-Kultur, die in dieser Form insbesondere für Promovierende wünschenswert ist.

Abb. 5: Ein Kalauer am Ende des Vortrags leitete zur Diskussion über.
Abb. 5: Ein Kalauer am Ende des Vortrags leitete zur Diskussion über.

 

Der Autor dankt dem DHd-Verband für die Ermöglichung der Konferenzteilnahme durch das Reisekostenstipendium für DH-nahe Tagungen (Sommer 2024).

Kontakt: lucas.hofmann@uni-wuerzburg.de

 

[1] Hugo Distler, „O Heiland, reiß die Himmel auf“, in: Der Jahrkreis op. 5, Kassel 1933, S. 8, Beginn.

Konversationen im digitalen Raum: Eine Analyse der DHd 2024 auf Mastodon

2024年4月2日 19:25

Dieser Beitrag ist im Rahmen meines Reisestipendiums für die DHd 2024 vom 26. Februar bis 1. März 2024 entstanden. Ich möchte mich an dieser Stelle noch einmal bei NFDI4Culture und den Organisatoren bedanken, die mir durch dieses Stipendium die Teilnahme an der Konferenz ermöglicht haben.

DALL·E 3: „A detailed panorama of a workspace dedicated to digital humanities data analysis, in landscape mode. The desk is cluttered with notes, charts, graphs, and digital devices. A Jupyter Notebook is open, displaying code and statistical data. Symbols of digital communication, including social media icons related to Mastodon, are scattered around. A large digital screen in the background shows a complex network of connections with the hashtag #dhd2024, symbolizing the digital humanities ecosystem. The scene conveys an immersive research environment, focusing on discovering patterns and insights within digital humanities.“

In diesem Konferenzbericht wenden wir uns einem eher unkonventionellen Untersuchungsgegenstand zu: den Diskussionen innerhalb der Digital Humanities auf Mastodon, markiert durch den Hashtag #dhd2024. Die Analyse zielt darauf ab, die digitale Resonanz auf die DHd 2024 zu kartografieren, indem die Dynamik der Konversationen, die führenden Stimmen, die zeitlichen Muster der Interaktion und die vorherrschenden Themen untersucht werden. Ein Jupyter Notebook, das als Teil dieses Berichts erstellt wurde, sucht nach Mustern und Einblicken in die Art und Weise, wie die Community kommuniziert, welche Themen besondere Aufmerksamkeit erregen und wie sich die Diskussionskultur innerhalb eines digitalen Ökosystems wie Mastodon entwickelt. Vier Fragen sind von Interesse: Wie gut wurde diskutiert? Wer hat am meisten diskutiert? Wann wurde am meisten diskutiert? Und vor allem: Worüber wurde am meisten diskutiert?

Dazu werden unter anderem die Informationen aus dem Programm der DHd 2024 verwendet, um sogenannte Prompts zu generieren, die an das LLM weitergeleitet werden. Für jeden Beitrag wird geprüft, welche Sessions zeitlich mit dem Veröffentlichungsdatum des Toots übereinstimmen. Ziel ist es, nur die Sessions zu berücksichtigen, die zum Zeitpunkt des jeweiligen Toots stattgefunden haben (und damit das Context Window des LLMs nicht zu überschreiten).

Das Jupyter Notebook ist auf GitHub verfügbar. Alle Statistiken der Mastodon-Toots können dort eingesehen und zur eigenen Analyse geklont werden.

Unter dem Big Tent der Digital Humanities: Ein Einblick in die DHd 2024

2024年3月7日 20:26

Im Idealfall zeichnet sich eine Konferenz durch vielfältige Einblicke, neue Erlebnisse und ein reichhaltiges Wissensspektrum aus, während kluge Köpfe und ihre Ideen sich an einem Ort – sei es im Hörsaal oder im eigenen Geist – versammeln. Nach einer Woche solcher intensiven Eindrücke kann es durchaus vorkommen, dass der Kopf vor lauter Impressionen zu rauchen beginnt. Mir erging es nicht anders nach meiner Teilnahme an der diesjährigen DHd-Konferenz in Passau.

Mit dem Ziel, das komplexe Spektrum der Digital Humanities, auch als Big Tent[1] oder in der Closing Keynote als Big Cloud[2] bezeichnet, besser zu durchdringen, führte ich aufschlussreiche Interviews mit einigen Teilnehmenden durch (herzlichen Dank an dieser Stelle für die Teilnahme). Dabei setzte ich meine eigene Wahrnehmung in Bezug zu den Perspektiven der Interviewpartner*innen. In Gesprächen mit verschiedenen Teilnehmenden konzentrierte ich mich auf drei prägnante Fragen, stets im Sinne von „Weniger ist mehr“ und einer pragmatischen Ausrichtung auf das Wesentliche.

Diese persönlichen Dialoge verfolgen nicht nur das Ziel, inhaltliche Höhepunkte der Konferenz zu dokumentieren, sondern auch individuelle Perspektiven und Meinungen einzufangen. Auf diese Weise entsteht ein umfassendes Bild der DHd-Konferenz, das über den bloßen Ablauf hinausgeht und die Vielschichtigkeit der Veranstaltung widerspiegelt.

  1. Welche drei Keywords beschreiben für dich die Konferenz?

Drei Schlüsselbegriffe zur Konferenz kristallisierten sich heraus, wobei die Stichwörter „generative KI“ und „LLM“ besonders häufig genannt wurden. Die überwiegende Mehrheit der Befragten charakterisierte die Konferenz als äußerst divers und herausragend interdisziplinär. Auffallend ist, dass das Publikum nicht nur durch seine ausgeprägte Diskussionsbereitschaft beeindruckte, sondern auch ein beträchtliches Vorwissen (vor allem in den Workshops) mitbrachte.

Die präsentierten Stichpunkte verdeutlichen den Informationsgehalt der Veranstaltung, deren Kernpunkte durch die Schlagwörter „it’s connecting,“ „heterogen,“ und „Fächerverhältnis“ treffend umschrieben werden können. Es wurde betont, dass, obwohl ähnliche Diskussionen jedes Jahr stattfinden, die diesjährige Tagung durch eine erhebliche Anzahl an Neuigkeiten geprägt war.

Die Themenschwerpunkte erstreckten sich dabei über LLM- und Transformer-Technologien bis hin zu kulturellen Aspekten, Nachnutzbarkeit und Nachhaltigkeit der generierten Daten. Ebenfalls im Fokus standen Diskussionen zu Künstlicher Intelligenz (KI) und Vertrauen sowie dem Verhältnis der Fachgebiete im umfassenden Kontext des Big Tents. Zudem spielte der Themenkomplex der Nachhaltigkeit eine maßgebliche Rolle.

Am Ende dieses Beitrags steht eine Wordmap mit Begriffen aus den Konferenztiteln und den genannten Inhalten der Interviewpartner*innen zur Verfügung. Wer mag, kann gerne einen Vergleich anstellen, um Parallelen zu erkennen.

  1. Was war für dich unerwartet oder spannend?

Für mich persönlich erwiesen sich die Abweichungen in der Workshop-Gestaltung im Vergleich zu den Erwartungen als unerwartete, sehr positive Aspekte. Ein herausragendes Beispiel hierfür war die eigenmächtige Beschädigung eines Collaborative Tools (Google Colab) durch die Workshopleitung während des Workshops, was erneut die hohe Spontaneität und lösungsorientierte Arbeitsweise in den Digital Humanities verdeutlichte. Insgesamt wurden die Workshops durchgehend als aufschlussreich und bereichernd beschrieben. Besonders beeindruckend war die disziplinierte Teilnahme aller Workshop-Teilnehmer, die bereits um 9 Uhr anwesend waren, so die Workshop-Leitung.

Der Aspekt der LLM und generativen KI tauchte vor einiger Zeit als neues Thema auf, was für alle Beteiligten Neuland bedeutete und zu intensiven Diskussionen sowie überraschend starken emotionalen Reaktionen führte. Das Unklare und Unerwartete in diesem Kontext unterstreicht die Dynamik und Vielschichtigkeit der Veranstaltung.

Spannend waren für die meisten Interviewees die Vorträge über die Nutzungsanwendungen von Transformer-Architekturen und Chatbots. Besonders fesselnd gestaltete sich die Fishbowl-Diskussion, die nicht nur durch das innovative Format beeindruckte, sondern auch durch den Gehalt selbst. Sie verschaffte ein neues Verständnis für die zukünftige Entwicklung der Digital Humanities – ein „Quo Vadis“ der Disziplin.

Faszinierend war zudem die Beobachtung, dass sich die Forschungsfragen vermehrt über Digitale Editionen hinausbewegen und weiterführende Analysen der Forschungsdaten in den Mittelpunkt rücken, wie auch in der Keynote bemerkt wurde.

  1. Hast du einen Tipp für Digital Humanists, die am Beginn ihrer Karriere stehen?

Auswahl der Empfehlungen der Interviewpartner*innen:

„Besucht Konferenzen, präsentiert eure Arbeit und lasst euch nicht abschrecken. Jeder fängt irgendwo an.“ – Clemens

„Nehmt alles mit, was ihr kriegen könnt.“ – Linda

„Ausprobieren und aktiv teilnehmen.“ – Lina

„Sucht euch einen Platz im Big Tent und lasst euch nicht von der Überwältigung entmutigen, sonst könnte es frustrierend werden.“ – Manuel

„Bewerbt euch, wenn möglich, um Stipendien und Posterpräsentationen und versucht, Anschluss zu finden. Habt keine Scheu.“ – Martina

„Engagiert euch im Dialog, sprecht mit Menschen und ergreift aktiv die Initiative.“ – Martin

Fazit

Über die Fülle und Dynamik der DHd-Konferenz könnte ich hier noch lange schreiben, doch möchte ich lieber die beeindruckende Visualisierung durch die Wordmap für sich stehen lassen. Der Besuch einer solchen Veranstaltung, besonders für Neulinge in einem Fachgebiet, offenbart eine wahrhaft bereichernde Erfahrung. Somit möchte ich mich herzlich bei NFDI4Culture bedanken, dass sie mir die Teilnahme an der Konferenz ermöglicht haben.

Wordmap aus Vortragstiteln der DHd2024

[1] Patrik Svensson: Beyond the Big Tent. In: Debates in the Digital Humanities, 2012, pp. 36-72, URL:

https://www.jstor.org/stable/10.5749/j.ctttv8hq.7 (Zugriff 07.03.2024)

[2] Begriff von Michaela Mahlberg aus der Closing Keynote der Konferenz am Freitag, 01.03.2024. URL: https://dhd2024.dig-hum.de/programm-events/

Kleines Gedicht als Bonus:

Menschen, die wie Wellen aus Hörsälen rauschen

große Fragen – kleine Pausen

hello world



Julia Hintersteiner

Que Sera, DH? Ein Bericht von der DHd 2024 in Passau

2024年3月5日 19:00

Passau, wir schreiben das Jahr Zweitausendundvierzehn. Irgendwo fällt ein Bit vom Baum. Eine Geisteswissenschaftlerin bleibt verwundert stehen, hebt es auf und betrachtet es von allen Seiten – was lässt sich damit wohl alles anstellen?

Passauer Stadtansicht mit dem Fluss Inn.
Passau im Jahr 2024. Foto: CC-BY Sophie Schneider, Passau 27.02.24

Passau, 2024. Es hat sich eine Traube gebildet. Vereinzeltes Kopfschütteln, aber auch viel Zustimmung und Unterstützung. Getuschel, was hat man gemeinsam, wo liegen die Unterschiede? Hier und da ein Werkzeugkoffer, Brücken werden gebaut und erste Tests am unbekannten Untersuchungsobjekt durchgeführt. Begeisterung und Tatendrang liegen in der Luft. Sie nennen sich jetzt “Digital Humanists”. Naja, nicht alle. Aber viele – und es werden immer mehr. Wie geht es weiter (und war es wirklich genau so)?!

Quo Vadis

Gut, dass es RaDiHum20 gibt und wir somit nicht nur mit Unterhaltung für die teils sehr lange Bahnfahrt versorgt wurden, sondern auch der Erinnerung an die zurückliegenden Tagungen auf die Sprünge geholfen wurde (es gab übrigens auch ein strahlend schönes Poster). Parallel wurden die Tagungen 2014-2024 in einzelnen Beiträgen ausgewertet und analysiert: DHd Chronicles, Wer mit wem … und wo? Eine szientometrische Analyse der DHd-Abstracts 2014 – 2022 und Quo Vadis Fachbereiche und Schulen der DHd: Netzwerkanalyse der DHd Abstracts 2014-2023. In der Fishbowl wurde zudem viel diskutiert: Wer oder was ist DH, brauchen wir DH als Label, sind wir eine Disziplin? Was blieb über die Zeit bestehen, was ist gegangen und was kam neu dazu? Hilft uns die “Big Tent”-Metapher in der weiteren Ausdifferenzierung des Feldes – oder schadet sie womöglich sogar?

Die Ladenfront des Geschäfts "Dies und Das Geschenkartikel". In den Vitrinen: unterschiedlichste Objekte/Souvenirs (z.B. Schilder, Figuren, Schlüsselanhänger), sortiert nach Art des Gegenstands.
DH als Big Tent – durcheinander und dennoch sortiert? Foto: CC-BY Sophie Schneider, Passau 28.02.24

Diese Fragen sind nicht neu, müssen aber immer wieder neu gestellt und ausgehandelt werden. Letztlich geben auch die DHd-Jubiläums-Analysen Rückschluss auf einige der Punkte: DH ist, wer da ist (Patrick Sahle, damals noch über die blaue Brieftaube), aber eben insbesondere auch, wer wiederkommt und disziplinenübergreifend zusammenarbeitet. Insofern freute ich mich schon sehr auf das Wiedersehen mit vielen netten Kolleg:innen aus unterschiedlichen Kontexten (u.a. FH Potsdam, DHI Paris, BBAW/TELOTA bzw. allgemein #dhberlin) und den vergangenen DHd Konferenzen (z.B. mit Nadine Sutor, die schon 2020 im Blogpost „Ich kenn‘ dich von Twitter“ // #DHd2020 über unser Kennenlernen berichtete – wie gesagt, seitdem ist viel passiert in der (Social Media) Welt) und natürlich auch auf viele erste Begegnungen.

KI und neue Realitäten

Wie zu erwarten, waren KI und speziell LLMs eines der vorherrschenden Themen auf der DHd 2024 (sicher auch vor dem Hintergrund der neu gegründeten AGKI-DH). Gefreut hat mich, dass das Thema ganz unterschiedlich behandelt und auch kontrovers diskutiert wurde. Hier fehlt mir manchmal noch die kritische Auseinandersetzung, im Sinne einer “Kritik der digitalen Vernunft”. Nennenswert fand ich den Vortrag Vertrauen in die Wirklichkeit – AI, Trust und Reliability in den Digital Humanities, bei dem u.a. die Bedeutung, Erzeugung und Erkennung von Abbildern bzw. Fälschungen im Bereich des Kulturerbes thematisiert wurden. Auch bei uns an der Staatsbibliothek wurde im letzten Jahr ein Referat Data Science gegründet, in dem wir uns innerhalb verschiedener Projekte mit Künstlicher Intelligenz bzw. Maschinellem Lernen befassen – z.B. im aktuell laufenden Projekt Mensch.Maschine.Kultur. Mit Konstantin Baierer waren wir im Kontext von OCR-D vertreten (in den Workshops Edierst Du noch oder trainierst Du schon? Forschungsdaten als Grundlage von Trainingsdaten für die automatische Texterkennung sowie Das richtige Tool für die Volltextdigitalisierung). Zusätzlich konnte ich vielfältige Inspirationen sammeln, was über die bereits bei uns entwickelten Maschinellen Lernverfahren (z.B. für Named Entity Recognition und Linking oder Bildähnlichkeitssuche) hinaus noch alles mit den historischen Werken und Zeitschriften in unserem Bestand (z.B. aus den Digitalisierten Sammlungen oder dem Zeitungsinformationssystem ZEFYS) möglich ist.

The future’s not ours to see

Zum Glück hatten wir aber im Posterslam Besuch aus der Zukunft (s.a. das Poster „Roads? Where we’re going, we don’t need roads.“ Die Zukunft des Publizierens). Letztlich geht es im Kern wohl darum, experimentelle Ansätze und Fragestellungen auszutesten, mehr aus dem Bekannten auszubrechen und sich auf unsicheres Terrain zu wagen – Scheitern gehört dazu. Innovation und entsprechende Hürden können dann z.B. schon bei der Datensammlung entstehen, wie etwa im Vortrag „Da schunklet älli mit“ – Sammlung und Erforschung dezentraler Kulturdaten der schwäbisch-alemannischen Kneipenfastnacht des Doctoral Consortiums anschaulich dargelegt wurde. Ein noch relativ junges DH-Thema sind zudem die Digital bzw. Computational Games Studies, welche auf der diesjährigen DHd vergleichsweise stark vertreten waren (z.B. mit der AG Spiele oder den Vorträgen Katalog und Textkorpus zu Diskettenmagazinen der 1980er und 1990er (Re-)Digitalisierung frühen digitalen Kulturerbes sowie Computational Game Studies? Drei Annäherungsperspektiven). Während ich mich über diese Entwicklungen sehr freue, frage ich mich, wie wir ganz allgemein noch unbekannte, aber potentiell relevante Forschungsbereiche erschließen und mehr bestehende Vertreter:innen unterrepräsentierter Bereiche für die DH begeistern können. Auch das schien mir ein wichtiges Thema auf der DHd 2024 gewesen zu (u.a. „Digital Humanities interessieren uns nicht, das haben wir schon ausgeforscht“ – Resonanz der DH am Beispiel der Theologie) und wird uns wohl noch weiter beschäftigen – gerade mit Ausblick auf die nächsten 10 Jahre Digital Humanities im deutschsprachigen Raum.

Passau, 2034. To be continued…

❌