普通视图

Received before yesterday

Rückblick zur DHd2026 – Ein Konferenzbericht aus Wien

2026年3月11日 22:43

Dieser Beitrag entstand im Rahmen eines Early Career Reisestipendiums von CLARIAH-AT für die DHd2026 in Wien. Herzlichen Dank für die Ermöglichung dieser Teilnahme.

Was macht eine wissenschaftliche Community aus? Und gehöre ich dazu? Diese Frage hatte ich im Gepäck, als ich als Masterstudierende der Digital Humanities an der Universität Regensburg zum ersten Mal zur DHd fuhr. Die DHd2026 war meine erste große DH-Konferenz und eine Einladung, die Community nun endlich live zu erleben. Das Ziel: Wien.Eine prachtvolle Stadt, eine beeindruckende Universität und ein Tagungsthema, das neugierig macht: Not just text, not just data. Was steckt in den Digital Humanities jenseits von Textkorpora und Datentabellen? Die Konferenz hat darauf viele spannende Antworten geliefert.

GPU für die GW – aber bitte DSGVO-konform

Der erste Konferenztag führte mich in den Halbtagsworkshop „Beyond the Cloud: Democratizing GPU Access for the Digital Humanities“ des DHInfra-Teams der Universität Graz und der Universität für Weiterbildung Krems. Der Bedarf an rechenintensiven Methoden wächst in der DH rasant, während kommerzielle Anbieter wie AWS oder Google Colab ernsthafte Fragen zu Datenschutz und Datensouvränität aufwerfen. DHInfra setzt hier mit einer föderierten, DSGVO-konformen GPU-Infrastruktur an. Der Workshop war dabei mehr als eine Demonstration, er diente als finale Testphase vor dem offiziellen Launch, in der die Teilnehmenden LLMs feintunen und API-basierte Workflows entwickeln konnten und gleichzeitig direktes Feedback zur Plattform gaben.

Data as…

Den Auftakt der Konferenz bildete am Abend die Eröffnungskeynote von Miriah Meyer mit dem Titel „Data as…: Exploring the Plurality of Data in Visualization“. Mit einer scheinbar simplen Frage: „Was sind eigentlich Daten?“ eröffnete sie ein breites Panorama: Daten als Input, als Ground Truth, als Design Material, als etwas Verflochtenes. Wer diese Rahmungen explizit benennt und hinterfragt, gewinnt neue Perspektiven auf Visualisierungen und die eigene Forschungspraxis. Beim anschließenden Empfang wurden diese Gedanken in Gesprächen weitergeführt. Ein schöner Beweis dafür, wie eine gute Keynote eine Konferenz inhaltlich in Gang setzt.

Annotieren: Mensch, Maschine oder beides?

Am zweiten Tag folgte der ganztägige Workshop „Film- und Videoanalyse mit VIAN & TIB-AV-A“. Die zentrale methodologische Frage: Wann annotieren wir manuell, wann die Maschine? VIAN Light macht diese Spannung produktiv, indem es manuelle Annotation mit automatischer Einstellungserkennung kombiniert und damit Raum lässt für das, was Eva Hielscher „Doing ELAN“ nennt: den Annotationsprozess selbst als erkenntnisleitenden Akt. Das Fazit des Tages: Automatisierung ersetzt die manuelle Annotation nicht. Hybride Workflows, die beides kombinieren, sind der Schlüssel.

Die Politik der Daten

Besonders nachhaltig haben mich zwei Panels beschäftigt. Im Panel „KI als Belastungsprobe für das offene Internet“ diskutierten Klaus Rettinghaus, Sarah Oberbichler, David Maus und Grischka Petri, was der Boom generativer KI bedeutet: Bot-Traffic, der sich als menschlich tarnt, blockierte Archive, ignorierte Lizenzen. Die Kernfrage: Welche Infrastrukturen bauen wir auf, welche Daten legen wir unter welchen Bedingungen offen? Das sind im Kern politische Entscheidungen und Geisteswissenschaftler:innen können mit ihrer kritischen Datenperspektive aktiv mitgestalten.

Das Panel „The Dark Sides of DH revised: From Utopia to Reality“ richtete den Blick nach innen: auf sprachliche Vielfalt, feministische Datenpraktiken, Repräsentation und ein erweitertes Verständnis von Nachhaltigkeit jenseits von Effizienz. Was mich überzeugte, war der konstruktive Grundton: Es ging nicht nur darum, Probleme zu benennen, sondern gemeinsam darüber nachzudenken, was die DH werden könnte, wenn wir diese Lücken ernst nehmen.

Research Software, Posterslam und Empfang im Wiener Rathaus

Ein weiteres Panel widmete sich Research Software Engineering. Sabina Mollenhauer plädierte für eine Richtungsumkehr: Ethnografische Methoden könnten aktiv zur Gestaltung nachhaltiger Research Software beitragen statt Wissen nur von STEM zu übernehmen. Kevin Kuck und Kevin Wunsch zeigten, wie automatisierte Workflows in Editionsprojekten Raum für inhaltliche Forschung schaffen. Kristin Herold, Hizkiel Alemayehu und Daniel Jettka diskutierten am Beispiel Edirom Online, wie Software nach Projektende überlebt: durch Modularisierung, Community-Building und gezielte Kleinstförderungen.

Ein Highlight der Konferenz war der Posterslam: In kürzester Zeit überzeugten die Slamenden das Publikum von ihrer Forschung, gemessen per Lautstärkemessgerät, Kostüme und popkulturelle Referenzen inklusive. Eine mitreißende Einleitung zu zwei Postersessions, bei denen Zeit für viele spannende Gespräche war.

Daten sind nie neutral

Den krönenden Abschluss des letzten Abends bildete der Empfang im Wiener Rathaus, ein sehr imposanter und beeindruckender Rahmen für eine Konferenz, die inhaltlich als auch atmosphärisch viel zu bieten hatte. Und passend zum Gastgeber durfte musikalisch natürlich auch Falco und der Wiener Walzer nicht fehlen.

Was bleibt

Was mich überrascht hat, war die Atmosphäre: offen, vielfältig, von echtem gegenseitigem Interesse geprägt. Gespräche entstanden schnell und unkompliziert, über Fachgrenzen und Karrierestufen hinweg. Als jemand, die gerade mitten im Studium steckt, war es besonders wertvoll, das Gefühl zu haben, wirklich Teil einer Community zu sein, nicht nur Beobachterin.

Das Stipendium von CLARIAH-AT hat mir nicht nur die Reise nach Wien ermöglicht, sondern einen Einblick gegeben, worum es in den Digital Humanities im besten Sinne geht: das gemeinsame Nachdenken über Methoden, Infrastrukturen und Verantwortung, mit Menschen, die das wirklich ernst nehmen.

Sophia Babl, Masterstudium Digital Humanities, Universität Regensburg

Recap: DHd-Tagung 2025 in Bielefeld – Auf dem Weg zur digital „entfesselten“ Literaturgeschichte?

2025年4月26日 21:36

In der ersten Märzwoche 2025 wurde in Bielefeld unter dem Motto „Under Construction“ die 11. Tagung des Fachverbandes „Digital Humanities im deutschsprachigen Raum“ (DHd) abgehalten. Am letzten Tagungstag fand ein Panel zum Beitrag der Computational Literary Studies (CLS) zur Literaturgeschichtsschreibung statt, bei der der Autor dieser Zeilen nicht nur als studentisches Mitglied des Organisationsteams, sondern auch aus ureigenem Interesse teilnahm. Denn vom pragmatischen Nutzen für die (schulische) Lehre einmal abgesehen, begegnet uns Literaturgeschichte als die generationenübergreifende Arbeit an einem Werk. Sie erscheint damit sowohl als Produkt, als die Essenz eines kulturellen Bestandes, als auch als Prozess, dessen Genese. Trotz der wissenschaftslogischen Randständigkeit (Daniel Fulda[1]) der Literaturgeschichtsschreibung haben ihre Kontextualisierungen immer Einfluss auf uns, und deshalb war es für mich wie wohl auch für die anderen Besucher[2] des Panels von Interesse zu hören, wie die noch relativ jungen CLS unseren Blick auf Literaturgeschichte verändern mögen.

Unter der Moderation von Nils Kellner (Rostock) diskutierten die Panellisten PD Dr. Katrin Dennerlein (Würzburg), Prof. Dr. Berenike Herrmann (Bielefeld), Prof. Dr. Fotis Jannidis (Würzburg), Marc Lemke (Rostock) und Dr. Jana-Katharina Mende (Halle/Saale) über Nutzen und Nutzbarmachung sowie Reichweite und Grenzen der computergestützten Literaturwissenschaft für die Literaturgeschichte. Als Anwendungsfall diente die (computationelle) Untersuchung literarischer Räume im Zuge des „spatial turns“ innerhalb der Literaturwissenschaft.

Bei seiner Anmoderation stellte Kellner bereits zwei in der Folge gesprächsbestimmende, klassische Problemstellungen der Literaturgeschichtsschreibung heraus: Literaturgeschichte weist erstens einen erheblichen Konstruktionscharakter aus, ist kontextabhängig und einer Auswahl von Autoren und Werken (Stichwort Kanonizität) und damit teilweise auch artifiziellen Grenzziehungen unterworfen. Zweitens soll Literaturgeschichte gleichsam einer Bildungsintention gerecht werden – als common ground für Wissenschaftler wie auch der allgemeinen Schulbildung dienen –, womit Ansprüche an ihre Plausibilität, ihre relative Überschaubarkeit und ihre intersubjektive Verständlichkeit gestellt werden. Darüber hinaus – so schien auf dem Podium in der Folge Konsens zu herrschen – besteht bei der CLS, wie bei jeder anderen Literaturgeschichtsschreibung auch, die wohl größte Herausforderung darin, nach der objektiven Datenerhebung zu entscheiden, in welche historischen Kontexte ein spezifischer Befund eingebunden werden sollte.[3]

Wohl wenig überraschend bestand auf einem Panel auf der DHd-Tagung zunächst Konsens über den großen Vorteil der CLS im Hinblick auf diese Probleme: Große Textmengen, eingeschlossen des „great unread“ (Kellner; Formulierung von Margaret Cohen[4]), können mit vergleichsweise wenig Aufwand durchgesehen und auf Muster untersucht werden. Daraus ergeben sich Möglichkeiten der Rekontextualisierung von Literaturgeschichte. Ästhetisch hochwertige und/oder viel gelesene, aber heute vergessene Autoren könnten wiederbelebt, der Beitrag weiblicher Autoren angemessen beleuchtet werden. Nationalstaatlich motivierte Konstruktionen könnten – im neutralen Wortsinne – revidiert, ebenso erweitert wie aufgelöst werden, und so weiter. Der Reihe nach stellten die Redner mögliche Ansätze vor.

Mit Hilfe der computergestützten Vergrößerung von Daten und deren statistischer Modellierung sei es möglich, die diachrone Vereinfachung der Literaturgeschichtsschreibung durch eine Erweiterung des synchronen Blickfelds zu durchbrechen, kanonische neben nichtkanonischen Werken oder mehrere Editionen desselben Werks gleichzeitig zu betrachten (Dennerlein). In der klassischen Literaturwissenschaft unbeachtete Texteigenschaften könnten jetzt untersucht und Begriffe, bspw. von ‚Raum‘, über die diegetische Ebene erweitert werden (Lemke), u.a. auch um transnationale Literaturgeschichten zu erzählen und selbst die Räume einzuschließen, in denen bzw. von denen aus Autoren ihre Werke geschrieben haben (Mende). Schließlich könnten in der CLS auch ganz neue Fragen an die Literaturgeschichte gestellt werden, um zum Beispiel systematische Perspektiven zu Raum und Affekt diachron zu untersuchen; „der Kreativität sind kaum Grenzen gesetzt“ (Herrmann).

Einen Einwand warf allerdings Prof. Jannidis in die Runde. Mit Rekontextualisierungen und lediglich neuen, anderen Literaturgeschichten blieben die CLS letzten Endes den Gedankenmodellen der klassischen Literaturwissenschaft verhaftet. Die soeben wiedergegebenen Überlegungen dürften nur als „Zwischenschritt“ betrachtet werden; Ziel der CLS müsse eine „prospektive Entfesselung“ sein. Die computergestützten Methoden machten immerhin das vormals Unmögliche möglich, und so sollten wir in voraussehbarer Zeit bspw. fähig sein, für die Literaturgeschichte alle Ereignisse rund um Literatur – jedes vorhandene Manuskript, jede Anstreichung, Verkaufszahlen, etc. – einbeziehen und interpretieren können. Gleichsam weist Jannidis eindringlich auf den hohen Ressourcenaufwand einer solchen Entfesselung hin; in seinen Worten: „Kein Manöver ohne Kosten“.

So anregend und notwendig diese Debatte auch ist, stellen sich insbesondere in Hinblick auf den zweiten Problempunkt, der Bildungsintention von Literaturgeschichte, unmittelbar pragmatische Fragen zum Nutzen der CLS für die Literaturgeschichtsschreibung hier und heute. Denn wie Prof. Herrmann betont und auch ich aus Erfahrung als Tutor bestätigen kann: Die Nachfrage nach grundlegendem Literaturgeschichts- und Kontextwissen ist gerade bei Studenten in der Lehramtsausbildung hoch. Was der Zugang der CLS hier leisten kann – so vielleicht die Kernerkenntnis aus Podiumsgespräch und Fragerunde – ist, die teilweise extreme diachrone Vereinfachung der klassischen Literaturgeschichte zu durchbrechen und das Überblickswissen um neue daten- und evidenzbasierte Ergebnisse zu erweitern.

Wie zum Abschluss gleich zwei Fragen aus dem Auditorium klarmachten, darf in diesem Kontext die „Entfesselung“ der CLS aber nicht zu einer Überforderung führen. Der einhellige Lösungsvorschlag aus dem Podium, um den Zugang auch für das Grundstudium und das außerwissenschaftliche Umfeld zu ermöglichen: Kondensierte, für den Anwendungskontext geeignete Visualisierungen, z.B. in Form narrativierter Daten in sogenannten Data Stories. Literaturwissenschaftler könnten aus der Datenwissenschaft lernen, wie sie das Bedeutende klar und übersichtlich visuell vermitteln können (und dabei an eigene Praktiken anschließen), wobei sie jedoch zweierlei zu bedenken hätten: Dass das Nadelöhr des Einzeltextes aus der Leserperspektive nie verschwinden wird (und zum Zwecke der ästhetischen Erfahrung wohl auch kaum verschwinden soll), und dass sich Wissenschaftler immer über die Pluralität von Perspektiven und die Wirkmächtigkeit vermeintlich repräsentativer Datenvisualisierungen bewusst sein müssen.

 

Zum Autor: Pierre-Michel Weiße studiert Germanistik und Anglistik im Master an der Universität Bielefeld und hat seine Bachelorarbeit über eine computerunterstützte Raumuntersuchung zu Thomas Manns Doktor Faustus geschrieben. Er ist Tutor im Germanistik-Basismodul Literaturgeschichte und wissenschaftliche Hilfskraft am Lehrstuhl von Prof. Dr. Berenike Herrmann.

 

Anmerkungen

[1] Vgl. Fulda, Daniel: Starke und schwache Historisierung im wissenschaftlichen Umgang mit Literatur. Zur Frage, was heute noch möglich ist – mit einer disziplingeschichtlichen Rückblende. In: Matthias Buschmeier, Walter Erhart, Kai Kauffmann (Hgg.): Literaturgeschichte. Theorien – Modelle – Praktiken. De Gruyter 2014, S. 101–121, https://doi.org/10.1515/9783110287295.101, hier S. 104.

[2] In diesem Beitrag wird für Personenbezeichnungen das generische Maskulinum verwendet.

[3] Vgl. Herrmann, Berenike, Daniel Kababgi, Marc Lemke, Nils Kellner, Ulrike Henny-Krahmer, Fotis Jannidis, Katrin Dennerlein und Matthias Buschmeier: Literaturgeschichte „under Construction“ – Was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur. Zenodo 2025, https://doi.org/10.5281/zenodo.14943254, S. 117.

[4] Cohen, Margaret: The Sentimental Education of the Novel. Princeton: Princeton University Press 1999, https://doi.org/10.1515/9780691188249, S. 23.

❌