普通视图

Received before yesterday

Special issue “Digital Roots and Digital Routes” di UD per AIUCD2023 e 2024

2025年9月16日 22:08

La rivista “Umanistica Digitale” ha pubblicato le versioni estese e sottoposte a peer review di una selezione di contributi presentati originariamente alle conferenze AIUCD2023 La memoria digitale. Forme del testo e organizzazione della conoscenza (Siena, 5-7 giugno 2023, chair Francesco Stella, co-chair Emmanuela Carbé) e AIUCD2024 Me.Te digitali. Mediterraneo in rete tra testi e contesti (Catania, 28-30 maggio 2025, chair Daria Spampinato e Antonio Di Silvestro).

Questo numero speciale, intitolato Digital Roots and Digital Routes (“Umanistica digitale”, no. 20), ha avuto come guest editors Emmanuela Carbé (Università Ca’ Foscari di Venezia), Christian D’Agata (Università di Catania), Antonio Di Silvestro (Università di Catania), Mariangela Giglio (Università di Bologna) e Daria Spampinato (CNR ISTC di Catania).

L'articolo Special issue “Digital Roots and Digital Routes” di UD per AIUCD2023 e 2024 proviene da AIUCD.

Diese Tagungen haben unsere DHd-Stipendiat:innen besucht!

2025年9月11日 18:21

2024 schrieb der DHd-Verband erstmals Stipendien für sogenannte „DH-nahe Tagungen“ aus, d.h. Tagungen, die nicht die DHd-Verbandstagung sind, für die schon lange Stipendien vergeben wurden. Diese werden auch weiterhin unabhängig von der „Nicht-DHd-Verbandstagung“-Schiene vergeben. 

Die Stipendien für DH-nahe Tagungen werden jeweils im Sommer (Ausschreibung April) und Winter (Ausschreibung November) vergeben. 

Im Folgenden stellen wir eine Reihe jüngst veröffentlichter Erfahrungsberichte unserer Stipendiat:innen vor (beantragt in Runde Winter 2024 und Sommer 2025). Die meisten haben die DH2025 in Lissabon besucht, doch die Stipendien können grundsätzlich auch für andere DH-relevante Tagungen und Schools beantragt werden.


  1. Fernanda Alvares Freire, „Olá, Lisboa: DH2025 – Building Access and Accessibility, open science to all citizens“, 28. August 2025, in: DHd Blog, https://dhd-blog.org/?p=22752

  2. Pascale Boisvert, „DH Con – 2025: Building access and accessibility open science to all citizens In Lisbon, Portugal“, 14. August 2025, in: DHd Blog, https://dhd-blog.org/?p=22717

  3. Jana Klinger, Die Masterthesis auf einer internationalen Konferenz vorstellen? Besuch der DH-Tagung in Lissabon 2025, 21. August 2025, in: DH@BUW Hypotheses Blog, https://dhbuw.hypotheses.org/2008

  4. Anna Kleinsasser, „Eindrücke von der DH2025 – “Accessibility & Citizenship”, 12. August 2025, in: DHd Blog, https://dhd-blog.org/?p=22711

  5. Alina Menten, „Tagungsbericht – Science MashUp 2025 (10. Mai 2025, HTWK Leipzig)“, 23. Juni 2025, in: DHd Blog, https://dhd-blog.org/?p=22518

  6. Nadjim Noori, „DH2025: Building Access and Accessibility, open science to all citizens – Meine ersten Schritte in die Forschungswelt“, 15. August 2025, in: DHd Blog, https://dhd-blog.org/?p=22725

  7. Erik Renz, „Von der Ostsee an den Atlantik: Rostocker DHler*innen auf der DH2025 in Lissabon“, 2025, in: Uni Rostock Digital Humanities Blog, https://www.germanistik.uni-rostock.de/forschung/digital-humanities/aktuelles/n/von-der-ostsee-an-den-atlantik-rostocker-dhlerinnen-auf-der-dh2025-in-lissabon-245341/

 

Wissenswasserfälle in Bielefeld

2025年9月3日 04:05

Mein persönlicher Bericht von der DHd 2025


Kurzvorstellung

Hallo liebe Forschende,

mein Name ist Jan Eberhardt und als Studierender des Masters Digitale Methodik in den Geistes- und Kulturwissenschaften in Mainz hatte ich die Ehre, an der jährlichen Konferenz der Digital Humanities im deutschsprachigen Raum (DHd) 2025 in Bielefeld teilzunehmen. Die Reise- und Unterkunftskosten wurden durch ein Stipendium von NFDI4memory gefördert.

Meinen Bachelor absolvierte ich ebenfalls in Mainz, im Studiengang Buchwissenschaft, weshalb ich mich dazu entschieden habe, nach diesem Post auf dem DHd-Blog im Idealfall auf meinem eigenen Blog vor allem über Neuigkeiten zur Forschung aus diesen Fachbereichen zu berichten.

Ende des Jahres möchte ich mit meiner Masterarbeit beginnen und es macht für mich absolut Sinn, das gelernte aus beiden Studiengängen miteinander zu verknüpfen und mit der Welt zu teilen, anstatt nur vor meinen eigenen Stichpunkten zu sitzen.

Bericht von der DHd 2025

Mein Vorhaben auf der diesjährigen DHd bestand darin, alle Informationen mitzunehmen, die meine Fachbereiche und mein Forschungsinteresse miteinander verbinden, oder die ich in der späteren Forschung nutzen kann. Das war ein sehr ambitioniertes Ziel, wie ich in dieser Woche feststellen musste. Um die Länge dieses Blogposts auch nicht zu lang werden zu lassen, werde ich versuchen, mich vor allem auf meine persönlichen Erkenntnisse beschränken. Aber der Reihe nach:

Das Thema, das die gesamte Konferenz mit dem Untertitel „under construction“ überlagerte, waren Large Language Models (LLMs), da sie in den vergangenen Jahren in vielen Bereichen der Forschung getestet und diese Ergebnisse nun vorgestellt wurden.

Montags begann die Konferenzwoche direkt mit dem Workshop „eScriptorium meets LLMs: Moderne KI-Systeme im Kontext der Volltexterschließung“ von Forschenden der Universitätsbibliothek Mannheim, mit einem interessanten Beispiel zur Post-Correction von OCR-Ergebnissen und der Nutzung von LLMs für Named Entity Recognition (NER), also der automatischen Erkennung und Deklarierung von z.B. Namen oder Orte als solche.

Das Thema Texterschließung von Handschriften und Drucken aus dem Mittelalter und der Frühen Neuzeit ist für mich von besonderem Interesse, da ich mich für die Masterarbeit mit einem Text aus dieser Zeit befassen werde. Des Weiteren habe ich sehr großes Interesse an der nachnutzbaren Digitalisierung und dem weiterem Einsatz Digitaler Methoden, wie der von mir schon im Studium verwendeten NER, an Dokumenten aus meiner Heimatregion Rheinhessen, die bekanntermaßen eine sehr bedeutende Geschichte aufweist. 

Dienstags gab es einen ganztägigen Workshop mit einem sehr theoretischen Teil zur Definition von Ground Truth und Hermeneutik sowie einem Hands-On, in dem wir mithilfe von transkribierten Interviews je nach Promting verschiedene Ausgabe- und Interpretationsmöglichkeiten der Daten getestet haben.

Am Abend war dann die beeindruckende Keynote von Mark Dingemanse im Programm, der das komplette Kontrastprogramm zu meinen bisher erlebten anderthalb und auch den noch folgenden Tagen bot. Er warnte mit erschreckenden Beispielen vor einem blinden Vertrauen gegenüber dem, was uns die LLMs als Antwort zurückgeben. Die immer größere Zahl an Nutzer*innen von Angeboten wie ChatGPT etc. und die daraus folgende „Weiterentwicklung“ durch u.a. die Aufnahme dieser Daten in das System, bedeutet laut Dingemanse einen zukünftigen Verlust von Sinn. Es werden so viele Daten produziert, dass es immer komplizierter werden wird, durch LLMs an greifbare, essenzielle Information zu kommen. Dazu brachte er ein Beispiel von den Brüdern Grimm und ihrer Geschichte „Der süße Brei“: Um an brauchbare Daten zu kommen, muss man sich durch den „ganzen Brei“ des entstandenen Datenmülls essen. Dingemanse plädierte für mehr „slow science“, also eine Wissenschaft, die zwar etwas länger dauert, dafür allerdings nicht auf Daten basiert, die man einfach mal so aus Antworten der LLMs übernommen hat.

Außerdem verkündete er der versammelten Digital-Humanities-Community, dass das Modell llama-3, das in meinen beiden Workshops genutzt wurde und auch so sehr häufig genutzt wird, da es für die bestehenden Fälle am effizientesten ist, mit das am schlechtesten bewertete in Sachen Datenschutz, Dokumentation, Lizenzierung, etc. ist. Es gehört auch zum Facebook-Mutterkonzern Meta. Vergleiche hierzu die Seite www.osai-index.eu des European Open Source AI Index. Sie bietet einen guten Überblick über alle bekannten und nutzbaren LLMs und bewertet sie nach 14 Kriterien, die jeder Person, die wissenschaftlich arbeitet, keinesfalls egal sein sollten.

Auch wenn diese Keynote eine einschlagende und zum Nachdenken anregende war, bin ich mir nicht sicher, ob seitdem ein Umdenken in der Community hin zur Nutzung anderer Modelle sichtbar geworden ist. Dies wäre eine wissenschaftliche Untersuchung wert.

Am Mittwoch begannen die Konferenzbeiträge. Ich war im Doctoral Consortium und habe mir dort sehr interessante Beiträge angehört. Einerseits zu einer Masterarbeit, die die Übersetzung und Digitalisierung der jiddischen Zeitschrift „Der Wahre Jude“ behandelte. Also genau mein Interessensgebiet, da mich mein regionales Interesse automatisch auch zu Dokumenten der jüdischen Gemeinden und damit dem Hebräischen führt. Des Weiteren wurde eine Dissertation vorgestellt, die über die Analyse von Mensch-KI-Interaktionen in Science-Fiction-Literatur mit besonderem Blick auf die Privatsphäre ging. Dieses Thema interessiert mich vor allem seit den Snowden-Enthüllungen 2013.

Wie auch schon bei den DHds 2022 und 2024, auf denen ich war, wollte ich weitere Personen kennenlernen, die ähnliche Forschungsinteressen haben wie ich. Eine Chance, kurze Gespräche zu führen, bot sich immer in den Kaffeepausen zwischen den Vortragsblöcken an. Es fand an diesem Tag jedoch auch das Treffen aller Stipendiand*innen und Nachwuchsforschenden statt. Hier wurden noch mal Tipps für den weiteren Austausch und die Vernetzungsmöglichkeiten u.a. von Promovierenden gegeben und ich konnte dabei bei einem Gespräch einige Tipps für meine Masterarbeit einholen.

Danach folgte noch die jährliche DHd-Mitglieder*innenversammlung. Eine sehr von Politik geprägte Veranstaltung, jedoch als Mitglied keineswegs unwichtig. So einer Mitgliederversammlung sollte man auf jeden Fall mal beigewohnt haben.

Am vorletzten Tag, dem Donnerstag, war ein interessanter buchwissenschaftlicher Vortrag zu hören, zur automatischen Erkennung von Bildern aus Kinderbüchern des 19. Jh. aus einer Datenbank von über elf Tausend Büchern. 

Bildgewaltig war auch die am Nachmittag stattfindende Postersession. Man hatte eigentlich gar nicht die Möglichkeit alle Poster intensiv zu studieren, weil einfach die Zeit dafür gefehlt hat, vor allem, wenn man sich von einer verantwortlichen Person etwas zu ihrem Poster hat erklären lassen. Diese Chance versuchte ich natürlich auch so gut wie möglich zu nutzen und war sehr erfreut, mit mir aus wissenschaftlichen Veröffentlichungen bekannten Personen Kontakt zu knüpfen. Beeindruckend war hier auch, dass sehr viele Plakate von Projekten mit Forschenden aus Mainz aufgestellt waren.

Der Donnerstagabend war nach der schon intensiven Postersession bezüglich sozialer Interaktion jedoch noch mal eine Stufe höher. Das sogenannte „Konferenzdinner“, das auf dem Papier so offiziell wirkt, waren lustigerweise nichts weiter als zwei Burgertrucks, auf dem Hinterhof eines klischeemäßigen, aber ebenso legendären „Hinter-dem-Bahnhof“-Clubs, in dem sich sehr interessante Gespräche ergaben. Sehr dankbar bin ich hier vor allem Sarah Lang, die mich weiteren interessanten Forschenden vorgestellt hat, z.B. Jürgen Hermes aus Köln, der in seiner Dissertation das sagenumwobene Voynich-Manuskript kryptologisch untersucht hat. Ein solches Nischenforschungsinteresse kommt nicht häufig vor und doch ist es auf besondere Weise mit Sarahs und meinem verknüpft. Sie kennt sich bestens mit alchemischen Schriften und Kryptographie aus und ich interessiere mich sehr für die Sammlung der Leipziger Zauberbücher in der dortigen UB – sodass uns Manuel Burghardt scherzhaft schon „die Alchemistin und der Zauberer“ genannt hat.

Der Abend war voller emotionaler Ereignisse für mich und zog sich deshalb viel länger als ich ursprünglich geplant hatte, weshalb ich dann am Freitag leider den Vortrag von Elisa Cugliana, auch aus Köln, gerade so verpasst habe. Sie hat über die Probleme der Digitalisierung des „Compendium Historiae“ durch seine verschiedenen Abbildungen, freien Textpassagen und Diagrammen referiert und dass hierfür eine neue Methode angewendet wird. Glücklicherweise gibt es zur DHd immer ein Nachschlagewerk mit zu allen Vorträgen gehörenden Artikeln. Anschreiben werde ich sie im Rahmen meiner Masterarbeit (oder auch zukünftigen Forschungen) auf jeden Fall mal.

Fazit

Nach dieser Woche bin ich ganz schön erschöpft. Ich habe viele Erfahrungen und neue Erkenntnisse mitgenommen. Schade jedoch, dass die Energie nicht gereicht hat, alles Interessante mitzunehmen. Wenn man es aber realistisch betrachtet, sollte man sich nicht vornehmen, alle Veranstaltungen besuchen zu wollen – allein schon, weil Vieles gleichzeitig stattfindet. Sonst gerät man in Stress und kriegt sowieso nicht alle Informationen aufgenommen, die einem erzählt werden. Ich denke, die Menge an besuchten Vorträgen und Veranstaltungen war für mich ganz gut, um die wichtigsten mitzunehmen, ohne mich zu überfordern.

Die DHd ist ein alljährliches Highlight der Zusammenkunft wichtiger Forschender aus den unterschiedlichsten Fachbereichen, welche aber zum großen Teil neue Erkenntnisse teilen, die fachübergreifend gelten und damit auch für andere Forschungsbereiche nutzbar und nützlich sind.

Eine absolute Empfehlung spreche ich auch für alle „Jungforschenden“ aus: Bewerbt Euch um Stipendienplätze! Das Treffen zwischen Menschen, die zu ähnlichen Themen forschen wie man selbst, ist einfach extrem wichtig, um sich mal austauschen und treffen zu können.

Als ebenso wichtig sehe ich die generellen Möglichkeiten der Unterhaltung mit Doktor*innen und Professor*innen an, die sehr niedrigschwellig, im Grunde auf Augenhöhe, stattfinden. Ich bin zwar immer noch sehr nervös, wenn ich mit Menschen sprechen möchte, deren Forschung ich seit Längerem verfolge, und sie dann auf der DHd sehe. Die Tatsache, dass aber alle Personen bisher sehr aufgeschlossen und nett zu mir waren, wenn ich mich dann getraut habe, sie anzusprechen, gibt mir sehr viel Kraft, um auch in Zukunft weiterhin auf Forschende zuzugehen, die mich beeindrucken, um sich über Erkenntnisse, Methoden und eventuelle Gemeinsamkeiten in Sachen Forschungsinteresse auszutauschen.

Auch thematisch war die diesjährige DHd für meine bevorstehende Masterarbeit sehr interessant. So habe ich eine gute Wissensgrundlage für sie, wie auch für meine weitere Forschung erlangen können.

Das Titelwort „Wissenswasserfälle“ würde ich als generelles Phänomen der jährlich stattfindenden DHds ansehen. Man hat am Ende immer das Gefühl, zu wenig mitbekommen zu haben, aber ein Mensch kann eben nur eine gewisse Menge an Informationen aufnehmen, ohne sich in Stress zu versetzen oder sich zu überfordern. Die Vorträge, die Postersession, der Posterslam, etc. sind trotz und aufgrund der Menge an bereitgestelltem Wissen auch einfach schöne Ereignisse, die man sich sehr gerne anschaut, da man gespannt ist „was es so Neues gibt“.

Um alles Interessante noch mal nachlesen zu können, würde ich neben den weiteren Berichten über die Tagung (z.B. hier bei dem schon erwähnten Jürgen Hermes) natürlich auch das Book of Abstracts empfehlen.

Macht es gut!

Bis Ende Februar 2026 in Wien. Ich freue mich schon mega!

Olá, Lisboa: DH2025 – Building Access and Accessibility, open science to all citizens

2025年8月28日 22:51

Die diesjährige Digital Humanities Konferenz fand im schönen (wenn auch ziemlich heißen!) portugiesischen Sommer in Lissabon statt. Als Brasilianerin war ich besonders froh, die DH-Community in einem portugiesischsprachigen Umfeld zu erleben, und bin mit Unterstützung eines Reisestipendiums des Verbands Digital Humanities im deutschsprachigen Raum (DHd) nach Lissabon gegangen. Ich bin daher dem Dhd für die Unterstützung sehr dankbar, welche mir die Teilnahme an der Konferenz ermöglicht hat. Ohne diese Unterstützung hätte ich diese Erfahrung nicht erleben können.

Unter anderem hatte ich vor, Ergebnisse aus dem Projekt „digitale Edition von Fernando Pessoa – Projekte und Publikationen” zu präsentieren, einem Text+ Kooperationsprojekt mit Prof. Ulrike Henny-Krahmer (Universität Rostock), mit der ich 2023 zusammengearbeitet habe. Das Projekt sollte die Infrastruktur der digitalen Edition auf den neuesten Stand bringen. Da Fernando Pessoa einer der wichtigsten Autoren der Literatur in portugiesischer Sprache und ein echter Lisboeta ist, war Lissabon der perfekte Ort, um die Ergebnisse des Projekts zu teilen.

In diesem Blogbeitrag teile ich ein paar Eindrücke von der DH2025 und während wir auf das Abstract-Buch warten, möchte ich auch ein paar Eindrücke vom Programm zeigen.

DH in Lissabon

Ein gelber Straßenbahnwagen fährt durch eine sonnige Stadtstraße, umgeben von Gebäuden, Bäumen und Oberleitungen.

Unter dem Motto „Accessibility & Citizenship“ ging es bei der Konferenz darum, den Zugang zu Wissen demokratischer zu machen, das Engagement der Community zu fördern und aktuelle gesellschaftliche Probleme auf sinnvolle Weise anzugehen. Barrierefreiheit war nicht nur ein Thema, sondern hat auch die Organisation beeinflusst. Bei der Eröffnungsfeier gab es sowohl im Saal als auch beim Zoom-Livestream Gebärdensprachdolmetscher. Das hybride Format, das an sich schon ein Zeichen für Barrierefreiheit ist, baut auf den letzten Konferenzen in Graz (2023) und Washington, DC (2024) auf und versucht, die Online-Teilnahme zu verbessern. Obwohl ich vor Ort in Lissabon war, finde ich es sehr wichtig, dass unsere Community weiterhin den Möglichkeiten für DHler:innen und Interessierte, die nicht reisen können, Priorität einräumt.

Auch die Multilingualität stand im Mittelpunkt. Präsentationen in anderen Sprachen als Englisch sind auf DH-Konferenzen nichts Neues, aber in Lissabon gab es mehrere Vorträge auf Italienisch, Portugiesisch und Spanisch. Da die ADHO neue Mitglieder wie die Associazione per l’Informatica Umanistica e la Cultura Digitale (AIUCD) aufnimmt, sollten wir den wissenschaftlichen Austausch über Sprach- und Landesgrenzen hinweg weiter fördern. Englisch ist vielleicht die Lingua franca der Wissenschaft, aber als Geisteswissenschaftler:innen sollten wir die damit verbundenen Auswirkungen kritisch hinterfragen.

Aus einer brasilianischen akademischen Perspektive ist diese Diskussion bekannt: Englisch ist oft die gemeinsame Sprache in der Wissenschaft, aber es kann auch eine Barriere darstellen, die Leute von der Teilnahme ausschließt, und zwar selbst wenn es, z.B., auf Portugiesisch fundierte wissenschaftliche Arbeiten gibt. Für uns, bei einem Vortrag über einen portugiesischen Autor im Herzen Portugals durch eine brasilianische Forscherin, haben wir (das Team: Ulrike Henny-Krahmer, Erik Renz und ich) uns dafür entschieden, auf Portugiesisch zu präsentieren. Es war wie eine Heimkehr für Pessoas Ausgabe in seine Heimatstadt.

Ich werde hier nicht versuchen, das Problem zu lösen, aber die Anzahl der mehrsprachigen Vorträge auf der Konferenz unter dem Motto „Accessibility“ hat mich wieder an diese Fragen erinnert. Das ist es meiner Meinung nach, was ein Konferenzmotto bewirken sollte. Gut gemacht, Organisationskomitee!

Die DH-Konferenz in Lissabon war nicht nur mehrsprachig, sondern auch echt international. Die Referenten kamen aus Institutionen von 45 Ländern. Die Karte unten zeigt die Teilnahme nach Ländern, basierend auf dem Konferenzprogramm und den Angaben der Teilnehmer zu ihrer jeweiligen institutionellen Zugehörigkeit. (Die Karte zeigt das Land der Institution der Referenten, nicht ihre Staatsangehörigkeit.)

Die Grafik zeigt eine Weltkarte mit der Anzahl der Präsentationen pro Land, dargestellt durch verschiedene Farbabstufungen von hellviolett bis dunkelviolett. Je dunkler die Farbe, desto mehr Präsentationen fanden in diesem Land statt.

Bei der Eröffnung hat ADHO sein 20-jähriges Jubiläum in Erinnerung gerufen (gegründet 2005) und Italien über AIUCD als neues Mitglied begrüßt. Der Antonio Zampolli Preis 2026 wurde für das Stylo Tool und die Computational Stylistics Group verliehen, deren R-Library für stilometrische Analysen und ihr Engagement für den Aufbau einer Community gewürdigt wurden. Michael Sperberg-McQueen (1954–2024) wurde außerdem in Erinnerung gerufen und der Michael Sperberg-McQueen Digital Nachlass vorgestellt (https://dh.phil-fak.uni-koeln.de/en/research/cmsmcq), eine Initiative des Departments für Digital Humanities der Universität zu Köln zur Bewahrung seines digitalen Nachlasses unter der Leitung von Elisa Cugliana und Øyvind Eide. Das Programmkomitee unter der Leitung von Gimena del rio Riande (IIBICRIT- CONICET/ USAL) und Manuel Portela (Fachbereich für Sprachen, Literatur und Kulturen, UCoimbra) folgte mit einem lustigen Sketch über KI-„Halluzinationen” und die Schwierigkeiten des akademischen Lebens, der die Stimmung auflockerte und uns gleichzeitig auf die Themen des Jahres zurückführte: Mehrsprachigkeit, Politik, Barrierefreiheit und Wissenschaft als citizenship.

Javier Cha steht vor dem Publikum im Konferenzraum und präsentiert Folien mit Schriftzeichen, während ein Dolmetscher daneben steht.

Dann kam die Keynote von Javier Cha. Cha erzählte von seiner Karriere und seiner Sicht auf (digitale) Geschichte, von seinen ersten netzwerkbasierten Rereadings historischer Quellen bis hin zu aktuellen Anwendungen von KI, die uns helfen, Archive besser im Kontext zu lesen. Der Fokus liegt nicht darauf, mit KI das Rad neu zu erfinden, sondern anders zu lesen: mithilfe von Computern Verbindungen, Nuancen und Kontexte zu erkennen, die durch Schlüsselwörter und Häufigkeit nicht erfasst (oder erkennt) werden, während der Historiker:in die Kontrolle behält. Er bezeichnete dies als „fine-tuning the historian’s macroscope”: die Fähigkeit, das Ganze zu überblicken und die richtigen Stellen zu finden, um näher hinzuschauen und genauer zu lesen.

Überblick: Poster, Präsentationen und Panels

Ein Balkendiagramm zeigt die Anzahl der Präsentationen nach Typ. "Short paper" hat mit 218 die meisten Beiträge, gefolgt von "Poster" mit 133 und "Long paper" mit 118. Weitere Kategorien sind "Workshop" (17), "Panel" (10), "Mini conference" (8) und "SIG workshop/event" (7).

Das Programmheft ist noch nicht da, aber während wir warten, können wir uns schon mal das Programm anschauen und, um einen Begriff von Cha zu verwenden, mit unserem Makroskop die Konferenz aus der Ferne betrachten und versuchen, einen Eindruck davon zu bekommen, was unsere DH Community so treibt. Ein Überblick über die Arten der eingereichten Beiträge zeigt uns die Verteilung des diesjährigen Programms (siehe oben). Die Daten für diesen Überblick stammen aus dem Programm auf Conftool (https://dh2025.adho.org/browse-the-program-agenda/), wurden maschinell erfasst und anschließend mit Python bereinigt und analysiert.

Ein Balkendiagramm zeigt die häufigsten n-Grams. "Large language models" und "cultural heritage" sind am häufigsten, gefolgt von "machine learning" und "open source".

Wenn man sich die Abstracts der Vorträge im Programm anschaut (Workshops und Panels nicht mitgerechnet), zeigt das Balkendiagramm die häufigsten N-Grams, also wie oft ein Begriff in den Abstracts vorkommt. Das Thema, das ganz klar dominiert, sind „Large Language Models” (LLMs). Das zeigt, dass der Einsatz von LLMs in den Digital Humanities weiterhin ein Trend ist, der sich durchsetzt. Gleich danach kommt „cultural heritage”, was zeigt, dass GLAM und die Arbeit mit Kulturgütern nach wie vor ein zentraler Anwendungsbereich für DH sind. Methoden sind sehr präsent, vor allem KI („machine learning” und „large language models” stehen ganz oben), während „“computational Methods” und „text analysis” den methodischen Fokus verstärken. Der Fokus auf KI und LLMs ist nicht überraschend und war auch schon in der letzten DH zu sehen. Offenheit zieht sich durch das ganze Programm, wobei „open source”, „open science”, „open data” und „FAIR principles ” häufig auftauchen. Auch Wissensrepräsentation ist ein lebhaftes Thema, wobei „knowledge graphs” und „linked open data” auf Interoperabilität und semantische Anreicherung hinweisen.

Eine zweite Visualisierung zeigt, wie Themen in den Abstracts der Vorträge zusammen auftreten. In dieser Co-Occurrence-Heatmap zählt jede Zelle die Abstracts, die ein Paar der Top N-Grams im selben Text erwähnen (die Diagonale ist ausgegraut, weil Selbstpaare raus sind). Die Matrix ist ziemlich sparsam, was darauf hindeutet, dass sich viele Beiträge auf ein einziges Hauptthema konzentrieren, aber es gibt auch klare Überschneidungen. Begriffe rund um Offenheit wie “open science”, „open source”, „open data” und „FAIR principles” tauchen zusammen auf, oft in Kombination mit „research data“ und oft in Kombination mit „cultural heritage“. Methodische Themen bilden ein weiteres Cluster, insbesondere „large language models“, „machine learning“ und „computational methods“, die gelegentlich gemeinsam mit „text analysis“ erscheinen. „Cultural heritage“ zeigt Verbindungen zu mehreren dieser Bereiche, was darauf hindeutet, dass Kulturgüter häufig durch offene Praktiken, datengetriebene Ansätze und KI-gestützte Methoden in Fallstudien integriert werden.

Ein Heatmap zeigt die Co-Occurrence der häufigsten n-Grams. Dunkle Felder markieren häufige gemeinsame Vorkommen von Begriffen wie "large language models", "cultural heritage" und "open science".

Was ich mitnehme…

Die Teilnahme an der DH ist immer eine Chance, Freunde zu treffen, neue Leute kennenzulernen und viel zu lernen. Als ich Lissabon verlassen habe, hatte ich frische Ideen für LLM-basierte Methoden zum Erfassen und Analysieren von Daten im Gepäck. Wie Cha uns betonte, müssen wir uns nicht zwischen dem Überblick und den Details entscheiden; wir können zwischen beiden hin- und herwechseln und LLMs kritisch einsetzen, während wir selbst entscheiden, wann wir den Fokus auf Nuancen legen wollen. Außerdem wurde mir wieder bewusst, wie wichtig Dokumentation und Wiederverwendbarkeit sind: Unsere beste Arbeit ist für andere nur dann nützlich, wenn sie gut dokumentiert und frei verfügbar ist. Die DH2025 hat meine Neugier geweckt und mein Notizbuch mit Ideen gefüllt. Vielleicht werden wir uns 2026 in Wien zur DHd wieder treffen.

Tchau, Lisboa, até a próxima! Bis dahin hat Lissabon uns allen beigebracht, was Saudade bedeutet.

Ein Flugzeug fliegt über Lissabon bei Sonnenuntergang, die Skyline ist im Schatten sichtbar.

DH2025: Building Access and Accessibility, open science to all citizens – Meine ersten Schritte in die Forschungswelt

2025年8月15日 23:22
Vom 14. bis 18. Juli 2025 fand in Lissabon die Digital Humanities Konferenz unter dem Motto „Building access and accessibility, open science to all citizens“ statt. Gemeinsam mit meiner Kommilitonin und Dozentin durfte ich unser Projekt als „Long Presentation“ vorstellen. Was als Kursprojekt begann, wurde zu meiner ersten internationalen Konferenzteilnahme und einer wichtigen Erfahrung für meine berufliche Zukunft. Besonders dankbar bin ich dem Verband „Digital Humanities im deutschsprachigen Raum e.V.“, der mir über das DHd-Reisestipendium die Teilnahme ermöglicht hat. Ohne diese großzügige Unterstützung wäre es mir nicht möglich gewesen, diese wertvolle Erfahrung zu sammeln.

 

Von der Studienarbeit zur internationalen Konferenz

Ich befinde mich gerade in der finalen Phase meines Masterstudiums und arbeite parallel am Institut für Digital Humanities der Universität zu Köln. Dort bekomme ich viel von den Abläufen hinter den Kulissen mit, besonders wie Promotionen und Forschungsprojekte vonstattengehen. Ursprünglich hatte ich nie vor, zu promovieren. Der Master sollte mein letzter Meilenstein sein, danach wollte ich direkt ins Berufsleben einsteigen. Die Pandemie und einige Umwege verlängerten mein Studium, wodurch ich mich unter Zeitdruck fühlte.

Doch wie so vieles in meinem Studium entwickelte sich auch diese Perspektive ganz natürlich. Dass ich überhaupt im Bereich Digital Humanities studieren würde, hätte ich mir früher nie vorstellen können. Inzwischen bin ich für neue Möglichkeiten offen. Die Konferenzerfahrung hat mein Interesse an einer Promotion geweckt.

Den Grundstein legte ein Kurs namens „Digital Humanities – Theorie und Praxis“, in dem wir als Gruppe ein Virtual-Reality-Projekt in der Spiel-Engine Unreal Engine 5 entwickelten. Mit Unterstützung unserer Dozentin wählten wir das Thema und erstellten eine Anwendung über mittelalterliche Losbücher, speziell das „Prenostica Socratis Basilei” in seinen mittelalterlichen deutschen Versionen. Diese historischen Wahrsagetexte haben ihre Wurzeln in der Spätantike und wurden vor allem vom 14. bis 16. Jahrhundert zur Zukunftsvorhersage verwendet. Typisch war dabei der Einsatz von interaktiven Ritualen wie Würfeln, um durch den nicht linearen Text zu navigieren. Als konkrete Grundlage diente uns das Losbuch Konrad Bollstatters, eine Handschrift aus dem 15. Jahrhundert, die charakteristische Merkmale dieser Textgattung zeigt.

Wir platzierten dieses Losbuch in drei virtuellen Umgebungen: einer Klosterbibliothek, einem Astrologenlabor und einer Taverne. Damit wollten wir die unterschiedlichen Nutzungskontexte der Zeit nachbilden, von spirituellen über wissenschaftliche bis hin zu unterhaltenden Zwecken.

Die von uns entwickelte VR Anwendung ermöglicht es Nutzern, das Losbuch in seinen historischen Zusammenhängen zu erleben. Dabei können sie die typischen multisensorischen Interaktionen nachempfinden, etwa das Blättern in den Pergamentseiten oder das ritualisierte Würfeln, die für die mittelalterliche Nutzung dieser Texte entscheidend waren. Schon während der Entwicklung war klar, dass wir das Projekt weiterführen und einem größeren Publikum zeigen wollten. Wir schrieben ein Paper darüber, das tatsächlich für die DH Conference akzeptiert wurde!

Die Reise nach Lissabon

Da alles sehr schnell ging, konnte nicht das gesamte Team teilnehmen. Als Studierende fehlten uns schlichtweg die finanziellen Mittel, und die Flüge und Unterkünfte waren während der Sommerzeit besonders teuer. Auch zeitliche Konflikte verhinderten, dass wir von Anfang an dabei sein konnten. Unsere Teammitglieder waren in unseren Gedanken dabei. Wir stellten sicher, dass ihre Arbeit gewürdigt wurde. Am Abend des 17. Juli landeten wir in Lissabon. Nach der Ankunft freuten wir uns sehr über das tolle Wetter. Wir nahmen die Bahn zu unserem Airbnb, das glücklicherweise nicht weit vom Flughafen entfernt lag. Unser Host war eine nette portugiesische Familie, die uns Zugang zu den meisten Räumlichkeiten gewährte.

Erste Eindrücke auf der Konferenz

Bei der Ankunft zur Konferenz war ich überwältigt von der Menschenvielfalt aus aller Welt. Nach der Anmeldung erhielten wir unsere Namensschilder mit Affiliationen. Unsere Präsentation war für Donnerstag um 14 Uhr geplant, die Slots dauerten jeweils 1,5 Stunden und begannen um 10 Uhr. Über die Whova-App konnte man sich vernetzen und für interessante Sessions eintragen. Zusätzlich gab es eine komplette Teilnehmer:innenliste und eine Messaging-Funktion für die Vernetzung. Zwei Personen mit DH2025 Konferenz-Namensschildern (Pascale Boisvert und Nadjim Noori, University of Cologne) unter einem Baum

Wir waren sehr aufgeregt, da wir uns noch nicht vollständig vorbereitet fühlten. Neue Ängste kamen auf: Was, wenn niemand oder zu wenige zu unserem Panel kommen? Was, wenn Fragen gestellt werden, die wir nicht beantworten können? Wir hatten uns zwar auf spezifische Fragen vorbereitet, aber unser Projekt würde sicherlich komplexe Fragen aufwerfen.

Ich fühlte mich etwas eingeschüchtert, denn die meisten Teilnehmenden waren Postdocs oder Promovierende. Genau deshalb wollte ich herausfinden, ob ich mir eine Karriere in diesem Bereich vorstellen kann, und suchte aktiv Gespräche in den Pausen.

Die Präsentation

Am Abend zuvor übten wir unsere Passagen und nahmen das VR-Headset für eine mögliche Live-Demo mit. Letztlich zeigten wir jedoch nur ein Video, um das Risiko technischer Probleme oder von Zeitverzögerungen zu vermeiden. Unsere Präsentationszeit war auf 20 Minuten begrenzt.

Während der Präsentation betonte unsere Dozentin, dass wir Masterstudierende seien, die zum ersten Mal in dieser Form präsentieren. Die Präsentation verlief sehr gut. Wir hielten die Zeit ein, stotterten kaum, das Englisch funktionierte, und die Diskussionsrunde war lebendig. Es gab viele Fragen, was uns freute. Kritische Stimmen gab es auch: Jemand hinterfragte unsere Methodik, doch eine andere Person wies die Kritik zurück und bezeichnete unseren Ansatz als intuitiv.

Die Konferenztage

Wir gingen relativ spät schlafen und mussten früh aufstehen. Am ersten Tag ging ich in den Pausen zu unserer Dozentin, die unsere Präsentation unterstützte und die Session moderierte. Unser Institut war schön auf der DH-Konferenz vertreten. Ich sah viele Dozent:innen und Kommiliton:innen, die ebenfalls präsentierten.

Die Mittagspause am Donnerstag war hektisch, doch ich nutzte die kurze Zeit, um etwas von Lissabon zu sehen und zu essen. Nach der Präsentation besuchten wir bis tief in den Abend weitere Sessions.

Der Freitag war viel entspannter, da der Druck weg war. Wir suchten in Ruhe interessante Sessions aus und aßen entspannt zu Mittag. Ich erlebte viele spannende Präsentationen, besonders gefielen mir die mit viel Programmierung.

Die abschließende Keynote

Am Ende des Freitags gab es die Final Keynote, bei der wir unbedingt dabei sein wollten. Roopika Risam vom Dartmouth College hielt einen Vortrag über „Digital Humanities for a World Unmade“. Sie forderte die DH-Community heraus, nicht nur technische Expert:innen, sondern auch politische Akteur:innen zu sein. Besonders hängen geblieben ist mir ihr Aufruf, digitale Forschung als Mittel für soziale Gerechtigkeit zu nutzen und marginalisierte Stimmen sichtbar zu machen.

Fachliche Einblicke und neue Horizonte

Die Sessions, die ich besuchte, zeigten die Vielfalt der Digital Humanities: von Machine-Learning-Ansätzen für Gothic Novels über Netzwerkanalysen antiker griechischer Texte bis hin zu automatisierten Text-Processing-Tools. Besonders beeindruckt hat mich der Session-Slot „Automating Text Processing with LLMs & Data Visualization Tools“. Die Präsentation zu CodeFlow” zeigte mir, wie weit wir bereits in der Automatisierung gekommen sind. Tools wie diese können digitale Geisteswissenschaften zugänglicher machen, indem sie auch weniger technisch versierten Forschenden den Zugang zu komplexen Analysemethoden erleichtern. Konferenzraum mit Teilnehmern während eines Vortrags, Blick von hinten auf das Publikum und die Präsentation vorne

Eine andere Präsentation, die mich besonders fesselte, war „Comparing Human and AI Performance in Visual Storytelling through Creation of Comic Strips“. Der Präsentierende war trotz seiner Online-Teilnahme so unterhaltsam, und die Erkenntnisse reflektierten die Vielseitigkeit und Kreativität der DH-Forschung. In der Präsentation wurde eine Studie vorgestellt, in der Menschen und KI darin verglichen wurden, einen dreiteiligen Nancy-Comic nachzustellen. Menschen mit grundlegender künstlerischer Ausbildung überzeugten durch zusammenhängende visuelle Erzählungen, während die KI trotz beeindruckender künstlerischer Replikation Schwierigkeiten hatte, eine stimmige Geschichte zu erzeugen. Die Ergebnisse zeigen, dass Menschen nach wie vor überlegen sind, Anweisungen in sinnvolle Geschichten umzusetzen.

Überraschende Erkenntnisse und Vernetzung

Was mich am meisten überrascht hat, war die Selbstverständlichkeit, mit der hier Geisteswissenschaftler:innen, Informatiker:innen, Bibliothekar:innen und Künstler:innen zusammenarbeiten. Die Bandbreite reichte von technischen Ansätzen bis zu konzeptuellen Reflexionen über digitale Kultur. Es war faszinierend zu beobachten, wie schnell sich Trends und Technologien im Feld entwickeln. 

Die Vernetzung war ein Höhepunkt der Konferenz. Ich konnte mich mit Forschenden aus Polen, den Niederlanden und den USA austauschen. Eine US-amerikanische Professorin zeigte großes Interesse an unserer Präsentation und wollte Einblicke für ihre Kurse, um ähnliche Projekte mit ihren Studierenden zu realisieren. Solche direkten Angebote für Kollaborationen hätte ich nicht erwartet.

Ein neuer Blick auf die Promotion

Eine meiner Hauptemotionen während der Konferenz war die Angst vor dem Ungewissen, vielleicht auch ein bisschen Imposter-Syndrom. Noch vor einem Jahr hätte ich gesagt, dass ein PhD für mich keine Option ist. Mir fehlte einfach der Anknüpfungspunkt. In meinem Umfeld kannte ich kaum jemanden, der eine Promotion anstrebte.

Die Konferenz ermöglichte mir einen Einblick in die weltweite DH-Forschung. Es gab sogar ein Online-Board mit Job- und PhD-Angeboten, und ich sprach mit vielen Gleichaltrigen über ihre Erfahrungen und ob sie eine Promotion empfehlen würden.

Die positive Resonanz auf unser Projekt gibt mir Mut, tiefer in dieses Forschungsfeld einzutauchen, und ich werde mich demnächst von meiner Dozentin beraten lassen.

Ausblick und Ratschläge

Nach der Masterarbeit stehen die PhD-Pläne im Raum. Vielleicht führt mich das sogar ins Ausland. Für unser VR-Projekt hoffen wir auf Funding. Diese Antwort musste ich während der Diskussionsrunde nach unserer Präsentation häufig geben, wenn gefragt wurde, warum wir bestimmte Aspekte nicht anders umgesetzt haben. Mit zusätzlichen Ressourcen könnten wir das Projekt für noch mehr Menschen zugänglich machen.

Anderen Masterstudierenden, die ihre erste Konferenz besuchen, würde ich raten: Lasst euch von eurer Unsicherheit nicht blockieren. Viele Menschen auf der Konferenz durchlaufen genau dasselbe wie ihr. Und nach der ersten Konferenz werden die nächsten viel leichter. Für zukünftige Präsentationen würde ich mein Zeitmanagement verbessern, um alles noch einmal in Ruhe durchzugehen, auch wenn mir bewusst ist, dass diese Konferenz für mich sehr plötzlich kam.

Fazit

Diese erste Konferenzerfahrung hat nicht nur meinen Blick auf eine mögliche Promotion verändert, sondern mir auch gezeigt, wie lebendig, vielfältig und zukunftsweisend die Digital Humanities sind. Die Begegnungen mit internationalen Forschenden und der Austausch über innovative Projekte haben mich bestärkt, meinen Weg in diesem Feld weiterzugehen.



DH Con – 2025: Building access and accessibility open science to all citizensIn Lisbon, Portugal

2025年8月14日 17:47
Dank der Unterstützung des Verbands der Digital Humanities im deutschsprachigen Raum in Form eines Reisestipendiums konnte ich an der DH Konferenz 2025 in Lissabon, Portugal, teilnehmen.
Passend zu diesem Beitrag entstand auch ein Vlog, der hier auf YouTube verfügbar ist.

Unter dem Motto „Building access and accessibility open science to all citizens” fand vom 14. bis 18. Juli 2025 in Lissabon die Konferenz  für Digital Humanities 2025 statt. Als Masterstudentin im letzten Semester war es für mich eine großartige Gelegenheit, an der Konferenz teilzunehmen und vor allem ein Universitätsprojekt vorstellen zu können. Es war auch eine Gelegenheit, den Forschungsaspekt der Digital Humanities zu erkunden und viel über verschiedene Projekte, Techniken und Pläne in diesem Bereich zu lernen. Bei dieser ersten Erfahrung war ich glücklicherweise nicht alleine, sondern wurde von einem Kollegen begleitet, der ebenfalls an dem zu präsentierenden Projekt mitgearbeitet hatte, sowie von unseren Professoren, die unsere Arbeit betreut haben.

Teilnahme an den Vorträgen

Obwohl die Konferenz bereits am Montag, dem 14. begann, kam ich erst am Mittwochabend an und war nur an den letzten beiden Tagen, Donnerstag und Freitag, anwesend. Dies lag hauptsächlich an den verfügbaren Flügen, Unterkünften, Kosten und der Möglichkeit, mir frei zu nehmen. Das bedeutet jedoch nicht, dass ich Zeit verschwendet habe. Die Workshops waren zu diesem Zeitpunkt bereits vorbei, aber mein Terminkalender war mit der Teilnahme an vielen verschiedenen Vorträgen zu einem breiten Spektrum von Themen, Methoden und Möglichkeiten gefüllt. Im Folgenden werden einige dieser Vorträge hervorgehoben, die meinen verschiedenen Interessengebieten nahe standen und die ich nicht nur aus technischer Sicht, sondern auch aus persönlichem Interesse am interessantesten fand.

Die erste Sitzung umfasste drei Vorträge zu den Themen Machine Learning (ML), Netzwerkanalyse und Diskursanalyse. Der erste Vortrag, gehalten von Mark Andrew Algee-Hewitt und Jessica Monaco, konzentrierte sich auf die Anwendung von Machine Learning, insbesondere eines BERT-Modells, zur Klassifizierung einzelner Passagen aus gotischen Romanen des 19. Jahrhunderts anhand ihrer Verbindungen zu anderen modernen, nicht-gotischen Genres. Der Vortrag lieferte nicht nur wertvolle Einblicke in verschiedene Romane, sondern stellte auch einen innovativen Ansatz zur Verfolgung von Veränderungen der Genremerkmale im Laufe der Zeit vor. Für mich war dies ein sehr interessantes Projekt, da ich Literatur als Teil meiner täglichen Hobbys genieße und es interessant und unterhaltsam fand, sie im Kontext der Digital Humanities präsentiert und untersucht zu sehen, insbesondere in Kombination mit Machine Learning, einem weiteren Interesse von mir, das ich während meines Studiums entwickelt habe. Da ich bisher noch nicht mit BERT-Modellen gearbeitet habe, bot dieser Vortrag gute Einblicke in das Modell, seine Verwendung und sein Potenzial.

In derselben Sitzung stellte Zef Segal seine Arbeit über die Kulturen der Wiederverwendung von Texten vor und verglich dabei amerikanische und hebräische journalistische Netzwerke aus dem 19. Jahrhundert. Die Sitzung wurde von Caoi Mello abgeschlossen, der verschiedene Strategien zur Identifizierung von Nuancen in Zeitungen vorstellt, die bis heute mit computergestützten Methoden nur schwer zu erreichen sind.

Die zweite Sitzung des Tages hatte als Hauptthema die Netzwerkanalyse. Der erste Vortrag von Christophe Malaterre und Francis Lareau befasste sich mit einer Methode zur Ableitung semantischer sozialer Netzwerke aus Textdaten. Dabei werden die Ähnlichkeiten in der Terminologie mithilfe von Topic Modelling analysiert. Dieser Ansatz hilft dabei, „hidden communities of interest” zu identifizieren, um die Entwicklung von Gemeinschaften analysieren zu können.

In derselben Sitzung erfuhr ich auch von den anderen Vorträgen und deren Nutzung von Netzwerken zur Unterstützung ihrer Forschung. Evelien de Graaf nutzt beispielsweise Co-occurrences in altgriechischen und lateinischen Texten, um die Erwähnungen von Platon in der vorchristlichen Literatur zu kartieren. Anschließend stellten Caio Mello seinen und den Ansatz seiner Kollegen Jen Pohlmann und Karin León Henneberg vor, indem sie die Debatte über das NetzDG, das neue deutsche Gesetz gegen Hassreden, untersuchten. Sie verwendeten Netzwerkanalysen, Methoden der Natural Language Processing und Close Reading, um getwitterte Inhalte verschiedener Accounts zu untersuchen, die das Gesetz erwähnten, um den potenziell hohen Einfluss dieser Accounts auf die Gestaltung der Diskussion zu diesem Thema zu untersuchen.

Anschließend stellte Katherine Ireland ihre vorläufige R Shiny Web-App vor, mit der sich die Tweet-Datensätze des National Health Service (NHS), des Center for Disease Control (CDC) und der Weltgesundheitsorganisation (WHO) aus dem Jahr 2020 visualisieren lassen. Die Web-App sieht eine interaktive Visualisierung der Datensätze vor, bietet aber auch die Möglichkeit der Textanalyse mit Tidytext und Quanteda.

Schließlich stellten Paul Girard, Alexis Jacomy, Benoît Simard und Mathieu Jacomy ihre Lite Webversion von Gephi vor: Gephi Lite. Die Hauptfunktionen bieten eine demokratisierte Netzwerkvisualisierung, die über eine Webplattform verfügbar ist.

Präsentation unseres Projekts

In der folgenden Sitzung stellten wir unser Projekt vor. Dies war für uns, zwei Masterstudenten, die von unseren beiden Professoren betreut und unterstützt wurden, eine großartige Gelegenheit, die Forscherseite der Digital Humanities als aktive Teilnehmer zu erleben.

Das Projekt selbst bestand in der Rekonstruktion der Verwendungskontexte der Sortes-Texte, einer beliebten Art interaktiver und divinatorischer Texte, die erstmals in der Spätantike auftauchen und im Mittelalter in Europa weit verbreitet waren. Anhand der Prenostica Socratis Basilei, einer Handschrift von Konrad Bollstatter aus den Jahren 1450 bis 1473, die als Grundlage für die Edition diente, wollten wir das „Äußere” dieser Editionen untersuchen. Das bedeutete, dass wir uns eher auf die Verwendungskontexte als auf den Inhalt des Textes konzentrierten.

Die Besonderheit der Sortes-Texte besteht darin, dass sie nicht linear und in hohem Maße interaktiv sind und performative Handlungen wie Würfeln, Kartenlegen usw. verwenden. Wissenschaftler haben sich bisher auf den Textinhalt konzentriert, aber nur sehr wenig Interesse an der nicht-textuellen Dimension dieser Texte gezeigt. Unser Projekt zielt darauf ab, diese andere wichtige Dimension der Sortes-Texte zu erschließen.

Wir haben daher eine Virtual Reality Anwendung bzw. ein Spiel entwickelt, das den bekannten Verwendungskontext im Mittelalter als wissenschaftliches Werkzeug, als Spiel und als religiöses Objekt rekonstruiert. Mithilfe der Quixel Megascan Bibliothek von Unreal Engine haben wir versucht, die Atmosphäre nachzubilden, in der die Texte möglicherweise verwendet wurden, wobei wir die historische Genauigkeit etwas außer Acht gelassen haben. In dem Projekt ist es möglich, die Verwendung des Buches und die erforderlichen Würfeln zu erleben sowie die verschiedenen Atmosphären zu genießen und zu erleben, wobei einige selbst erstellte 3D-Modelle auf der Grundlage historischer, dokumentierter Objekte verwendet werden.

Diese Präsentation war meine allererste im Rahmen einer Digital Humanities Konferenz, und der Stress war ziemlich hoch. Als ich jedoch zu sprechen begann, verlief im letzten Teil der Präsentation alles reibungslos, obwohl mir einige Sprachfehler unterliefen, die sich jedoch als völlig unproblematisch herausstellten. Die Fragerunde nach unserer Präsentation war für mich wahrscheinlich die größte Herausforderung, da die anwesenden Personen Doktoranden oder renommierte Forscher auf dem Gebiet der Digital Humanities waren. Sie zeigten mir jedoch, dass das Projekt tatsächlich interessant war und einen Beitrag zu den Digital Humanities leisten konnte. Sie bewiesen uns, meinem studentischen Kollegen und mir, dass wir unsere Projekte nicht herabsetzen, sondern stolz darauf sein sollten. Wir konnten die gestellten Fragen beantworten, und es entstand eine gute Diskussion über unsere Präsentation.

Diese erste Präsentationserfahrung war positiv und hat mir die Augen für die Möglichkeit eröffnet, meine Karriere in der Forschung im Bereich der Digital Humanities fortzusetzen. Die Diskussionen, die wir geführt haben, und die Menschen, die wir getroffen haben, haben wirklich zu einer positiven Gesamterfahrung beigetragen, und ich habe durch das Feedback in der Diskussion nach unserem Präsentationsblock viel Selbstvertrauen in mich selbst und die Projekte gewonnen. Diese Präsentationserfahrung war etwas, das ich nicht erwartet hatte, und hat mir geholfen, mehr über eine weitere mögliche Zukunft nach meinem Masterstudium zu erfahren.

Die Diskussionen ermöglichten es uns auch, andere Richtungen für unser Projekt in Betracht zu ziehen, wie beispielsweise die Verwendung von Augmented Reality statt Virtual Reality, die Veröffentlichung des Spiels auf Steam für einen besseren Zugang oder sogar die Hinzufügung weiterer Anwendungskontexte für die Sortes oder die Erweiterung der möglichen Barrierefreiheit. Unsere Entscheidungen wurden ebenfalls respektvoll hinterfragt und diskutiert, was mir ermöglichte, die Entscheidungen hinter dem Projekt näher zu erläutern und mir bewusst zu machen, dass ich trotz meiner geringen Erfahrung der Community etwas Neues und Interessantes vorschlagen konnte.

Nach der Präsentation habe ich keine weitere Sitzung besucht, da wir in viele verschiedene Gespräche mit Leuten verwickelt waren, die unsere Präsentation gesehen hatten und außerhalb der vorgesehenen Zeit weiter über das Projekt, die Techniken und unsere Überlegungen dazu diskutieren wollten. Obwohl ich die letzte Präsentationssitzung des Tages verpasst habe, haben mir diese zusätzlichen Gespräche und das Interesse der anderen Teilnehmer wirklich die Augen für die vielen Möglichkeiten und das Interesse geöffnet, die in den Digital Humanities zu finden sind.

Der letzte Tag der Konferenz

Am letzten Tag der Konferenz nahm ich im Gegensatz zum Donnerstag an allen möglichen Sitzungen teil, darunter auch an einer Panel-Diskussion, die sich in ihrem Format leicht von den anderen Präsentationen unterschied.

Im ersten Block stellten Glenn Roe, Valentina Fedchenko und Dario Nicolosi ihre Methoden vor, bei denen sie mithilfe einer fine-tuned BERT- und CamemBERT-Modelle diachrone semantische Verschiebungen in historischen Teilkorpora identifizierten. Dabei zeigten sich nuancierte Veränderungen in Schlüsselkonzeptclustern, die zur Weiterentwicklung der Methoden in der computergestützten Geistesgeschichte beitrugen.

Anschließend stellten Han-Chun Ko, Pin-Yi Lee, Ya-Chi Chan und Richard Tzong-Han Tsai ihr Framework zur Erklärung historischer Daten mithilfe von Graphen und Large Language Models (LLMs) vor. Dieser Vortrag war für mich besonders interessant, da die Referenten sehr detailliert auf die technischen Aspekte und Methoden eingingen, mit denen sie die LLMs in ihr System integrieren, um ihre Daten zu interpretieren. Es war eine interessante technische Präsentation, bei der ich sehen konnte, was ich bereits wusste und was ich noch lernen konnte.

In der letzten Präsentation stellte Paul Barrett sein aktuelles Forschungsprojekt vor, dessen Ziel es war, mithilfe von Methoden wie Named-Entity Recognition (NER), des Machine Learning (ML) und Optical Character Recognition (OCR) die neu entdeckte indigene Zeitschrift von John Norton, Teyoninhokarawen, zu modellieren und zu analysieren.

In dem folgenden Präsentationsblock stellten verschiedene Entwickler und Forscher ihre Projekte vor, die darauf abzielen, die Arbeit mit rechnergestützten technischen Aspekten in den Digital Humanities zu erleichtern. Von CodeFlow, einem automatisierten Codegenerator, der über LLMs optimiert wurde, zu Pandore, einer automatischen Textverarbeitungs-Workflow-Toolbox, zu FlowFilter, einem Visualisierungs- und Filtertool für große und detaillierte Datensätze, bis hin zu den Diskussionen über OpenScience Literacy in den Digital Humanities, jeder Vortragende stellte nützliche und unglaubliche Tools vor, von denen ich noch nie gehört hatte, die sich aber als sehr interessant herausstellten. Das hat mir die Augen für die Verfügbarkeit und den Bedarf von Forschern in den Digital Humanities geöffnet.

Die nächsten Vorträge waren Teil des Panels „Rethinking the Ethics of „Open“ in the Shadow of AI”, das sich mit der Ethik und den Herausforderungen in der modernen Digital Humanities Forschung befasste, insbesondere angesichts der Tatsache, dass künstliche Intelligenz mittlerweile eine wichtige Rolle im Alltag spielt. Obwohl die Präsentation recht lang war und den Diskussionsprozess, wie er normalerweise in einem Panel stattfindet, behinderte, gelang es mir, Informationen zu diesem Thema aus verschiedenen Perspektiven zu sammeln: data sovereignty, Projektdesign und Datenschutz, Pädagogik und künstlerische Arbeit, alles Themen, die wir auch im Masterstudium kurz angeschnitten hatten und die zeigen, wie wichtig es ist, sich mit diesen Fragen auseinanderzusetzen.

Der letzte Präsentationsblock ermöglichte mir, verschiedene Themen kennenzulernen. Zunächst stellten Andreas Niekler, Vera Piontkowitz, Sarah Schmidt, Janos Borst-Graetz und Manuel Burghardt ihre interdisziplinäre Arbeit vor: „Patterns of Play: A Computational Approach to Understanding Game Mechanics”. Ziel dieser Arbeit ist es, anhand eines großen Datensatzes von Spielen Trends hinsichtlich der Beliebtheit von Spielen, ihrer Entwicklung im Laufe der Zeit und ihrer Beziehung zu den beliebtesten Spielgenres zu identifizieren, um die Methode für computergestützte Game Studies zu demonstrieren, ein Forschungsgebiet, das mich besonders interessiert.

Anschließend stellten Chen Jing und Paul Spence ein Case-Study zwischen China und Großbritannien über die transnationalen Verbindungen und Hindernisse in den Digital Humanities vor, in der wichtige Gemeinsamkeiten und Unterschiede hervorgehoben wurden, um uns zu helfen, die Herausforderungen besser zu verstehen, denen wir noch gegenüberstehen, um einen intensiveren internationalen Austausch zu fördern. Zum Abschluss dieses Blocks präsentierten Patricia Martín-Rodilla und Paloma Piot ihre Arbeit, in der sie Vorurteile in 13 verschiedenen Datensätzen aus der größten Meta-Sammlung von Hassreden analysierten und dabei die Bedeutung einer kritischen Untersuchung der von uns verwendeten Datensätze für die Digital Humanities hervorgehoben, um intrinsische Vorurteile zu vermeiden.

Fazit

Insgesamt habe ich durch den Besuch der verschiedenen Präsentationen gelernt, wie breit und vielfältig das Gebiet der Digital Humanities ist. Ich hatte die Möglichkeit, verschiedene Projekte und Forschungsinteressen zu erkunden und kennenzulernen und viele Menschen zu treffen, die ebenfalls ein Interesse an Wissen haben und für die der Austausch in diesem Bereich wichtig ist. Durch die Teilnahme an einer Panel-Diskussion konnte ich aus erster Hand erfahren, wie wichtig Diskussionen sind und wie viele unterschiedliche Standpunkte und Probleme es in den Digital Humanities noch gibt.

Durch die verschiedenen Präsentationen konnte ich auch die unterschiedlichen Methoden kennenlernen, mehr über sie erfahren und erleben, wie sie in vielen verschiedenen Fragestellungen eingesetzt werden können. Diese Erfahrung war wirklich interessant und ermöglichte es mir, in das Forschungsgebiet der Digital Humanities einzutauchen, Möglichkeiten zu entdecken und sogar eine Zukunft in diesem Bereich in Betracht zu ziehen, in dem ich meinen Platz finden kann, da die Vielfalt die Digital Humanities zu einer breiten und interessanten Disziplin macht.

Eindrücke von der DH2025 – “Accessibility & Citizenship”, 14.-18. Juli, Lissabon, Portugal

2025年8月12日 16:01

Zunächst möchte ich mich beim Verband der Digital Humanities im deutschsprachigen Raum bedanken, durch den mir die Teilnahme bei der diesjährigen ADHO-Konferenz in Form eines Reisestipendiums ermöglicht wurde.

Vor dieser Tagung haben für mich die Digitalen Geisteswissenschaften primär im Seminarraum existiert. Weitere Berührungspunkte fanden medial statt: In Büchern, in Artikeln, im Internet. Wenn ich draußen zum unzähligen Mal einem verwirrten Gesicht erklären muss, was ich da eigentlich studiere, dann fühlt sich die DH-Welt, die für mich so groß ist, immer wieder sehr klein an. In Lissabon zeigte sich: Hunderte Menschen aus aller Welt reisen an und alle wollen über DH reden.

“Accessibility & Citizenship – Building Access and Accessibility, Open Science to all Citizens.”– unter diesem Motto fand vom 14. bis 18. Juli die diesjährige ADHO-Konferenz an der NOVA-FCSH in Lissabon statt. 

Angeboten wurde eine Fülle an Workshops, Panels und Vorträgen zu verschiedensten Themen. Da ich Beiträge nach meinen Interessen ausgewählt habe, bleibt mein hier beschriebener Eindruck sehr subjektiv. Im Allgemeinen lässt sich allerdings sagen, dass sich viele der Beiträge – dem Thema der Tagung folgend – mit ethischen Überlegungen zu Offenheit, Inklusion und ethischer Verantwortung in der Forschung der digitalen Geisteswissenschaft befassten. Auffällig war zudem die starke Präsenz von Themen wie KI, Machine Learning, LLMs –  und der kritische, verantwortungsvolle Umgang mit diesen Technologien.

Was mir gleich zu Beginn sehr positiv auffiel, war die Verwendung der Whova-App zur Planung der Konferenz. Für mich als absoluten Tagungsneuling und damit etwas nervös, weil man nicht genau weiß, was einen erwartet, war sie auf vielen Ebenen eine enorme Hilfe: In erster Linie aus organisatorischer Sicht, denn man hatte einen Überblick über die gesamte Tagungsagenda, aus der man ganz einfach einzelne Beiträge in eine persönliche Agenda überführen konnte. Es gab auch die Möglichkeit, sich über die App mit Organisatoren, Vortragenden oder Teilnehmenden auszutauschen, hinsichtlich der Workshops und Vorträge oder in themenbezogenen Chatgruppen, sei es zu fachlichem Austausch, Stellenangeboten, oder auch einfach zu Essen, Musik oder Haustierfotos!

Pre-Conference-Workshops

Montag und Dienstag fanden jeweils die Pre-Conference-Workshops statt. Es wurde eine Reihe an verschiedenen Workshops angeboten, was die Auswahl nicht einfacher machte, aber ich entschied mich schlussendlich für die folgenden zwei Workshops:
1. “Using LLMs as Chainsaws – Fostering a Tool-Critical Approach for Information Extraction”, abgehalten von Aaron Maladry und Pranaydeep Singh der Universität Gent – und wie der Titel bereits teilweise verrät, ging es hier um die kritische Verwendung von LLMs zur Informationsgewinnung literarischer oder historischer Daten. Ich habe mich für diesen Workshop wegen eines grundsätzlichen Interesses und einer Faszination an LLMs entschieden. Bei ‘Information Extraction’ musste ich an Named Entity Recognition denken, in der Hoffnung hier möglicherweise neue Perspektiven mitzunehmen, vor allem in Bezug auf ein eigenes Projekt im Rahmen eines Projektseminars, auf dem auch meine Masterarbeit aktuell aufbaut, in der ich die Entitäten in Texten ausschließlich manuell extrahiere. 

Im zweiten Workshop “LEAF Commons: Flexible Digital Tools and Responsive Scholarly Workflows”, abgehalten von Diane Katherine Jakacki der Bucknell University, Susan Brown der University of Guelph und Rachel Milio der University of Crete, wurden die LEAF Commons vorgestellt. Dabei handelt es sich um eine Sammlung aus interoperablen Open-Source-Tools zur digitalen Editionsarbeit, etwa von der semantischen Kodierung (basierend auf TEI), über die Umwandlung von Textformaten, bishin zur Publikation interaktiver Online-Editionen.

Spannend war es, einen neuen Zugang zur digitalen Edition kennenzulernen, der keinerlei Kodierungskenntnisse erfordert. Das macht die Tools besonders geeignet für eine Zielgruppe, die Editionsprojekte umsetzen möchte, aber aus anderen Fachgebieten kommt oder sich nicht vertieft mit den Technologien im Hintergrund auseinandersetzen möchte und eine intuitive Oberfläche bevorzugt. Da ich in meinem Studium jedoch viel mit X-Technologien, von TEI bis zur Veröffentlichung, viel zu tun hatte und mich mit dieser Arbeitsweise sehr wohlfühle, wodurch die vorgestellten Tools wohl keine unmittelbare Alternative in meiner Arbeitsweise darstellen. 

Für beide Workshops lässt sich festhalten, dass schrittweise in die behandelten Themen eingeführt wurde und ein Raum geschaffen wurde, in dem Fragen willkommen waren. Und obwohl ich anfangs Sorge hatte, als Studentin eventuell nicht mithalten zu können, war Gegenteiliges der Fall – die drei Stunden vergingen jeweils sehr schnell und am Ende hätte ich mir sogar mehr Zeit gewünscht, da vieles nur an der Oberfläche behandelt werden konnte.

Die Konferenz

Dienstagabend wurde die Tagung offiziell von Javier Cha der University of Hong Kong mit seiner Keynote “Automating the past: Artificial Intelligence and the next frontiers of Digital History” eröffnet. Dabei ging es darum, wie KI-Technologien die Arbeit mit großen, komplexen historischen Datenbeständen verändern und bereichern können, und wie sich dieser Mehrwert mit der Bewahrung der menschlichen interpretativen Komponente in historischer Forschung vereinbaren lässt. 

Darauf folgte eine Inclusive Dance Perfomance, die das Tagungsmotto auch nonverbal und ästhetisch einführte, bis schließlich Mittwoch bis Freitag ganztägig ein dichtes Programm an Präsentationen in thematischen Panels stattfand. Besonders interessant war es, einen Einblick in die Workflows und verwendeten Tools verschiedener Forschungsprojekte zu erhalten. Vieles war neu und ich konnte mir eine Reihe an potenziell nützlichen Tools und Methoden, von OCR- und Transkriptionswerkzeugen zu LLMs, mitnehmen.

Zwei Paperpräsentationen sind mir dabei besonders in Erinnerung geblieben. Mariona Coll Ardanuy des Barcelona Supercomputing Center (BSC) stellte mit “Towards an automatic transcription of Catalan notarial manuscripts from the Late Middle Ages” ein Projekt vor, das sich die automatische Transkription von amtlichen Schreiben wie Urkunden, Abschriften und Seiten aus Notariatsregistern aus dem Spätmittelalter aus Barcelona, zum Ziel nimmt.

Christoph Sander und Jörg Hörnschemeyer vom Deutschen Historischen Institut in Rom stellten das Projekt GRACEFUL17, das aus einer Kombination aus KI, Knowledge Graphs und Visualisierungstools eine digitale Strategie zur Analyse frühneuzeitlicher Daten zur Kirchenverwaltung vor. Da ich mich in meiner Masterarbeit mit frühneuzeitlichen kirchenrechtlichen Akten beschäftige, fand ich die vorgestellte Strategie sehr inspirierend – insbesondere in Bezug darauf, wie derartige Verwaltungsprozesse und Netzwerke dargestellt werden können. Zwar liegt der Schwerpunkt meiner Masterarbeit auf TEI und ihrer Eignung als Modellierungswerkzeug für diese Akten, für eine weiterführende Auseinandersetzung mit diesen oder ähnlichen Daten könnten die vorgestellten Ansätze allerdings sehr wertvoll sein.

Für ein nächstes Mal – oder was ich gerne vorher gewusst hätte: 

  • Die Atmosphäre ist entspannt und es wird Raum für Fragen geschaffen, sowohl vor Ort als auch virtuell.
  • Ein genauer Blick auf das Tagungsprogramm zahlt sich wirklich aus, da in der Fülle des Angebots interessante Beiträge leicht übersehen werden können.
  • Gleichzeitig lohnt sich eine gewisse Offenheit: Einige spannende Eindrücke konnte ich aus Vorträgen mitnehmen, die zunächst gar nicht auf meiner Liste standen.

Rückblick DHd 2025: Von Algorithmen in Haft zu Herr-der-Ringe-Snake-Journeys

2025年7月7日 00:47

Kein Ort könnte passender sein als Bielefeld, eine Stadt, die mit Wettbewerben zur Beweisführung ihrer Nicht-Existenz aufwartet, in der sich ein Wollnashorn-Skelett unter einer Glasscheibe in einer U-Bahnstation befindet und deren Straßen Namen wie Konsequenz, Lauf der Dinge, Durchbruch oder Aufklärung tragen. Bereits zum elften Mal fand die Jahrestagung der Gesellschaft für Digital Humanities im deutschsprachigen Raum statt – dieses Mal unter dem Motto „Under Construction – Geisteswissenschaften und Data Humanities“ in Bielefeld. Und passend zum Thema ist auch Bielefeld seit Jahren „under construction“ und strahlt diese Dynamik aus – selbst in den Mauern bereits fertiger Gebäude. Vom 3. bis 7. März 2025 stellten die Universität und Hochschule Bielefeld diese Gebäude für die Dhd-Tagung zur Verfügung und boten damit einen perfekten Ort für den interdisziplinären Dialog und Austausch der diesjährigen Konferenz. Und ich freue mich, als eine der Dhd-Stipendiat:innen, von meinen Eindrücken der diesjährigen Tagung berichten zu dürfen.

Von Algorithmen in Haft zu Herr-der-Ringe-Snake-Journeys

Der Konferenzdienstag begann an der Interaktion 1, dem HSBI-Hauptgebäude, mit Workshops. Für mich bedeutete das die Teilnahme am Workshop „Fortgeschrittenes Prompt- und AI-Agent-Engineering für wissenschaftliche Textproduktion“, geleitet von der AG Angewandte Generative KI und der AG Digitales Publizieren. Ein Thema, das insbesondere durch die letzten Entwicklungen der LLMs (Large Language Models), wie Time-Compute-Skalierung, Reasoning-Modellen und Multi-Agent-Systemen, für mich und viele andere völlig neue Dimensionen angenommen hatte. Daher traf Christopher Pollin mit seiner Eingangsfrage „… fühlen Sie sich auch (wie ich) ziemlich überfordert?“ genau den Nerv vieler Anwesenden und brach sofort das Eis.

In den folgenden acht Stunden hatten wir die Möglichkeit, als „Experts-in-the-loop“ durch praktisches Prompt Engineering am Beispiel eines fiktiven Forschungsblogs die vorgeschlagenen neuen Arbeitsweisen und Prompts direkt anzuwenden. Dies erfolgte in einem produktiven Wechselspiel aus praktischer Arbeit und reflektiven Momenten, in denen wir auch kritische Metafragen zur ethischen, ökologischen, rechtlichen und sozialen Dimension von Generativer KI nachgingen: Welche Rolle spielt eigentlich die (männliche) Machtposition von Tech-Oligarchen? Wann beginnt Open Source und wo endet es bei Closed Source? Mit welchen vorgefassten Biases in Trainingsdaten haben wir es zu tun? Wie sollten wir kennzeichnen, was wir tun, und können wir hier noch von guter wissenschaftlicher Praxis sprechen?

Die Workshop-Leiter:innen nahmen uns als Peers mit auf eine Reise, bei der wir den gesamten Prompt Engineering Prozess sezieren durften. Dabei kamen viele verschiedene Perspektiven zusammen – von Studierenden und Lehrenden über Kulturinstitutionen bis hin zu Personen, die sich selbst als „Bindestrich-Informatiker:innen“ bezeichneten.

In der praktischen Anwendung eröffneten sich mir neue Perspektiven, sei es bei der Arbeit mit Pseudo-Syntaxen oder bei den feinen linguistischen Unterschieden zwischen „report“, „summarize“ und „explain“. Besonders angenehm war die Offenheit der Workshop-Leiter:innen und der Gruppe gegenüber unterschiedlichen Wissensständen – für mich war es beispielsweise das erste Mal, dass ich etwas über den Einsatz von Agents erfuhr.

Und neben den intensiven technischen Debatten gab es auch immer wieder humorvolle Momente, wie zum Beispiel während einer Diskussion über Urheberrecht, als jemand im Raum den Vorschlag machte, Algorithmen in Haft zu nehmen, oder als als Simulation ein Herr-der-Ringe-Snake-Spiel entworfen wurde. Und nicht zuletzt, jedes Mal, wenn wir mit einem Sprachmodell kommunizierten und dabei zur Theatralik neigten: „This is very important for my career“ oder: „Mein Leben hängt davon ab“, um nur einige Beispiele zu nennen. Ein gelungener Workshop, der meinen Umgang mit LLMs und ihren neuen Möglichkeiten nachhaltig veränderte.

Ein Plädoyer für einen „values-first“-Ansatz und ein Nachdenken über Denkmaschinen, Stochastische Papageien und Ausbeutung(en)

Nachdem ich nun gemeinsam mit meiner Workshop-Gruppe acht Stunden damit zugebracht hatte, neue Möglichkeitsräume in LLMs zu prompten, fand die Eröffnungskeynote von Mark Dingemanse der diesjährigen Konferenz statt, die sich genau an den Themen des Workshops anlehnte und noch weitere Perspektiven eröffnen konnte. Thema seiner Keynote war die Frage „What makes LLMs so irresistible?“. Er begann seine Ausführungen mit einer theoretischen Perspektive und bezog sich auf unterschiedlichste historische und zeitgenössische Ansätze, darunter Victoria Welbys Überlegungen zu „Thinking Machines“ oder Pascal Boyers Konzept der „ostensive detachment“, aber auch auf Adornos Theorie der „Pseudo-individualization“ und Garfinkels „specific vagueness“.

Dingemanse plädierte für eine Critical AI Literacy. Dabei waren jede seiner Ausführungen geprägt von wundervoller wissenschaftskommunikativer Eleganz. Er untermauerte sein Argument durch das konkrete Beispiel ChatGPT, indem er sich sowohl den „Chat“ als auch den „GPT“-Part genauer ansah. Ein Fokus dabei lag für ihn auf dem Verfahren des Reinforcement Learning with Human Feedback (RLHF), das uns enthüllte, wie LLMs oft eine scheinbar freundliche und hilfsbereite Haltung annehmen. Dingemanse thematisierte die Ausbeutung menschlicher Sinnschöpfung und Bedeutungszuschreibung und warnte davor, dass die scheinbare Einfachheit der Nutzung – wie sie von Johanna Drucker beschrieben wird – uns in die Irre führen könne.

Mich faszinierte dabei, mit welcher schieren Leichtigkeit er diese zum Teil hochkomplexen Konzepte herunterbrach und in einen neuen Kontext setzte, aber auch sein Verweis auf den European Open Source AI Index (https://osai-index.eu) fand ich sehr hilfreich. Eine wirklich wichtige Ressource für eine kritische Auseinandersetzung mit LLMs, die meiner Meinung nach wirklich dazu beitragen kann, noch besser einen „values-first“-Ansatz zu verfolgen und das „textbook Open-Washing“ von LLMs wie LLama aufzudecken.

Nach der Eröffnungskeynote folgte der Ausklang des Abends beim Sektempfang. Und zu Ende ging für mich der erste Konferenztag, der mir verdeutlichte, wie zentral die Rolle insbesondere von LLMs in so kurzer Zeit geworden ist, aber auch welche neue Rolle für mich als Early-Career-Scientist damit einhergehen kann und sollte, um zurück zum Beginn des Tages zu kommen, in einem Satz: „This is very important for my career.“

Status Quo und Status Futures: How to Forschungsdatenmanagement?

Am Konferenzmittwoch begannen die Panels, mein Fokus lag heute auf der Beschäftigung mit Forschungsdatenmanagement und somit insbesondere Fragen nach der Entstehung und Erhaltung von DH-Projekten. Patrick Helling eröffnete das Panel mit seinem Vortrag zu „Strategien zur nachhaltigen Bereitstellung lebender Ressourcen“ und stellte Fragen wie: „Wer ist eigentlich für das Aufbewahren von DH-Projekten zuständig?“ Dabei nahm er unterschiedliche Akteur:innen wie Förderinstitutionen, Forschende und Dateninstitutionen in den Blick und formulierte zugleich die Herausforderungen an diese Institutionen im Umgang mit Projekten, die sich der Abschließbarkeit entziehen.

Leider zu oft als abgeschlossen betrachtet und nicht mehr angefasst, nachdem der Förderantrag abgeschickt wurde, werden DMP, also Datenmanagementpläne, die das Thema des zweiten Vortrags darstellten. Anhand einer Evaluation stellten Nils Reiter, Felix Rau und Patrick Helling fest, wie viel Potential von DMP oft unausgeschöpft bleibt und plädierten für eine aktivere Nutzung dieses Tools. Auch im dritten Vortrag stand ein zentrales Tool im Fokus, nämlich GitLab. Jennifer Bunselmeier und Lena-Luise Stahn zeigten auf, wie sie GitLab als Multitool zum Einsatz bringen, ganz egal ob als Forschungsdatenrepositorium, Wissensspeicher oder Tagebuch. Und stellten auch die Frage nach dem Einfluss dieser Tools auf DH-Praktiken. Ein wirklich interessantes Panel, das einen guten Überblick über den Status Quo des Forschungsdatenmanagements in den DH lieferte.

Nach der Pause wurde der Blick zum zukünftigen Arbeiten in den DH gerichtet. Manuel Burghardt stellte in seinem Vortrag Fragen nach der Zukunft der DH und bediente sich dabei auch philosophischer Konzepte wie dem von „Zwei Kulturen“, das Charles Percy Snow formulierte. Ein konkretes Beispiel für einen neuen Ansatz zukünftiger Arbeitsweisen in den DH lieferte dann der nächste Vortrag von Anastasia Glawion, Dominik Kremer, Sabine Lang, Michaela Mahlberg und Andreas Wagner, welche die Applied Digital Humanities und insbesondere das Potenzial von Public Engagement Labs thematisierten.

Der Vortrag „Operationalizing operationalizing“ war der letzte in dieser Gruppe und stellte noch einmal große Fragen, insbesondere, ob wir in den DH einen größeren Fokus auf Erklärung, Messung und Validierung legen sollten.

Nachdem mein Vormittag mit meta-reflektiven Perspektiven auf das Management von DH-Projekten gut gefüllt war, interessierte mich am Nachmittag besonders, welche Themen und Ansätze von Early-Career-Perspektiven in den Fokus gerückt wurden. Im Doctoral Consortium nahm ich an den Vorträgen „Übersetzung und Digitalisierung der jiddischen Zeitschrift ‚Der Wahre Jude'“ von Robin Luger und „Die Wahrnehmung von Privatsphäre und KI-Überwachungstechnologien“ von Vera Yakupova teil.

Algorithmen embodied: UNDER CONSTRUCTION. A Physical Lecture

Ein zentraler Teil der Tagung war auch das Rahmenprogramm, und so hatte ich am Abend ein Ticket für „UNDER CONSTRUCTION. A Physical Lecture“, choreografiert von Felix Landerer und performativ umgesetzt von Gaya Bommer-Yemini. Diese Performance ermöglichte mir eine nicht-sprachdominante Perspektive, die ich zum Anlass nehmen konnte, um über Potenziale, Chancen und Herausforderungen der DH nachzudenken.

Die Performance fand in einem Hörsaal statt, dessen Mobiliar gleichzeitig als Bühnenbild und Requisite diente. Zu Beginn waren an der Tafel nur dünn gezeichnete Zahlen zu sehen, die schemenhaft die Figur eines Menschen erahnen ließen. Als die Tänzerin den Raum betrat, trug sie einen Anzug und eine Aktentasche und bewegte sich in einer Schleife gefangen, immer wieder hin und zurück zum Eingang des Hörsaals. Diese Wiederholungen waren ein zentrales choreografisches Element, das sich von Anfang bis Ende durchzog. Immer wieder wurden Gesten so exakt wie möglich wiederholt, was Fragen nach Menschlichkeit in technologischen Kontexten aufwarf.

Diese Fragen wurden verstärkt, als die technischen Aspekte des Raums inszeniert wurden, etwa als der Schreibtisch oder die Tafel per Knopfdruck hoch und runter gefahren wurden. Dieses Zusammenspiel zwischen verkörperten Algorithmen und der gleichförmig agierenden Technik im Raum zog sich auch auf musikalischer Ebene durch: Parallel dazu war ein Soundscape von Christof Littmann zu hören, in dem sich Stimmen und Sounds genauso mechanisch wiederholten und überlagerten, wie es die Technik im Raum oder die körperlichen Praktiken taten. Der Prozess des Wiederholens und Stoppens wurde immer wieder unterbrochen von Momenten, in denen die Tänzerin bewusst Menschlichkeit ausstellte oder sogar die Nähe zum Tier – etwa, als sie eine Banane schälte und aß, was eine Assoziation zu Affen hervorrief.

Die Performance war eine provokante Auseinandersetzung mit den Fragen, die ich mir zuvor in den Vorträgen gestellt hatte – etwa, wie viel Menschlichkeit im „humans-in-the-loop“-Ansatz steckt und wie wir mit der von Dingemanse beschriebenen Ausbeutung der Menschlichkeit in der Interaktion mit LLMs zukünftig umgehen sollten.

Digital History: Von historischen Texten zu visuellen Analysen

Am vorletzten Tag der Tagung verbrachte ich den ersten Teil des Vormittags mit verschiedenen Ansätzen zur Digital History, wobei der Fokus besonders auf den Herausforderungen und Chancen lag, die historische Texte an uns stellen. Den Auftakt bildeten Michela Vignoli und Doris Gruber mit ihrem Vortrag „Voll automatisiert die Natur in historischen Reiseberichten erkennen? Entzauberung von KI-Werkzeugen und ihr Nutzen für die Geisteswissenschaften“. Sie thematisierten vor allem die Grenzen von KI-Werkzeugen, die in manchen Fällen zu verzerrten Ergebnissen führen können. Statt dies jedoch als Rückschlag zu sehen, betonten sie, dass solche Schwierigkeiten eine Chance darstellen, die Expertise der Forscher:innen in den Umgang mit diesen Technologien zu integrieren, um die Herausforderungen der Digital History besser zu bewältigen.

An diesen Gedanken knüpfte der Vortrag von Yannic Bracke und Anton Ehrmanntraut an, der sich mit der „Historischen Textnormalisierung“ befasste. Sie präsentierten Ansätze zur Normalisierung historischer Texte, um die Schwierigkeiten, die bei der Analyse auftreten, zu überwinden. Der Vortrag von Nina Rastinger und Claudia Resch baute darauf auf, indem er sich der semi-automatischen Identifikation und Analyse von Korrespondenzorten in der „Wiener Zeitung“ widmete. Hierbei wurde untersucht, welche Orte während des Siebenjährigen Krieges am häufigsten in den Korrespondenzen auftauchten.

Nach diesem intensiven ersten Teil des Vormittags, der sich mit der Textanalyse beschäftigte, verlagerte sich der Fokus beim zweiten Teil auf visuelle Quellen, was unter dem Begriff Distant Viewing zusammengefasst wurde. Den Beginn des Panels machte der Vortrag von Wiebke Helm und Janos Borst, die versuchten, durch computergestützte Analyse bestimmte Szenen in den Illustrationen von etwa 11.000 Kinderbüchern zu identifizieren. Dabei wurden rund 230.000 Illustrationen analysiert. Besonders spannend waren auch die Grenzen, denen sie während ihrer Arbeit begegnet sind, etwa wenn die Kategorisierung der Bilder nicht eindeutig war oder je nach Forschungsfrage variieren konnte – beispielsweise wie Bilder von Kindern beim Unterrichten spielen oder beim Unterrichten unterschieden werden sollten.

Im Vortrag „Gustav Klimt: Kunstgeschichte und Visual Analytics im Dialog“ von Teresa Kamencek standen dann Ausstellungsnetzwerke im Fokus. Die Daten wurden in der Datenbank DoME herausgefiltert, um dann in ArtVis (https://artvis.cvast.tuwien.ac.at/) als dynamisches Netzwerk visualisiert werden zu können. Den Abschluss bildete der Vortrag von Sabine Lang und Mathias Zinnen zur Provenienzforschung. Sie erläuterten, wie bildbasierte Suchverfahren auf das Material in historischen Auktionskatalogen eingesetzt werden könnten, um neue Verbindungen zwischen Objekten und Informationen zu entdecken. Anhand von Beispielen verdeutlichten sie, wie der Einsatz von Bildsuchtechnologien zur Rekonstruktion der Geschichte von Kulturgütern beitragen kann.

Besonders die Vorträge am Nachmittag sind mir in Erinnerung geblieben, denn als Theaterwissenschaftsstudentin interessieren mich all jene Momente, in denen all das eingefangen und neu konzeptualisiert werden kann, was nicht rein textlicher und sprachlicher Natur ist. Der Ansatz, der für Szenen in Kinderbüchern vorgestellt wurde oder auch der Ansatz zur Provenienzforschung bieten dabei spannende Zugänge zu den digitalen Spuren, die auch Performances hinterlassen.

Ein Poster, eine Minute und eine Performance!

Apropos Performance! Nach den intensiven Tagen der letzte Woche fand am Donnerstag nach den Panels ein weiteres Highlight der Konferenz statt: der Posterslam. Binnen kürzester Zeit mussten die Slamenden von den Ideen ihres Posters überzeugen, und das Urteil über Qualität und Präsentation lag im Applaus des Publikums, der mithilfe eines professionellen Lautstärkemessgeräts in Daten übertragen wurde. Dabei wurden keine Kosten und Mühen für die Kostümauswahl und Performance gescheut. Von popkulturellen Referenzen zu Model-Ikonen, über Cowboys mit Mundharmonika und Tamburin, zu sportlichen Tauziehen und lautstarken Erklärungen war alles dabei. Eine wundervolle Überleitung zur Poster-Session, in der alle Poster und deren Ersteller:innen noch einmal intensiv befragt werden konnten.

Da der Donnerstag bereits der letzte Abend der Konferenz war, standen an diesem Abend auch noch weitere Höhepunkte an, nämlich die Konferenzparty im Forum Bielefeld, inklusive Konferenz-Dinner, das in von Burger-Foodtrucks serviert wurde. Dabei konnte auch endlich die Frage aufgelöst werden, die wir uns als Social Media Team seit einiger Zeit gestellt hatten: Welche Musik wird auf einer Dhd-Konferenzparty laufen?

Unsicherheiten, Unfertigkeit und Unwissenheit – Under Construction!

Mein Freitag stand unter der Frage, wie wir eigentlich mit den Baustellen umgehen, die uns in unserer Arbeit begegnen, und wie wir die Großbaustelle der Digital Humanities angehen sollten. Ein Dreiklang aus konkreten Projekten, die sich mit Unsicherheiten in ihrer Arbeit befassten, einem Diskussionsforum, das die Frage aufwarf, wie es um DH als Disziplin steht, und der Abschlusskeynote der diesjährigen Tagung, die den Tag mit einem Blick auf den Zustand des Unfertigen abrundete, bot den perfekten Strauß von Antworten auf diese Fragen.

Zusammengefasst unter dem Begriff Modellierung begann mein Tag mit dem Panel „Kontext, Unsicherheit und Geschlecht im Fokus der Modellierung: Datenprinzipien für die feministische Filmgeschichte“ von Pauline Junginger. Die Vortragende gab spannende Einblicke in ihre Arbeit, in der sie unter anderem die Frage untersuchte, wie Unsicherheiten modelliert werden können. Sie präsentierte neue Ansätze, etwa die Anwendung der FAIR-Prinzipien, und beleuchtete deren Bedeutung im Kontext der feministischen Filmgeschichte.

Auch Stefan Heßbrüggen-Walter beschäftigte sich mit Unsicherheiten in seinem Vortrag „Accuracy vs. Consistency: A Case Study Assessing Data Quality in Metadata of Early Modern Dissertations“. Er stand vor konkreten Herausforderungen, wie etwa der Frage, was passiert, wenn Diskrepanzen auftreten und Namen nicht eindeutig als Autor:innen identifiziert werden können, während die Datenbank kaum Raum bietet, um solche Unsicherheiten adäquat abzubilden.

Schließlich präsentierte Philipp Sauer ein Projekt, das in Zusammenarbeit mit dem Tanzarchiv Leipzig unter dem Titel „Work(s) in progress – Datenmodellierung zum Kulturerbe Tanz in der DDR als Prozess“ umgesetzt werden soll. Dabei steht das Projekt vor der Herausforderung, dass die Flüchtigkeit dieser Kunstform und ihre Abhängigkeit von Spuren mit zahlreichen Unsicherheiten in Bezug auf die Erschließung von Daten konfrontiert sind. Und zugleich auch mit dem Problem, dass es bisher nur vergleichsweise wenig DH-Modellprojekte für die Untersuchung performativer Künste gibt.

Nach Einblicken in diese sehr spezifischen Unsicherheiten und Baustellen nahm ich an einem Panel zur Großbaustelle der Digital Humanities teil, mit dem Titel „Gemeinsame Baustellenbegehung – Digital Humanities und Wissenschaftsforschung“. Anstatt eines klassischen Vortrags fand diese Begehung vielmehr als Diskussionsforum statt, moderiert von Lisa Eggert und Sandra König. Das Publikum hatte die Möglichkeit, seine eigenen Perspektiven und Sichtweisen als aktive Teilgeber:innen einzubringen.

In der Diskussion wurden zahlreiche Fragen aufgeworfen, etwa: Was sind die Digital Humanities eigentlich? Eine Disziplin, eine Metadisziplin oder gar eine Bewegung? Brauchen wir eine Geschichtsschreibung der DH? Wenn ja, wie sollte diese aussehen und in welchem Format sollte sie stattfinden? Auch wenn dieses Panel länger dauerte als alle anderen Vorträge, konnte selbst nach 90 Minuten keine eindeutigen Antworten auf diese Fragen gefunden werden, was jedoch auch den Raum für Weiterentwicklung eröffnet. An dieser Stelle möchte ich auf das Projekt „What is Digital Humanities?“ (https://whatisdigitalhumanities.com) hinweisen, das sehr gut die Vielseitigkeit dieser Disziplin widerspiegelt – und für mich persönlich macht gerade das die Faszination der DH aus.

Im Anschluss an das Diskussionsforum folgte die Abschlusskeynote von Mareike König, die perfekt den Bogen zur vorangegangenen Diskussion spannte. Ein Ladebalken, der nie ganz gefüllt war, bildete einen visuellen Anker in ihren Präsentationsfolien. Ihre Präsentation ermutigte dazu, die Nicht-Abgeschlossenheit als produktive Strategie zu begreifen, das Scheitern als Chance zu sehen und „Slow Science“ zuzulassen. Mareike König betonte, dass wir beginnen sollten, die Unfertigkeit als einen fortlaufenden Prozess zu umarmen – und setzte damit den perfekten Schlusspunkt für diese intensive Konferenzwoche.

Ich bin sehr dankbar, dass mir durch die Dhd und NFDI for Culture mit einem Reisestipendium die Teilnahme an der diesjährigen Tagung ermöglicht wurde und hoffe, auch in Zukunft weiterhin an solchen wertvollen Veranstaltungen teilnehmen zu können („This was very important for my career“). Die Konferenz war nicht nur eine ausgezeichnete Gelegenheit, aktuelle Projekte und innovative Ideen aus der digitalen Geisteswissenschaft zu entdecken, sondern auch ein Raum für tiefgehende Reflexionen über die Zukunft der Disziplin. Und ich freue mich sehr auf die nächsten geplanten Tagungen, im Februar 2026 in Wien unter dem Motto „Not only Text, not only Data“ und im März 2027 unter „Mind the gap! – Wissen, Unsicherheit und Verantwortung“ in Marburg.

Von Alica Müller (she/her)

Das war die DHd2025!

2025年6月19日 23:40

In schnellen Schritten geht es auf die DHd2026 in Wien zu. Daher möchten wir uns an dieser Stelle noch einmal herzlich für die Konferenzbegleitungsbeiträge unserer Reisestipendiat:innen der DHd2025 bedanken. Stipendien gab es für Doktorand:innen und (very) early career DHers. Sie wurden vom DHd-Verband sowie von NFDI4Culture und NFDI4Memory vergeben.

Gruppenfoto einiger Mentoring-Teilnehmender (Kohorte 2024/24) auf der DHd2025

Gruppenfoto der DHd2025-Stipendiat:innen an der Universität Bielefeld

Die Stipendiat:innen konnten im Gegenzug die Konferenz entweder auf Social Media begleiten oder haben im Anschluss an die Tagung jeweils einen Blogpost verfasst, der die breite Palette an Themen und Ansätzen auf der DHd dokumentiert. Nachfolgend findet sich eine Übersicht über die verschiedenen Blogposts mit den dazugehörigen Links:

  1. Svenja Guhr, Trends in den Computational Literary Studies bei den DHd-Jahrestagungen, 13. Mai 2025, in: DHd Blog, https://dhd-blog.org/?p=22316

  2. Janis Jaspers, Theologie und Digitalität – Under Construction?! Janis Jaspers im Interview mit Luise Hecht, in: Theo Podcast, https://www.uni-muenster.de/FB2/theopodcast/folgen/2025.html#Jaspers_Dhd2025

  3. Pauline Junginger, Als feministische Medienwissenschaftlerin auf der DHd2025 – Reflexionen von den disziplinären Rändern, 4. Juni 2025, in: DHd Blog, https://dhd-blog.org/?p=22445

  4. Marthe Küster, RaDiHum20 spricht mit den DHd2025-Stipendiatinnen Marthe Küster, Luise Ripoll-Alberola und Tomash Shtohryn*, 20. Mai 2025, in: Radihum-Podcast, https://radihum20.de/radihum20-spricht-mit-den-dhd2025-stipendiatinnen/

  5. Luisa Ripoll-Alberola, Tätig zu sein ist des Menschen erste Bestimmung: DHd2025 as a Digital Humanities Newcomer, in: FDHL Blog, https://fdhl.info/taetig-zu-sein-ist-des-menschen-erste-bestimmung-dhd2025-as-a-digital-humanities-newcomer/

  6. Thea Schaaf, Konferenz-Memorabilia: Rückblick auf die DHd2025, in: DHd Blog, https://dhd-blog.org/?p=22252

  7. Tomash Shtohryn, RaDiHum20 spricht mit den DHd2025-Stipendiatinnen Marthe Küster, Luise Ripoll-Alberola und Tomash Shtohryn*, 20. Mai 2025, in: Radihum-Podcast, https://radihum20.de/radihum20-spricht-mit-den-dhd2025-stipendiatinnen/,

Diese Blogposts in ihrer Themenvielfalt zeigen die Bandbreite der Methoden und Ansätze in den Digital Humanities im deutschsprachigen Raum. Die vielseitigen Beiträge der Stipendiat:innen sind ein wertvoller Beitrag zur Dokumentation Diskurse und Erlebnisse der DHd2025, wofür wir uns ganz herzlich bedanken!

Assegnati i Premi Gigliozzi 2025

2025年6月14日 15:15

Nel corso della cerimonia di chiusura del XIV Convegno annuale AIUCD (Università di Verona, 11-13 giugno 2025) sono stati assegnati i premi Gigliozzi per due presentazioni orali e due poster:

Sezione presentazione orale:

Mariangela Giglio (Università di Bologna), Metodologie computazionali per l’organizzazione di archivi nati digitalmente 

Gianluca Pavani (Università degli Studi di Roma “Tor Vergata”), Human–LLM Synergy in Higher Education Publishing: Two ChatGPT Use Cases within Editorial Pipelines

Sezione poster:

Davide Bordon (Università di Ljubljana), Predicting Grammatical Cases in Slovenian Varieties in Italy: A Use Case from the LORIS 1.1 Language Assistant 

Rita Gramellini (Università di Bologna), Linguistica dei corpora e informatica umanistica per la valorizzazione plurilingue del patrimonio culturale: implementazione del progetto

L'articolo Assegnati i Premi Gigliozzi 2025 proviene da AIUCD.

AIUCD2025

2025年6月13日 15:15

Si è concluso oggi il XIV convegno annuale dell’associazione, che si è tenuto a Verona nel giugno 2025 ed è stato organizzato dalla Digital Arena for Inclusive Humanities (DAIH) dell’Università degli Studi di Verona. Il tema del convegno è stato “Diversità, Equità e Inclusione: Sfide e Opportunità per l’Informatica Umanistica nell’Era dell’Intelligenza Artificiale”.

La comunità di AIUCD ringrazia gli organizzatori e le organizzatrici che hanno permesso la realizzazione di questo incontro.

L'articolo AIUCD2025 proviene da AIUCD.

Pubblicati gli atti di AIUCD 2025

2025年6月10日 18:42

Gli atti di AIUCD 2025 sono disponibili su Umanistica Digitale

A cura di: Rebora, Simone ; Rospocher, Marco ; Bazzaco, Stefano (2025) Diversità, Equità e Inclusione: Sfide e Opportunità per l’Informatica Umanistica nell’Era dell’Intelligenza Artificiale, Proceedings del XIV Convegno Annuale AIUCD2025. Verona: AIUCD, p. 663. ISBN 978-88-942535-9-7. DOI 10.6092/unibo/amsacta/8380. In: Quaderni di Umanistica Digitale

2025 Award for Outstanding Achievement: Dr. Michael Eberle Sinatra, Université de Montréal

2025年6月6日 10:39
We are thrilled to announce that the winner of the CSDH/SCHN Award for Outstanding Achievement is Dr. Michael Eberle Sinatra! Dr. Sinatra is a Professor of Digital Humanities at the Université de Montréal. Trained in Romanticism at Oxford and a Leigh Hunt specialist, he has been involved in digital publishing and the digital humanities for […]

Als feministische Medienwissenschaftlerin auf der DHd2025 – Reflexionen von den disziplinären Rändern

2025年6月4日 15:18

In diesem Beitrag gebe ich Einblick in meine Konferenzerfahrung auf der DHd2025 und lege hierbei den Fokus auf Aspekte, die mit meiner Perspektive als einer Doktorandin verbunden sind, die sich thematisch und disziplinär in einem Feld bewegt, das auf DH-Konferenzen deutlich unterrepräsentiert ist. Dieses Feld zeichnet sich durch eine Verbindung aus medienwissenschaftlichem Hintergrund mit starkem DH-Bezug, feministischem Ansatz, filmhistorischem Forschungsgegenstand und der Anwendung digitaler Methoden aus. Mit dieser im Kern interdisziplinären Verortung ergaben sich auf der DHd2025 zahlreiche Anknüpfungspunkte, gleichzeitig stellte sich jedoch ein gewisses Gefühl der fachlich-thematischen Vereinzelung ein, das ich im Folgenden diskutieren möchte.

Computational Literary Studies und LLMs als Schwerpunkte im Programm

Ein Blick in das Programm der DHd2025 macht deutlich, dass von insgesamt 27 Panels ganze 10 einen vornehmlich literaturwissenschaftlichen Fokus hatten (hierunter habe ich alle Panels gefasst, die unter den Titeln „CLS Methoden“ und „Editionen“ stattfanden oder den literaturwissenschaftlichen Fokus anderweitig im Titel des gesamten Panels oder den einzelnen Vorträgen erkennen ließen, wobei anzumerken ist, dass in den Editionen-Panels auch ein einzelner musikwissenschaftlicher Vortrag stattfand). Darüber hinaus gab es drei Panels im Rahmen des Doctoral Consortiums und jeweils zwei Panels zu „Digital History“, „Distant Viewing“ und allgemein zu „Large Language Models“ (ein drittes LLM-bezogenes Panel habe ich aufgrund der Schwerpunkte der Vorträge der digitalen Literaturwissenschaft zugeordnet). Außerdem gab es jeweils noch einzelne Panels zu „Forschungsdatenmanagement“, „3D-Daten“, „Modellierung“, „Projektarbeit“, „Normdaten“, „Metareflexion“ und „Wissenschaftsforschung“. Beschäftigt man sich genauer mit den Titeln der einzelnen Vorträge in diesen Panels, wird die disziplinäre und thematische Vielfalt der Digital Humanities jenseits literaturwissenschaftlicher Fragestellungen deutlich und es lassen sich Vorträge zu digitaler Kunstgeschichte, automatisierter Videoanalyse, dem Kulturerbe Tanz oder Datenvisualisierungen und -physikalisierungen finden, um hier nur einige wenige Themen herauszugreifen.

Würde ich außerdem noch die Posterbeiträge in meine Analyse einbeziehen, ließe sich sicherlich eine noch größere thematische Diversität feststellen. Da es mir an dieser Stelle jedoch um die Beschreibung von Tendenzen geht und Panels und Vorträge insgesamt einen höheren Stellenwert auf der Konferenz einnehmen, klammere ich die Posterbeiträge aus. Eine weitere Einschränkung meiner Analyse ist, dass ich mich lediglich auf das Programm der DHd2025 beziehe. Für eine umfassende Bewertung der DHd-Konferenzen im Hinblick auf die vertretenen Disziplinen wäre es jedoch notwendig, die Programme aller bisherigen Konferenzen zu berücksichtigen und miteinander zu vergleichen. Nur so ließen sich wirklich allgemeine Tendenzen herausarbeiten.

Diese Überlegungen gehen in Richtung der Frage nach einer Disziplingeschichte der Digital Humanities, wie sie im Rahmen des Panels Gemeinsame Baustellenbegehung – Digital Humanities und Wissenschaftsforschung auf der DHd2025 diskutiert wurde. Darin betonte Christof Schöch, dass sich die Computational Literary Studies, im Unterschied zu anderen Disziplinen, immer als Kern der Digital Humanities verstanden hätten. Entsprechend ist die Dominanz literaturwissenschaftlicher Fragestellungen auf der DHd2025 nicht sonderlich überraschend, auch wenn sie für die vorangehenden DHd-Konferenzen nicht in dieser Form zutreffen muss und diesbezüglich erst eine Analyse der bisherigen Konferenzprogramme konkretere Aussagen erlauben würde.

Medienwissenschaftliche Perspektiven im DH-Kontext

Als digitalaffine Medienwissenschaftlerin (oder medienwissenschaftlich situierte digitale Geisteswissenschaftlerin), die im Rahmen der von Sarah-Mai Dang geleiteten DAVIF-Forschungsgruppe untersucht, wie Metadaten zu Filmpionierinnen so aufbereitet werden können, dass sie langfristig nachnutzbar sind und zu einer höheren Sichtbarkeit der Forschung zu Frauen* im Frühen Kino beitragen, fühle ich mich mit meinem interdisziplinären Ansatz prinzipiell sehr gut verortet in den Digital Humanities. Die von mir besuchten DHd-, und DH-Konferenzen, sowie weitere disziplinrelevante Veranstaltungen lieferten insbesondere im Hinblick auf die digital-methodische Gestaltung meiner Dissertation wichtige Impulse. Gleichzeitig stellte ich fest, dass ich mich im Zuge der Datenmodellierung nicht ohne weiteres auf eine bereits existierende „Geschichte von Versuchen“ (Flanders und Jannidis 2015, 16) des Modellierens beziehen konnte, wie dies sicherlich in den Computational Literary Studies und anderen, eher im Zentrum der DH stehenden, Disziplinen der Fall ist. Stattdessen habe ich zu Beginn meiner Dissertation zunächst überlegt, an welche „Datenmodellierungsgeschichten“ anderer Sub-Disziplinen der DH ich anknüpfen könnte. Erst im Projektverlauf habe ich schließlich Filmografien als ein sinnvolles Objekt der Modellierung identifiziert, da sich hierdurch Anschlussmöglichkeiten an bereits existierende Modellierungsansätze in Filmarchiven und in der digitalen Filmgeschichtsschreibung ergeben.

Feministische Ansätze auf der DHd2025

Auf der DHd2025 erlebte ich viele interessante Gespräche und fand hilfreiche Bezugspunkte, insbesondere was die Modellierung von Unsicherheit, die Umsetzung der FAIR Prinzipien oder die Arbeit mit Wikidata betrifft, im Kern war ich mit einem Thema, das sich auf Forschung innerhalb der feministischen Filmgeschichtsschreibung bezieht, jedoch ein Stück weit eine Außenseiterin. Dieser Eindruck wurde zusätzlich dadurch verstärkt, dass neben meinem eigenen Vortrag, nur noch das Panel Gender (under) construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft einen explizit feministischen Fokus hatte. Dies steht in starkem Gegensatz zu meiner Erfahrung auf der DHd2023, auf der die DHd-AG Empower nicht nur einen Workshop zu Data Feminism in DH angeboten, sondern darüber hinaus noch das Panel Open DH? Mapping Blind Spots durchgeführt hat.

Abschließende Überlegungen

Ich gehe davon aus, dass mein Eindruck angesichts einiger sehr präsenter Disziplinen (Computational Literary Studies und Digital History) und Themen (LLMs) eher eine thematische Außenseiterin auf der DHd2025 gewesen zu sein, kein Alleinstellungsmerkmal ist, sondern auch von anderen geteilt wird. Dafür spricht beispielsweise die Umfrage Is there a Digital Art Historian at the DHd? von Julia Neubauer, deren Titel suggeriert, dass auch Vertreter*innen der Kunstgeschichte das von mir beschriebene Gefühl der Vereinzelung auf DHd-Konferenzen teilen.

Es bleibt zu überlegen, welche Schlüsse aus diesen Beobachtungen gezogen werden können. Mit Blick auf die Annahmequoten der diesjährigen DHd habe ich mich etwa gefragt, welche weiteren vielfältigen disziplinären Verortungen und Bezüge in den abgelehnten Beiträgen zu finden wären. Womöglich (und durchaus wahrscheinlich) würde sich ein diversifiziertes Bild der Community zeichnen lassen, als dies im finalen Programm abgebildet ist. Dieser Kommentar ist dabei keineswegs als Kritik am Programmkomitee der DHd2025 gemeint, das die herausfordernde Aufgabe zu bewältigen hatte, aus einer sehr großen Anzahl an Einreichungen auszuwählen. Stattdessen finde ich es im Sinne einer Disziplingeschichte wichtig, danach zu fragen, wie die eher wenig präsenten Disziplinen in den Digital Humanities stärker sichtbar gemacht werden können. Im Zusammenhang mit den in den letzten Jahren entstandenen Angeboten für Promovierende in den DH1 erscheint es mir außerdem relevant, dass dabei versucht wird, auch die Bedarfe derjenigen abzudecken, die sich im Hinblick auf ihren disziplinären Hintergrund und den thematischen Fokus nicht im Kern der DH bewegen.

Im Sinne der produktiven Unfertigkeit, die Mareike König in ihrer Keynote beschrieben hat, schließe ich hiermit und freue mich auf die DHd2026 in Wien!

1Dazu zählen unter anderem das Mentoringprogramm des DHd-Verbands, das Promotionsnetzwerk des Datenkompetenzzentrums HERMES und das Promovierendennetzwerk Digital History von NFDI4Memory, das zuletzt ein Whitepaper zum digital-historischen Promovieren veröffentlicht hat.

Acknowledgements

Diesen Beitrag habe ich als Teil meiner Konferenzbegleitung für die DHd2025 verfasst, an der ich Dank eines von NFDI4Culture finanzierten Reisekostenstipendiums teilnehmen konnte. Für die Förderung bedanke ich mich sehr herzlich.

Referenzen

Baumann, Noah, Nicole Dresselhaus, Lilia Gaivan, Pia Geißel, Nina Günther, Annika Häberlein, Inga Lange, Holle Meding, Wienke I. Meyer, Alina Ostrowski, Nina C. Rastinger, Jascha Schmitz, Philipp Schneider, Roman Smirnov, Sophie Spliethoff, Elisabeth Tangerner (2025): White Paper „Digital-historisch Promovieren“ (1.0). Zenodo. https://doi.org/10.5281/zenodo.14969027

Eggert, Lisa und Sandra König (2025): „Gemeinsame Baustellenbegehung – Digital Humanities und Wissenschaftsforschung“. Book of Abstracts of DHd 2025, Zenodo. https://doi.org/10.5281/zenodo.14943182

Flanders, Julia und Fotis Jannidis (2015): „Knowledge Organization and Data Modeling in the Humanities“, URL: https://opus.bibliothek.uni-wuerzburg.de/opus4-wuerzburg/ frontdoor/deliver/index/docId/11127/file/flanders_jannidis_datamodeling.pdf (zugegriffen: 07.04.2025)

Gengnagel, Tessa, Sarah Lang, Nora Probst, Anja Gerber, Sarah-Mai Dang, Tinghui Duan, Till Grallert, Jana Keck und Julianne Nyhan (2023): „Open DH? Mapping Blind Spots“. Book of Abstracts of DHd 2025, Zenodo. https://doi.org/10.5281/zenodo.7715329

Junginger, Pauline (2025): „Kontext, Unsicherheit und Geschlecht im Fokus der Modellierung: Datenprinzipien für die feministische Filmgeschichte“. Book of Abstracts of DHd 2025, Zenodo. https://doi.org/10.5281/zenodo.14943222

Mende, Jana-Katharina, Claudia Resch, Mareike Schumacher, Laura Untner, Imelda Rohrbacher, Elena Suarez Cronauer, Andrea Gruber und Frederike Neuber (2025): “Gender (under) Construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft”. Book of Abstracts of DHd 2025, Zenodo. https://doi.org/10.5281/zenodo.14943036

Trends in den Computational Literary Studies bei den DHd-Jahrestagungen

2025年5月13日 22:15

Die Computational Literary Studies (CLS) haben sich im vergangenen Jahrzehnt als ein dynamisches und zunehmend eigenständiges Forschungsfeld innerhalb der Digital Humanities etabliert. Die DHd-Jahrestagungen fungieren dabei nicht nur als Forum für aktuelle Diskussionen, sondern auch als Schaufenster für langfristige Entwicklungen, methodische Innovationen und disziplinäre Herausforderungen.

Etablierung der CLS in den Digital Humanities

Wie Hatzel et al. (2023, 1-2) in ihrem Übersichtsartikel „Machine Learning in Computational Literary Studies“ betonen, verstehen sich die CLS als ein Teilbereich der Digital Humanities, der sich durch die Anwendung computerbasierter Verfahren auf literaturwissenschaftliche Fragestellungen auszeichnet. Einen wichtigen Schub erhielten die CLS durch die Einrichtung des von der DFG geförderten Schwerpunktprogramms „Computational Literary Studies“ (SPP 2207) sowie durch die Gründung des Journal of Computational Literary Studies (JCLS) in der ersten Hälfte der 2020er Jahre.

In der deutschsprachigen DH-Community ist die wachsende Bedeutung der CLS auch an der Entwicklung der Tagungsformate der DHd ablesbar: Während CLS-relevante Beiträge in den frühen Jahrestagungen noch unter allgemeineren Titeln wie „Texte und Strukturen“ (2019) oder „Komplexe Textphänomene“ (2020) verhandelt wurden, tragen die Sessions seit 2023 explizit den Titel „Computational Literary Studies“. 2025 genügten bereits die Kürzel „CLS Analyse“, „CLS Methoden I“ und „CLS Methoden II“ – ein deutliches Signal für die gewachsene disziplinäre Eigenständigkeit und Sichtbarkeit des Feldes.

Angesichts dieser zunehmenden Etablierung stellte sich mir die Frage, welche methodischen Trends und inhaltlichen Entwicklungslinien sich in den Abstracts der DHd-Jahrestagungen von 2014 bis 2025 abzeichnen. Um relevante Beiträge zu identifizieren, habe ich basierend auf der Definition des Schwerpunktprogramms1 und einem Listenabgleich von Keywords, Topics und most distinctive Words (siehe Abb. 1) pro Beitrag CLS-relevante Abstracts automatisch aus den XML-Dateien extrahiert. Das so zusammengestellte Untersuchungskorpus wurde anschließend tabellarisch aufbereitet und mit den Metadaten aus den XMLs und manuellen Ergänzungen angereichert. Der Dataframe bildete sodann die Grundlage für interaktive Visualisierungen, die eine Exploration der CLS-Entwicklungen im Kontext der vergangenen DHd-Jahrestagungen ermöglichen.2

Most distinctive words der Beiträge der DHd-Jahrestagung 2020
Abb. 1: Der Screenshot zeigt die zehn most distinctive words inklusive ihrer berechneten TF-IDF Scores für alle Beiträge der DHd-Jahrestagung 2020. In der interaktiven Visualisierung der Daten mit einem Drop-Down-Menü können die Beiträge nach Jahr, Autor:in oder durch die Auswahl eines spezifischen Abstracts gefiltert werden. Die interaktive Visualisierung zum Ausprobieren finden Sie hier.

Welche CLS-Forschungstrends zeigen sich in den Abstracts der DHd-Jahrestagungen?

Ein zentrales Ergebnis der Analyse ist die methodische Breite der CLS, die von der Anwendung gängiger DH-Verfahren wie Netzwerkanalyse, Topic Modeling und Sentimentanalyse bis hin zu klassischem maschinellem Lernen und dem Einsatz generativer Sprachmodelle reicht. Die differenzierte Behandlung von Subkategorien des maschinellen Lernens stellte sich dabei als besondere Herausforderung heraus. Schließlich wollte ich die Entwicklungen und Höhepunkte traditioneller, feature-basierter Klassifikationsalgorithmen, multi-layered neuronaler Netze im Deep Learning sowie statistisch-kontextbasierter und generativer Sprachmodelle jeweils separat visualisieren. Ein Histogramm der verwendeten Methoden als Keyword-Cluster pro Abstract zeigt, welche Verfahren wann zum ersten Mal behandelt wurden, an Bedeutung gewinnen oder verlieren (siehe Abb. 2).

Liniendiagramm mit dem relativen Anteil der verwendeten Methoden als Keyword-Cluster pro Abstract geclustert pro Konferenzjahr.
Abb. 2: Diese Visualisierung der verwendeten Methoden als Keyword-Cluster pro Abstract zeigt den relativen Anteil (%) der Methodengruppen pro Jahr. Eine interaktive Version dieser Graphik finden Sie hier.

Das dargestellte Liniendiagramm (Abb. 2) zeigt die relative Nennung der 15 häufigsten Methodengruppen in den Abstracts (siehe Code). Die Y-Achse gibt den prozentualen Anteil an, den jede Methodengruppe im jeweiligen Jahr an der Gesamtzahl aller Abstracts hat und ermöglicht eine zeitlich normalisierte Betrachtung, bei der Schwankungen in der Gesamtanzahl der Abstracts pro Jahr berücksichtigt werden. Jeder Linienverlauf repräsentiert eine Methodengruppe und zeigt, wie oft sie im Verhältnis zur Gesamtzahl der Abstracts eines Jahres erwähnt wurde.

Die Abbildung verdeutlicht die konstruktive Weiterentwicklung der CLS: Zunächst müssen Textdaten aufbereitet und in geeigneter Qualität zur Verfügung gestellt werden, bevor sie analysiert und schließlich als Grundlage für das Finetuning von Sprachmodellen verwendet werden können. Nicht überraschend ist also der Peak an Abstracts zur Aufbereitung digitaler Editionen und Textkorpora in der Anfangszeit der DHd-Jahrestagungen sowie ihre andauernde Relevanz. In den Abstracts werden die digitale Bereitstellung von Texten, der Digitalisierungsprozess sowie die Entwicklung von Qualitätsstandards in OCR, XML/TEI und Normdatenanreicherung behandelt. War auch das Preprocessing in den Anfangsjahren noch ein zentraler Diskussionspunkt, wird es in den letzten Jahren bereits nicht mehr explizit in den Abstracts aufgeführt. Dieses Nichtaufführen im Fließtext weist auf die Etablierung von anerkannten Standards in der Datenvorbereitung hin und spricht für die Qualität von Preprocessinglibraries, Pipelines und ihren Ergebnissen.

Während auch Distinktivitäts- und Netzwerkanalysen zu den Verfahren gehören, die seit der ersten Jahrestagung vertreten sind, werden Topic Modeling und Sentimentanalyse erstmals 2015 erwähnt, sind seitdem aber nicht mehr wegzudenken, auch wenn sie seit ihren Höhepunkten (2020 Topic Modeling, 2023 Sentimentanalyse) tendenziell rückläufig sind. Die Blütezeit der CLS hat hingegen gerade erst begonnen: Nach einem ersten Peak 2022 (Zeitpunkt der Abstracteinreichung (Juli 2021) parallel zum Ende des ersten Jahres des DFG-SPP CLS) erzielt das Keyword-Cluster3 einen beeindruckenden Aufschwung mit kontinuierlich steigender Tendenz.
Ein klarer Aufwärtstrend zeigt sich auch bei „deep learning & neural nets“, die ab 2015 deutlich zulegen und sich als zunehmend wichtige Methode etablieren. Gemeinsam mit den differenzierten Keyword-Clustern „general machine learning“ und „generative language models (LLMS)“ bilden sie ein omnipräsentes Methodenrepertoire in den CLS.
Besonders auffällig ist, dass Annotationen über den gesamten Zeitraum hinweg ein zentrales Element bleiben, sei es als Grundlage manueller Analysen oder als Trainings- und Testdaten für maschinelles Lernen.

Und was ging bei der DHd2025?

Auf der Jahrestagung 2025 war die Präsenz der Computational Literary Studies unübersehbar. Ich besuchte die explizit als CLS ausgewiesenen Sessions „CLS Analyse“, „CLS Methoden I“ und „CLS Methoden II“, in denen zentrale Fragen der computergestützten Literaturwissenschaft diskutiert wurden. Darüber hinaus fanden sich CLS-relevante Vorträge auch in angrenzenden Formaten wie der Session „Large Language Models I“ und dem Doctoral Consortium. Besonders bemerkenswert ist auch, dass es dieses Jahr gleich zwei Panels zur digitalen Untersuchung von Literatur gab, was die zunehmende Sichtbarkeit und Relevanz des Feldes nochmals unterstreicht: interdisziplinär unter dem Titel „Gender (under) construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft“ (Mende et al. 2025) und mit stärkerem Fokus auf das Computationale unter dem Titel „Literaturgeschichte ‚under construction‘ – was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur“.

Die Beiträge des Jahres 2025 spiegeln aktuelle Forschungstrends wider, die sich thematisch zwischen methodischer Validierung und dem produktiven Umgang mit Vagheit bewegen. Ein immer wiederkehrendes Thema ist dabei die Frage, wie literaturwissenschaftliche Konzepte so operationalisiert werden können, dass sie mit den Methoden der NLP analysierbar werden. Auch die Diskussion um Referenzkorpora und Qualitätsstandards für Annotationen war präsent: Während viele Projekte auf spezifisch zusammengestellte Korpora zurückgreifen, fehlt es nach wie vor an breit akzeptierten und annotierten Referenzkorpora. Hinsichtlich der Qualität von Annotationen schlug Janina Jacke (2025) einen „Platinstandard“ für kollaborativ erstellte, argumentativ begründete Annotationen mit Entscheidungsbäumen vor.
Ein innovativer methodischer Vorschlag kam von Julia Dudar und Christof Schöch (2025), die synthetische Texte als Kontrollgruppe verwendeten, um Analyseeffekte besser einordnen zu können. In diesem Zusammenhang wurden Stichprobenstrategien und Validierungsverfahren als offene Forschungsfragen thematisiert. Auch das Distinktivitätsmaß Zeta wurde wieder intensiv diskutiert und seine Leistungsfähigkeit erneut unter Beweis gestellt werden. Christof Schöch wies jedoch darauf hin, dass es nicht das eine perfekte Maß gebe, sondern es immer auf die zugrundeliegenden Fragestellungen und Korpora ankomme.

Ein weiteres Thema war die Segmentierung von Erzähltexten, etwa in Szenen oder andere narrative Einheiten – eine Herausforderung an der Schnittstelle von Linguistik und Narratologie, zu der Nora Ketschik (2025) treffend anmerkte, dass Prosatexte eben keine Dramen seien, die in der Regel schon von ihrer Textstruktur her eine sinnvolle Segmentierung mitbringen. Auch die Modellierung von Figuren und Perspektiven rückte stärker in den Fokus: Hier wurde betont, wie wichtig eine präzise Koreferenzauflösung ist, um zwischen handelnden und nur erwähnten Figuren zu unterscheiden, wenn Figurenbeziehungen in Netzwerken visualisiert werden sollen. Auch der Modellierung von Vagheit wurde in diesem Jahr wieder Aufmerksamkeit geschenkt: Julian Schröter (2025) stellte den c@1-Score vor, der es Modellen erlaubt, sich im Falle von Unsicherheiten zu enthalten – ein Verfahren, das er als besonders geeignet für vage literarische Kategorien vorstellte. Neu in der methodischen Diskussion war die Analyse gesprochener Literatur: Haimo Stiemer et al. (2025) untersuchten Pausen, Intonation und Prosodie in Hörbuchprosa mit Hilfe des Tools WhisperX, um Korrelationen zwischen Sprechpausen und narrativen Einschnitten zu identifizieren, die für einen neuen Ansatz der Textsegmentierung genutzt werden können.

Ein über einzelne Vorträge hinausgehendes immer wiederkehrendes Thema ist die Evaluierung (u.a. spezifisch behandelt in Pichler et al. (2025)), da sich mit zunehmender Anwendung generativer Modelle auch deren Fokus verschiebt: Neue Evaluationsmetriken und speziell kuratierte Testdatensätze gewinnen an Bedeutung, da herkömmliche, öffentlich verfügbare Daten aufgrund möglicher Pre-Training-Überschneidungen an Aussagekraft verlieren. Gerade im Hinblick auf generative KI in Annotationsprozessen stellt sich die Frage nach der Validität der Ergebnisse: Wie können wir sicher sein, dass, wenn die Annotation der 50 Beispiele aus unseren Testdaten erfolgreich war, die Annotationen auch darüber hinaus valide und nicht womöglich halluziniert sind?

Nicht zuletzt rückte auch die Rolle der CLS für die Literaturgeschichtsschreibung ins Zentrum der Diskussion (Panel von Herrmann et al. (2025)). Die Analyse größerer literarischer Korpora ermöglicht es, neue literaturgeschichtliche Narrative zu formulieren und kanonübergreifende Entwicklungen sichtbar zu machen. Dabei geht es nicht nur um die Datenmenge, sondern vor allem um die Verknüpfung von Textanalysen mit Kontextinformationen und Metadaten. Als neues Ideal der Literaturgeschichtsschreibung gilt die Einbeziehung der literarischen Kommunikation, so dass nicht nur eine Literaturgeschichte, sondern verschiedene Literaturgeschichten gleichzeitig geschrieben werden, ohne dabei das Einzelphänomen aus dem Blick zu verlieren.

Insgesamt zeigt die DHd2025 eindrucksvoll, wie weit die CLS innerhalb der Digital Humanities gekommen sind: Methodisch vielfältig, institutionell verankert und thematisch anschlussfähig erweisen sie sich als ein zentraler Baustein der digitalen Literaturwissenschaft, der nicht vor den schnelllebigen und sich ständig wandelnden Sprachmodellen zurückschreckt, sondern innovative Wege findet, neue Methoden produktiv in den Werkzeugkasten der CLS zu integrieren.

1 CLS „is dedicated to developi[n]g and establishing innovative computational methods in the field of literary studies. In this emerging rese[]a[r]ch field, literary scholars are working together with computer linguists and computer scientists to discover new perspectives on literary history, narratology and style analysis“ (SPP 2207 CLS, 2020).

2 Der verwendete Code befindet sich im GitHub Repositorium. Die XML-Versionen der DHd-Abstracts sind über die DHd GitHub Repositorien abrufbar. Mein besonderer Dank gilt Patrick Helling für die schnelle Bereitstellung der XML-Versionen der Jahrestagung 2025.

3 „computational literary studies (CLS)“: [„computational literary studies“, „CLS“, „computationelle literaturwissenschaft“, „komputationale literaturwissenschaft“, „literary computing“, „digitale literaturwissenschaft“, „digital literary studies“, „algorithmische literaturwissenschaft“]

Acknowledgements

Mein Dank gilt dem DHd-Verband, der mir durch ein Reisekostenstipendium die Teilnahme an der DHd2025 zum Thema „Under Construction“ in Bielefeld ermöglichte.

Referenzen

DHd-Verband (2025): DHd-Abstracts 2014 bis 2025 [GitHub Repositories], https://github.com/DHd-Verband.

Dudar, Julia and Christof Schöch (2025): “Exploring Measures of Distinctiveness: An Evaluation Using Synthetic Texts”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943110.

Guhr, Svenja (2025): CLS-Trends at DHd [GitHub Repository], https://github.com/SvenjaGuhr/CLS-Trends_at_DHd.

Hatzel, Hans Ole, Haimo Stiemer, Chris Biemann, and Evelyn Gius (2023): “Machine Learning in Computational Literary Studies”, it-Information Technology. DOI: 10.1515/itit-2023-0041.

Herrmann, Berenike, Daniel Kababgi, Marc Lemke, Nils Kellner, Ulrike Henny-Krahmer, Fotis Jannidis, Katrin Dennerlein, and Matthias Buschmeier (2025): „Literaturgeschichte ‚under Construction‘ – Was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943254.

Jacke, Janina (2025): “Platinstandard-Annotation in der digitalen Literaturwissenschaft: Definition, Funktionen und diskursive Argumentvisualisierung als Best-Practice-Beispiel”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943180.

Ketschik, Nora (2025): “Netzwerkanalysen Narrativer Texte – Ein Vorgehensmodell”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.15124132.

Mende, Jana-Katharina, Claudia Resch, Mareike Schumacher, Laura Untner, Imelda Rohrbacher, Elena Suarez Cronauer, Andrea Gruber und Frederike Neuber (2025): “Gender (under) Construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943036.

Pichler, Axel, Dominik Gerstorfer, Jonas Kuhn und Janis Pagel (2025): “Empirische Evaluation des Verhaltens von LLMs auf Basis sprachphilosophischer Theorien: Methode und Pilotannotationen”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943146.

Schröter, Julian (2025): „Zur Modellierung von Unsicherheit: Machine Learning und begriffliche Vagheit Am Beispiel der Novellen im 19. Jahrhundert“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943086.

SPP 2207 CLS (2020): Computational Literary Studies [Website], https://dfg-spp-cls.github.io.

Stiemer, Haimo, Hans Ole Hatzel, Chris Biemann und Evelyn Gius (2025): „Pause im Text. Zur Exploration semantisch konditionierter Sprechpausen in Hörbüchern“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943032.

Recap: DHd-Tagung 2025 in Bielefeld – Auf dem Weg zur digital „entfesselten“ Literaturgeschichte?

2025年4月26日 21:36

In der ersten Märzwoche 2025 wurde in Bielefeld unter dem Motto „Under Construction“ die 11. Tagung des Fachverbandes „Digital Humanities im deutschsprachigen Raum“ (DHd) abgehalten. Am letzten Tagungstag fand ein Panel zum Beitrag der Computational Literary Studies (CLS) zur Literaturgeschichtsschreibung statt, bei der der Autor dieser Zeilen nicht nur als studentisches Mitglied des Organisationsteams, sondern auch aus ureigenem Interesse teilnahm. Denn vom pragmatischen Nutzen für die (schulische) Lehre einmal abgesehen, begegnet uns Literaturgeschichte als die generationenübergreifende Arbeit an einem Werk. Sie erscheint damit sowohl als Produkt, als die Essenz eines kulturellen Bestandes, als auch als Prozess, dessen Genese. Trotz der wissenschaftslogischen Randständigkeit (Daniel Fulda[1]) der Literaturgeschichtsschreibung haben ihre Kontextualisierungen immer Einfluss auf uns, und deshalb war es für mich wie wohl auch für die anderen Besucher[2] des Panels von Interesse zu hören, wie die noch relativ jungen CLS unseren Blick auf Literaturgeschichte verändern mögen.

Unter der Moderation von Nils Kellner (Rostock) diskutierten die Panellisten PD Dr. Katrin Dennerlein (Würzburg), Prof. Dr. Berenike Herrmann (Bielefeld), Prof. Dr. Fotis Jannidis (Würzburg), Marc Lemke (Rostock) und Dr. Jana-Katharina Mende (Halle/Saale) über Nutzen und Nutzbarmachung sowie Reichweite und Grenzen der computergestützten Literaturwissenschaft für die Literaturgeschichte. Als Anwendungsfall diente die (computationelle) Untersuchung literarischer Räume im Zuge des „spatial turns“ innerhalb der Literaturwissenschaft.

Bei seiner Anmoderation stellte Kellner bereits zwei in der Folge gesprächsbestimmende, klassische Problemstellungen der Literaturgeschichtsschreibung heraus: Literaturgeschichte weist erstens einen erheblichen Konstruktionscharakter aus, ist kontextabhängig und einer Auswahl von Autoren und Werken (Stichwort Kanonizität) und damit teilweise auch artifiziellen Grenzziehungen unterworfen. Zweitens soll Literaturgeschichte gleichsam einer Bildungsintention gerecht werden – als common ground für Wissenschaftler wie auch der allgemeinen Schulbildung dienen –, womit Ansprüche an ihre Plausibilität, ihre relative Überschaubarkeit und ihre intersubjektive Verständlichkeit gestellt werden. Darüber hinaus – so schien auf dem Podium in der Folge Konsens zu herrschen – besteht bei der CLS, wie bei jeder anderen Literaturgeschichtsschreibung auch, die wohl größte Herausforderung darin, nach der objektiven Datenerhebung zu entscheiden, in welche historischen Kontexte ein spezifischer Befund eingebunden werden sollte.[3]

Wohl wenig überraschend bestand auf einem Panel auf der DHd-Tagung zunächst Konsens über den großen Vorteil der CLS im Hinblick auf diese Probleme: Große Textmengen, eingeschlossen des „great unread“ (Kellner; Formulierung von Margaret Cohen[4]), können mit vergleichsweise wenig Aufwand durchgesehen und auf Muster untersucht werden. Daraus ergeben sich Möglichkeiten der Rekontextualisierung von Literaturgeschichte. Ästhetisch hochwertige und/oder viel gelesene, aber heute vergessene Autoren könnten wiederbelebt, der Beitrag weiblicher Autoren angemessen beleuchtet werden. Nationalstaatlich motivierte Konstruktionen könnten – im neutralen Wortsinne – revidiert, ebenso erweitert wie aufgelöst werden, und so weiter. Der Reihe nach stellten die Redner mögliche Ansätze vor.

Mit Hilfe der computergestützten Vergrößerung von Daten und deren statistischer Modellierung sei es möglich, die diachrone Vereinfachung der Literaturgeschichtsschreibung durch eine Erweiterung des synchronen Blickfelds zu durchbrechen, kanonische neben nichtkanonischen Werken oder mehrere Editionen desselben Werks gleichzeitig zu betrachten (Dennerlein). In der klassischen Literaturwissenschaft unbeachtete Texteigenschaften könnten jetzt untersucht und Begriffe, bspw. von ‚Raum‘, über die diegetische Ebene erweitert werden (Lemke), u.a. auch um transnationale Literaturgeschichten zu erzählen und selbst die Räume einzuschließen, in denen bzw. von denen aus Autoren ihre Werke geschrieben haben (Mende). Schließlich könnten in der CLS auch ganz neue Fragen an die Literaturgeschichte gestellt werden, um zum Beispiel systematische Perspektiven zu Raum und Affekt diachron zu untersuchen; „der Kreativität sind kaum Grenzen gesetzt“ (Herrmann).

Einen Einwand warf allerdings Prof. Jannidis in die Runde. Mit Rekontextualisierungen und lediglich neuen, anderen Literaturgeschichten blieben die CLS letzten Endes den Gedankenmodellen der klassischen Literaturwissenschaft verhaftet. Die soeben wiedergegebenen Überlegungen dürften nur als „Zwischenschritt“ betrachtet werden; Ziel der CLS müsse eine „prospektive Entfesselung“ sein. Die computergestützten Methoden machten immerhin das vormals Unmögliche möglich, und so sollten wir in voraussehbarer Zeit bspw. fähig sein, für die Literaturgeschichte alle Ereignisse rund um Literatur – jedes vorhandene Manuskript, jede Anstreichung, Verkaufszahlen, etc. – einbeziehen und interpretieren können. Gleichsam weist Jannidis eindringlich auf den hohen Ressourcenaufwand einer solchen Entfesselung hin; in seinen Worten: „Kein Manöver ohne Kosten“.

So anregend und notwendig diese Debatte auch ist, stellen sich insbesondere in Hinblick auf den zweiten Problempunkt, der Bildungsintention von Literaturgeschichte, unmittelbar pragmatische Fragen zum Nutzen der CLS für die Literaturgeschichtsschreibung hier und heute. Denn wie Prof. Herrmann betont und auch ich aus Erfahrung als Tutor bestätigen kann: Die Nachfrage nach grundlegendem Literaturgeschichts- und Kontextwissen ist gerade bei Studenten in der Lehramtsausbildung hoch. Was der Zugang der CLS hier leisten kann – so vielleicht die Kernerkenntnis aus Podiumsgespräch und Fragerunde – ist, die teilweise extreme diachrone Vereinfachung der klassischen Literaturgeschichte zu durchbrechen und das Überblickswissen um neue daten- und evidenzbasierte Ergebnisse zu erweitern.

Wie zum Abschluss gleich zwei Fragen aus dem Auditorium klarmachten, darf in diesem Kontext die „Entfesselung“ der CLS aber nicht zu einer Überforderung führen. Der einhellige Lösungsvorschlag aus dem Podium, um den Zugang auch für das Grundstudium und das außerwissenschaftliche Umfeld zu ermöglichen: Kondensierte, für den Anwendungskontext geeignete Visualisierungen, z.B. in Form narrativierter Daten in sogenannten Data Stories. Literaturwissenschaftler könnten aus der Datenwissenschaft lernen, wie sie das Bedeutende klar und übersichtlich visuell vermitteln können (und dabei an eigene Praktiken anschließen), wobei sie jedoch zweierlei zu bedenken hätten: Dass das Nadelöhr des Einzeltextes aus der Leserperspektive nie verschwinden wird (und zum Zwecke der ästhetischen Erfahrung wohl auch kaum verschwinden soll), und dass sich Wissenschaftler immer über die Pluralität von Perspektiven und die Wirkmächtigkeit vermeintlich repräsentativer Datenvisualisierungen bewusst sein müssen.

 

Zum Autor: Pierre-Michel Weiße studiert Germanistik und Anglistik im Master an der Universität Bielefeld und hat seine Bachelorarbeit über eine computerunterstützte Raumuntersuchung zu Thomas Manns Doktor Faustus geschrieben. Er ist Tutor im Germanistik-Basismodul Literaturgeschichte und wissenschaftliche Hilfskraft am Lehrstuhl von Prof. Dr. Berenike Herrmann.

 

Anmerkungen

[1] Vgl. Fulda, Daniel: Starke und schwache Historisierung im wissenschaftlichen Umgang mit Literatur. Zur Frage, was heute noch möglich ist – mit einer disziplingeschichtlichen Rückblende. In: Matthias Buschmeier, Walter Erhart, Kai Kauffmann (Hgg.): Literaturgeschichte. Theorien – Modelle – Praktiken. De Gruyter 2014, S. 101–121, https://doi.org/10.1515/9783110287295.101, hier S. 104.

[2] In diesem Beitrag wird für Personenbezeichnungen das generische Maskulinum verwendet.

[3] Vgl. Herrmann, Berenike, Daniel Kababgi, Marc Lemke, Nils Kellner, Ulrike Henny-Krahmer, Fotis Jannidis, Katrin Dennerlein und Matthias Buschmeier: Literaturgeschichte „under Construction“ – Was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur. Zenodo 2025, https://doi.org/10.5281/zenodo.14943254, S. 117.

[4] Cohen, Margaret: The Sentimental Education of the Novel. Princeton: Princeton University Press 1999, https://doi.org/10.1515/9780691188249, S. 23.

Konferenz-Memorabilia: Rückblick auf die DHd2025

2025年4月14日 22:43

Dieser Beitrag ist im Rahmen eines Reisekostenstipendiums für die DHd 2025 entstanden. Dank der Finanzierung durch den DHd-Verband konnte ich an der Konferenz teilnehmen. Die Großzügigkeit und Unterstützung der Organisation haben mich sehr beeindruckt, und ich weiß sie sehr zu schätzen. Mein Dank gilt auch den Organisator*innen der Konferenz für ihre engagierte Arbeit vor, während und nach der Veranstaltung. Die ausgezeichneten Panels, durchdachten Formate und vielfältigen Networking-Möglichkeiten der DHd2025 waren für mich als Studentin der Digital Humanities äußerst inspirierend – ich bin sehr dankbar für die Chance, dabei gewesen zu sein!

Zeitpläne auf Papier, Namensschilder, Werbematerialien, Aufkleber – am Ende einer Konferenz hat man oft eine beträchtliche Sammlung solcher Dinge. Obwohl es in den letzten Jahren eine Verlagerung hin zu digitalen Ressourcen gegeben hat, etwa durch Konferenz-Apps und QR-Codes, begegnet man dennoch vielerorts Papier. Auch wenn ein Großteil davon im Müll landet, sobald die Teilnehmenden ihre Taschen leeren, stellen diese Paraphernalien eine zusätzliche Dimension der akademischen Erfahrung dar.

Um meine Eindrücke von der DHd2025 zu reflektieren, habe ich beschlossen, Paraphernalien durch einen kreativen Prozess in Memorabilien zu verwandeln. Im Laufe der Woche sammelte ich Konferenzbroschüren, Flyer, Papierkarten, Aufkleber und andere Gegenstände mit dem Ziel, daraus eine Collage zu gestalten.

Viele der von mir gesammelten Materialien stammten von Organisationen wie HERMES (Humanities Education in Research, Data, and Methods) oder NFDI4Culture. Diese Gruppen hatten eine Vielzahl von Aufklebern, Flugblättern und weiteren Materialien dabei. Die Konferenzorganisator*innen stellten Papierpläne des Veranstaltungsorts bereit, und auf den Tischen in der Kaffeelounge lagen Flyer für die Performance UNDER CONSTRUCTION: A Physical Lecture aus. Ich bewahrte auch die farbigen Papierstreifen für die Mitgliederversammlung des DHd sowie die Essensmarken für das Konferenzdinner auf.

Eine Sammlung von Flugblättern, Aufklebern und anderen Papiermaterialien, die auf einem Tisch angeordnet sind.

Materialien von der Konferenz

Nach der Konferenz habe ich einige dieser Materialien mit Zeichnungen kombiniert, die ich während der Panels angefertigt hatte. Das rote Herz, das ich vor meinem Hotel fand – vielleicht ein Überbleibsel eines Kinderkunstprojekts – fügte ich als letzten Schliff hinzu.

Eine bunte Collage aus Aufklebern, Flugblättern und anderen Papieren.

Die endgültige Collage

Physische Erinnerungsstücke fangen nur eine Dimension der Konferenzerfahrung ein, doch sie können als Anker dienen, um immaterielle Aspekte wie geteilte Ideen in den Panels und geknüpfte Kontakte mit anderen Forschenden in Erinnerung zu rufen. Dank des DHd-Verbands durfte ich auf der DHd2025 prägende Erfahrungen machen, die mein Studium bereichern und meine Zukunft als Wissenschaftlerin in den Digitalen Geisteswissenschaften nachhaltig prägen werden.

Remembering Ian Lancashire

2025年4月12日 05:54
Dear fellow digital humanists, It is with saddness that we report that Ian Lacashire died on April 3rd, 2025. Born in Winnepeg, Manitoba in 1942 he studied at the University of Manitoba and University of Toronto where he was first hired in 1967 and from which he retired a Full Professor. Ian Lancashire was instrumental […]

Digital Archipelagos DHA2025 Call for Papers

作者AS
2025年5月7日 18:00

The Australasian Association for Digital Humanities (aaDH) is pleased to invite proposals for Digital Archipelagos DHA2025 .

DHA 2025 will take place from 3-5 December 2025 held in the Canberra on the lands of the Ngunnawal and Ngambri people at the Australian National University. It will be hosted by the HASS Digital Research Hub and the College of Arts and Social Sciences.

This call for papers closes on Friday 6th June 11.55pm (AoE)

Please submit papers via ConfTool

If you have any questions or other enquires, please contact us via email at: dha2025conference@gmail.com

The DHA2025 theme is Digital Archipelagos. The Australasian region is home to myriad archipelagos with deep significance, from the Kulkalgal Nation islands in the middle of Torres Strait to the Wharekauri (‘Misty Sun’) archipelago in the Pacific Ocean, east of Aotearoa’s South Island. Diverse, sacred, and yet increasingly under threat, these sites offer powerful examples of how land and sea are woven into cultural knowledge systems, social relations, and identities.

Archipelagos also serve our conference as a metaphor to spark dialogue about new directions and approaches in the Digital Humanities. They inspire us to conceptualise the fragmentation, clustering, dispersion, and interconnection of data in the Digital Humanities in discussions that prioritise local experiences and networks to challenge dominant narratives. In an age of algorithmic ubiquity, we aim to examine how seemingly isolated ‘islands’ of knowledge can remain distinct but intricately connected across evolving global contexts.

Like the diverse archipelagos that inspire our theme, we seek to engage the DH community around new topics and pathways, with papers and workshops from the wider arts, humanities, social sciences. We welcome contributions from scholars, librarians, archivists, artists, writers, practitioners, performers, activists, and others engaged with the intersections of Digital Humanities, sustainability, and social justice. We especially encourage submissions that propose novel, interdisciplinary frameworks and methods in DH and cognate fields.

We invite contributors to address the conference theme through the following three themes:

1. AI-Enhanced Humanities Research

  • AI and artistic practice, cultural value, and labour
  • Policy and consent in the automation of cultural data
  • AI and/in humanities pedagogy and education
  • Emerging AI tools and cultures in DH
  • Critiques of computational tools and methodologies
  • Responsible AI as Public Humanities

2. Digital Cultural Stewardship

  • Data connections, silos, fragmentations, bridges, and clusters
  • Digital narratives and situated, embodied storytelling
  • Metadata, data schema, data architectures
  • Collections-as-Data
  • Co-design in the Digital Humanities
  • New approaches in GLAM (e.g. collaboration with researchers)
  • Research Software Engineering (RSE) roles & responsibilities
  • Mapping, geospatial tools, and language networks
  • Collaborative research projects & Critical Infrastructure Studies (CIS)
  • Digital curation and stewardship

3. Data Ethics and Inclusive Practice

  • Decolonial DH, engagement, and inclusiveness principles
  • Climate, cultural heritage, and responsible digital preservation
  • Indigenous/community data protocols
  • Frameworks for cultural care
  • Data justice, digital empowerment, resistance
  • Geography and fieldwork in DH
  • Environmental Digital Humanities
  • Cultural flows, diasporic communities, trans-oceanic exchange

We welcome the following types of submissions

Posters, papers and panels

  • Poster: present work on any relevant topic or summarise projects, tools, methods, artwork, visualisation, or software demonstrations at any stage of development
  • Short papers (10 minutes): present work in progress or new methods, tools or ideas in the early stages of development. Short paper sessions will run for 90 minutes and include 5 short papers
  • Long papers (20 minutes): present completed, substantial research (either published or unpublished) or report on the development of significant projects, digital resources, or detailed theoretical, speculative, or critical discussions. Long paper sessions will run for 90 minutes and include 3 long papers
  • Panel proposals (90 minutes): present a single, focused topic comprising 4-6 speakers OR 3 long papers. Panel proposers should be attentive to panel diversity and scope in their selection of panel topics and presenters.

Workshops & Birds of a Feather

  • Workshop proposals (half day): present introductions to a specific software approach, method, or theoretical framework/approach. (NB. Abstracts for workshops should be 500 words and include a proposed structure/outline of the session)
  • Birds of a Feather (BoF) (60 minutes): an informal discussion devoted to a specific topic, new idea, or conceptual/theoretical theme. Participants have a shared interest in exploring a theme, without any formal agenda

Abstracts are to be submitted via ConfTool by Friday 6th June 11.55pm (AoE)

Notifications of acceptance will be communicated by Friday 11th July

Note: For the allied event on 2-3 December “Re-Defining Open Social Scholarship in an Age of Generative ‘Intelligence’” please see the CFP for the Canadian-Australian Partnership for Open Scholarship (CAPOS). Submissions for the CAPOS event should be submitted separately.

❌