普通视图

Received before yesterday

Die Philosophie von Maß und Morphem – Fantastische Daten und wo sie zu finden sind

2026年3月18日 02:31

Ein Reisebericht der DHd 2026

Mit dem Bachelorzeugnis in der einen und der Zulassung zum Digital Humanities-Studium in der anderen Hand fühlte ich mich zu Beginn der DHd doch ein wenig wie Jacob Kowalski, als er das erste Mal mit der Welt der Zauberer und Hexen in Kontakt kam. Alles wirkte auf eigenartige Weise vertraut und doch – ja, wie sollte man es anders beschreiben – magisch.

Aus der englischen Linguistik kommend, trug ich einige Fragen mit in das erste Semester meines Masterstudiums. Eine davon drängte sich besonders in den Vordergrund: Wo stehen die Digital Humanities in einer Welt, in der doch Natur- und Geisteswissenschaften so klar und fein säuberlich getrennt scheinen? Es mag genau dieser Schein sein, der trügt. Gerade in der Sprachwissenschaft ist diese Linie noch mit Leichtigkeit wegzudenken. Doch wie könnte man überhaupt versuchen, das menschliche Verlangen nach Bedeutung von sich und der Welt, welches über Jahrhunderte in Bild und Schrift festgehalten wurde, mit reduktiven Ansätzen zu quantifizieren? Ein Algorithmus könnte doch unmöglich die irrationalen und subtilen Gefühls- und Denkweisen nachvollziehen, die uns Menschen so vertraut sind. Genau mit diesen Fragen beschäftigt sich der Essay „Meursault as a Data Point“ von Abhinav Pratap. Seine philosophische Sichtweise stimmte mich in den Tagen vor Beginn der DHd-Jahreskonferenz neugierig und offen dafür, als „Neuling“ in diesem Bereich meine eigene Meinung zu formen. Das majestätische Gebäude der Universität Wien begrüßte mich mit der Eleganz der Neurenaissance an jenem Montagmorgen. Passend zu dem Leitmotto der diesjährigen Konferenz dachte ich mir: „In jedem Text findet man Daten; doch gilt dies auch andersherum?“

Die Konferenz wurde in meinem Fall von Mark Hall von der The Open University (UK) mit seinem Workshop Arbeiten mit der μEdition eröffnet. In seiner dazugehörigen DHd-Publikation stellte er sich unter anderem die Frage: „[…] [W]ie viel Edition braucht eine Edition, um eine Edition zu sein?“ (Hall, 2026). Wir durften in dem Workshop ein praxisfähiges Tool mit Community-Zugang ausprobieren. Ich sah dies als eine angenehme Gegenbewegung zur totalen Datenlogik. Die μEdition arbeitet mit Blick auf pragmatische Produktions- und Publikationspfade, unter anderem mit statischen HTML-Ausgaben und niederschwelligen Wegen, um Editionen für Forschende zugänglich zu machen und den „Publikationsflow“ zu vereinfachen (Hall, 2026). Was in seinem Projekt ebenfalls eine große Rolle spielt, ist, dass nicht alles sofort auf maximale Komplexität ausgelegt sein muss. Vielmehr sollen Einstiege erleichtert werden und damit auch das Wachstum der jeweiligen Edition. Nicht nur Text bedeutet hier also Publizieren: Es geht auch darum, Editionen für alle zugänglich zu machen und dabei mit kleinen Ressourcen arbeitsfähig zu bleiben.

Als Sprachwissenschaftlerin stolperte ich in meinem Bachelorstudium nur selten über literaturwissenschaftliche Annotation. Umso erfrischender war für mich der Workshop, an dem ich am zweiten Tag der DHd teilnehmen durfte. Graphbasierte Text- und Wissensmodellierung mit dem ATAG-Editor und Entity-Manager wurde geleitet von Maximilian Michel, Sebastian Enns, Vincent Neeb und Andreas Kuczera von der Akademie der Wissenschaften und der Literatur Mainz sowie der Technischen Hochschule Mittelhessen. Komplementär zur μEdition adressiert ATAG die Frage, wie man Text so speichert bzw. modelliert, dass das Datenmodell dem editorischen Denken näherkommt. In der ersten Theoriephase wurden alle Teilnehmenden in die browserbasierten Tools, den ATAG-Editor und den Entity-Manager, eingeführt. In der Praxisphase wurde jedem von uns ein Text ausgeteilt, mit dem wir unseren eigenen Regest, aufgeteilt in Summary, Archival History und Commentary, erstellen durften. Anschließend wurde uns freigestellt, die Tools zu testen und „wild drauf los“ zu annotieren (je nach Vorliebe). Zum Schluss wurde uns die Verknüpfung unserer Texte, Annotationen und Entitäten in einem Netzwerk auf Basis von Labeled Property Graphs visualisiert. Ich empfand dieses Tool als wunderbare Möglichkeit für webbasierte und vor allem kollaborative Annotation und es hat mir persönlich gezeigt, dass Text nicht bloß einer Kategorie angehört, sondern auch eine Praktik selbst ist.

 

„Dinge sind […] nicht nur einfach wahrzunehmende „Gegenüber“, sondern sie konstruieren die Umwelt des Menschen und bestimmen die Möglichkeit seines Handelns.“ (Peter Hahn, Materielle Kultur, 2014, S. 31)

 

Sind Zeichnungen, Bilder, Gemälde und Abbildungen auch Dinge im Sinne des obigen Zitats? Der Vortragsblock zu Digital Art History zeigte mit sehr interessanten Anwendungspraktiken den „Zustand“ der Digital Humanities in Bezug auf die Analyse von historischen Bilderzählungen und mittelalterlichen Manuskripten bis hin zur Erkennung von Pflanzen in Herbarien und Drucken. In den Vorträgen wurde unter anderem gezeigt, wie schwer es ist, Figuren (z. B. Maria oder den Engel Gabriel in Verkündigungsszenen) zuverlässig über Stile hinweg zu erkennen. Es wurde argumentiert, dass unter anderem Gesichtsdaten für eine erfolgreiche Analyse nicht ausreichen und es an Kontext im Sinne von zugehörigem Körper und Umgebung bedarf, um die Erkennung zu verbessern. Die Kernfrage lautet hier: Was zählt als Signal und was als Rauschen, wenn Kunstwerke zu Datensätzen werden?

Auch die Automatisierung des Klassifikationssystems ICONCLASS wurde behandelt. Dieses wurde seit den 1940er-Jahren für Bildinhalte entwickelt und wird heute in vielen kulturellen Sammlungen zur inhaltlichen Erschließung verwendet (Thomas, n. d.). Da die manuelle Vergabe solcher Klassifizierungscodes aufwändig ist, nutzen neue Automatisierungsansätze multimodale Modelle, Vektorsuche und Retrieval-Augmented Generation (RAG), um Iconclass-Klassifikationen aus Bildbeschreibungen abzuleiten, und berichten teils deutlich bessere Ergebnisse als reine Keyword-Methoden (Thomas, n. d.).

 

Mit diesen Ansätzen werden Bilder zu:

  • Daten (Computer Vision, Feature-Extraktion, Klassifikation)
  • Bedeutung (ikonographische Kategorien)
  • Interpretation (Ambiguität, Kontext, Fehlklassifikation)

 

Der damit erzeugte Modelloutput ist dabei nicht einfach Bedeutung, sondern eine konstruierte Leseart, die sehr produktiv sein kann, jedoch immer wieder neu interpretiert werden muss, um auf blinde Flecken aufmerksam zu werden.

Nach den wunderbaren Vorträgen habe ich am Donnerstag meine ganz persönliche Winkelgasse und damit auch mein Highlight der DHd gefunden: die Postersessions.

Umgeben zu sein von so vielen talentierten, motivierten Forschenden, die die verschiedensten Projekte vorstellen, ließ keinen Nischenwunsch offen. Ich hatte das Glück, drei Personen für ein kleines Interview zu gewinnen.

Anja Gerber von der Klassik Stiftung Weimar adressiert mit NFDI4Objects die Zusammenführung heterogener Daten zu materiellem Kulturerbe und nutzt dafür Anschluss an Modelle wie CIDOC CRM bzw. Crosswalk-Ontologien. Das von ihr vorgestellte Projekt ist ein schönes Beispiel für Daten als semantische Vermittlung zwischen den Communities der Archäologie, Museen, Restaurierung und Forschung.

Der Posterbeitrag von Nina Brolich von der Universität Erfurt beschäftigt sich mit der Frage: Welche Infrastrukturen zwingen uns zu bestimmten Fragestellungen? Und welche öffnen neue Alternativen? Mit ihrem Projekt Edge AI zeigt sie, dass sich Aufgaben in den DH wie Entity Recognition auch lokal und mobil auf Mikrocontrollern mit einfacher Netzwerkarchitektur lösen lassen – im Kontrast zu der Idee, dass alles über immer größere Rechenressourcen laufen müsse.

Schließlich hat mich Erik Radisch von der Sächsischen Akademie der Wissenschaften zu Leipzig in das Projekt eines 3D-Positionssystems für Zeichnungen und Bilder in den Höhlen von Kucha in Zentralasien eingeführt. Hierbei wird versucht, die Wandgemälde, die teils entfernt und in Museen gebracht wurden, zu dokumentieren und ihren ursprünglichen Standort zu rekonstruieren. Dabei adressiert er auch das Modellierungsdilemma, dass schematische Darstellungen Bereiche erzeugen können, die es so im Original nicht gibt, und dass man bei diesen Verzerrungen methodisch mitdenken muss. In jedem Fall war es eine tolle Erfahrung, in den Stand des Projekts mit der bereitgestellten VR-Brille einmal selbst eintauchen zu dürfen.

Ob Kaffeepause, Rathausempfang, Posterslam, Eröffnungsfeier oder Exkursion: Die DHd2026 war von der Einführungs- bis zur Abschlusskeynote eine wahrlich magische Erfahrung. Ein großes und von Herzen kommendes Dankeschön geht hierbei an CLARIAH-AT, die mir mit der Vergabe des Stipendiums einen großen Schritt in meine persönliche Entwicklung als Forscherin in den Digital Humanities und zugleich die Erfahrung einer wunderbaren und inspirierenden Community ermöglicht haben.

Für all die Workshops, Poster Sessions und Vorträge finden Sie, liebe Leserinnen und Leser, alle wissenschaftlichen Essays, Links und Nennungen sowie weiterführende Literatur am Ende dieser Seite. Gerade für diejenigen, die erst seit kurzem den Wind der DH in ihren Segeln spüren, kann ich nur wärmstens empfehlen, sich dieser Literatur zu widmen. Wer weiß, vielleicht erweitert sie auch Ihren Horizont und führt Sie auf ganz neue, unerwartete Gewässer.

Nun, von Harry Potter zur Seemannsweisheit – so richtig entscheiden konnte ich mich in meinen verwendeten Metaphern ja nicht. Und wie sieht es mit meinem anfänglichen Dilemma der DH und der vielen unbeantworteten Fragen aus? Geisteswissenschaften existieren nicht ohne die komplexen Fragen menschlicher Existenz. Informationswissenschaft wiederum arbeitet mit quantifizierbaren Strukturen, die Daten greifbar machen. Die Digital Humanities erscheinen mir deshalb weniger als Kompromiss zwischen beiden Welten, sondern eher als ein Raum der Symbiose; ein Ort, an dem Interpretation und Modellierung nebeneinander existieren können. Und vielleicht ist es genau diese dritte Instanz, die während der DHd am deutlichsten hervortrat: der Forschende selbst, der zwischen Daten und Bedeutung vermittelt und ihnen Bedeutung gibt.

Storymap und Netzwerkvisualisierung

Um diese vielen Eindrücke, Projekte und Methoden nicht nur erzählerisch, sondern auch visuell darzustellen, habe ich im Anschluss an diesen Blogbeitrag eine kleine digitale Dokumentation erstellt. Eine StoryMap führt durch meine persönlichen Stationen der Konferenz, während eine Netzwerkvisualisierung die Verbindungen zwischen den erwähnten Projekten, Methoden und Forschenden veranschaulichen soll. Die Knoten der Netzwerkanalyse repräsentieren Forschende, Projekte, Institutionen und methodische Ansätze, während die Kanten ihre thematischen Verbindungen darstellen. Betrachtet man das Ergebnis, erkennt man, wie stark die Digital Humanities von interdisziplinären Verknüpfungen zwischen Edition, Kulturerbedaten, visueller Analyse und digitalen Modellierungsverfahren geprägt sind.

Beide Visualisierungsformen verstehen sich als Versuch, die verknüpften Wege der DHd auch mit Methoden aus dem eigenen Fachgebiet abzubilden – selbstverständlich völlig experimentell.

Literatur

Hall, M. (2024). Edition & niederschwellige digitale Editionen.

Kuczera, A. (2024). Applied Text as Graph: ATAG – Graphbasierte Text- und Wissensmodellierung.

Mandl, T. (2026). Plants in historical herbarium collections (DHd2026 Beitrag).

Pratap, A. (2025). Meursault as a Data Point. Essay.

Prathmesh M.., et al. (2020). Recognizing characters in art history using deep learning.

Thomas, D. B. (n.d.). Automating Iconclass: LLMs and RAG for large-scale classification of religious woodcuts.

 

Interviews

Brolich, N. (2026, 27. Februar). DH on the Edge [Poster session interview].

Gerber, A. (2026, 27. Februar). Vom Objekt zum Wissensnetz [Poster session interview].

Radisch, E. (2026, 27. Februar). 3D Positioning System for the Paintings in the Caves of Kucha [Poster session interview].

 

Verwendete Materialien

  • DHd2026 Konferenzprogramm
  • Poster Sessions
  • Workshopmaterialien der Vortragenden

Weiterführende Literatur

De Boer, V., et al. (2024). Hybrid Intelligence for Digital Humanities.

Peck, E. (2019). Data is personal: Approaches to making data tangible. Linköping University.

Hullman, J. (2019). Why authors don’t visualize uncertainty. IEEE Transactions on Visualization and Computer Graphics.

Interesse an Datenkompetenzen? Mitstreiter:innen für neue AG gesucht – Treffen auf der DHd2026

2026年2月13日 19:39

Datenkompetenzen für Forschung und Lehre gewinnen in den Geistes- und Kulturwissenschaften zunehmend an Bedeutung. Dennoch gibt es bislang im DHd-Verband keine Arbeitsgruppe, die sich gezielt und infrastrukturunterstützend mit der Vermittlung dieser Kompetenzen befasst. Dies möchten wir gemeinsam ändern und laden darum alle Interessierten ein, aktiv an der Gründung einer solchen Arbeitsgruppe mitzuwirken.


Da das Themenfeld sehr heterogen ist und viele Anforderungen unterschiedlicher Fachgemeinschaften zusammengebracht werden müssen, gestaltet sich dieses Bestreben als Herausforderung. Einerseits gibt es übergreifende Fragestellungen, andererseits erfordern viele Aspekte eine fachspezifische Betrachtung, da die Bedarfe und Lösungswege in den einzelnen Disziplinen und für einzelne Datentypen variieren.

 

Mit OER.net hat sich eine Vernetzungsgruppe der Geistes-, Kultur- und Sozialwissenschaften zusammengefunden, um diese Herausforderungen  gezielt anzugehen. Seit 2024 trifft sich die Gruppe im Rahmen von Workshops und Unterarbeitsgruppen (UAG), um disziplinspezifische und disziplinübergreifende Fragestellungen, Herausforderungen und Ergebnisse zu diskutieren sowie nachhaltige, offene Vermittlungsansätze und didaktische Unterstützungswerkzeuge zu entwickeln. In den UAGs werden in regelmäßigen Treffen unter anderem Themen wie Metadatenstandards, kontrollierte Vokabulare und Qualitätskriterien für OER sowie die Konzeption eines Forschungsdatenmanagement-Basiskurses in Bezug auf die Lernzielmatrix zum Forschungsdatenmanagement (LZM-FDM) adressiert und erarbeitet.

An diesem Austausch nehmen mehrere NFDI-Konsortien, Datenkompetenzzentren und FDM-Initiativen teil, die sich mit den vielfältigen Themen und Herausforderungen auseinandersetzen.

Wir möchten die OER.net-Gruppe in einen institutionellen Rahmen überführen, um die fruchtbare Zusammenarbeit und auch die Ergebnisse über die jeweiligen Projektförderungen hinaus sicherzustellen und gleichzeitig den Kreis der Teilnehmenden zu öffnen. Alle Interessierten aus Forschung, Infrastruktur und Lehre sind herzlich eingeladen, beim ersten Treffen auf der DHd2026 in Wien mitzudiskutieren und an der Gründung mitzuwirken. 

 

Das Treffen findet am Mittwoch, den 25. Februar von 12:30 bis 14:00 im Hörsaal 1 und online statt. Wir freuen uns über rege Teilnahme. Bringt gerne Euer Mittagessen mit!

 

Registrierungslink für online-Teilnehmende: https://uni-trier.zoom-x.de/meeting/register/r92DGZIPTxOeWL6uwfN9Ew 

 

Bei Fragen können Sie sich an Marina Lemaire (marina.lemaire@uni-trier.de) wenden.

VII Encuentro de Humanistas Digitales: una comunidad en expansión

2025年11月2日 00:55
VII Encuentro de Humanistas Digitales: una comunidad en expansión

El VII Encuentro de Humanistas Digitales reunió a una amplia comunidad de especialistas, investigadores, docentes, desarrolladores y estudiantes interesados en explorar las intersecciones entre la tecnología, las humanidades y las ciencias sociales...

Continue reading VII Encuentro de Humanistas Digitales: una comunidad en expansión at Red de Humanidades Digitales.

Trends in den Computational Literary Studies bei den DHd-Jahrestagungen

2025年5月13日 22:15

Die Computational Literary Studies (CLS) haben sich im vergangenen Jahrzehnt als ein dynamisches und zunehmend eigenständiges Forschungsfeld innerhalb der Digital Humanities etabliert. Die DHd-Jahrestagungen fungieren dabei nicht nur als Forum für aktuelle Diskussionen, sondern auch als Schaufenster für langfristige Entwicklungen, methodische Innovationen und disziplinäre Herausforderungen.

Etablierung der CLS in den Digital Humanities

Wie Hatzel et al. (2023, 1-2) in ihrem Übersichtsartikel „Machine Learning in Computational Literary Studies“ betonen, verstehen sich die CLS als ein Teilbereich der Digital Humanities, der sich durch die Anwendung computerbasierter Verfahren auf literaturwissenschaftliche Fragestellungen auszeichnet. Einen wichtigen Schub erhielten die CLS durch die Einrichtung des von der DFG geförderten Schwerpunktprogramms „Computational Literary Studies“ (SPP 2207) sowie durch die Gründung des Journal of Computational Literary Studies (JCLS) in der ersten Hälfte der 2020er Jahre.

In der deutschsprachigen DH-Community ist die wachsende Bedeutung der CLS auch an der Entwicklung der Tagungsformate der DHd ablesbar: Während CLS-relevante Beiträge in den frühen Jahrestagungen noch unter allgemeineren Titeln wie „Texte und Strukturen“ (2019) oder „Komplexe Textphänomene“ (2020) verhandelt wurden, tragen die Sessions seit 2023 explizit den Titel „Computational Literary Studies“. 2025 genügten bereits die Kürzel „CLS Analyse“, „CLS Methoden I“ und „CLS Methoden II“ – ein deutliches Signal für die gewachsene disziplinäre Eigenständigkeit und Sichtbarkeit des Feldes.

Angesichts dieser zunehmenden Etablierung stellte sich mir die Frage, welche methodischen Trends und inhaltlichen Entwicklungslinien sich in den Abstracts der DHd-Jahrestagungen von 2014 bis 2025 abzeichnen. Um relevante Beiträge zu identifizieren, habe ich basierend auf der Definition des Schwerpunktprogramms1 und einem Listenabgleich von Keywords, Topics und most distinctive Words (siehe Abb. 1) pro Beitrag CLS-relevante Abstracts automatisch aus den XML-Dateien extrahiert. Das so zusammengestellte Untersuchungskorpus wurde anschließend tabellarisch aufbereitet und mit den Metadaten aus den XMLs und manuellen Ergänzungen angereichert. Der Dataframe bildete sodann die Grundlage für interaktive Visualisierungen, die eine Exploration der CLS-Entwicklungen im Kontext der vergangenen DHd-Jahrestagungen ermöglichen.2

Most distinctive words der Beiträge der DHd-Jahrestagung 2020
Abb. 1: Der Screenshot zeigt die zehn most distinctive words inklusive ihrer berechneten TF-IDF Scores für alle Beiträge der DHd-Jahrestagung 2020. In der interaktiven Visualisierung der Daten mit einem Drop-Down-Menü können die Beiträge nach Jahr, Autor:in oder durch die Auswahl eines spezifischen Abstracts gefiltert werden. Die interaktive Visualisierung zum Ausprobieren finden Sie hier.

Welche CLS-Forschungstrends zeigen sich in den Abstracts der DHd-Jahrestagungen?

Ein zentrales Ergebnis der Analyse ist die methodische Breite der CLS, die von der Anwendung gängiger DH-Verfahren wie Netzwerkanalyse, Topic Modeling und Sentimentanalyse bis hin zu klassischem maschinellem Lernen und dem Einsatz generativer Sprachmodelle reicht. Die differenzierte Behandlung von Subkategorien des maschinellen Lernens stellte sich dabei als besondere Herausforderung heraus. Schließlich wollte ich die Entwicklungen und Höhepunkte traditioneller, feature-basierter Klassifikationsalgorithmen, multi-layered neuronaler Netze im Deep Learning sowie statistisch-kontextbasierter und generativer Sprachmodelle jeweils separat visualisieren. Ein Histogramm der verwendeten Methoden als Keyword-Cluster pro Abstract zeigt, welche Verfahren wann zum ersten Mal behandelt wurden, an Bedeutung gewinnen oder verlieren (siehe Abb. 2).

Liniendiagramm mit dem relativen Anteil der verwendeten Methoden als Keyword-Cluster pro Abstract geclustert pro Konferenzjahr.
Abb. 2: Diese Visualisierung der verwendeten Methoden als Keyword-Cluster pro Abstract zeigt den relativen Anteil (%) der Methodengruppen pro Jahr. Eine interaktive Version dieser Graphik finden Sie hier.

Das dargestellte Liniendiagramm (Abb. 2) zeigt die relative Nennung der 15 häufigsten Methodengruppen in den Abstracts (siehe Code). Die Y-Achse gibt den prozentualen Anteil an, den jede Methodengruppe im jeweiligen Jahr an der Gesamtzahl aller Abstracts hat und ermöglicht eine zeitlich normalisierte Betrachtung, bei der Schwankungen in der Gesamtanzahl der Abstracts pro Jahr berücksichtigt werden. Jeder Linienverlauf repräsentiert eine Methodengruppe und zeigt, wie oft sie im Verhältnis zur Gesamtzahl der Abstracts eines Jahres erwähnt wurde.

Die Abbildung verdeutlicht die konstruktive Weiterentwicklung der CLS: Zunächst müssen Textdaten aufbereitet und in geeigneter Qualität zur Verfügung gestellt werden, bevor sie analysiert und schließlich als Grundlage für das Finetuning von Sprachmodellen verwendet werden können. Nicht überraschend ist also der Peak an Abstracts zur Aufbereitung digitaler Editionen und Textkorpora in der Anfangszeit der DHd-Jahrestagungen sowie ihre andauernde Relevanz. In den Abstracts werden die digitale Bereitstellung von Texten, der Digitalisierungsprozess sowie die Entwicklung von Qualitätsstandards in OCR, XML/TEI und Normdatenanreicherung behandelt. War auch das Preprocessing in den Anfangsjahren noch ein zentraler Diskussionspunkt, wird es in den letzten Jahren bereits nicht mehr explizit in den Abstracts aufgeführt. Dieses Nichtaufführen im Fließtext weist auf die Etablierung von anerkannten Standards in der Datenvorbereitung hin und spricht für die Qualität von Preprocessinglibraries, Pipelines und ihren Ergebnissen.

Während auch Distinktivitäts- und Netzwerkanalysen zu den Verfahren gehören, die seit der ersten Jahrestagung vertreten sind, werden Topic Modeling und Sentimentanalyse erstmals 2015 erwähnt, sind seitdem aber nicht mehr wegzudenken, auch wenn sie seit ihren Höhepunkten (2020 Topic Modeling, 2023 Sentimentanalyse) tendenziell rückläufig sind. Die Blütezeit der CLS hat hingegen gerade erst begonnen: Nach einem ersten Peak 2022 (Zeitpunkt der Abstracteinreichung (Juli 2021) parallel zum Ende des ersten Jahres des DFG-SPP CLS) erzielt das Keyword-Cluster3 einen beeindruckenden Aufschwung mit kontinuierlich steigender Tendenz.
Ein klarer Aufwärtstrend zeigt sich auch bei „deep learning & neural nets“, die ab 2015 deutlich zulegen und sich als zunehmend wichtige Methode etablieren. Gemeinsam mit den differenzierten Keyword-Clustern „general machine learning“ und „generative language models (LLMS)“ bilden sie ein omnipräsentes Methodenrepertoire in den CLS.
Besonders auffällig ist, dass Annotationen über den gesamten Zeitraum hinweg ein zentrales Element bleiben, sei es als Grundlage manueller Analysen oder als Trainings- und Testdaten für maschinelles Lernen.

Und was ging bei der DHd2025?

Auf der Jahrestagung 2025 war die Präsenz der Computational Literary Studies unübersehbar. Ich besuchte die explizit als CLS ausgewiesenen Sessions „CLS Analyse“, „CLS Methoden I“ und „CLS Methoden II“, in denen zentrale Fragen der computergestützten Literaturwissenschaft diskutiert wurden. Darüber hinaus fanden sich CLS-relevante Vorträge auch in angrenzenden Formaten wie der Session „Large Language Models I“ und dem Doctoral Consortium. Besonders bemerkenswert ist auch, dass es dieses Jahr gleich zwei Panels zur digitalen Untersuchung von Literatur gab, was die zunehmende Sichtbarkeit und Relevanz des Feldes nochmals unterstreicht: interdisziplinär unter dem Titel „Gender (under) construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft“ (Mende et al. 2025) und mit stärkerem Fokus auf das Computationale unter dem Titel „Literaturgeschichte ‚under construction‘ – was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur“.

Die Beiträge des Jahres 2025 spiegeln aktuelle Forschungstrends wider, die sich thematisch zwischen methodischer Validierung und dem produktiven Umgang mit Vagheit bewegen. Ein immer wiederkehrendes Thema ist dabei die Frage, wie literaturwissenschaftliche Konzepte so operationalisiert werden können, dass sie mit den Methoden der NLP analysierbar werden. Auch die Diskussion um Referenzkorpora und Qualitätsstandards für Annotationen war präsent: Während viele Projekte auf spezifisch zusammengestellte Korpora zurückgreifen, fehlt es nach wie vor an breit akzeptierten und annotierten Referenzkorpora. Hinsichtlich der Qualität von Annotationen schlug Janina Jacke (2025) einen „Platinstandard“ für kollaborativ erstellte, argumentativ begründete Annotationen mit Entscheidungsbäumen vor.
Ein innovativer methodischer Vorschlag kam von Julia Dudar und Christof Schöch (2025), die synthetische Texte als Kontrollgruppe verwendeten, um Analyseeffekte besser einordnen zu können. In diesem Zusammenhang wurden Stichprobenstrategien und Validierungsverfahren als offene Forschungsfragen thematisiert. Auch das Distinktivitätsmaß Zeta wurde wieder intensiv diskutiert und seine Leistungsfähigkeit erneut unter Beweis gestellt werden. Christof Schöch wies jedoch darauf hin, dass es nicht das eine perfekte Maß gebe, sondern es immer auf die zugrundeliegenden Fragestellungen und Korpora ankomme.

Ein weiteres Thema war die Segmentierung von Erzähltexten, etwa in Szenen oder andere narrative Einheiten – eine Herausforderung an der Schnittstelle von Linguistik und Narratologie, zu der Nora Ketschik (2025) treffend anmerkte, dass Prosatexte eben keine Dramen seien, die in der Regel schon von ihrer Textstruktur her eine sinnvolle Segmentierung mitbringen. Auch die Modellierung von Figuren und Perspektiven rückte stärker in den Fokus: Hier wurde betont, wie wichtig eine präzise Koreferenzauflösung ist, um zwischen handelnden und nur erwähnten Figuren zu unterscheiden, wenn Figurenbeziehungen in Netzwerken visualisiert werden sollen. Auch der Modellierung von Vagheit wurde in diesem Jahr wieder Aufmerksamkeit geschenkt: Julian Schröter (2025) stellte den c@1-Score vor, der es Modellen erlaubt, sich im Falle von Unsicherheiten zu enthalten – ein Verfahren, das er als besonders geeignet für vage literarische Kategorien vorstellte. Neu in der methodischen Diskussion war die Analyse gesprochener Literatur: Haimo Stiemer et al. (2025) untersuchten Pausen, Intonation und Prosodie in Hörbuchprosa mit Hilfe des Tools WhisperX, um Korrelationen zwischen Sprechpausen und narrativen Einschnitten zu identifizieren, die für einen neuen Ansatz der Textsegmentierung genutzt werden können.

Ein über einzelne Vorträge hinausgehendes immer wiederkehrendes Thema ist die Evaluierung (u.a. spezifisch behandelt in Pichler et al. (2025)), da sich mit zunehmender Anwendung generativer Modelle auch deren Fokus verschiebt: Neue Evaluationsmetriken und speziell kuratierte Testdatensätze gewinnen an Bedeutung, da herkömmliche, öffentlich verfügbare Daten aufgrund möglicher Pre-Training-Überschneidungen an Aussagekraft verlieren. Gerade im Hinblick auf generative KI in Annotationsprozessen stellt sich die Frage nach der Validität der Ergebnisse: Wie können wir sicher sein, dass, wenn die Annotation der 50 Beispiele aus unseren Testdaten erfolgreich war, die Annotationen auch darüber hinaus valide und nicht womöglich halluziniert sind?

Nicht zuletzt rückte auch die Rolle der CLS für die Literaturgeschichtsschreibung ins Zentrum der Diskussion (Panel von Herrmann et al. (2025)). Die Analyse größerer literarischer Korpora ermöglicht es, neue literaturgeschichtliche Narrative zu formulieren und kanonübergreifende Entwicklungen sichtbar zu machen. Dabei geht es nicht nur um die Datenmenge, sondern vor allem um die Verknüpfung von Textanalysen mit Kontextinformationen und Metadaten. Als neues Ideal der Literaturgeschichtsschreibung gilt die Einbeziehung der literarischen Kommunikation, so dass nicht nur eine Literaturgeschichte, sondern verschiedene Literaturgeschichten gleichzeitig geschrieben werden, ohne dabei das Einzelphänomen aus dem Blick zu verlieren.

Insgesamt zeigt die DHd2025 eindrucksvoll, wie weit die CLS innerhalb der Digital Humanities gekommen sind: Methodisch vielfältig, institutionell verankert und thematisch anschlussfähig erweisen sie sich als ein zentraler Baustein der digitalen Literaturwissenschaft, der nicht vor den schnelllebigen und sich ständig wandelnden Sprachmodellen zurückschreckt, sondern innovative Wege findet, neue Methoden produktiv in den Werkzeugkasten der CLS zu integrieren.

1 CLS „is dedicated to developi[n]g and establishing innovative computational methods in the field of literary studies. In this emerging rese[]a[r]ch field, literary scholars are working together with computer linguists and computer scientists to discover new perspectives on literary history, narratology and style analysis“ (SPP 2207 CLS, 2020).

2 Der verwendete Code befindet sich im GitHub Repositorium. Die XML-Versionen der DHd-Abstracts sind über die DHd GitHub Repositorien abrufbar. Mein besonderer Dank gilt Patrick Helling für die schnelle Bereitstellung der XML-Versionen der Jahrestagung 2025.

3 „computational literary studies (CLS)“: [„computational literary studies“, „CLS“, „computationelle literaturwissenschaft“, „komputationale literaturwissenschaft“, „literary computing“, „digitale literaturwissenschaft“, „digital literary studies“, „algorithmische literaturwissenschaft“]

Acknowledgements

Mein Dank gilt dem DHd-Verband, der mir durch ein Reisekostenstipendium die Teilnahme an der DHd2025 zum Thema „Under Construction“ in Bielefeld ermöglichte.

Referenzen

DHd-Verband (2025): DHd-Abstracts 2014 bis 2025 [GitHub Repositories], https://github.com/DHd-Verband.

Dudar, Julia and Christof Schöch (2025): “Exploring Measures of Distinctiveness: An Evaluation Using Synthetic Texts”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943110.

Guhr, Svenja (2025): CLS-Trends at DHd [GitHub Repository], https://github.com/SvenjaGuhr/CLS-Trends_at_DHd.

Hatzel, Hans Ole, Haimo Stiemer, Chris Biemann, and Evelyn Gius (2023): “Machine Learning in Computational Literary Studies”, it-Information Technology. DOI: 10.1515/itit-2023-0041.

Herrmann, Berenike, Daniel Kababgi, Marc Lemke, Nils Kellner, Ulrike Henny-Krahmer, Fotis Jannidis, Katrin Dennerlein, and Matthias Buschmeier (2025): „Literaturgeschichte ‚under Construction‘ – Was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943254.

Jacke, Janina (2025): “Platinstandard-Annotation in der digitalen Literaturwissenschaft: Definition, Funktionen und diskursive Argumentvisualisierung als Best-Practice-Beispiel”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943180.

Ketschik, Nora (2025): “Netzwerkanalysen Narrativer Texte – Ein Vorgehensmodell”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.15124132.

Mende, Jana-Katharina, Claudia Resch, Mareike Schumacher, Laura Untner, Imelda Rohrbacher, Elena Suarez Cronauer, Andrea Gruber und Frederike Neuber (2025): “Gender (under) Construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943036.

Pichler, Axel, Dominik Gerstorfer, Jonas Kuhn und Janis Pagel (2025): “Empirische Evaluation des Verhaltens von LLMs auf Basis sprachphilosophischer Theorien: Methode und Pilotannotationen”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943146.

Schröter, Julian (2025): „Zur Modellierung von Unsicherheit: Machine Learning und begriffliche Vagheit Am Beispiel der Novellen im 19. Jahrhundert“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943086.

SPP 2207 CLS (2020): Computational Literary Studies [Website], https://dfg-spp-cls.github.io.

Stiemer, Haimo, Hans Ole Hatzel, Chris Biemann und Evelyn Gius (2025): „Pause im Text. Zur Exploration semantisch konditionierter Sprechpausen in Hörbüchern“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943032.

Elecciones para presidente y secretario de la RedHD 2024

2024年10月20日 07:05
Elecciones para presidente y secretario de la RedHD 2024

¡Consulta los perfiles y las cartas de presentación de los y las participantes de la convocatoria para presidente y secretario de la RedHD 2024!

Continue reading Elecciones para presidente y secretario de la RedHD 2024 at Red de Humanidades Digitales.

❌