普通视图

Received before yesterday

Warum digitale Methoden unsere Wissenschaft herausfordern: SHareDH-Vortragsreihe „Produktive Ambivalenz – Digitale Methoden und Meistererzählungen“

2026年4月21日 01:58

Digitale Methoden haben die Geisteswissenschaften in den letzten Jahren grundlegend verändert. Sie eröffnen neue Wege der Analyse, ermöglichen große Datenmengen zu erschließen und stellen etablierte Forschungsfragen in ein neues Licht. Doch mit diesen Möglichkeiten entstehen auch neue Herausforderungen: Welche Narrative prägen unser wissenschaftliches Denken? Welche Perspektiven werden sichtbar – und welche bleiben unsichtbar?

Die Vortragsreihe „Produktive Ambivalenz – Digitale Methoden und Meistererzählungen“ setzt genau hier an. Sie versteht Digitalisierung nicht nur als technischen Fortschritt, sondern als epistemologische Herausforderung. Digitale Werkzeuge können dazu beitragen, lange etablierte Meistererzählungen und Korpora zu hinterfragen. Gleichzeitig können sie selbst neue Normen, Standards und Narrative erzeugen – etwa durch algorithmische Auswahlprozesse, Datenstrukturen oder softwarebasierte Voreinstellungen.

Im Zentrum der Vortragsreihe stehen daher Fragen wie: 

  • Wie verändern digitale Methoden die Art und Weise, wie Wissen entsteht?
  • Welche Rolle spielen Prozesse von Auswahl, Kanonbildung und Datenstrukturierung?
  • Inwiefern schaffen digitale Technologien neue wissenschaftliche Selbstverständnisse?
  • Und wie lässt sich diese Ambivalenz produktiv für Forschung und Lehre nutzen?

Die Vortragsreihe bringt Expert:innen aus unterschiedlichen Disziplinen zusammen und lädt dazu ein, die Zukunft der Geisteswissenschaften kritisch und konstruktiv zu diskutieren. Sie richtet sich an Forschende, Studierende und alle Interessierten, die sich mit den Auswirkungen digitaler Technologien auf Wissenschaft und Gesellschaft auseinandersetzen möchten. Veranstaltet wird sie im Rahmen des Projekts SHareDH, einem gemeinsamen Projekt von UB Kiel und Europa Universität Flensburg zur Förderung der Digital Humanities in Forschung und Lehre an den beiden Universitäten in Kiel und Flensburg.

Termine

28.04.2026, digital: Wahlverwandtschaften 2.0? Statistische Narrative in den Digital Humanities
Jun.-Prof.  Dr. Rabea Kleymann (TU Chemnitz)

05.05.2026, digital: Edition als Mnemotechnik – Multimodale Quellen jenseits linearer Wissensordnungen
Jun.-Prof. Dr. Elisa Cugliana (Universität zu Köln)

19.05.2026, Kiel, OS75 – Hörsaal 1 und digital: Unsere breite Gegenwart und ihre algorithmische Zukunft: LLM-Epistemik beim Aktualisieren historischer Narrative
Dr. Christopher Nunn (Universität Heidelberg)

26.05.2026, Flensburg, Gebäude Helsinki, Raum HEL 067 und digital: Digitale Praktiken und digital-analoge Daten zwischen Ausprobieren, Explorieren und Infrastrukturieren in den Digital Humanities
Prof. Dr. Lina Franken (Universität Vechta)

09.06.2026, Kiel, OS75/S3 – R.177 und digital: Erzählforschung als Messverfahren? Zu den methodologischen Chancen und Herausforderungen computationeller Zugänge
Prof. Dr. Evelyn Gius (TU Darmstadt)

23.06.2026, digital: Kanonkritik durch Distant Reading, Zoom und Close Reading oder De arte venandi per algorithmum
Prof. Dr. Peter Bell (Philipps-Universität Marburg)

07.07.2026, tba.: Über die epistemische Gewalt der Digitalität: Plädoyer für eine grundlegende Datenkultur in den Geisteswissenschaften
Dr. Till Grallert (Humboldt Universität zu Berlin)

Zeit: Dienstags, 16:15 Uhr

Digitale Teilnahme via https://uni-kiel.zoom-x.de/j/69649547724?pwd=rxlaUZ5lO4yKxylnUshz1afWqoS8rq.1 ohne Anmeldung möglich.

Das Plakat zur Vortragsreihe ist hier zu finden. 

Kontakt: Patrick Nehr-Baseler

Forschungsdaten im Zentrum: Ewig währt am längsten

2026年4月15日 21:38

Ein partizipativer Workshop der Initiative „Datenzentrum – wissenschaftliche Konzeption und Ausgestaltung“ der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW)

Berlin, 25. und 26. Juni 2026; Akademiegebäude am Gendarmenmarkt; Einstein-Saal


Der Wert geisteswissenschaftlicher Forschungsdaten für Wissenschaft und Gesellschaft ist nicht zuletzt durch den laufenden Aufbau der Nationalen Forschungsdateninfrastruktur (NFDI) offensichtlich geworden. Zentrale Fragen nach dem dauerhaften Betrieb vertrauenswürdiger Datenrepositorien und der langfristigen Verfügbarkeit der aggregierten Inhalte sind jedoch weiterhin offen.

Vor diesem Hintergrund lädt die Initiative „Datenzentrum – wissenschaftliche Konzeption und Ausgestaltung“ der BBAW zu einem zweitägigen Lunch-to-Lunch-Workshop ein. Diese 2025 eingerichtete Initiative erarbeitet ein Konzept für die organisatorischen und technischen Grundlagen für ein leistungsfähiges, zertifiziertes Repositorium und dessen infrastrukturelle Einbindung innerhalb der BBAW. Darauf aufbauend wird die Akademie ab 2028 ein eigenes Datenzentrum betreiben. Dessen Hauptaufgaben werden die Aggregation, Verfügbarhaltung und Archivierung von Forschungsdaten, Software und Diensten aus den Vorhaben und Projekten der Akademie sein. Darüber hinaus ist eine Öffnung des Repositoriums für externe Datengeber:innen vorgesehen.

Im Workshop werden anhand von Impulsvorträgen die unterschiedlichen Perspektiven aus Sicht von Forschung, Bibliothek, Archiv und IT reflektiert. Anschließend bieten verschiedene Thementische die Möglichkeit zu einer intensiven Auseinandersetzung mit spezifischen Fragen, von der technischen Einrichtung nachhaltiger Infrastrukturen zwischen quelloffenen und kommerziellen Lösungen bis hin zum Einsatz sog. Künstlicher Intelligenz samt deren ethischen Herausforderungen.


Um Anmeldung wird gebeten unter: www.bbaw.de/veranstaltungen/veranstaltung-workshop-datenzentrum-2026

Nähere Informationen zum Programm: https://datenzentrum.bbaw.de/veranstaltungen/workshop-2026. Die Seite befindet sich im Aufbau und wird fortlaufend aktualisiert.

Einladung zum TCDH-Forschungskolloquium „Perspektiven der Digital Humanities“

2026年4月13日 15:49

Vorträge des TCDH-Forschungskolloquiums im Sommersemester 2026

Alle Informationen und Zoomlink unter: https://tcdh.uni-trier.de/de/event/programm-des-tcdh-forschungskolloquiums-perspektiven-der-digital-humanities-1

Im Sommersemester 2026 setzen wir unsere Vortragsreihe im Rahmen des TCDH-Forschungskolloquiums fort. Das Spektrum reicht in diesem Semester von Fragen der digitalen Erschließung und Vernetzung historischer Texte und Wörterbücher über rechtliche und ethische Herausforderungen im Umgang mit Forschungsdaten bis hin zu digitalen Editionen und Plattformlösungen für die geisteswissenschaftliche Forschung.

Sie sind herzlich eingeladen, teilzunehmen und mitzudiskutieren!

Programm:

23.04.2026

  • Anne Klee (Universität Trier / TCDH): „Klassische Verfahren oder (Large) Language Models? Wie historische Dialektwörterbücher zu Linked Open Data vernetzt werden können”

07.05.2026

  • Selina Galka (Universität Graz): „Die Memoiren der Gräfin Schwerin: Digitale Erschließung eines einzigartigen Selbstzeugnisses”

21.05.2026

  • Zita Baronnet (Universität Trier / TCDH): „Urheberrechtlich geschützte Texte online veröffentlichen: Ein Versuch, das Paradoxon zu lösen”

11.06.2026

  • Irakli Khvedelidze (Shota Rustaveli Institute of Georgian Literature, Tiflis): „Korrespondenzforschung in Deutschland und ihre Relevanz für die Erschließung des georgischen schriftlichen Nachlasses: Ein Pilotprojekt”

25.06.2026

  • Edda Schwarzkopf (Digital Humanities Center, Universität Tübingen): „Der OMnibus of MANTRAMS: Entangled Data in a Minimalist Computing online platform”

02.07.2026

  • Frank Queens (Universität Trier / TCDH), Michael Scheffel (Universität Wuppertal), Anne Schittek (Universität Wuppertal), Olivia Varwig (Universität Wuppertal): „,kein Traum ist völlig Traum’. Die Genese der ,Traumnovelle’ in der digitalen Arthur Schnitzler-Edition”

Neue Publikation zum Thema Objektbiografie und Sammlungsdokumentation erschienen 

2026年3月13日 23:07

Vom Inventar zum Knowledge Graph – Objektdokumentation im Wandel der Zeit am Beispiel der Berliner Kunstkammer und ihrer Nachfolge-Institutionen von Diana Stört und Sarah Wagner

Die Objektbestände der Berliner Kunstkammer bilden heute die Grundlage der Sammlungen der Staatlichen Museen zu Berlin, der Humboldt-Universität zu Berlin sowie des Museums für Naturkunde Berlin. Durch diese historische Verbindung ergibt sich eine Dokumentationspraxis von über 400 Jahren, deren Erforschung sich Diana Stört und Sarah Wagner widmen. Sie befassen sich mit der Frage, wie sich die Praktiken und Medien in ihrer Funktion und Struktur in einem sich wandelnden disziplinären Kontext veränderten und welche Rückschlüsse sich daraus auf die aktuelle Dokumentations- und Digitalisierungspraxis ziehen lassen. Dabei spielen Semantic Web Technologien, Knowledge Graphen und das Konzept der Objektbiografie eine zentrale Rolle, die auch für die Erzeugung und Integration von Daten bei NFDI4Objects grundlegend sind. 

In einem DFG-Projekt wurden die Bestände der Berliner Kunstkammer unter Anwendung des Konzepts der Objektbiografie ausgehend von Quellenmaterialien digital auf Grundlage des CIDOC CRM in einer WissKI-basierten Forschungsumgebung erschlossen. Der Datensatz mit über 2000 Objekten sowie zugehörigen Quellen-, Akteur- und Ortsinformationen wurden daher in den Wissensgraphen der NFDI4Objects integriert, wo die Objekte nun neue Verbindungen eingehen können. 

Zur Publikation:

DOI: https://doi.org/10.25364/32.2:2026.1.3

Downloadlink: https://unipub.uni-graz.at/musea/download/pdf/13333547 

Positionspapier zur Objektbiografie in NFDI4Objects veröffentlicht

2026年3月9日 22:59

Die Konzepte des Datenlebenszyklus und der Objektbiografie bilden die zentrale konzeptionelle Grundlage von NFDI4Objects. Während der Datenlebenszyklus mit seinen Phasen von Datenerstellung über Verarbeitung, Analyse, Veröffentlichung bis hin zur Archivierung ein etabliertes Prinzip im Forschungsdatenmanagement darstellt, eröffnet die Objektbiografie einen neuen Zugang zur Erzeugung, Modellierung und Repräsentation von Sammlungsdaten.

Die Objektbiografie versteht Objekte nicht als statische Einheiten, sondern als dynamische Knotenpunkte, die im Laufe ihrer Existenz mit unterschiedlichen Ereignissen, Akteur:innen, Orten und Bedeutungen verknüpft sind. Sie integriert historische, archäologische, naturwissenschaftliche und museale Perspektiven und schafft damit einen interdisziplinären Rahmen zur Beschreibung materieller Kultur.

Als Paradigma zur Datenmodellierung geht die Objektbiografie über einen rein narrativen Ansatz hinaus. Sie ermöglicht es, die Semantik materieller Kultur systematisch in digitale Wissenssysteme zu überführen und komplexe Objektzusammenhänge strukturiert abzubilden.

Zu diesem Ansatz haben Anja Gerber und Sarah Wagner ein Positionspapier vorgelegt, das Anfang Januar auf Zenodo veröffentlicht wurde. Das Papier erläutert die theoretischen Grundlagen der Objektbiografie und zeigt ihre Bedeutung für die Weiterentwicklung von Sammlungs- und Forschungsdaten im Kontext von NFDI4Objects auf.

Das Positionspapier ist hier abrufbar: https://zenodo.org/records/18221449.

Vorstellung der Publikation „FAIRe Vokabulare und Normdaten für Museen und Sammlungen“ am 16.3.2026, 14:00 Uhr

2026年3月3日 18:59

Am 16. März 2026, 14:00 Uhr, findet im Konsortium NFDI4Culture eine Vorstellung der Publikation „FAIRe Vokabulare und Normdaten für Museen und Sammlungen“ statt, die im Rahmen einer Unter-AG der AG Minimaldatensatz des Deutschen Museumsbundes erarbeitet wurde.

Die Publikation wird von den AG-Mitgliedern Anja Gerber (KSW | NFDI4Objects) und Dr. Domenic Schäfer (VZG | NFDI4Culture, LIDO-Servicestelle) vorgestellt. Die Präsentation widmet sich der zentralen Rolle kontrollierter Vokabulare und Normdaten für eine nachhaltige Nachnutzbarkeit objektbeschreibender Daten in Museen und Sammlungen.

Ausgehend von den Empfehlungen der Minimaldatensatz-Empfehlung für Museen und Sammlungen wurde eine systematische Zusammenstellung einschlägiger Vokabulare für die Sammlungsdokumentation erarbeitet. Vorgestellt werden unter anderem:

  • inhaltliche Schwerpunkte der jeweiligen Vokabulare,
  • ihr technischer Implementierungsstand sowie
  • eine Bewertung nach den FAIR-Prinzipien.

Die Einstufung nach FAIR-Kriterien ermöglicht eine fundierte Einschätzung der Nachhaltigkeit und Nachnutzbarkeit der Vokabulare, insbesondere im Kontext des vernetzten Publizierens und eines effektiven Forschungsdatenmanagements.

Die zugrunde liegende Publikation ist bereits auf Zenodo verfügbar.

Zoom-Zugangsdaten: https://dainst-org.zoom.us/j/97277176444?pwd=xtnsVkFc4sXea6om2216NtSJrvx8qT.1

Meeting-ID: 972 7717 6444, Kenncode: 607799

Wir freuen uns auf Ihre Teilnahme und den gemeinsamen Austausch. Eine Anmeldung ist nicht notwendig.

SSH Open Marketplace & FAIR Practices Training Series 2026

2025年12月4日 00:04

Das SSH Open Marketplace Editorial Board startet 2026 eine achtteilige praxisorientierte Online-Workshopreihe, um digitale Kompetenzen und FAIR-Praktiken in den Sozial- und Geisteswissenschaften zu stärken. Jeden dritten Freitag im Monat von 13:00 bis 14:30 Uhr (CET), geht es online um offene Wissenschaft, gute Datenpraxis und den smarten Einsatz des SSH Open Marketplace im Forschungsalltag. Die Termine reichen von Feburar bis November 2026 – mit einer Pause im Juli und August.

Worum geht es?

Die SSH Open Marketplace & FAIR Practices Training Series 2026 verbindet Schlüsselfragen von FAIR, CARE und Open Science mit praktischen Hands-on-Sessions rund um den SSH Open Marketplace als Discovery-Portal für Tools, Services, Trainingsmaterialien, Daten und Workflows. Der Adressatenkreis sind allgemein Interessierte mit Bezug zu den Social Sciences and Humanities, aber insbesondere Forschende, Datenmanager:innen und Forschungsservices in den SSH, die ihre Daten und Workflows besser auffindbar, nachnutzbar und anschlussfähig machen wollen – ohne sich allein durch die Vielzahl an Angeboten kämpfen zu müssen.

Weitere Hintergrundinformationen rund um den SSH Open Marketplace sowie das Editorial Team gibt es hier.

Save the dates

– 20. Februar: FAIR, CARE & Open Science Principles

– 20. März: Introduction to SSH Open Marketplace

– 17. April: Making the most of the SSH Open Marketplace

– 15. Mai: Contributing to SSH Open Marketplace

–  19. Juni: Thematic Arts and Humanities

– 18. September: Thematic GLAM institutions

– 16. Oktober: Thematic language data

– 20. November: Thematic Social sciences

Die Teilnahme ist online, kostenfrei und auf Interaktion ausgelegt: In allen Sessions sind Fragen, Use Cases aus laufenden Forschungsprojekten wie auch der Blick in eigene Datenbestände gerne gesehen. Wer sich nun den Vorsatz gesetzt hat, im kommenden Jahr die eigenen digitalen Forschungspraktiken weiter auszubauen, kann sich hier registrieren, um auf dem Laufenden zu bleiben.

Download

SSHOMP_2026 Online Training Series (PDF)

DiHMA.Lab mit MaRDI und NFDI4Objects am 14. und 15. Oktober an der FU Berlin

2025年9月7日 18:08

Am 14. und 15. Oktober 2025 lädt das DiHMa.Lab der Freien Universität Berlin in Kooperation mit dem ZIB zu einem gemeinsamen Workshop der Konsortien MaRDI und NFDI4Objects an die Freie Universität Berlin ein. Rund um das Thema „Objekte und Methoden“ wird der interdisziplinäre Workshop verschiedene Perspektiven aus der Mathematik und objektbasierten Geisteswissenschaften zusammenführen. Ziel ist es, Ansätze, Werkzeuge und Fragestellungen beider Disziplinen in den Dialog zu bringen, Schnittstellen sichtbar zu machen und gemeinsame methodische Herausforderungen zu diskutieren.

Das vorläufige Programm wird noch aktualisiert:

Tag 1

14.10.2025, 10:00-12:00 Uhr

Im Vorfeld des Workshops findet ein Ediathon: “Object meets Maths: Wikidata als Knowledge Hub” statt. Kommt sehr gern mit Daten und Notebooks vorbei.

12 Uhr Mittag auf Selbstzahlerbasis in der Mensa

14.10.2025 (13:00-16:45 Uhr)  

  • Icebreaker und Vorstellungsrunde (13:00-13:45)
  • Vorstellung der NFDI-Konsortien (14:00-14:45)
  • Statistische Methoden (15:00-15:45)
  • Datenintegration Wissensgraph (16:00-16:45)
  • Ab 17 Uhr gemeinsamer Ausklang auf Selbstzahlerbasis in der Eierschale

Tag 2

15.10.2025 (09:00 – 13:00 Uhr)

  • Wissenschaftliche Objektsammlungen und multimodale Forschungsdaten (9:00-9:45)
  • Use Case Datenanalyse “Windows on Data” (10:00-10:45) 
  • Interdisziplinäres Arbeiten (Challenges / Schwierige Fälle / was ist nicht operationalisierbar? / was ist bereits gut operationalisiert?) / MARDI als Methodendatenbank (11:00-11:45) 
  • Fishbowl: Zusammenarbeit mathematische Methoden in kulturhistorischen Fragestellungen (12:00-13:00)
  • Ab 13 Uhr gemeinsames Mittagessen auf Selbstzahlerbasis in der Mensa

Veranstaltungsort: Villa Engler, Altensteinstraße 2-4, 14195 Berlin (am Haupteingang des Botanischen Gartens)

Alle Informationen finden sich hier: https://www.ada.fu-berlin.de/ada-labs/dihma-lab/DiHMa-MARDI-N4O/index.html

Zur Anmeldung: https://www.ada.fu-berlin.de/ada-labs/dihma-lab/Modulbeschreibungen_DIHMa/PM-Anmeldung_DHIMA_LAB/index.html 

Mit freundlichen Grüßen Eure Local Organizers
Anja Gerber, Christin Keller, Dennis Mischke, Fabian Fricke, Marco Reidelbach, Marcus Weber

Neues Online-Portal: Digitaler Zeichenkatalog der Mayaschrift

2025年9月5日 18:50

Mit dem digitalen Zeichenkatalog der Mayahieroglyphen (A Digital Catalog of Maya Hieroglyphs) steht seit Kurzem eine neue Open-Access-Forschungsressource online, die epigraphische Grundlagenforschung mit digitalen Methoden verbindet. Ein deutsch– und ein englischsprachiger Einführungstext bieten sowohl eine inhaltliche Orientierung als auch ein Handbuch zur Nutzung der Such- und Filterfunktionen des Onlineportals. Entwickelt wurde die Plattform im Rahmen des Langzeitprojekts Textdatenbank und Wörterbuch des Klassischen Maya an der Universität Bonn. Gefördert wird das Projekt seit 2014 von der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste sowie von der Union der deutschen Akademien der Wissenschaften, geleitet von Prof. Dr. Nikolai Grube und koordiniert von Dr. Christian Prager. Arbeitsstelle des Projekts ist die Abteilung für Altamerikanistik, Universität Bonn, während die SUB Göttingen und das Cologne Center for eHumanities (CCeH) die Digital-Humanities-Komponenten umgesetzt haben.

Der Katalog knüpft an eine lange Tradition von Zeichenkatalogen der Mayaschrift an, die seit 1931 publiziert wurden, insbesondere an Eric Thompsons Standardwerk von 1962. Im Unterschied zu diesen gedruckten Vorläufern ist die neue Ressource vollständig digital angelegt, dynamisch erweiterbar und als Open Access verfügbar. In den vergangenen Jahren wurden Fehlklassifikationen korrigiert, hunderte bisher nicht erfasste Zeichen ergänzt und neue epigraphische Funde integriert. Für alle dokumentierten Zeichen wurden neue, einheitliche Zeichnungen mit Fontcharakter erstellt, die eine konsistente visuelle Vergleichbarkeit ermöglichen und auch für weiterführende digitale Anwendungen für Unicode usw. nutzbar sind.

Ein zentrales Merkmal des Katalogs ist seine Transparenz: Verschiedene Lesungen werden nach klar definierten Kriterien bewertet, der Grad wissenschaftlicher Sicherheit wird eindeutig gekennzeichnet, und unterschiedliche Hypothesen sind nachvollziehbar dokumentiert. Damit bildet die Datenbank nicht nur den aktuellen Forschungsstand ab, sondern macht zugleich sichtbar, in welchen Bereichen Konsens besteht und wo Unsicherheit herrscht. Technisch liegen die Informationen im Zeichenkatalog als RDF-Tripel vor, während die Texte in XML/TEI kodiert sind und in der virtuellen Forschungsumgebung TextGrid gehostet werden.

Die digitale Umsetzung eröffnet Funktionen, die in gedruckten Katalogen nicht realisierbar waren. Mit leistungsfähigen Filter- und Suchwerkzeugen lassen sich Zeichenlisten nach Kriterien wie Fundort, Artefaktgattung, Materialität oder den Auftraggebern der Monumente generieren. So können spezifische Forschungsfragen – etwa zu einem einzelnen Monument, einer Stätte oder einem Herrscher – direkt in digitale Abfragen übersetzt werden.

Der Zeichenkatalog ist als dynamische Plattform angelegt und wird kontinuierlich erweitert. Feedback aus der Fachgemeinschaft ist ausdrücklich erwünscht, um fehlende Varianten, zusätzliche Literatur oder neue Funde zu integrieren. Auf diese Weise wächst die Datenbank als offene und kollaborative Ressource weiter.

Im Kontext der Digital Humanities zeigt das Portal, wie sich philologische und archäologische Quellen mit digitalen Verfahren modellieren, vernetzen und nachhaltig verfügbar machen lassen. Neben dem Zeichenkatalog bietet die Plattform weitere Module: ein Text- und Bildarchiv, ein Bildarchiv mit rund 20.000 historischen und aktuellen Aufnahmen, eine umfassende Bibliografie, Werkzeuge für Kalenderberechnungen und interaktive 3D-Modelle von Artefakten. Die enge Integration dieser Datenbanken eröffnet neue Möglichkeiten der Analyse und Kontextualisierung. 

Ansprechpartner:
Dr. Christian Prager (Koordination) / Prof. Dr. Nikolai Grube (Leitung)
Projekt Textdatenbank und Wörterbuch des Klassischen Maya
https://classicmayan.org
Universität Bonn

Werkstattreihe Standardisierung: DeReKo

2025年9月3日 16:37

Wir möchten Sie herzlich zur nächsten Veranstaltung unserer Werkstattreihe Standardisierung einladen: Jennifer Ecker, Pia Schwarz und Rebecca Wilm werden DeReKo vorstellen und freuen sich auf die Diskussion mit uns: https://events.gwdg.de/event/1024/.

DeReKo

Das IDS beheimatet viele Daten und Tools für die Forschung mit insbesondere deutschsprachige Daten. Unter anderem besteht die Möglichkeit, große, annotierte Korpora zu durchsuchen, ein sehr prominentes Beispiel ist das Deutsche Referenzkorpus DeReKo, das mithilfe der Korpus-Analyseplatform KorAP genutzt, durchsucht und “beforscht” werden kann. Im Hintergrund müssen die Sprachdaten dafür in einem bestimmten TEI-Format vorliegen: In diesem Beitrag gehen wir auf TEI I5 ein, erläutern wie man mit welchen Tools eine Sprachdatensammlung in das notwendige Format umwandelt und so aufbereitet, dass sie am IDS als Korpus archiviert und in einem weiteren Schritt auch mit KorAP aufgerufen werden könnte.

Wir freuen uns auf den Vortrag durch unsere Kolleginnen Jennifer Ecker, Pia Schwarz und Rebecca Wilm. Bitte verteilt die Einladung gerne innerhalb eurer Kreise weiter.

Alle Termine der Werkstattreihe und die Anmeldungsmöglichkeiten finden Sie hier: https://events.gwdg.de/category/284/.

Und leiten Sie diese Einladung auch gern an andere Interessierte weiter.

Worum geht es in der Werkstattreihe Standardisierung?

Anhand konkreter Anwendungsbeispiele (https://text-plus.org/themen-dokumentation/standardisierung/anwendungsbeispiele/) erhalten die Teilnehmenden Einblicke in die Verwendung von Standards und standardisierten Tools und können an den Erfahrungen der Vortragenden in ihren jeweiligen Projekten teilhaben. Ziel ist es, ihnen so die Planung und Umsetzung ihrer Vorhaben zu erleichtern.

Darüber hinaus soll die Werkstattreihe Weichen für die zukünftige Datenintegrationen in die Text+ Infrastruktur stellen, die interne Reflektion über Angebotsentwicklung, Infrastruktur und Schnittstellen voranbringen sowie Partizipationsmöglichkeiten für Datengebende beleuchten. Die Reihe ist eine gemeinsame Aktivität aller Task Areas in Text+ in Zusammenarbeit mit Kolleginnen und Kollegen aus der Community. 

Die Anwendungsbeispiele:

• 20. März: DTABf, Marius Hug, Frank Wiegand

• 11. April: correspSearch, Stefan Dumont

• 22. Mai: edition humboldt digital, Christian Thomas, Stefan Dumont

• 5. Juni: INSeRT, Felix Helfer, N.N.

• 17. Juli: PROPYLÄEN. Goethes Biographica, Martin Prell

• 18. September: DeReKo, Jennifer Ecker, Pia Schwarz, Rebecca Wilm

• 16. Oktober: Klaus Mollenhauer Ausgabe, Max Zeterberg

• 20. November: BERIA Collection, Isabel Compes, Felix Rau

Zielgruppe:

Die Reihe spricht ein breites Publikum mit Bezug zu Sprach- und Textwissenschaften an. Sie ist sowohl für Neulinge, die einen ersten Einstieg in das Thema finden möchten (z. B. Promovierende, Forschende ohne Infrastrukturanbindung), aber auch für im Einsatz von Standards und Tools Versierte, die von Erfahrungen aus ähnlichen Vorhaben profitieren möchten bzw. ebenfalls ihre Erfahrungen mitteilen möchten, gleichermaßen geeignet. Gerne darf diese Einladung also breit weiterverteilt werden. 

Anmeldung:

Zur Anmeldung für die nächste Veranstaltung bitte hier entlang: https://events.gwdg.de/event/1024/

 

Die Einladungen für die weiteren Veranstaltungen folgen. Es ist aber bereits auch jetzt möglich, sich für alle Veranstaltungen individuell anzumelden: https://events.gwdg.de/category/284/

10.07.2025: Vortrag zu „Wossidlo-Teuchert online. Digitale Erschließung, Vernetzung und Publikation des Mecklenburgischen Wörterbuchs” im Rahmen des TCDH-Forschungskolloquiums

2025年7月9日 16:47

Am 10.07.2025 findet ab 16 Uhr der letzte Vortrag im Rahmen des TCDH-Forschungskolloquiums im Sommersemester 2025 statt:

Thomas Burch (Universität Trier / TCDH), Andreas Görres (Universität Rostock), Karsten Labahn (Universitätsbibliothek Rostock), Holger Meyer (Universität Rostock), Alf-Christian Schering (Universität Rostock), Christoph Schmitt (Universität Rostock), Nico Urbach (Universität Rostock):

„Wossidlo-Teuchert online. Digitale Erschließung, Vernetzung und Publikation des Mecklenburgischen Wörterbuchs”

Im Sommersemester 2025 setzen wir unsere Vortragsreihe im Rahmen des TCDH-Forschungskolloquiums wieder fort. Studierende und Mitarbeitende des TCDH geben ebenso wie externe Kolleg:innen und Kooperationspartner spannende Einblicke in ihre Arbeit aus ganz unterschiedlichen Feldern der Digital Humanities: der Computational Literary Studies, der digitalen Literatur- und Kulturwissenschaft und der digitalen Wörterbücher. 

Sie sind herzlich eingeladen, teilzunehmen und mitzudiskutieren!

Alle Infos und Zoomlink unter: 

https://tcdh.uni-trier.de/de/event/vortrag-zu-wossidlo-teuchert-online-digitale-erschliessung-vernetzung-und-publikation-des

 

03.07.2025: Vortrag von Joëlle Weis & Svenja Wagner (Universität Trier / TCDH): „Fürstinnenbibliotheken des 18. Jahrhunderts als Linked Open Data – Ein Werkstattbericht”

2025年7月3日 02:11

Am 03.07.2025 findet ab 16 Uhr im Rahmen des TCDH-Forschungskolloquiums ein weiterer Vortrag statt:

Joëlle Weis & Svenja Wagner (Universität Trier / TCDH): „Fürstinnenbibliotheken des 18. Jahrhunderts als Linked Open Data– Ein Werkstattbericht”

Im Sommersemester 2025 setzen wir unsere Vortragsreihe im Rahmen des TCDH-Forschungskolloquiums wieder fort. Studierende und Mitarbeitende des TCDH geben ebenso wie externe Kolleg:innen und Kooperationspartner spannende Einblicke in ihre Arbeit aus ganz unterschiedlichen Feldern der Digital Humanities: der Computational Literary Studies, der digitalen Literatur- und Kulturwissenschaft und der digitalen Wörterbücher. 

Sie sind herzlich eingeladen, teilzunehmen und mitzudiskutieren!

https://tcdh.uni-trier.de/de/event/vortrag-von-joelle-weis-svenja-wagner-universitaet-trier-tcdh-fuerstinnenbibliotheken-des-18

RIDE 20 ist erschienen!

作者Erik Renz
2025年6月28日 03:06

Wir freuen uns, Ihnen die 20. Ausgabe der Rezensionszeitschrift RIDE anzukündigen, die seit 2014 vom Institut für Dokumentologie und Editorik (IDE) herausgegeben wird.

Die aktuelle Ausgabe wird von Ulrike Henny-Krahmer und Martina Scholger herausgegeben und widmet sich digitalen wissenschaftlichen Editionen. Sie enthält fünf Rezensionen (drei auf Englisch, zwei auf Deutsch):

Alle Rezensionen sind abrufbar unter https://www.doi.org/10.18716/ride.a.20.

Enjoy the RIDE!

26.06.25: Vortrag von Julia Röttgermann (Universität Trier / TCDH): „Literaturgeschichte als Wissensgraph” im Rahmen des TCDH-Forschungskolloquiums

2025年6月20日 15:21

Am 26.06.2025 findet im Rahmen des TCDH-Forschungskolloquiums ein Vortrag statt:

Julia Röttgermann (Universität Trier / TCDH): „Literaturgeschichte als Wissensgraph. Automatische Erhebung literaturhistorisch relevanter Informationen aus Volltexten am Beispiel von französischen Romanen des XVIII. Jahrhunderts”.

Im Sommersemester 2025 setzen wir unsere Vortragsreihe im Rahmen des TCDH-Forschungskolloquiums wieder fort. Studierende und Mitarbeitende des TCDH geben ebenso wie externe Kolleg:innen und Kooperationspartner spannende Einblicke in ihre Arbeit aus ganz unterschiedlichen Feldern der Digital Humanities: der Computational Literary Studies, der digitalen Literatur- und Kulturwissenschaft und der digitalen Wörterbücher. 

Sie sind herzlich eingeladen, teilzunehmen und mitzudiskutieren!

Alle Infos und Zoomlink unter: https://tcdh.uni-trier.de/de/event/vortrag-von-julia-roettgermann-universitaet-trier-tcdh-literaturgeschichte-als-wissensgraph

Werkstattreihe Standardisierung: edition humboldt digital

2025年6月4日 15:05

 

Christian Thomas und Stefan Dumont von der Berlin-Brandenburgischen Akademie der Wissenschaften stellten am 22. Mai 2025 die edition humboldt digital im Rahmen der „Werkstattreihe Standardisierung“ des NFDI-Konsortiums Text+ vor und gaben einen Einblick in ihre Arbeit. Sie reflektierten ihren Umgang mit Standards und deren Bedeutung für die Entwicklung der Edition. Der Werkstattbericht des Editionsprojekts kann nun hier nachgeschaut werden: https://youtu.be/ZydyHbQ_6Uo

Die Abbildung visualisiert graphisch die Vernetzung der edition humboldt digital mit internen und externen Ressourcen
Übersicht der Vernetzung der edition humboldt digital (Poster, Detail)
CC-BY-4.0 / https://zenodo.org/records/8228540

Werkstattreihe Standardisierung: INSeRT

2025年5月28日 15:36

Wir möchten Sie herzlich zur nächsten Veranstaltung unserer Werkstattreihe Standardisierung einladen: Felix Helfer (SAW) wird INSeRT vorstellen und freut sich auf die Diskussion mit Ihnen: https://events.gwdg.de/event/1022/.

Eine Übersicht über alle weiteren Termine der Werkstattreihe und die Anmeldemöglichkeiten finden Sie hier.

Und leiten Sie diese Einladung auch gern an andere Interessierte weiter!

Worum geht es in der Werkstattreihe Standardisierung? Anhand konkreter Anwendungsbeispiele erhalten die Teilnehmenden Einblicke in die Verwendung von Standards und standardbasierten Tools und können an den Erfahrungen der Vortragenden in ihren jeweiligen Projekten teilhaben. Ziel ist es, ihnen so die Planung und Umsetzung ihrer Vorhaben zu erleichtern.

Darüber hinaus soll die Werkstattreihe Weichen für zukünftige Datenintegrationen in die Text+ Infrastruktur stellen, die interne Reflektion über Angebotsentwicklung, Infrastruktur und Schnittstellen voranbringen sowie Partizipationsmöglichkeiten für Datengebende beleuchten. Die Reihe ist eine gemeinsame Aktivität aller Task Areas in Text+ in Zusammenarbeit mit Kolleginnen und Kollegen aus der Community.

Die Anwendungsbeispiele:

• 20. März: DTABf, Marius Hug, Frank Wiegand

• 11. April: correspSearch, Stefan Dumont

• 22. Mai: edition humboldt digital, Christian Thomas, Stefan Dumont

• 5. Juni: INSeRT, Felix Helfer

• 17. Juli: PROPYLÄEN. Goethes Biographica, Martin Prell

• 18. September: DeReKo, Jennifer Ecker, Pia Schwarz, Rebecca Wilm

• 16. Oktober: Klaus Mollenhauer Ausgabe, Max Zeterberg

• 20. November: BERIA Collection, Isabel Compes, Felix Rau

Zielgruppe

Die Reihe spricht ein breites Publikum mit Bezug zu Sprach- und Textwissenschaften an. Sie ist sowohl für Neulinge, die einen ersten Einstieg in das Thema finden möchten (z.B. Promovierende, Forschende ohne Infrastrukturanbindung), aber auch für im Einsatz von Standards und Tools Versierte, die von Erfahrungen aus ähnlichen Vorhaben profitieren möchten bzw. ebenfalls ihre Erfahrungen mitteilen möchten, gleichermaßen geeignet. Gerne darf diese Einladung also breit weiter verteilt werden.

Anmeldung

Zur Anmeldung für die nächste Veranstaltung bitte hier entlang.

Die Einladungen für die weiteren Veranstaltungen folgen. Es ist aber bereits auch jetzt möglich, sich für alle Veranstaltungen individuell anzumelden.

Programm des TCDH-Forschungskolloquiums „Perspektiven der Digital Humanities“

2025年5月19日 15:58

Vorträge des TCDH-Forschungskolloquiums im Sommersemester 2025

Im Sommersemester 2025 setzen wir unsere Vortragsreihe im Rahmen des TCDH-Forschungskolloquiums wieder fort. Studierende und Mitarbeitende des TCDH geben ebenso wie externe Kolleg:innen und Kooperationspartner spannende Einblicke in ihre Arbeit aus ganz unterschiedlichen Feldern der Digital Humanities: der Computational Literary Studies, der digitalen Literatur- und Kulturwissenschaft und der digitalen Wörterbücher.
 
Sie sind herzlich eingeladen, teilzunehmen und mitzudiskutieren!

 

Programm:

05.06.2025

  • Svenja Wagner (Universität Trier / TCDH): „In Medias Res – Semantische Informationsextraktion in Immanuel Kants Gesamtwerk mithilfe von Transformer Modellen”
  • Marina Spielberg (Universität Trier / TCDH): „Literary Metaphor Detection with LLM Fine-Tuning and Few-Shot Learning”

26.06.2025

  • Julia Röttgermann (Universität Trier / TCDH): „Literaturgeschichte als Wissensgraph. Automatische Erhebung literaturhistorisch relevanter Informationen aus Volltexten am Beispiel von französischen Romanen des XVIII. Jahrhunderts.”

03.07.2025

  • Joëlle Weis & Svenja Wagner (Universität Trier / TCDH): „Fürstinnenbibliotheken des 18. Jahrhunderts als Linked Open Data– Ein Werkstattbericht

10.07.2025

  • Thomas Burch (Universität Trier / TCDH), Andreas Görres (Universität Rostock), Karsten Labahn (Universitätsbibliothek Rostock), Holger Meyer (Universität Rostock), Alf-Christian Schering (Universität Rostock), Christoph Schmitt (Universität Rostock), Nico Urbach (Universität Rostock): „Wossidlo-Teuchert online. Digitale Erschließung, Vernetzung und Publikation des Mecklenburgischen Wörterbuchs”

Alle Informationen und Zoomlink unter: https://tcdh.uni-trier.de/de/event/programm-des-tcdh-forschungskolloquiums-perspektiven-der-digital-humanities-0

Trends in den Computational Literary Studies bei den DHd-Jahrestagungen

2025年5月13日 22:15

Die Computational Literary Studies (CLS) haben sich im vergangenen Jahrzehnt als ein dynamisches und zunehmend eigenständiges Forschungsfeld innerhalb der Digital Humanities etabliert. Die DHd-Jahrestagungen fungieren dabei nicht nur als Forum für aktuelle Diskussionen, sondern auch als Schaufenster für langfristige Entwicklungen, methodische Innovationen und disziplinäre Herausforderungen.

Etablierung der CLS in den Digital Humanities

Wie Hatzel et al. (2023, 1-2) in ihrem Übersichtsartikel „Machine Learning in Computational Literary Studies“ betonen, verstehen sich die CLS als ein Teilbereich der Digital Humanities, der sich durch die Anwendung computerbasierter Verfahren auf literaturwissenschaftliche Fragestellungen auszeichnet. Einen wichtigen Schub erhielten die CLS durch die Einrichtung des von der DFG geförderten Schwerpunktprogramms „Computational Literary Studies“ (SPP 2207) sowie durch die Gründung des Journal of Computational Literary Studies (JCLS) in der ersten Hälfte der 2020er Jahre.

In der deutschsprachigen DH-Community ist die wachsende Bedeutung der CLS auch an der Entwicklung der Tagungsformate der DHd ablesbar: Während CLS-relevante Beiträge in den frühen Jahrestagungen noch unter allgemeineren Titeln wie „Texte und Strukturen“ (2019) oder „Komplexe Textphänomene“ (2020) verhandelt wurden, tragen die Sessions seit 2023 explizit den Titel „Computational Literary Studies“. 2025 genügten bereits die Kürzel „CLS Analyse“, „CLS Methoden I“ und „CLS Methoden II“ – ein deutliches Signal für die gewachsene disziplinäre Eigenständigkeit und Sichtbarkeit des Feldes.

Angesichts dieser zunehmenden Etablierung stellte sich mir die Frage, welche methodischen Trends und inhaltlichen Entwicklungslinien sich in den Abstracts der DHd-Jahrestagungen von 2014 bis 2025 abzeichnen. Um relevante Beiträge zu identifizieren, habe ich basierend auf der Definition des Schwerpunktprogramms1 und einem Listenabgleich von Keywords, Topics und most distinctive Words (siehe Abb. 1) pro Beitrag CLS-relevante Abstracts automatisch aus den XML-Dateien extrahiert. Das so zusammengestellte Untersuchungskorpus wurde anschließend tabellarisch aufbereitet und mit den Metadaten aus den XMLs und manuellen Ergänzungen angereichert. Der Dataframe bildete sodann die Grundlage für interaktive Visualisierungen, die eine Exploration der CLS-Entwicklungen im Kontext der vergangenen DHd-Jahrestagungen ermöglichen.2

Most distinctive words der Beiträge der DHd-Jahrestagung 2020
Abb. 1: Der Screenshot zeigt die zehn most distinctive words inklusive ihrer berechneten TF-IDF Scores für alle Beiträge der DHd-Jahrestagung 2020. In der interaktiven Visualisierung der Daten mit einem Drop-Down-Menü können die Beiträge nach Jahr, Autor:in oder durch die Auswahl eines spezifischen Abstracts gefiltert werden. Die interaktive Visualisierung zum Ausprobieren finden Sie hier.

Welche CLS-Forschungstrends zeigen sich in den Abstracts der DHd-Jahrestagungen?

Ein zentrales Ergebnis der Analyse ist die methodische Breite der CLS, die von der Anwendung gängiger DH-Verfahren wie Netzwerkanalyse, Topic Modeling und Sentimentanalyse bis hin zu klassischem maschinellem Lernen und dem Einsatz generativer Sprachmodelle reicht. Die differenzierte Behandlung von Subkategorien des maschinellen Lernens stellte sich dabei als besondere Herausforderung heraus. Schließlich wollte ich die Entwicklungen und Höhepunkte traditioneller, feature-basierter Klassifikationsalgorithmen, multi-layered neuronaler Netze im Deep Learning sowie statistisch-kontextbasierter und generativer Sprachmodelle jeweils separat visualisieren. Ein Histogramm der verwendeten Methoden als Keyword-Cluster pro Abstract zeigt, welche Verfahren wann zum ersten Mal behandelt wurden, an Bedeutung gewinnen oder verlieren (siehe Abb. 2).

Liniendiagramm mit dem relativen Anteil der verwendeten Methoden als Keyword-Cluster pro Abstract geclustert pro Konferenzjahr.
Abb. 2: Diese Visualisierung der verwendeten Methoden als Keyword-Cluster pro Abstract zeigt den relativen Anteil (%) der Methodengruppen pro Jahr. Eine interaktive Version dieser Graphik finden Sie hier.

Das dargestellte Liniendiagramm (Abb. 2) zeigt die relative Nennung der 15 häufigsten Methodengruppen in den Abstracts (siehe Code). Die Y-Achse gibt den prozentualen Anteil an, den jede Methodengruppe im jeweiligen Jahr an der Gesamtzahl aller Abstracts hat und ermöglicht eine zeitlich normalisierte Betrachtung, bei der Schwankungen in der Gesamtanzahl der Abstracts pro Jahr berücksichtigt werden. Jeder Linienverlauf repräsentiert eine Methodengruppe und zeigt, wie oft sie im Verhältnis zur Gesamtzahl der Abstracts eines Jahres erwähnt wurde.

Die Abbildung verdeutlicht die konstruktive Weiterentwicklung der CLS: Zunächst müssen Textdaten aufbereitet und in geeigneter Qualität zur Verfügung gestellt werden, bevor sie analysiert und schließlich als Grundlage für das Finetuning von Sprachmodellen verwendet werden können. Nicht überraschend ist also der Peak an Abstracts zur Aufbereitung digitaler Editionen und Textkorpora in der Anfangszeit der DHd-Jahrestagungen sowie ihre andauernde Relevanz. In den Abstracts werden die digitale Bereitstellung von Texten, der Digitalisierungsprozess sowie die Entwicklung von Qualitätsstandards in OCR, XML/TEI und Normdatenanreicherung behandelt. War auch das Preprocessing in den Anfangsjahren noch ein zentraler Diskussionspunkt, wird es in den letzten Jahren bereits nicht mehr explizit in den Abstracts aufgeführt. Dieses Nichtaufführen im Fließtext weist auf die Etablierung von anerkannten Standards in der Datenvorbereitung hin und spricht für die Qualität von Preprocessinglibraries, Pipelines und ihren Ergebnissen.

Während auch Distinktivitäts- und Netzwerkanalysen zu den Verfahren gehören, die seit der ersten Jahrestagung vertreten sind, werden Topic Modeling und Sentimentanalyse erstmals 2015 erwähnt, sind seitdem aber nicht mehr wegzudenken, auch wenn sie seit ihren Höhepunkten (2020 Topic Modeling, 2023 Sentimentanalyse) tendenziell rückläufig sind. Die Blütezeit der CLS hat hingegen gerade erst begonnen: Nach einem ersten Peak 2022 (Zeitpunkt der Abstracteinreichung (Juli 2021) parallel zum Ende des ersten Jahres des DFG-SPP CLS) erzielt das Keyword-Cluster3 einen beeindruckenden Aufschwung mit kontinuierlich steigender Tendenz.
Ein klarer Aufwärtstrend zeigt sich auch bei „deep learning & neural nets“, die ab 2015 deutlich zulegen und sich als zunehmend wichtige Methode etablieren. Gemeinsam mit den differenzierten Keyword-Clustern „general machine learning“ und „generative language models (LLMS)“ bilden sie ein omnipräsentes Methodenrepertoire in den CLS.
Besonders auffällig ist, dass Annotationen über den gesamten Zeitraum hinweg ein zentrales Element bleiben, sei es als Grundlage manueller Analysen oder als Trainings- und Testdaten für maschinelles Lernen.

Und was ging bei der DHd2025?

Auf der Jahrestagung 2025 war die Präsenz der Computational Literary Studies unübersehbar. Ich besuchte die explizit als CLS ausgewiesenen Sessions „CLS Analyse“, „CLS Methoden I“ und „CLS Methoden II“, in denen zentrale Fragen der computergestützten Literaturwissenschaft diskutiert wurden. Darüber hinaus fanden sich CLS-relevante Vorträge auch in angrenzenden Formaten wie der Session „Large Language Models I“ und dem Doctoral Consortium. Besonders bemerkenswert ist auch, dass es dieses Jahr gleich zwei Panels zur digitalen Untersuchung von Literatur gab, was die zunehmende Sichtbarkeit und Relevanz des Feldes nochmals unterstreicht: interdisziplinär unter dem Titel „Gender (under) construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft“ (Mende et al. 2025) und mit stärkerem Fokus auf das Computationale unter dem Titel „Literaturgeschichte ‚under construction‘ – was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur“.

Die Beiträge des Jahres 2025 spiegeln aktuelle Forschungstrends wider, die sich thematisch zwischen methodischer Validierung und dem produktiven Umgang mit Vagheit bewegen. Ein immer wiederkehrendes Thema ist dabei die Frage, wie literaturwissenschaftliche Konzepte so operationalisiert werden können, dass sie mit den Methoden der NLP analysierbar werden. Auch die Diskussion um Referenzkorpora und Qualitätsstandards für Annotationen war präsent: Während viele Projekte auf spezifisch zusammengestellte Korpora zurückgreifen, fehlt es nach wie vor an breit akzeptierten und annotierten Referenzkorpora. Hinsichtlich der Qualität von Annotationen schlug Janina Jacke (2025) einen „Platinstandard“ für kollaborativ erstellte, argumentativ begründete Annotationen mit Entscheidungsbäumen vor.
Ein innovativer methodischer Vorschlag kam von Julia Dudar und Christof Schöch (2025), die synthetische Texte als Kontrollgruppe verwendeten, um Analyseeffekte besser einordnen zu können. In diesem Zusammenhang wurden Stichprobenstrategien und Validierungsverfahren als offene Forschungsfragen thematisiert. Auch das Distinktivitätsmaß Zeta wurde wieder intensiv diskutiert und seine Leistungsfähigkeit erneut unter Beweis gestellt werden. Christof Schöch wies jedoch darauf hin, dass es nicht das eine perfekte Maß gebe, sondern es immer auf die zugrundeliegenden Fragestellungen und Korpora ankomme.

Ein weiteres Thema war die Segmentierung von Erzähltexten, etwa in Szenen oder andere narrative Einheiten – eine Herausforderung an der Schnittstelle von Linguistik und Narratologie, zu der Nora Ketschik (2025) treffend anmerkte, dass Prosatexte eben keine Dramen seien, die in der Regel schon von ihrer Textstruktur her eine sinnvolle Segmentierung mitbringen. Auch die Modellierung von Figuren und Perspektiven rückte stärker in den Fokus: Hier wurde betont, wie wichtig eine präzise Koreferenzauflösung ist, um zwischen handelnden und nur erwähnten Figuren zu unterscheiden, wenn Figurenbeziehungen in Netzwerken visualisiert werden sollen. Auch der Modellierung von Vagheit wurde in diesem Jahr wieder Aufmerksamkeit geschenkt: Julian Schröter (2025) stellte den c@1-Score vor, der es Modellen erlaubt, sich im Falle von Unsicherheiten zu enthalten – ein Verfahren, das er als besonders geeignet für vage literarische Kategorien vorstellte. Neu in der methodischen Diskussion war die Analyse gesprochener Literatur: Haimo Stiemer et al. (2025) untersuchten Pausen, Intonation und Prosodie in Hörbuchprosa mit Hilfe des Tools WhisperX, um Korrelationen zwischen Sprechpausen und narrativen Einschnitten zu identifizieren, die für einen neuen Ansatz der Textsegmentierung genutzt werden können.

Ein über einzelne Vorträge hinausgehendes immer wiederkehrendes Thema ist die Evaluierung (u.a. spezifisch behandelt in Pichler et al. (2025)), da sich mit zunehmender Anwendung generativer Modelle auch deren Fokus verschiebt: Neue Evaluationsmetriken und speziell kuratierte Testdatensätze gewinnen an Bedeutung, da herkömmliche, öffentlich verfügbare Daten aufgrund möglicher Pre-Training-Überschneidungen an Aussagekraft verlieren. Gerade im Hinblick auf generative KI in Annotationsprozessen stellt sich die Frage nach der Validität der Ergebnisse: Wie können wir sicher sein, dass, wenn die Annotation der 50 Beispiele aus unseren Testdaten erfolgreich war, die Annotationen auch darüber hinaus valide und nicht womöglich halluziniert sind?

Nicht zuletzt rückte auch die Rolle der CLS für die Literaturgeschichtsschreibung ins Zentrum der Diskussion (Panel von Herrmann et al. (2025)). Die Analyse größerer literarischer Korpora ermöglicht es, neue literaturgeschichtliche Narrative zu formulieren und kanonübergreifende Entwicklungen sichtbar zu machen. Dabei geht es nicht nur um die Datenmenge, sondern vor allem um die Verknüpfung von Textanalysen mit Kontextinformationen und Metadaten. Als neues Ideal der Literaturgeschichtsschreibung gilt die Einbeziehung der literarischen Kommunikation, so dass nicht nur eine Literaturgeschichte, sondern verschiedene Literaturgeschichten gleichzeitig geschrieben werden, ohne dabei das Einzelphänomen aus dem Blick zu verlieren.

Insgesamt zeigt die DHd2025 eindrucksvoll, wie weit die CLS innerhalb der Digital Humanities gekommen sind: Methodisch vielfältig, institutionell verankert und thematisch anschlussfähig erweisen sie sich als ein zentraler Baustein der digitalen Literaturwissenschaft, der nicht vor den schnelllebigen und sich ständig wandelnden Sprachmodellen zurückschreckt, sondern innovative Wege findet, neue Methoden produktiv in den Werkzeugkasten der CLS zu integrieren.

1 CLS „is dedicated to developi[n]g and establishing innovative computational methods in the field of literary studies. In this emerging rese[]a[r]ch field, literary scholars are working together with computer linguists and computer scientists to discover new perspectives on literary history, narratology and style analysis“ (SPP 2207 CLS, 2020).

2 Der verwendete Code befindet sich im GitHub Repositorium. Die XML-Versionen der DHd-Abstracts sind über die DHd GitHub Repositorien abrufbar. Mein besonderer Dank gilt Patrick Helling für die schnelle Bereitstellung der XML-Versionen der Jahrestagung 2025.

3 „computational literary studies (CLS)“: [„computational literary studies“, „CLS“, „computationelle literaturwissenschaft“, „komputationale literaturwissenschaft“, „literary computing“, „digitale literaturwissenschaft“, „digital literary studies“, „algorithmische literaturwissenschaft“]

Acknowledgements

Mein Dank gilt dem DHd-Verband, der mir durch ein Reisekostenstipendium die Teilnahme an der DHd2025 zum Thema „Under Construction“ in Bielefeld ermöglichte.

Referenzen

DHd-Verband (2025): DHd-Abstracts 2014 bis 2025 [GitHub Repositories], https://github.com/DHd-Verband.

Dudar, Julia and Christof Schöch (2025): “Exploring Measures of Distinctiveness: An Evaluation Using Synthetic Texts”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943110.

Guhr, Svenja (2025): CLS-Trends at DHd [GitHub Repository], https://github.com/SvenjaGuhr/CLS-Trends_at_DHd.

Hatzel, Hans Ole, Haimo Stiemer, Chris Biemann, and Evelyn Gius (2023): “Machine Learning in Computational Literary Studies”, it-Information Technology. DOI: 10.1515/itit-2023-0041.

Herrmann, Berenike, Daniel Kababgi, Marc Lemke, Nils Kellner, Ulrike Henny-Krahmer, Fotis Jannidis, Katrin Dennerlein, and Matthias Buschmeier (2025): „Literaturgeschichte ‚under Construction‘ – Was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943254.

Jacke, Janina (2025): “Platinstandard-Annotation in der digitalen Literaturwissenschaft: Definition, Funktionen und diskursive Argumentvisualisierung als Best-Practice-Beispiel”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943180.

Ketschik, Nora (2025): “Netzwerkanalysen Narrativer Texte – Ein Vorgehensmodell”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.15124132.

Mende, Jana-Katharina, Claudia Resch, Mareike Schumacher, Laura Untner, Imelda Rohrbacher, Elena Suarez Cronauer, Andrea Gruber und Frederike Neuber (2025): “Gender (under) Construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943036.

Pichler, Axel, Dominik Gerstorfer, Jonas Kuhn und Janis Pagel (2025): “Empirische Evaluation des Verhaltens von LLMs auf Basis sprachphilosophischer Theorien: Methode und Pilotannotationen”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943146.

Schröter, Julian (2025): „Zur Modellierung von Unsicherheit: Machine Learning und begriffliche Vagheit Am Beispiel der Novellen im 19. Jahrhundert“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943086.

SPP 2207 CLS (2020): Computational Literary Studies [Website], https://dfg-spp-cls.github.io.

Stiemer, Haimo, Hans Ole Hatzel, Chris Biemann und Evelyn Gius (2025): „Pause im Text. Zur Exploration semantisch konditionierter Sprechpausen in Hörbüchern“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943032.

Werkstattreihe Standardisierung: edition humboldt digital

2025年5月7日 16:15

Wir möchten Sie herzlich zur nächsten Veranstaltung unserer Werkstattreihe Standardisierung einladen: Christian Thomas (BBAW) und Stefan Dumont (BBAW) werden edition humboldt digital vorstellen und freuen sich auf die Diskussion mit Ihnen: https://events.gwdg.de/event/1021/

Eine Übersicht über alle weiteren Termine der Werkstattreihe und die Anmeldemöglichkeiten finden Sie hier.

Und leiten Sie diese Einladung auch gern an andere Interessierte weiter!

Worum geht es in der Werkstattreihe Standardisierung? Anhand konkreter Anwendungsbeispiele erhalten die Teilnehmenden Einblicke in die Verwendung von Standards und standardbasierten Tools und können an den Erfahrungen der Vortragenden in ihren jeweiligen Projekten teilhaben. Ziel ist es, ihnen so die Planung und Umsetzung ihrer Vorhaben zu erleichtern.

Darüber hinaus soll die Werkstattreihe Weichen für zukünftige Datenintegrationen in die Text+ Infrastruktur stellen, die interne Reflektion über Angebotsentwicklung, Infrastruktur und Schnittstellen voranbringen sowie Partizipationsmöglichkeiten für Datengebende beleuchten. Die Reihe ist eine gemeinsame Aktivität aller Task Areas in Text+ in Zusammenarbeit mit Kolleginnen und Kollegen aus der Community.

Die Anwendungsbeispiele:

• 20. März: DTABf, Marius Hug, Frank Wiegand

• 11. April: correspSearch, Stefan Dumont

• 22. Mai: edition humboldt digital, Christian Thomas, Stefan Dumont

• 5. Juni: INSeRT, Felix Helfer

• 17. Juli: PROPYLÄEN. Goethes Biographica, Martin Prell

• 18. September: DeReKo, Jennifer Ecker, Pia Schwarz, Rebecca Wilm

• 16. Oktober: Klaus Mollenhauer Ausgabe, Max Zeterberg

• 20. November: BERIA Collection, Isabel Compes, Felix Rau

Zielgruppe

Die Reihe spricht ein breites Publikum mit Bezug zu Sprach- und Textwissenschaften an. Sie ist sowohl für Neulinge, die einen ersten Einstieg in das Thema finden möchten (z.B. Promovierende, Forschende ohne Infrastrukturanbindung), aber auch für im Einsatz von Standards und Tools Versierte, die von Erfahrungen aus ähnlichen Vorhaben profitieren möchten bzw. ebenfalls ihre Erfahrungen mitteilen möchten, gleichermaßen geeignet. Gerne darf diese Einladung also breit weiter verteilt werden.

Anmeldung

Zur Anmeldung für die nächste Veranstaltung bitte hier entlang.

Die Einladungen für die weiteren Veranstaltungen folgen. Es ist aber bereits auch jetzt möglich, sich für alle Veranstaltungen individuell anzumelden.

Werkstattreihe Standardisierung: correspSearch

2025年4月2日 20:56

Wir möchten Sie herzlich zur nächsten Veranstaltung unserer Werkstattreihe Standardisierung einladen: Stefan Dumont (BBAW) wird correspSearch vorstellen und freut sich auf die Diskussion mit uns: https://events.gwdg.de/event/1020/

Alle Termine der Werkstattreihe und die Anmeldungsmöglichkeiten finden sich hier: https://events.gwdg.de/category/284/

Und leiten Sie diese Einladung auch gern an andere Interessierte weiter.

Worum geht es in der Werkstattreihe Standardisierung? Anhand konkreter Anwendungsbeispiele (https://text-plus.org/themen-dokumentation/standardisierung/anwendungsbeispiele/) erhalten die Teilnehmenden Einblicke in die Verwendung von Standards und standardbasierten Tools und können an den Erfahrungen der Vortragenden in ihren jeweiligen Projekten teilhaben. Ziel ist es, ihnen so die Planung und Umsetzung ihrer Vorhaben zu erleichtern.

Darüber hinaus soll die Werkstattreihe Weichen für zukünftige Datenintegrationen in die Text+ Infrastruktur stellen, die interne Reflektion über Angebotsentwicklung, Infrastruktur und Schnittstellen voranbringen sowie Partizipationsmöglichkeiten für Datengebende beleuchten. Die Reihe ist eine gemeinsame Aktivität aller Task Areas in Text+ in Zusammenarbeit mit Kolleginnen und Kollegen aus der Community.

Die Anwendungsbeispiele:

• 20. März: DTABf, Marius Hug, Frank Wiegand

• 11. April: correspSearch, Stefan Dumont

• 22. Mai: edition humboldt digital, Christian Thomas, Stefan Dumont

• 5. Juni: INSeRT, Felix Helfer, N.N. • 17. Juli: PROPYLÄEN. Goethes Biographica, Martin Prell

• 18. September: DeReKo, Jennifer Ecker, Pia Schwarz, Rebekka Wilm

• 16. Oktober: Klaus Mollenhauer Ausgabe, Max Zeterberg

• 20. November: BERIA Collection, Isabel Compes, Felix Rau

Zielgruppe:

Die Reihe spricht ein breites Publikum mit Bezug zu Sprach- und Textwissenschaften an. Sie ist sowohl für Neulinge, die einen ersten Einstieg in das Thema finden möchten (z.B. Promovierende, Forschende ohne Infrastrukturanbindung), aber auch für im Einsatz von Standards und Tools Versierte, die von Erfahrungen aus ähnlichen Vorhaben profitieren möchten bzw. ebenfalls ihre Erfahrungen mitteilen möchten, gleichermaßen geeignet. Gerne darf diese Einladung also breit weitervereilt werden.

Anmeldung:

Zur Anmeldung für die nächste Veranstaltung bitte hier entlang: https://events.gwdg.de/event/1020/


Die Einladungen für die weiteren Veranstaltungen folgen. Es ist aber bereits auch jetzt möglich, sich für alle Veranstaltungen individuell anzumelden: https://events.gwdg.de/category/284/

❌