普通视图

Received before yesterday

„Ceci n’est pas un texte.“* – Mein Rückblick auf die DHd 2026 in Wien

2026年3月20日 19:17

Fast 600 Menschen kamen zur DHd 2026 unter dem Motto „Not only text, not only data“ an einer der ältesten Universitäten des deutschsprachigen Raums zusammen – und damit zugleich in einer Stadt, in der Kaffeehäuser seit 2011 zum immateriellen UNESCO-Kulturerbe zählen. In fünf Tagen bot die Konferenz eine Mischung aus Workshops, Panels und Postern – einige davon sind mir besonders in Erinnerung geblieben und stehen in diesem Blog-Post noch einmal kurz im Mittelpunkt.

Workshops: Experimentieren, Annotieren, Automatisieren

Wie für die DHd üblich, fanden an den ersten beiden Tagen Workshops statt – insgesamt 18 an der Zahl. Am Montag entschied ich mich für den Workshop „Beyond the Cloud: Democratizing GPU Access for the Digital Humanities with DHInfra.at“, der von Forschenden der Universität Graz und der Universität für Weiterbildung Krems ausgerichtet wurde. Vorgestellt wurde mit DHInfra ein Forschungsinfrastrukturprojekt, das GPU-Ressourcen bereitstellt, um lokale Hardwaregrenzen und Abhängigkeiten von kommerziellen Cloudlösungen zu überbrücken.

Im Workshop erhielten die Teams Zugriff auf DHInfra und arbeiteten mithilfe von Jupyter Notebooks und Large Language Models an der Bereinigung eines historischen Datensatzes mit fehlerhafter OCR. Das Vorgehen war dreistufig angelegt: Zunächst ging es um reines Prompt Engineering, anschließend um das Feinjustieren der Modellparameter, und in einem dritten Schritt wurden synthetische Beispiele erzeugt, um die Genauigkeit weiter zu steigern. Ein gewisser Gamification-Aspekt durfte dabei nicht fehlen: Eine fortlaufend aktualisierte Bestenliste wurde an die Wand projiziert, auf der sich insbesondere Team Fish, Death to AI und Team 1234 ein enges Rennen lieferten.

Am Dienstag nahm ich am Workshop „Film- und Videoanalyse mit VIAN & TIB-AV-A – Grundlagen, Anwendungen und Schnittstellen“ teil. Dabei wurden mit VIAN und TIB-AV-A zwei Tools vorgestellt und praktisch angewendet, die unterschiedliche Möglichkeitsräume in der Arbeit mit Video als Daten eröffnen. Während VIAN als manuelles Annotationstool stärker an klassische filmwissenschaftliche Arbeitsweisen anknüpft und „Annotation als Schule des Sehens“ greifbar macht, eröffnen automatisierte Verfahren wie TIB-AV-A ganz andere analytische Potenziale.

Der zweite Teil des Workshops widmete sich genau diesen Verfahren: Die Teilnehmenden konnten unterschiedliche Methoden der automatisierten Filmanalyse selbst erproben. TIB-AV-A bietet dabei ein breites Spektrum an Funktionen – von Emotionserkennung über Farbanalyse bis hin zur Objektklassifikation. Insgesamt war der Workshop so aufgebaut, dass auch Einsteiger:innen den Weg von der manuellen Annotation hin zur automatisierten Analyse nachvollziehen konnten und ein Gefühl dafür entwickelten, wann ein minimalistisches Tool wie VIAN und wann ein eher umfassendes System wie TIB-AV-A sinnvoll eingesetzt werden kann.

Von Data Selfies, Data Jewellery zu Data Ghosts – Opening Keynote von Miriah Meyer

Eröffnet wurde die Konferenz mit einer Keynote von Miriah Meyer. Sie ist Professorin am Fachbereich Wissenschaft und Technologie der Universität Linköping. Ihre Keynote trug den Titel Data As ___: Exploring the Plurality of Data in Visualization und bot einen Überblick über Konzepte, die Visualisierung und Daten zusammendenken.

Der Begriff „Data“ stand dabei als roter Faden im Vordergrund und wurde unterschiedlich gefasst: Data as Input, Data as Ground Truth, Data as Entangled und Data as Design Material. Sie machte zudem deutlich, dass Daten auch persönlich sind, und stellte eine Reihe von Projekten vor, an denen sie selbst beteiligt war – unter anderem mit Jugendlichen als Zielgruppe. Mit ihnen erprobte sie Methoden des Data Crafting bzw. der Data Physicalization, die von Data Selfies über Data Jewellery bis hin zu Data Ghosts reichten. Besonders spannend für mich war dabei, wie Miriah Meyer mit diesen Ansätzen das Prozesshafte von Daten hervorhob.

Dabei ging sie auch auf unerwartete Nebenprodukte ein: Auf einer physischen Karte sollten Besuchende mithilfe von Stickerpunkten emotionale Orte markieren. Dabei entstanden u. a., wie sie es bezeichnete, Data Graffiti – also Punkte, die sich (absichtlich) zu Wörtern oder Symbolen formten und auf die Miriah Meyer humorvoll verwies. Nach dieser spannenden Perspektive aus der Data-Vis-Community folgte die Eröffnungsfeier mit Schnittchen und Wein, die den Abend stimmungsvoll ausklingen ließ.

Zwischen Klang, Kritik und Virtualität: Der Konferenzmittwoch

Am Konferenzmittwoch begannen die Panels, die das Motto „Not only text, not only data“ auf unterschiedliche Weise einlösten. Den Auftakt meines Tages bildeten Beiträge aus der Digital Musicology, die ein breites methodisches Spektrum abdeckten. Besonders in Erinnerung blieb mir der Vortrag „Soundful Dickens – Sound in Literary Fiction“, in dem Svenja Guhr und Michaela Mahlberg zeigten, wie sich Klangereignisse in literarischen Texten computergestützt erfassen lassen. Ausgangspunkt war dabei die Idee, Klang systematisch zu modellieren, indem lauttragende sprachliche Einheiten identifiziert und hinsichtlich ihrer Intensität beschrieben werden, um so neue Perspektiven auf Dickens’ Romane zu eröffnen.

Gleichzeitig wurde in anderen Vorträgen deutlich, wie produktiv sich die digitale Musikwissenschaft mit Fragen der Datenmodellierung und -infrastruktur auseinandersetzt: So zielte ein Beitrag darauf ab, das XML-basierte MEI-Datenmodell in eine semantisch anschlussfähige RDF-Ontologie zu überführen, während ein anderer zeigte, wie sich mithilfe von Large Language Models quellenbezogene Daten aus der neuen Schubert-Ausgabe automatisiert extrahieren und weiterverarbeiten lassen.

Nach der Mittagspause verschob sich der Fokus hin zur Wissenschaftsgeschichte der DH. Florian Windhager eröffnete das Panel mit Überlegungen zur Rolle und insbesondere zur Verantwortung der Digital Humanities im Kontext einer „zweiten Säkularisierung“ (nach Simon During) und entwarf mit Komplizenschaft, Widerstand, Migration und Nachfolgearbeit vier mögliche Reaktionsweisen. Damit verband er die Frage nach den Digital Humanities mit einem breiteren Nachdenken über Kultur nach der Hochkultur, etwa im Kontext von Konzepten wie „Dopamine Culture“.

Auch die folgenden Beiträge knüpften an diese Perspektivverschiebung an: Anna Maria Neubert analysierte 714 Drittmittelprojekte (1996–2021) aus einer feministischen Perspektive und machte dabei strukturelle Unterschiede in Forschungsnetzwerken sichtbar. Sie schloss mit der Betonung der Notwendigkeit intersektionaler Perspektiven in den Digital Humanities. Das letzte Projekt widmete sich der Landschaft von 866 Wissenschaftsblogs in Deutschland und stellte Fragen nach Open Science und Open Access, etwa im Hinblick auf Standardisierungen wie DOI, ISSN oder Creative-Commons-Lizenzen.

Zum Abschluss des Tages wechselte ich in ein Panel unter dem thematischen Dach „Virtualität“, das sich zwischen Architektur, VR und Eye-Tracking bewegte. Den Auftakt bildeten Überlegungen zur Dokumentationspraxis in der Architekturforschung, vorgestellt anhand von IDOVIR (Infrastructure for Documentation of Virtual Reconstructions), einem Taxonomieprojekt, das sich der Integration vielfältiger Quellen – von physischen und digitalen 3D-Modellen über naturwissenschaftliche Analysen bis hin zu Oral History und Inschriften – widmet.

Vom Physischen ging es anschließend in den virtuellen Raum: Mit ExPresS XR wurde ein No-Code-Tool für die Entwicklung von XR-Ausstellungen vorgestellt, das einen niederschwelligen Zugang zur Gestaltung immersiver VR-Erlebnisse eröffnet. Der Fokus liegt dabei auf Anwendungen im musealen und wissenschaftlichen Kontext – von der Vermittlung über die Forschung bis hin zur kuratorischen Praxis.

Unter der Leitfrage „Was bestimmt die Zeit?“ zeigte der abschließende Vortrag anhand einer Eye-Tracking-Studie, dass sich Aufmerksamkeit im Museum entlang klarer Muster verteilt: Kunstwerke werden länger betrachtet als Texte, Größe und Gattung beeinflussen die Verweildauer signifikant, und Sehen und Lesen stehen in einem engen Zusammenhang.

Ein sehr gelungener Start, der noch einmal deutlich machte, welche Debatten in den Digital Humanities – fernab der Literatur, an ihren Rändern oder im Zusammenspiel mit GLAM – geführt werden.

Doctoral Consortium und Poster-Slam: Mein Konferenzdonnerstag

Meinen Donnerstag begann ich mit dem Doctoral Consortium: Die vorgestellten Projekte reichten von der computergestützten Modellierung literarischer Aufmerksamkeit am Beispiel von Sherlock-Holmes-Erzählungen (Jan Angermeier) über die digitale Kartierung von Akteur:innen der Stonewall-Bewegung und damit verbundene Fragen nach Sichtbarkeit und Gewichtung innerhalb queerer Geschichtsschreibung (Robin Luger) bis hin zur Analyse von 54 sowjetischen Theaterstücken der Jahre 1945 bis 1964, in der Ekaterina Kolevatora familiäre Modelle im Spannungsfeld von Spätstalinismus und Tauwetter-Periode untersuchte.

Ein Highlight des Tages war die Postersession, insbesondere der Poster-Slam, der mit viel Poesie, Star-Wars-Referenzen und sogar aus dem Grab auferstandenen Protagonist:innen überzeugte. Insgesamt wurden auf der DHd2026 fast 100 Poster präsentiert. Der Empfang und die Preisverleihung des Slams fanden am Abend im Rathaus statt und bildeten mit Buffet, Musik und anschließender Party einen gelungenen Abschluss des Tages – in einer besonders schönen Atmosphäre.

Zum Abschluss: Panels und Keynote am Freitag

Der Freitag begann für mich mit Präsentationen aus dem Bereich der Digital Art History, in denen unterschiedliche Zugänge zur computergestützten Bildanalyse zusammenkamen. Ein Vortrag widmete sich der Frage, wie sich Vision-Language-Modelle wie CLIP für kunsthistorische Analysen nutzen lassen und wie ihre Entscheidungen mithilfe von Explainable Artificial Intelligence nachvollziehbar werden können. Dabei zeigte sich, dass die Modelle bei konkreten Objekten überzeugend arbeiten, bei abstrakteren Konzepten jedoch an ihre Grenzen stoßen.

Diese Spannbreite zwischen methodischer Reflexion und praktischer Anwendung setzte sich in den folgenden Beiträgen fort: Mit PortApp wurde eine App zur Analyse und Durchsuchung frühneuzeitlicher Porträts vorgestellt, die sowohl Ähnlichkeitssuchen als auch die Suche mit eigenem Bildmaterial ermöglicht. Gleichzeitig zeigte das Tool „Suchkind“, wie sich multimodale Modelle mit domänenspezifischer Annotation kombinieren lassen, um visuelle Vorstellungen von Kindheit in historischen Kinder- und Jugendbüchern systematisch analysierbar zu machen.

Die Closing Keynote von Katharina Kinder-Kurlanda (Universität Klagenfurt) führte diese Perspektiven auf einer Metaebene zusammen. In ihrem Vortrag „Digital Humanities Unpacked: The Politics and Practices of Data Work“ machte sie deutlich, dass digitale Daten stets in komplexe Machtverhältnisse, Infrastrukturen und gesellschaftliche Kontexte eingebettet sind, und plädierte dafür, die Digital Humanities als kritische Disziplin zu verstehen, die nicht nur Methoden anwendet, sondern auch deren politische und epistemologische Implikationen reflektiert.

Dies bildete den Abschluss der sehr erfolgreichen #DHd2026 in Wien. Ich freue mich schon jetzt auf die DHd2027 in Marburg unter dem Titel „Mind the Gap! – Wissen, Unsicherheit und Verantwortung“ (1.–5. März 2027 am MCDCI).

Und möchte mich an dieser Stelle herzlich bei NFDI4Culture und dem DHd bedanken, die mir durch das Reisestipendium die Teilnahme an dieser inspirierenden Konferenzwoche in Wien ermöglicht haben. Neben zahlreichen inhaltlichen Impulsen, die genau an die Schnittstellen anknüpfen, an denen ich mich künftig verorten möchte, nehme ich vor allem die Begegnungen mit – eine wachsende Kontaktliste und einige neue WhatsApp-Gruppen, die die DH-Community einmal mehr als offen, lebendig und vernetzt zeigen.

*Der Titel bezieht sich übrigens auf einen Satz, den ein Konferenzteilnehmer auf seinem LED-Badge hatte – ein Goodie aus dem Konferenzbeutel, das selbst programmiert werden konnte und auf dem die vergnüglichsten Aussagen angezeigt wurden, u. a. selbstverständlich „I love DHd“.

Von Alica Müller 

Die Philosophie von Maß und Morphem – Fantastische Daten und wo sie zu finden sind

2026年3月18日 02:31

Ein Reisebericht der DHd 2026

Mit dem Bachelorzeugnis in der einen und der Zulassung zum Digital Humanities-Studium in der anderen Hand fühlte ich mich zu Beginn der DHd doch ein wenig wie Jacob Kowalski, als er das erste Mal mit der Welt der Zauberer und Hexen in Kontakt kam. Alles wirkte auf eigenartige Weise vertraut und doch – ja, wie sollte man es anders beschreiben – magisch.

Aus der englischen Linguistik kommend, trug ich einige Fragen mit in das erste Semester meines Masterstudiums. Eine davon drängte sich besonders in den Vordergrund: Wo stehen die Digital Humanities in einer Welt, in der doch Natur- und Geisteswissenschaften so klar und fein säuberlich getrennt scheinen? Es mag genau dieser Schein sein, der trügt. Gerade in der Sprachwissenschaft ist diese Linie noch mit Leichtigkeit wegzudenken. Doch wie könnte man überhaupt versuchen, das menschliche Verlangen nach Bedeutung von sich und der Welt, welches über Jahrhunderte in Bild und Schrift festgehalten wurde, mit reduktiven Ansätzen zu quantifizieren? Ein Algorithmus könnte doch unmöglich die irrationalen und subtilen Gefühls- und Denkweisen nachvollziehen, die uns Menschen so vertraut sind. Genau mit diesen Fragen beschäftigt sich der Essay „Meursault as a Data Point“ von Abhinav Pratap. Seine philosophische Sichtweise stimmte mich in den Tagen vor Beginn der DHd-Jahreskonferenz neugierig und offen dafür, als „Neuling“ in diesem Bereich meine eigene Meinung zu formen. Das majestätische Gebäude der Universität Wien begrüßte mich mit der Eleganz der Neurenaissance an jenem Montagmorgen. Passend zu dem Leitmotto der diesjährigen Konferenz dachte ich mir: „In jedem Text findet man Daten; doch gilt dies auch andersherum?“

Die Konferenz wurde in meinem Fall von Mark Hall von der The Open University (UK) mit seinem Workshop Arbeiten mit der μEdition eröffnet. In seiner dazugehörigen DHd-Publikation stellte er sich unter anderem die Frage: „[…] [W]ie viel Edition braucht eine Edition, um eine Edition zu sein?“ (Hall, 2026). Wir durften in dem Workshop ein praxisfähiges Tool mit Community-Zugang ausprobieren. Ich sah dies als eine angenehme Gegenbewegung zur totalen Datenlogik. Die μEdition arbeitet mit Blick auf pragmatische Produktions- und Publikationspfade, unter anderem mit statischen HTML-Ausgaben und niederschwelligen Wegen, um Editionen für Forschende zugänglich zu machen und den „Publikationsflow“ zu vereinfachen (Hall, 2026). Was in seinem Projekt ebenfalls eine große Rolle spielt, ist, dass nicht alles sofort auf maximale Komplexität ausgelegt sein muss. Vielmehr sollen Einstiege erleichtert werden und damit auch das Wachstum der jeweiligen Edition. Nicht nur Text bedeutet hier also Publizieren: Es geht auch darum, Editionen für alle zugänglich zu machen und dabei mit kleinen Ressourcen arbeitsfähig zu bleiben.

Als Sprachwissenschaftlerin stolperte ich in meinem Bachelorstudium nur selten über literaturwissenschaftliche Annotation. Umso erfrischender war für mich der Workshop, an dem ich am zweiten Tag der DHd teilnehmen durfte. Graphbasierte Text- und Wissensmodellierung mit dem ATAG-Editor und Entity-Manager wurde geleitet von Maximilian Michel, Sebastian Enns, Vincent Neeb und Andreas Kuczera von der Akademie der Wissenschaften und der Literatur Mainz sowie der Technischen Hochschule Mittelhessen. Komplementär zur μEdition adressiert ATAG die Frage, wie man Text so speichert bzw. modelliert, dass das Datenmodell dem editorischen Denken näherkommt. In der ersten Theoriephase wurden alle Teilnehmenden in die browserbasierten Tools, den ATAG-Editor und den Entity-Manager, eingeführt. In der Praxisphase wurde jedem von uns ein Text ausgeteilt, mit dem wir unseren eigenen Regest, aufgeteilt in Summary, Archival History und Commentary, erstellen durften. Anschließend wurde uns freigestellt, die Tools zu testen und „wild drauf los“ zu annotieren (je nach Vorliebe). Zum Schluss wurde uns die Verknüpfung unserer Texte, Annotationen und Entitäten in einem Netzwerk auf Basis von Labeled Property Graphs visualisiert. Ich empfand dieses Tool als wunderbare Möglichkeit für webbasierte und vor allem kollaborative Annotation und es hat mir persönlich gezeigt, dass Text nicht bloß einer Kategorie angehört, sondern auch eine Praktik selbst ist.

 

„Dinge sind […] nicht nur einfach wahrzunehmende „Gegenüber“, sondern sie konstruieren die Umwelt des Menschen und bestimmen die Möglichkeit seines Handelns.“ (Peter Hahn, Materielle Kultur, 2014, S. 31)

 

Sind Zeichnungen, Bilder, Gemälde und Abbildungen auch Dinge im Sinne des obigen Zitats? Der Vortragsblock zu Digital Art History zeigte mit sehr interessanten Anwendungspraktiken den „Zustand“ der Digital Humanities in Bezug auf die Analyse von historischen Bilderzählungen und mittelalterlichen Manuskripten bis hin zur Erkennung von Pflanzen in Herbarien und Drucken. In den Vorträgen wurde unter anderem gezeigt, wie schwer es ist, Figuren (z. B. Maria oder den Engel Gabriel in Verkündigungsszenen) zuverlässig über Stile hinweg zu erkennen. Es wurde argumentiert, dass unter anderem Gesichtsdaten für eine erfolgreiche Analyse nicht ausreichen und es an Kontext im Sinne von zugehörigem Körper und Umgebung bedarf, um die Erkennung zu verbessern. Die Kernfrage lautet hier: Was zählt als Signal und was als Rauschen, wenn Kunstwerke zu Datensätzen werden?

Auch die Automatisierung des Klassifikationssystems ICONCLASS wurde behandelt. Dieses wurde seit den 1940er-Jahren für Bildinhalte entwickelt und wird heute in vielen kulturellen Sammlungen zur inhaltlichen Erschließung verwendet (Thomas, n. d.). Da die manuelle Vergabe solcher Klassifizierungscodes aufwändig ist, nutzen neue Automatisierungsansätze multimodale Modelle, Vektorsuche und Retrieval-Augmented Generation (RAG), um Iconclass-Klassifikationen aus Bildbeschreibungen abzuleiten, und berichten teils deutlich bessere Ergebnisse als reine Keyword-Methoden (Thomas, n. d.).

 

Mit diesen Ansätzen werden Bilder zu:

  • Daten (Computer Vision, Feature-Extraktion, Klassifikation)
  • Bedeutung (ikonographische Kategorien)
  • Interpretation (Ambiguität, Kontext, Fehlklassifikation)

 

Der damit erzeugte Modelloutput ist dabei nicht einfach Bedeutung, sondern eine konstruierte Leseart, die sehr produktiv sein kann, jedoch immer wieder neu interpretiert werden muss, um auf blinde Flecken aufmerksam zu werden.

Nach den wunderbaren Vorträgen habe ich am Donnerstag meine ganz persönliche Winkelgasse und damit auch mein Highlight der DHd gefunden: die Postersessions.

Umgeben zu sein von so vielen talentierten, motivierten Forschenden, die die verschiedensten Projekte vorstellen, ließ keinen Nischenwunsch offen. Ich hatte das Glück, drei Personen für ein kleines Interview zu gewinnen.

Anja Gerber von der Klassik Stiftung Weimar adressiert mit NFDI4Objects die Zusammenführung heterogener Daten zu materiellem Kulturerbe und nutzt dafür Anschluss an Modelle wie CIDOC CRM bzw. Crosswalk-Ontologien. Das von ihr vorgestellte Projekt ist ein schönes Beispiel für Daten als semantische Vermittlung zwischen den Communities der Archäologie, Museen, Restaurierung und Forschung.

Der Posterbeitrag von Nina Brolich von der Universität Erfurt beschäftigt sich mit der Frage: Welche Infrastrukturen zwingen uns zu bestimmten Fragestellungen? Und welche öffnen neue Alternativen? Mit ihrem Projekt Edge AI zeigt sie, dass sich Aufgaben in den DH wie Entity Recognition auch lokal und mobil auf Mikrocontrollern mit einfacher Netzwerkarchitektur lösen lassen – im Kontrast zu der Idee, dass alles über immer größere Rechenressourcen laufen müsse.

Schließlich hat mich Erik Radisch von der Sächsischen Akademie der Wissenschaften zu Leipzig in das Projekt eines 3D-Positionssystems für Zeichnungen und Bilder in den Höhlen von Kucha in Zentralasien eingeführt. Hierbei wird versucht, die Wandgemälde, die teils entfernt und in Museen gebracht wurden, zu dokumentieren und ihren ursprünglichen Standort zu rekonstruieren. Dabei adressiert er auch das Modellierungsdilemma, dass schematische Darstellungen Bereiche erzeugen können, die es so im Original nicht gibt, und dass man bei diesen Verzerrungen methodisch mitdenken muss. In jedem Fall war es eine tolle Erfahrung, in den Stand des Projekts mit der bereitgestellten VR-Brille einmal selbst eintauchen zu dürfen.

Ob Kaffeepause, Rathausempfang, Posterslam, Eröffnungsfeier oder Exkursion: Die DHd2026 war von der Einführungs- bis zur Abschlusskeynote eine wahrlich magische Erfahrung. Ein großes und von Herzen kommendes Dankeschön geht hierbei an CLARIAH-AT, die mir mit der Vergabe des Stipendiums einen großen Schritt in meine persönliche Entwicklung als Forscherin in den Digital Humanities und zugleich die Erfahrung einer wunderbaren und inspirierenden Community ermöglicht haben.

Für all die Workshops, Poster Sessions und Vorträge finden Sie, liebe Leserinnen und Leser, alle wissenschaftlichen Essays, Links und Nennungen sowie weiterführende Literatur am Ende dieser Seite. Gerade für diejenigen, die erst seit kurzem den Wind der DH in ihren Segeln spüren, kann ich nur wärmstens empfehlen, sich dieser Literatur zu widmen. Wer weiß, vielleicht erweitert sie auch Ihren Horizont und führt Sie auf ganz neue, unerwartete Gewässer.

Nun, von Harry Potter zur Seemannsweisheit – so richtig entscheiden konnte ich mich in meinen verwendeten Metaphern ja nicht. Und wie sieht es mit meinem anfänglichen Dilemma der DH und der vielen unbeantworteten Fragen aus? Geisteswissenschaften existieren nicht ohne die komplexen Fragen menschlicher Existenz. Informationswissenschaft wiederum arbeitet mit quantifizierbaren Strukturen, die Daten greifbar machen. Die Digital Humanities erscheinen mir deshalb weniger als Kompromiss zwischen beiden Welten, sondern eher als ein Raum der Symbiose; ein Ort, an dem Interpretation und Modellierung nebeneinander existieren können. Und vielleicht ist es genau diese dritte Instanz, die während der DHd am deutlichsten hervortrat: der Forschende selbst, der zwischen Daten und Bedeutung vermittelt und ihnen Bedeutung gibt.

Storymap und Netzwerkvisualisierung

Um diese vielen Eindrücke, Projekte und Methoden nicht nur erzählerisch, sondern auch visuell darzustellen, habe ich im Anschluss an diesen Blogbeitrag eine kleine digitale Dokumentation erstellt. Eine StoryMap führt durch meine persönlichen Stationen der Konferenz, während eine Netzwerkvisualisierung die Verbindungen zwischen den erwähnten Projekten, Methoden und Forschenden veranschaulichen soll. Die Knoten der Netzwerkanalyse repräsentieren Forschende, Projekte, Institutionen und methodische Ansätze, während die Kanten ihre thematischen Verbindungen darstellen. Betrachtet man das Ergebnis, erkennt man, wie stark die Digital Humanities von interdisziplinären Verknüpfungen zwischen Edition, Kulturerbedaten, visueller Analyse und digitalen Modellierungsverfahren geprägt sind.

Beide Visualisierungsformen verstehen sich als Versuch, die verknüpften Wege der DHd auch mit Methoden aus dem eigenen Fachgebiet abzubilden – selbstverständlich völlig experimentell.

Literatur

Hall, M. (2024). Edition & niederschwellige digitale Editionen.

Kuczera, A. (2024). Applied Text as Graph: ATAG – Graphbasierte Text- und Wissensmodellierung.

Mandl, T. (2026). Plants in historical herbarium collections (DHd2026 Beitrag).

Pratap, A. (2025). Meursault as a Data Point. Essay.

Prathmesh M.., et al. (2020). Recognizing characters in art history using deep learning.

Thomas, D. B. (n.d.). Automating Iconclass: LLMs and RAG for large-scale classification of religious woodcuts.

 

Interviews

Brolich, N. (2026, 27. Februar). DH on the Edge [Poster session interview].

Gerber, A. (2026, 27. Februar). Vom Objekt zum Wissensnetz [Poster session interview].

Radisch, E. (2026, 27. Februar). 3D Positioning System for the Paintings in the Caves of Kucha [Poster session interview].

 

Verwendete Materialien

  • DHd2026 Konferenzprogramm
  • Poster Sessions
  • Workshopmaterialien der Vortragenden

Weiterführende Literatur

De Boer, V., et al. (2024). Hybrid Intelligence for Digital Humanities.

Peck, E. (2019). Data is personal: Approaches to making data tangible. Linköping University.

Hullman, J. (2019). Why authors don’t visualize uncertainty. IEEE Transactions on Visualization and Computer Graphics.

Meine DHd2026-Erfahrungen

2026年3月16日 21:26

Diesen Beitrag schreibe ich nach meinem Besuch der DHd2026-Konferenz, die für mich eine wertvolle Quelle für Wissen, Inspiration und neue Perspektiven in meinem Fachgebiet war. Sie hat mir geholfen, besser zu verstehen, in welche Richtungen ich mich in diesem Bereich weiterentwickeln kann. Diese Möglichkeit verdanke ich der Förderung durch NFDI4Culture, für die ich sehr dankbar bin.

Eine anklickbare Version der Präsentation über meine Teilnahme an der Konferenz finden Sie unter folgendem Link .


Alle Fotos in der Präsentation wurden von mir, der Autorin des Beitrags Anastasiia Shkliarenko, während meiner Teilnahme an der Konferenz in Wien aufgenommen.

Nicht nur Text, nicht nur Daten: Erfahrungen von der DHd 2026 in Wien

2026年3月13日 00:39

Ich bin mit großer Vorfreude und dank des Reisekosten-Stipendiums des DHd-Verbandes zur DHd 2026 nach Wien gefahren. Die Universität Wien machte bereits beim Ankommen einen sehr imposanten Eindruck. Gleich am ersten Tag startete ich mit dem Workshop „Beyond entities: Inhaltsbasierte Erschließung digitaler Editionen mit KI“. Dort haben wir uns erst zu den Grundlagen von RDF und zu Ontologien wie z. B. FOAF bringen lassen, bevor wir praktisch wurden: Mithilfe vorgefertigter Jupyter-Notebooks und Beispieldatensätzen probierten wir verschiedene LLM-Modelle mit unterschiedlichen Parametern aus und schauten uns die Ergebnisse der RDF-Tripel-Extraktion an. Ein spannender und sehr praxisorientierter Einstieg.

Am nächsten Tag war ich beim Workshop „LLMs unter Kontrolle: Offene Modelle in Forschung und Praxis“. Der Workshop zielt genau auf das, was ich als Nachwuchswissenschaftler wichtig finde: einen transparenten und reflektierten Umgang mit generativer KI in den Digital Humanities zu fördern. Von besonderer Bedeutung für mich war der methodische Einsatz von LLMs in der eigenen Forschung. Die praktische Arbeit mit lokalen, offenen Modellen wie OLMo 2 (1B) und OLMo 3 (7B) über LM Studio zeigte, wie viel Kontrolle und Reproduzierbarkeit man dadurch gewinnt. Zugleich wurde deutlich, wie problematisch proprietäre Online-Modelle sein können, weil sie sich verändern, Outputs nicht dauerhaft dokumentiert sind und Trainingsdaten sowie Gewichtungen oft intransparent bleiben. Der darauffolgende Theorie-Block vermittelte entsprechende Evaluationsstrategien für den Einsatz solcher Modelle. Abschließend fand eine Reflexionsrunde statt, die dazu anregte, mögliche Use Cases für die eigene Forschung neu zu denken.

Zwischendurch besuchte ich Vorträge, die von technischen Umsetzungen bis zu praktischen Anwendungen reichten: Die Präsentation zur „Digitalen Erschließung des Schematismus“ demonstrierte eindrucksvoll, wie aus historischem Druck durch OCR, NER und Transformer-Modelle schrittweise eine vernetzte Graphdatenbank entsteht, mit dem Ziel, Personen verbindlich Verwaltungseinheiten zuzuordnen.

In den Poster-Sessions wurden viele überaus interessante Poster präsentiert. Eines davon befasste sich beispielsweise mit der Frage: „Wie kompatibel ist meine Bibliothek mit Digital Humanities?“ und erinnerte daran, dass Digital Humanities oft schon in den eigenen Beständen stecken und nur gefördert werden müssen.

Der Vortrag „Semantic Modelling of Intermedial and Intertextual References in Comics“ zeigte das epistemische Potenzial semantischer Modellierung: Am Beispiel von „Sibylla“ zeigte sich, wie Wissensgraphen literarisches und visuelles Wissen strukturiert, transparent und interoperabel abbilden können. Gerade für intermediale Forschung ein großer Gewinn. Ebenso praxisnah war der Beitrag zu „Fachspezifische Datenmodelle als Brücke zwischen materieller Kultur, Theorie und Praxis“: die Arbeit mit WissKI Barrels erschien mir als echter Gamechanger für kleinere Museen, weil sie Nachhaltigkeit und sofortige Einsatzfähigkeit im Sammlungsdaten-Lebenszyklus verbindet und damit Theorie und Praxis greifbar zusammenbringt.

Den Abschluss der Konferenz bildete die Keynote, die viele der zuvor diskutierten Fragen noch einmal auf einer übergeordneten Ebene bündelte: Ausgehend von der Kritik an Big Data als vermeintlichem Paradigmenwechsel wurde deutlich, dass digitale Daten keineswegs neutral oder automatisch erkenntnisfördernd sind. Vielmehr bestimmen Plattformen, APIs und intransparente Algorithmen maßgeblich, welche Daten überhaupt zugänglich sind und wie valide Forschungsergebnisse sein können. Besonders eindrücklich war der Punkt um Forschungsethik und den Umgang mit Social-Media-Daten, wie etwa die Frage nach Anonymisierung, Einwilligung und Zitierpraxis. Das zentrale Plädoyer lautete, statt nur kritische Distanz einzunehmen, eine „kritische Nähe“ zu Daten zu entwickeln: Verzerrungen und Lücken nicht nur zu bemängeln, sondern sie als Teil des analytischen Prozesses produktiv zu machen und die Politik der Daten sichtbar werden zu lassen. Für mich rundete dies Keynote den Kongress perfekt ab. Sie verband technische Praxis, ethische Reflexion und wissenschaftstheoretische Perspektive zu einem klaren Auftrag für die zukünftige Arbeit in den Digital Humanities.

Insgesamt nehme ich aus Wien nicht nur vielfältige Impulse und die fachlichen Erkenntnisse mit, sondern auch, das Gefühl mit den Digital Humanities eine wissenschaftliche Community kennengelernt zu haben, die einen sehr herzlichen, neugierigen und manchmal auch etwas selbstironischen Geist in sich vereint, mit dem ich mich sehr verbunden fühle.

Rückblick zur DHd2026 – Ein Konferenzbericht aus Wien

2026年3月11日 22:43

Dieser Beitrag entstand im Rahmen eines Early Career Reisestipendiums von CLARIAH-AT für die DHd2026 in Wien. Herzlichen Dank für die Ermöglichung dieser Teilnahme.

Was macht eine wissenschaftliche Community aus? Und gehöre ich dazu? Diese Frage hatte ich im Gepäck, als ich als Masterstudierende der Digital Humanities an der Universität Regensburg zum ersten Mal zur DHd fuhr. Die DHd2026 war meine erste große DH-Konferenz und eine Einladung, die Community nun endlich live zu erleben. Das Ziel: Wien.Eine prachtvolle Stadt, eine beeindruckende Universität und ein Tagungsthema, das neugierig macht: Not just text, not just data. Was steckt in den Digital Humanities jenseits von Textkorpora und Datentabellen? Die Konferenz hat darauf viele spannende Antworten geliefert.

GPU für die GW – aber bitte DSGVO-konform

Der erste Konferenztag führte mich in den Halbtagsworkshop „Beyond the Cloud: Democratizing GPU Access for the Digital Humanities“ des DHInfra-Teams der Universität Graz und der Universität für Weiterbildung Krems. Der Bedarf an rechenintensiven Methoden wächst in der DH rasant, während kommerzielle Anbieter wie AWS oder Google Colab ernsthafte Fragen zu Datenschutz und Datensouvränität aufwerfen. DHInfra setzt hier mit einer föderierten, DSGVO-konformen GPU-Infrastruktur an. Der Workshop war dabei mehr als eine Demonstration, er diente als finale Testphase vor dem offiziellen Launch, in der die Teilnehmenden LLMs feintunen und API-basierte Workflows entwickeln konnten und gleichzeitig direktes Feedback zur Plattform gaben.

Data as…

Den Auftakt der Konferenz bildete am Abend die Eröffnungskeynote von Miriah Meyer mit dem Titel „Data as…: Exploring the Plurality of Data in Visualization“. Mit einer scheinbar simplen Frage: „Was sind eigentlich Daten?“ eröffnete sie ein breites Panorama: Daten als Input, als Ground Truth, als Design Material, als etwas Verflochtenes. Wer diese Rahmungen explizit benennt und hinterfragt, gewinnt neue Perspektiven auf Visualisierungen und die eigene Forschungspraxis. Beim anschließenden Empfang wurden diese Gedanken in Gesprächen weitergeführt. Ein schöner Beweis dafür, wie eine gute Keynote eine Konferenz inhaltlich in Gang setzt.

Annotieren: Mensch, Maschine oder beides?

Am zweiten Tag folgte der ganztägige Workshop „Film- und Videoanalyse mit VIAN & TIB-AV-A“. Die zentrale methodologische Frage: Wann annotieren wir manuell, wann die Maschine? VIAN Light macht diese Spannung produktiv, indem es manuelle Annotation mit automatischer Einstellungserkennung kombiniert und damit Raum lässt für das, was Eva Hielscher „Doing ELAN“ nennt: den Annotationsprozess selbst als erkenntnisleitenden Akt. Das Fazit des Tages: Automatisierung ersetzt die manuelle Annotation nicht. Hybride Workflows, die beides kombinieren, sind der Schlüssel.

Die Politik der Daten

Besonders nachhaltig haben mich zwei Panels beschäftigt. Im Panel „KI als Belastungsprobe für das offene Internet“ diskutierten Klaus Rettinghaus, Sarah Oberbichler, David Maus und Grischka Petri, was der Boom generativer KI bedeutet: Bot-Traffic, der sich als menschlich tarnt, blockierte Archive, ignorierte Lizenzen. Die Kernfrage: Welche Infrastrukturen bauen wir auf, welche Daten legen wir unter welchen Bedingungen offen? Das sind im Kern politische Entscheidungen und Geisteswissenschaftler:innen können mit ihrer kritischen Datenperspektive aktiv mitgestalten.

Das Panel „The Dark Sides of DH revised: From Utopia to Reality“ richtete den Blick nach innen: auf sprachliche Vielfalt, feministische Datenpraktiken, Repräsentation und ein erweitertes Verständnis von Nachhaltigkeit jenseits von Effizienz. Was mich überzeugte, war der konstruktive Grundton: Es ging nicht nur darum, Probleme zu benennen, sondern gemeinsam darüber nachzudenken, was die DH werden könnte, wenn wir diese Lücken ernst nehmen.

Research Software, Posterslam und Empfang im Wiener Rathaus

Ein weiteres Panel widmete sich Research Software Engineering. Sabina Mollenhauer plädierte für eine Richtungsumkehr: Ethnografische Methoden könnten aktiv zur Gestaltung nachhaltiger Research Software beitragen statt Wissen nur von STEM zu übernehmen. Kevin Kuck und Kevin Wunsch zeigten, wie automatisierte Workflows in Editionsprojekten Raum für inhaltliche Forschung schaffen. Kristin Herold, Hizkiel Alemayehu und Daniel Jettka diskutierten am Beispiel Edirom Online, wie Software nach Projektende überlebt: durch Modularisierung, Community-Building und gezielte Kleinstförderungen.

Ein Highlight der Konferenz war der Posterslam: In kürzester Zeit überzeugten die Slamenden das Publikum von ihrer Forschung, gemessen per Lautstärkemessgerät, Kostüme und popkulturelle Referenzen inklusive. Eine mitreißende Einleitung zu zwei Postersessions, bei denen Zeit für viele spannende Gespräche war.

Daten sind nie neutral

Den krönenden Abschluss des letzten Abends bildete der Empfang im Wiener Rathaus, ein sehr imposanter und beeindruckender Rahmen für eine Konferenz, die inhaltlich als auch atmosphärisch viel zu bieten hatte. Und passend zum Gastgeber durfte musikalisch natürlich auch Falco und der Wiener Walzer nicht fehlen.

Was bleibt

Was mich überrascht hat, war die Atmosphäre: offen, vielfältig, von echtem gegenseitigem Interesse geprägt. Gespräche entstanden schnell und unkompliziert, über Fachgrenzen und Karrierestufen hinweg. Als jemand, die gerade mitten im Studium steckt, war es besonders wertvoll, das Gefühl zu haben, wirklich Teil einer Community zu sein, nicht nur Beobachterin.

Das Stipendium von CLARIAH-AT hat mir nicht nur die Reise nach Wien ermöglicht, sondern einen Einblick gegeben, worum es in den Digital Humanities im besten Sinne geht: das gemeinsame Nachdenken über Methoden, Infrastrukturen und Verantwortung, mit Menschen, die das wirklich ernst nehmen.

Sophia Babl, Masterstudium Digital Humanities, Universität Regensburg

From Modelling to Transcription: Workshop Notes from DHd2026

2026年3月11日 22:25

During DHd2026 in Vienna, many discussions revolved around how digital tools shape the way we work with texts and data. Instead of trying to summarise the entire conference, this blog post focuses on the workshops I attended during the first days and on a few ideas that stayed with me throughout the week.

Looking back at my notes, I realised they already suggested a structure for this post. The workshops I attended raised questions about modelling, transcription, and data that later reappeared in other panels and keynotes during the conference.

Note 1: Starting with Practice

My first two days at the conference were shaped by workshops, and that felt like a good way to begin. Rather than starting with big claims about digital humanities, I started by sitting down with tools, notebooks, scripts, and a lot of practical questions.

On the first day, I attended the workshop “Beyond Entities: Inhaltsbasierte Erschließung digitaler Editionen mit KI.” We worked with Python, APIs, and Jupyter notebooks to extract RDF triples from TEI-encoded early modern letters. What I found especially interesting was that the workflow did not stop at named entities. Instead, it tried to model conceptual relations in the texts. Themes such as emotion, illness, or social order became part of a semantic structure that could then be visualised and analysed further.

Titelfolie des Workshops "Beyond Entities" im Rahmen der DHd2026 in Wien.

I liked that this workshop stayed close to the material while still asking what kinds of structures can be made visible through computational methods. It also made very clear that modelling is never neutral. Even at the level of prompts and extraction rules, decisions shape what the final data looks like.

Note 2: From Audio to Text

The second workshop I attended, “Vom Audio zum Text: Automatisierte Transkriptionen mit Whisper,” shifted the focus from written material to spoken language. We looked at automated transcription workflows, compared tools, and worked through Python-based pipelines for transcription and speaker diarisation.

Titelfolie des Workshops "Von Audio zu Text" vom Data Science Center im Rahmen der DHd2026

What stayed with me most was the discussion after the practical part. Our reflections quickly clustered around three terms: transfer, opportunities, and limits.

The question of transfer came up in relation to both teaching and research. We talked about how automated transcription might be built into thesis work, methods courses, or training materials. There were ideas about shared standards, open educational resources, and also about making these workflows usable for people who are not deeply technical.

The opportunities were easy to see. Automated transcription can save time, give a quick overview of larger amounts of audio material, and make certain kinds of corpus building much more realistic. Reusable code and adaptable workflows also make it easier to test different research setups.

At the same time, the workshop discussion was just as much about the limits. In qualitative work especially, transcripts are never just raw text. Things like pauses, laughter, overlap, hesitation, and speaker dynamics matter, and automated systems do not capture all of this equally well. We also kept coming back to transparency, validation, and the need to check what a model is actually doing. 

For me, this workshop was useful precisely because it did not present automation as a magic solution. It showed where these tools can help, but also where they flatten the material.

Note 3: The Keynote as a Frame

Only after these two workshops came the opening keynote by Miriah Meyer, “Data As ___________: Exploring the Plurality of Data in Visualization.” By that point, I already had the workshop experiences in mind, and that made the keynote even more interesting to listen to.

What I took from it was not one single definition of data, but the opposite. Data appeared here as something plural, shaped, and dependent on context. Meyer spoke about data as entangled, as design material, and as connection. That fit surprisingly well with what I had just seen in the workshops. Whether we are extracting semantic triples from letters or producing transcripts from audio, data do not simply appear ready-made. They are produced through tools, settings, modelling choices, and research interests.

The question “Is data graffiti data?” while looking at sticker emojis museum visitors made on a data sheet, stayed with me because it made this point in a way that was funny and sharp at the same time. It pushed against the idea of data as something clean and self-evident.

Looking Back at the Rest of the Week

For me, the workshops were an amazing start to DHd2026 because they made it possible to move back and forth between trying things out and thinking about what those methods actually imply for research practice.

As the conference continued, I noticed that many of the themes from the workshops reappeared in other sessions. Panels such as “Not Just Text, Intertext!” and projects like NAKAR returned to questions of modelling, connection, and interpretation. The final keynote by Katharina Kinder-Kurlanda then made the political and epistemic side of data work even more explicit.

Looking back at my notes now, this connection between experimentation and reflection is probably my main takeaway from the week. The interesting part is not only that digital tools can do more and more. They also force us to ask more precise questions about modelling, interpretation, transparency, and what we even mean when we call something data. In that sense, the workshops were not just an introduction to tools, but also to the questions that come with using them.

 

This blog post was written as part of a travel grant for the DHd 2026 conference. My sincere thanks go to NFDI4Memory for supporting my participation, and to the conference organizers for their excellent work in making the event such a positive experience.

Wie steht es um die Sichtbarkeit von Frauen und Queerness in den Digital Humanities? Ein Blick in die Dhd-Jahreskonferenz 2026 in Wien.

2026年3月7日 00:11

Nicht nur Text, nicht nur Daten unter diesem Motto fand die Dhd-Jahreskonferenz in der letzten Februarwoche an der Universität Wien statt. Eine Vielzahl an unterschiedlichsten Workshops, Panels und Postern repräsentierten das breite Themenspektrum der Digital Humanities. In diesem Blogartikel wird ein exemplarischer und persönlicher Eindruck wiedergegeben, der unter einem Schwerpunkt steht: die Sichtbarkeit von Frauen und Queerness in den Digital Humanities – ein Thema, das sowohl methodische als auch ethische Fragen aufwirft und zeigt, wie stark Daten und ihre Interpretation von gesellschaftlichen Normen geprägt sind.

Queere Perspektiven und der Gender Data Gap

Der Workshop „Beyond ‘m/w/d‘ – Queere Perspektiven auf die Modellierung geschlechtlicher Diversität“ (geleitet von Philipp Sauer und Franziska Naether, sowie mit Vorbereitung von Peter Mühleder, alle von der Sächsischen Akademie der Wissenschaften) setzte sich kritisch mit der Erfassung und Darstellung von Gender in Forschungsdaten auseinander (https://www.bbaw.de/gender-data). Ausgangspunkt ist der Gender Data Gap – das systematische Fehlen oder die unzureichende Berücksichtigung von Frauen und nicht-binären Personen in Datensätzen, das u.a. Caroline Criado Perez in „Invisible Women“ oder im von Sarah Lang und Elena Cronauer verfassten Paper „Beyond Data Feminism. Towards Ethical Data Work in the (Digital) Humanities“ (https://zfdg.de/wp_2026) thematisiert. Gerade in historischen Forschungen geht dieser Datenlücke eine Quellenlücke voran, was eine lückenahfte Überlieferung von Quellen, die von Frauen oder über Frauen und queeren Personen verfasst wurden, bedeutet.

Die anschließenden Beispiele aus aktuellen Forschungen der Workshop-Teilnehmenden zeigten, wie komplex die Modellierung von Gender ist und welche Fragen Forschende sich vor Arbeitsbeginn stellen sollten:

  • Relevanz für die Forschung: Ist die Erfassung von Gender für die konkrete Fragestellung überhaupt notwendig?
  • Umgang mit Unsicherheiten: Wie geht man mit fehlenden Informationen um? Darf man als Forscher:in einer Person ein Geschlecht zuschreiben?
  • Kategorienbildung: Sollte man nur „Frauen“ und „Männer“ erfassen oder auch FLINTA* oder “alles außer cis-Männer”?
  • Temporale Dynamik: Wie werden Änderungen der Geschlechtsidentität über die Zeit abgebildet?
  • Sprachliche Normen: Wie geht man mit dem generischen Maskulinum in bestehenden Vokabularen um?

Ein zentrales Dilemma ist die Abwägung zwischen Sichtbarkeit und Sicherheit: Geschlechtsbezogene Daten sind immer sensibel und eine ungewollte Offenlegung von Geschlechtsidentitäten oder sexueller Orientierung muss unbedingt vermieden werden, selbst wenn dadurch wissenschaftliche Erkenntnisse verloren gehen.

Bestehende Möglichkeiten zur standardisierten Erfassung von Geschlechtskategorien in Normdaten bieten keine zufriedenstellende Lösungen, wie der konservative Ansatz der GND mit den Kategorien „weiblich“, „männlich“, „unbekannt“ zeigt, aber auch Wikidata, die zwar über 100 Gender-Konzepte zulassen, welche aber oft vage definiert oder überlappend sind.

Sichtbarmachung weibliche Theaterautorinnen in der Weimarer Republik: Das Beispiel „Die Schaubühne“

Am zweiten Konferenztag bot eine Exkursion in das Austrian Center for Digital Humanities der Österreichischen Akademie der Wissenschaften Einblicke in deren aktuelle DH-Forschung. Ein vorgestelltes Projekt ist die digitale Edition von „Die Schaubühne“, einer einflussreichen Theater- und Kulturzeitschrift der Weimarer Republik, welche vom Berliner Theaterkritiker Siegfried Jacobsohn 1905 gegründet wurde. Als zentrales Forum der Weimarer Republik setzte sie sich mit zahlreichen zeitgenössischen Autor:innen auseinander und explizit auch mit weiblichen Theaterautorinnen, wie beispielsweise Henriette Riemann und Else Onno. Die digitale Aufbereitung der Zeitschrift und der thematisierten Autor:innen zeigt, wie die DH dazu beitragen können, historisch marginalisierte Stimmen sichtbar und für die Forschung weiter nutzbar zu machen (https://www.oeaw.ac.at/de/acdh/forschung/literaturwissenschaft/ressourcen/korpora/die-schaubuehne).

Ein Tool für eine diversitätsbewusste Datenpraxis: Das Vornamentool Hivoto

Am dritten Tag präsentierte Katja Liebing (Universität Halle-Wittenberg) das historische Vornamentool Hivoto, das bei der Geschlechtszuordnung von Vornamen unterstützen kann. Mit einer Datengrundlage von knapp 202.000 Vornamen aus dem deutschsprachigen Raum hilft das Tool dabei, vorliegenden Vornamen ein Geschlecht zuzuweisen. Hierbei liegen neben den Kategorien weiblich und männlich auch weitere Möglichkeiten vor, die Uneindeutigkeit sichtbar machen. So kann ein Name mit “predominantly male gendered” oder “The item does not allow for a clear gender assignment” gelabelt werden.

Fazit: Geschlechtergerechtigkeit in den Digital Humanities – eine fortlaufende Aufgabe

Die vorgestellten Eindrücke von der DHd-Konferenz 2026 machten deutlich: Die Erfassung und Repräsentation von Geschlechtern in Forschungsdaten ist ein mehrdimensionales Problem, das technische, methodische und ethische Aspekte berührt. Die DH sind ein wichtiges Feld für Innovation: Hier werden nicht nur neue Tools entwickelt, sondern auch kritisch reflektiert, wie Daten gerechter, diverser und partizipativer gestaltet werden können. Die Aufgabe bleibt, diese Ansätze in die breitere Forschungslandschaft zu tragen und so dazu beizutragen, dass Forschungsdaten verstärkt alle Geschlechter sichtbar machen.

Weitere Informationen zu den Konferenzbeiträgen finden sich im Book of Abstracts: https://zenodo.org/records/18591948

Dieser Bericht ist im Rahmen eines Reisekostenstipendiums für die Dhd 2026 entstanden. Ich möchte mich an dieser Stelle bei NFDI 4 Culture herzlich dafür bedanken, mir die Teilnahme an der Konferenz zu ermöglichen. Auch möchte ich die tolle Arbeit der Organisator:innen hervorheben und mich dafür bedanken, dass meine erste Konferenzerfahrung so positiv war und mir wohl noch lange in Erinnerung bleiben wird.

❌