Diesen Beitrag schreibe ich nach meinem Besuch der DHd2026-Konferenz, die für mich eine wertvolle Quelle für Wissen, Inspiration und neue Perspektiven in meinem Fachgebiet war. Sie hat mir geholfen, besser zu verstehen, in welche Richtungen ich mich in diesem Bereich weiterentwickeln kann. Diese Möglichkeit verdanke ich der Förderung durch NFDI4Culture, für die ich sehr dankbar bin.
Eine anklickbare Version der Präsentation über meine Teilnahme an der Konferenz finden Sie unter folgendem Link .
Alle Fotos in der Präsentation wurden von mir, der Autorin des Beitrags Anastasiia Shkliarenko, während meiner Teilnahme an der Konferenz in Wien aufgenommen.
Two weeks ago, I had the pleasure in attending the DHd 2026 in Vienna! The week long conference started with being greeted and checked in by extremely kind and helpful people and receiving a DHd tote bag containing a travel mug, a programmable LED name tag, a program book, a DHd pen, and a notebook.
Then the first workshop began. I had enrolled in Workshop 6: Library Labs als Innovation Hubs für DH – Worldcafé & Community Building. Here we heard from the Bibliothek für Bildungsgeschichtliche Forschung des DIPF, the Deutsche National Bibliothek, the Stabi Lab which is part of the Staatsbibliothek zu Berlin, DIGIPOP, and the Vernetzungs- und Kompetenzstelle Open AccessBrandenburg. Each presented what offers they have, what events they host, how to access their datasets and open source resources, and how to get in touch. Then after a 15-minute coffee and pastry break, we broke out into groups and discussed the overarching theme of Library Labs, broken up into the subcategories of physical location, teaching formats, personnel/resources, target groups and communication, and cooperation and sustainability. The breakout groups was an amazing opportunity to learn and chat with other people attending the conference and hear about the work they are currently involved in.
The next day I participated in the workshop hosted by the DNBLab from the Deutsche Nationalbibliothek called “Von der Forschungsidee zumDatenkorpus”. Here we learned how to use the DNB SRU Query Tool to query and create metadata sets via the SRU interface. This workshop was again a very open and welcoming space, with all coding levels represented and everyone working together to use the tool and create visualizations from the datasets.
During the lunch break after, due to the sunny weather, many people decided to picnic outside at a nearby park before the next workshop. Tuesday evening was the Opening Keynote from Miriah Meyer, a professor in the Department of Science and Technology at Linköping University who is funded by the WASP program. Her research focuses on developing visualization tools that support exploratory and reflective data analysis and provide new ideas for using data in our lives. These tools enable people to learn more about their own data, redefine their perspectives, and revolutionize their thinking. In her keynote “Data As _: Exploring the Plurality of Data in Visualization”, she presented four different perspectives on data that reflect the range of approaches used by visualization researchers. By clearly distinguishing these perspectives, she opened new possibilities for how we create and use data and visualizations, and how we can simultaneously question our common notions of data-driven work. She also described the various projects she is and has been involved in, including one where young women are the target audience, with whom she explored Data Crafting and Data Physicalization Methods.
After the interesting Keynote, we all went to the Main Ceremonial Hall (Grosser Festsaal) for the Opening Reception where we were welcomed with food, drinks, and deserts and had time to socialize. Starting Wednesday and going until Thursday at noon, there were lectures where 2 to 3 people or groups presented their work, each total lecture lasting 1.5 hours and each having an overarching topic. The topics included digital soundscapes, digital art history, research data standards, Doctoral consortiums, named entities, digital editions, history of DH research, research software engineering, graph networks, virtuality, AI in interaction scenarios, epistemology and interpretation, research platforms as well as panel discussions. Between each lecture, there was either a coffee and pastry break, or a lunch break.
Thursday after the first coffee break, everyone headed to the Audimax where the Poster Slam took place. Each person or group presenting a poster had 60 seconds to introduce themselves, their topic and their research. The audiences applause level was recorded and whichever group received the loudest applause won. The slams were all so creative, with people working with props, being wrapped in toilet paper, performing poetry, sonnets, raps, and skits. After the Poster Slam followed lunch, and afterwards everyone gathered in the Main Ceremonial Hall for two Poster Sessions where we were able to ask questions and hear more about each poster from each of the participants.
In the evening, we were invited to the Reception in the City Hall. We entered the City Hall and were greeted with breathtaking architecture. The mayor’s representative welcomed us, speeches were held, the awards of the Poster Slam and the Poster Sessions were announced, selfies were taken and the buffet was opened. The night continued with food, drinks, desserts, and dancing and then once the City Hall closed, everyone went to a bar where bingo was played at midnight.
On Friday there were two more lecture sessions with topics including historical perspectives, digital editions II, text recognition, automation and AI, operationalization, multimodality, data modeling, digital art history II, and two more panel discussions.
This was followed by lunch and then the closing Keynote which was held by Katharina Kinder-Kurlanda, a Professor of Humanwissenschaft des Digitalen at the University of Klagenfurt in Austria. She works across disciplines in digital humanities, science and technology studies, sociology of technology, and internet research. Her research interests include new epistemologies for big data, algorithms in everyday life, data practices, social casual games, and (fair) artificial intelligence. The keynote invited us to understand digital humanities as a critical discipline that not only applies digital methods but also reflects on their social implications. She asked the question of how can we, as researchers in digital humanities, make the politics of data visible?
Following the Keynote, closing remarks were made, the Organizational Team from Vienna was brought on stage and given roses and thanked for their amazing effort, and there was a presentation about the DHd Conference 2027 which will take place in Marburg Germany.
Overall, the DHd 2026 was an amazing experience! It was an extremely open and supportive environment, allowing everyone to meet and learn from their peers and the pioneers of the field. I am very grateful to the DHD for the scholarship and this opportunity. Thank you for the inspiring week full of wonderful presentations, workshops, posters, delicious food and drinks and lovely interactions. I’m already looking forward to next year!
Dieser Beitrag entstand im Rahmen eines Early Career Reisestipendiums von CLARIAH-AT für die DHd2026 in Wien. Herzlichen Dank für die Ermöglichung dieser Teilnahme.
Was macht eine wissenschaftliche Community aus? Und gehöre ich dazu? Diese Frage hatte ich im Gepäck, als ich als Masterstudierende der Digital Humanities an der Universität Regensburg zum ersten Mal zur DHd fuhr. Die DHd2026 war meine erste große DH-Konferenz und eine Einladung, die Community nun endlich live zu erleben. Das Ziel: Wien.Eine prachtvolle Stadt, eine beeindruckende Universität und ein Tagungsthema, das neugierig macht: Not just text, not just data. Was steckt in den Digital Humanities jenseits von Textkorpora und Datentabellen? Die Konferenz hat darauf viele spannende Antworten geliefert.
GPU für die GW – aber bitte DSGVO-konform
Der erste Konferenztag führte mich in den Halbtagsworkshop „Beyond the Cloud: Democratizing GPU Access for the Digital Humanities“ des DHInfra-Teams der Universität Graz und der Universität für Weiterbildung Krems. Der Bedarf an rechenintensiven Methoden wächst in der DH rasant, während kommerzielle Anbieter wie AWS oder Google Colab ernsthafte Fragen zu Datenschutz und Datensouvränität aufwerfen. DHInfra setzt hier mit einer föderierten, DSGVO-konformen GPU-Infrastruktur an. Der Workshop war dabei mehr als eine Demonstration, er diente als finale Testphase vor dem offiziellen Launch, in der die Teilnehmenden LLMs feintunen und API-basierte Workflows entwickeln konnten und gleichzeitig direktes Feedback zur Plattform gaben.
Data as…
Den Auftakt der Konferenz bildete am Abend die Eröffnungskeynote von Miriah Meyer mit dem Titel „Data as…: Exploring the Plurality of Data in Visualization“. Mit einer scheinbar simplen Frage: „Was sind eigentlich Daten?“ eröffnete sie ein breites Panorama: Daten als Input, als Ground Truth, als Design Material, als etwas Verflochtenes. Wer diese Rahmungen explizit benennt und hinterfragt, gewinnt neue Perspektiven auf Visualisierungen und die eigene Forschungspraxis. Beim anschließenden Empfang wurden diese Gedanken in Gesprächen weitergeführt. Ein schöner Beweis dafür, wie eine gute Keynote eine Konferenz inhaltlich in Gang setzt.
Annotieren: Mensch, Maschine oder beides?
Am zweiten Tag folgte der ganztägige Workshop „Film- und Videoanalyse mit VIAN & TIB-AV-A“. Die zentrale methodologische Frage: Wann annotieren wir manuell, wann die Maschine? VIAN Light macht diese Spannung produktiv, indem es manuelle Annotation mit automatischer Einstellungserkennung kombiniert und damit Raum lässt für das, was Eva Hielscher „Doing ELAN“ nennt: den Annotationsprozess selbst als erkenntnisleitenden Akt. Das Fazit des Tages: Automatisierung ersetzt die manuelle Annotation nicht. Hybride Workflows, die beides kombinieren, sind der Schlüssel.
Die Politik der Daten
Besonders nachhaltig haben mich zwei Panels beschäftigt. Im Panel „KI als Belastungsprobe für das offene Internet“ diskutierten Klaus Rettinghaus, Sarah Oberbichler, David Maus und Grischka Petri, was der Boom generativer KI bedeutet: Bot-Traffic, der sich als menschlich tarnt, blockierte Archive, ignorierte Lizenzen. Die Kernfrage: Welche Infrastrukturen bauen wir auf, welche Daten legen wir unter welchen Bedingungen offen? Das sind im Kern politische Entscheidungen und Geisteswissenschaftler:innen können mit ihrer kritischen Datenperspektive aktiv mitgestalten.
Das Panel „The Dark Sides of DH revised: From Utopia to Reality“ richtete den Blick nach innen: auf sprachliche Vielfalt, feministische Datenpraktiken, Repräsentation und ein erweitertes Verständnis von Nachhaltigkeit jenseits von Effizienz. Was mich überzeugte, war der konstruktive Grundton: Es ging nicht nur darum, Probleme zu benennen, sondern gemeinsam darüber nachzudenken, was die DH werden könnte, wenn wir diese Lücken ernst nehmen.
Research Software, Posterslam und Empfang im Wiener Rathaus
Ein weiteres Panel widmete sich Research Software Engineering. Sabina Mollenhauer plädierte für eine Richtungsumkehr: Ethnografische Methoden könnten aktiv zur Gestaltung nachhaltiger Research Software beitragen statt Wissen nur von STEM zu übernehmen. Kevin Kuck und Kevin Wunsch zeigten, wie automatisierte Workflows in Editionsprojekten Raum für inhaltliche Forschung schaffen. Kristin Herold, Hizkiel Alemayehu und Daniel Jettka diskutierten am Beispiel Edirom Online, wie Software nach Projektende überlebt: durch Modularisierung, Community-Building und gezielte Kleinstförderungen.
Ein Highlight der Konferenz war der Posterslam: In kürzester Zeit überzeugten die Slamenden das Publikum von ihrer Forschung, gemessen per Lautstärkemessgerät, Kostüme und popkulturelle Referenzen inklusive. Eine mitreißende Einleitung zu zwei Postersessions, bei denen Zeit für viele spannende Gespräche war.
Daten sind nie neutral
Den krönenden Abschluss des letzten Abends bildete der Empfang im Wiener Rathaus, ein sehr imposanter und beeindruckender Rahmen für eine Konferenz, die inhaltlich als auch atmosphärisch viel zu bieten hatte. Und passend zum Gastgeber durfte musikalisch natürlich auch Falco und der Wiener Walzer nicht fehlen.
Was bleibt
Was mich überrascht hat, war die Atmosphäre: offen, vielfältig, von echtem gegenseitigem Interesse geprägt. Gespräche entstanden schnell und unkompliziert, über Fachgrenzen und Karrierestufen hinweg. Als jemand, die gerade mitten im Studium steckt, war es besonders wertvoll, das Gefühl zu haben, wirklich Teil einer Community zu sein, nicht nur Beobachterin.
Das Stipendium von CLARIAH-AT hat mir nicht nur die Reise nach Wien ermöglicht, sondern einen Einblick gegeben, worum es in den Digital Humanities im besten Sinne geht: das gemeinsame Nachdenken über Methoden, Infrastrukturen und Verantwortung, mit Menschen, die das wirklich ernst nehmen.
Sophia Babl, Masterstudium Digital Humanities, Universität Regensburg
During DHd2026 in Vienna, many discussions revolved around how digital tools shape the way we work with texts and data. Instead of trying to summarise the entire conference, this blog post focuses on the workshops I attended during the first days and on a few ideas that stayed with me throughout the week.
Looking back at my notes, I realised they already suggested a structure for this post. The workshops I attended raised questions about modelling, transcription, and data that later reappeared in other panels and keynotes during the conference.
Note 1: Starting with Practice
My first two days at the conference were shaped by workshops, and that felt like a good way to begin. Rather than starting with big claims about digital humanities, I started by sitting down with tools, notebooks, scripts, and a lot of practical questions.
On the first day, I attended the workshop “Beyond Entities: Inhaltsbasierte Erschließung digitaler Editionen mit KI.” We worked with Python, APIs, and Jupyter notebooks to extract RDF triples from TEI-encoded early modern letters. What I found especially interesting was that the workflow did not stop at named entities. Instead, it tried to model conceptual relations in the texts. Themes such as emotion, illness, or social order became part of a semantic structure that could then be visualised and analysed further.
I liked that this workshop stayed close to the material while still asking what kinds of structures can be made visible through computational methods. It also made very clear that modelling is never neutral. Even at the level of prompts and extraction rules, decisions shape what the final data looks like.
Note 2: From Audio to Text
The second workshop I attended, “Vom Audio zum Text: Automatisierte Transkriptionen mit Whisper,” shifted the focus from written material to spoken language. We looked at automated transcription workflows, compared tools, and worked through Python-based pipelines for transcription and speaker diarisation.
What stayed with me most was the discussion after the practical part. Our reflections quickly clustered around three terms: transfer, opportunities, and limits.
The question of transfer came up in relation to both teaching and research. We talked about how automated transcription might be built into thesis work, methods courses, or training materials. There were ideas about shared standards, open educational resources, and also about making these workflows usable for people who are not deeply technical.
The opportunities were easy to see. Automated transcription can save time, give a quick overview of larger amounts of audio material, and make certain kinds of corpus building much more realistic. Reusable code and adaptable workflows also make it easier to test different research setups.
At the same time, the workshop discussion was just as much about the limits. In qualitative work especially, transcripts are never just raw text. Things like pauses, laughter, overlap, hesitation, and speaker dynamics matter, and automated systems do not capture all of this equally well. We also kept coming back to transparency, validation, and the need to check what a model is actually doing.
For me, this workshop was useful precisely because it did not present automation as a magic solution. It showed where these tools can help, but also where they flatten the material.
Note 3: The Keynote as a Frame
Only after these two workshops came the opening keynote by Miriah Meyer, “Data As ___________: Exploring the Plurality of Data in Visualization.” By that point, I already had the workshop experiences in mind, and that made the keynote even more interesting to listen to.
What I took from it was not one single definition of data, but the opposite. Data appeared here as something plural, shaped, and dependent on context. Meyer spoke about data as entangled, as design material, and as connection. That fit surprisingly well with what I had just seen in the workshops. Whether we are extracting semantic triples from letters or producing transcripts from audio, data do not simply appear ready-made. They are produced through tools, settings, modelling choices, and research interests.
The question “Is data graffiti data?” while looking at sticker emojis museum visitors made on a data sheet, stayed with me because it made this point in a way that was funny and sharp at the same time. It pushed against the idea of data as something clean and self-evident.
Looking Back at the Rest of the Week
For me, the workshops were an amazing start to DHd2026 because they made it possible to move back and forth between trying things out and thinking about what those methods actually imply for research practice.
As the conference continued, I noticed that many of the themes from the workshops reappeared in other sessions. Panels such as “Not Just Text, Intertext!” and projects like NAKAR returned to questions of modelling, connection, and interpretation. The final keynote by Katharina Kinder-Kurlanda then made the political and epistemic side of data work even more explicit.
Looking back at my notes now, this connection between experimentation and reflection is probably my main takeaway from the week. The interesting part is not only that digital tools can do more and more. They also force us to ask more precise questions about modelling, interpretation, transparency, and what we even mean when we call something data. In that sense, the workshops were not just an introduction to tools, but also to the questions that come with using them.
This blog post was written as part of a travel grant for the DHd 2026 conference. My sincere thanks go to NFDI4Memory for supporting my participation, and to the conference organizers for their excellent work in making the event such a positive experience.
Die Idee: Wissenschaftliche Ressourcen aus den Geistes- und Sozialwissenschaften – von Werkzeugen und Diensten über Trainingsmaterialien bis hin zu Workflows und Datensätzen – im SSH Open Marketplace sichtbar, gut beschrieben und leichter auffindbar machen. Dabei können neue Einträge angelegt und bestehende ergänzt oder überarbeitet werden. Das Ziel: Mehr Sichtbarkeit und Nutzbarkeit für digitale Angebote in unserer Community.
Das Ganze läuft in entspannter Atmosphäre:
keine Teilnahmegebühr
Snacks und Getränke warten auf die Teilnehmenden
wer mag, trifft sich schon am Vorabend in einem örtlichen Restaurant (Selbstzahlerbasis)
Arbeitsmaterial wird vorbereitet, Vorkenntnisse sind nicht nötig – nur ein Smartphone, Tablet oder Notebook sollte mitgebracht werden
maximal 20 Plätze vor Ort – schnell anmelden!
Eingeladen sind nicht nur Mitglieder von GKFI und Text+, sondern auch Kolleginnen und Kollegen aus anderen Projekten, die den SSH Open Marketplace nutzen möchten. Disziplinär ist alles willkommen, solange es einen Bezug zu Geistes- oder Sozialwissenschaften hat.
Der Ablauf: Ein kurzer Impuls zum SSH Open Marketplace mit Beispielen aus GKFI, Text+ und weiteren Kontexten – anschließend Gruppenarbeit, in der Ressourcen gemeinsam eingepflegt und Workflows erprobt werden. Schließlich kann jede*r die eigenen Services, Daten oder Materialien direkt ins internationale Portal bringen, wo sie dank API-Anbindung auch von anderen Plattformen geharvestet werden können.
Sie haben einen Datensatz mit Personendaten und möchten diesen erschließbar machen? Die Daten sollen einheitlich ausgezeichnet und die Personen eindeutig identifizierbar werden?
Im HERMES-Bring-your-own-data-Lab am 24.04.2026 dreht sich alles um Personendaten und wie diese mit Normdaten und kontrollierten Vokabularen angreichert werden können.
Nach einem Impulsvortrag von Ruth Bruchertseifer (Universität Trier), die aus Ihrer Forschungsarbeit zu Personendaten im Projekt „Aschkenas in neuen Lebenswelten“ berichtet, sind Sie gefragt!
Die Expert*innen Dr. Katrin Moeller (Martin-Luther-Univeristät Halle-Wittenberg, Co-Applicant von NFDI4Memory Task Area Data Connectivity) und Dr. Olaf Simons (Martin-Luther-Univeristät Halle-Wittenberg, Mitarbeiter der NFDI4Memory Task Area Data Connectivity) unterstützen Sie im Anschluss dabei, Ihren eigenen Personendatensatz mit kontrollierten Vokabularen und Normdaten in der Wikibase Factgrid anzureichern.
Der Workshop findet online am 24.04.2026 statt.
Alle Informationen finden Sie unter: https://hermes-hub.de/aktuelles/events/byodl-2026-04-24.html
Vom 25. bis 27. Februar 2026 wurde eine online Winter School zu Digital Humanities im Centre for the Study of Medicine and the Body in the Renaissance (CSMBR) in Pisa unter dem Namen Studiolo Digital Humanities veranstaltet. Vormittags widmeten wir uns einem praktischen Kurs zur Programmierung in Python für die Geisteswissenschaften; nachmittags fanden Workshops und Fachvorträge statt, die die praktische Anwendung der Digital Humanities in aktuellen Forschungsprojekten vorstellten.
The Centre for the Study of Medicine and the Body in the Renaissance (Bild: Fabrizio Bigotti)
Studiolo Digital Humanities Lab gehört zur Reihe Winter Schools: Humanities for the Future des CSMBR, die alle zwei Jahre vom Zentrum veranstaltet wird. Dieses Jahr fand der zweite Kurs seit der Gründung des Zentrums im Jahr 2018 statt. Die Schulung bot mir eine einzigartige Gelegenheit, mehr über die Verwendung der Digital Humanities im medizinhistorischen Kontext zu erfahren und meine bisherigen Kenntnisse zu vertiefen. Dank des Stipendiums des Verbands Digital Humanities im deutschsprachigen Raum (DHd e.V.) wurde es mir ermöglicht, an dieser Winter School teilzunehmen, wofür ich mich herzlich bedanken möchte.
Die drei intensiven Tage waren vollständig durch die Veranstaltungen ausgefüllt. Vormittags hatten wir die Gelegenheit, uns in die Programmierung mit Python und ihre Anwendungen in den Geisteswissenschaften einzuarbeiten. Bei der Einführung in die Programmierung erwarben wir praktische Kenntnisse über Funktionen, Dateiverwaltung und Daten sowie über Module – vor allem über die Bibliothek Pandas. Damit konnten wir Datensätze genauer mittels Statistik und Grafiken untersuchen. Während jeder Sitzung hatten wir genügend Gelegenheit, gezielte Fragen zu stellen, die unsere eigene Forschung und unsere Forschungsperspektiven betrafen.
Jeder Nachmittag war wissenschaftlichen Anwendungsszenarien der DH in aktuellen Forschungsprojekten oder Workshops zum Thema Entwicklung interaktiver Forschungsergebnisse in der Wissenschaftsgeschichte gewidmet, mit aktiver Diskussion offener Fragen, wie zum Beispiel: Was ist eine interaktive wissenschaftliche Veröffentlichung? Dieser Workshop veränderte meine Sicht auf wissenschaftliches Arbeiten und auf Veröffentlichungsmethoden, da interaktive Publikationen die Möglichkeit bieten, komplexe Inhalte klarer und differenzierter darzustellen. Die Fragenstellungen führten unsere Forschungsideen an eigenen Feldern durch DH-Anwendungsszenarien zur Unterstützung. Bei mir handelt es sich vor allem um lateinische mittelalterliche medizinische Handschriften. Mit Hilfe der Bibliothek Pandas können Statistiken und Diagramme erstellt werden, was meiner Forschungsrichtung sehr nützlich sein kann. Ich habe vor, die lateinischen medizinischen Handschriften einer Gattung und deren Entwicklung im Laufe der Jahrhunderte genauer zu untersuchen, wozu mir das neu erlernte Modul unbedingt behilflich sein wird. Dadurch lässt sich die Entwicklung der Gattung „regimen sanitatis“ anhand der DH-Daten vergleichen. Die allgemeine Vertiefung der vorher erworbenen Kenntnisse inspirierte mich auch, mich mehr mit den digitalen Editionen der veröffentlichten Texte zu beschäftigen.
Mein zweites Forschungsfeld, das durch die Winter School sehr profitierte, ist meine Arbeit zu den mittelalterlichen Schreibern. Ich sammelte mittlerweile mehrere Dateneinträge zu einigen Schreibern der Handschriften, aber dank dieses Kurses bekam ich breiteren Überblick darüber, was und vor allem wie man mittels DH-Methoden erreichen kann. Sei es die Statistik der Überlieferung, die Ausbreitung der Handschriften oder Diagramme, mit denen man anschließend Vergleiche zu bereits existierenden Daten ziehen kann.
Die Vorträge der gegenwärtigen Forschungsprojekte waren vielfältig: Sie reichten von 3D-Modellierungen über Python-Datenbanken bis zur Gamification, von archäologischen Ansätzen (Digitalisierung der Handschriften) bis zur Medizin und zur Geschichte der Entwicklung von Vorstellungen über Organe. All diese Felder galten als nahezu unerschöpfliche Quellen für Anwendungsszenarien und Ideen für die zukünftigen Forschungsrichtungen der Teilnehmerinnen und Teilnehmer. Nach jedem Vortrag gab es genügend Zeit für einen bereichernden Austausch. Natürlich kann man während eines Kurses nur eine gewisse Menge an Kenntnissen erwerben, aber auch darauf war der Veranstalter vorbereitet. Für viele Themen gab es Literaturvorschläge und Hinweise zum Weiterlesen, um sich weiterzuentwickeln.
Das gesamte Programm kann man auf der Website des CSMBR unter folgendem Link genauer einsehen; dort findet man auch aktuelle Veranstaltungen, Schulungen und Konferenzen, die nicht nur mit Medizingeschichte zusammenhängen. Hiermit möchte ich mich beim Verband Digital Humanities im deutschsprachigen Raum nochmals für die Unterstützung bedanken und meine Überzeugung äußern, dass mir die Teilnahme an der Winter School nicht nur neue Kenntnisse in DH, sondern auch wissenschaftliche Kontakte in meinem Bereich der Medizingeschichte brachte, von denen sowohl mein Studium als auch meine Forschung profitieren werden.
Was euch erwartet: Hands-on-Sessions: Praktisches Arbeiten mit Euren eigenen Datensätzen Vertiefung spezifischer LLM-Themen und Anwendungsfälle Kollegialer Austausch, Peer-Feedback und gezielte fachliche Unterstützung
Expertinnen: Sarah Oberbichler (C²DH), Johanna Mauermann (IEG DH Lab | HERMES), Lauren Coetzee (C²DH)
In verschiedenen Impulsvorträgen und Hands-on-Sessions lernen Teilnehmende, wie sie offene, auf die geisteswissenschaftliche Forschung spezialisierte und lokale Modelle mit ihren eigenen Daten verwenden können und wie sie Prompts an geisteswissenschaftliche Fragen anpassen können. Ebenfalls reflektieren wir, wie Daten für ein Fine-Tuning oder Post-Training eines kleinen Sprachmodells aufbereitet werden können.
Voraussetzungen:
Der Workshop richtet sich an Forschende der Geisteswissenschaften, die mit Textdaten arbeiten. Vorausgesetzt werden grundlegende Kenntnisse im Bereich generativer KI. Die mitgebrachten Daten sollten maschinenlesbar vorliegen.
Wir werden in manchen Hands-on-Sessions mit Jupyter Notebooks und Python sowie mit Hugging Face arbeiten. Die Teilnahme ist auch ohne vertiefte Kenntnisse in diesen Bereich möglich. Selbstlernmaterial zur Vorbereitung wird angeboten.
Das NFDI-Konsortium Text+ lädt ein zum Workshop „Sprach- und Textdaten für Gesellschaft, Gesundheit und Medizin“ am 05.-06.03.2026 am Hamburger Zentrum für Sprachkorpora (HZSK). Der zweitägige Workshop (Lunch-to-Lunch) der TaskArea „Collections“ widmet sich den Schnittstellen zwischen sprach- und textbasierten Forschungsdaten und angrenzenden Disziplinen in den Bereichen Gesellschaft, Gesundheit und Medizin. Gemeinsam wollen wir erkunden, wie sich Forschungsdatenmanagement (FDM) für text- und sprachbasierte Forschung in diesen interdisziplinären Kontexten gestalten lässt.
Text+ ist ein Konsortium der Nationalen Forschungsdateninfrastruktur (NFDI) und hat zum Ziel, sprach- und textbasierte Forschungsdaten langfristig zu erhalten und ihre Nutzung in der Wissenschaft zu ermöglichen. Der Workshop bietet ein Forum für den Austausch über nachhaltige und sichere Bereitstellung, Analyse und Nachnutzung von Forschungsdaten. Dabei geht es u.a. um Fragen der mehrsprachigen Kommunikation und Multimodalität.
Programm-Highlights:
Keynotes und Fachvorträge zu aktuellen Herausforderungen und Lösungen im FDM für sprach- und textbasierte Forschungsdaten mit dem Fokus auf die Bereiche Gesellschaft, Gesundheit und Medizin
Posterpräsentationen und Demos: Teilnehmende sind eingeladen, eigene Ansätze und Projekte vorzustellen
Möglichkeiten der Erschließung weiterer Sprach- und Textdaten sowie deren Integration in Text+ und NFDI4Health
Zielgruppe:
Forscherinnen und Forscher aus den Geistes-, Sozial- und Lebenswissenschaften sowie alle, die sich für sprach- und textbasierte Daten in interdisziplinären Kontexten interessieren.
Das SSH Open Marketplace Editorial Board startet 2026 eine achtteilige praxisorientierte Online-Workshopreihe, um digitale Kompetenzen und FAIR-Praktiken in den Sozial- und Geisteswissenschaften zu stärken. Jeden dritten Freitag im Monat von 13:00 bis 14:30 Uhr (CET), geht es online um offene Wissenschaft, gute Datenpraxis und den smarten Einsatz des SSH Open Marketplace im Forschungsalltag. Die Termine reichen von Feburar bis November 2026 – mit einer Pause im Juli und August.
Worum geht es?
Die SSH Open Marketplace & FAIR Practices Training Series 2026 verbindet Schlüsselfragen von FAIR, CARE und Open Science mit praktischen Hands-on-Sessions rund um den SSH Open Marketplace als Discovery-Portal für Tools, Services, Trainingsmaterialien, Daten und Workflows. Der Adressatenkreis sind allgemein Interessierte mit Bezug zu den Social Sciences and Humanities, aber insbesondere Forschende, Datenmanager:innen und Forschungsservices in den SSH, die ihre Daten und Workflows besser auffindbar, nachnutzbar und anschlussfähig machen wollen – ohne sich allein durch die Vielzahl an Angeboten kämpfen zu müssen.
Weitere Hintergrundinformationen rund um den SSH Open Marketplace sowie das Editorial Team gibt es hier.
Save the dates
– 20. Februar: FAIR, CARE & Open Science Principles
– 20. März: Introduction to SSH Open Marketplace
– 17. April: Making the most of the SSH Open Marketplace
– 15. Mai: Contributing to SSH Open Marketplace
– 19. Juni: Thematic Arts and Humanities
– 18. September: Thematic GLAM institutions
– 16. Oktober: Thematic language data
– 20. November: Thematic Social sciences
Die Teilnahme ist online, kostenfrei und auf Interaktion ausgelegt: In allen Sessions sind Fragen, Use Cases aus laufenden Forschungsprojekten wie auch der Blick in eigene Datenbestände gerne gesehen. Wer sich nun den Vorsatz gesetzt hat, im kommenden Jahr die eigenen digitalen Forschungspraktiken weiter auszubauen, kann sich hier registrieren, um auf dem Laufenden zu bleiben.
Sie interessieren sich für die Metadaten und freien digitalen Objekte der Deutschen Nationalbibliothek? Sie wollen erfahren, wie Sie unsere umfangreichen Daten beziehen und analysieren oder mit diesen Ihre eigenen Bestände erschließen können? Oder Sie möchten sich einfach über die verschiedenen Datenangebote der DNB informieren?
Am 24. und 25. November 2025 findet an zwei Vormittagen hierfür das virtuelle Info- und Workshopangebot „Erschließen, Forschen, Analysieren“ (EFA25@DNB) zu unseren Metadaten und freien digitalen Objekten statt. Erfahren Sie mehr über unser Angebot und darüber, wie vielfältig Sie unsere Metadaten und digitalen Objekte nutzen, analysieren und visualisieren können. Das Programm ist modular gestaltet, die Programmpunkte bauen logisch aufeinander auf und können, je nach Interessenlage, auch einzeln besucht werden. Nach einführenden Vorträgen zum Angebot der Deutschen Nationalbibliothek am ersten Vormittag zu den Themen digitaler Bestand, Bezugswege, Datenarten und -formate, haben Sie am zweiten Vormittag die Möglichkeit, an verschiedenen Workshops zur Vertiefung ausgewählter Themen teilzunehmen.
Vorkenntnisse sind nicht erforderlich. Das Info- und Workshopangebot findet in deutscher Sprache statt.
Weitere Informationen und die Möglichkeit zur Anmeldung finden Sie unter: www.dnb.de/efa
Datum: 4.–5. Dezember 2025 Ort: Kommission für Geschichte des Parlamentarismus und der politischen Parteien (KGParl), Schiffbauerdamm 40, Berlin Veranstalter: Kommission für Geschichte des Parlamentarismus und der politischen Parteien (KGParl)
Beschreibung
Am 4. und 5. Dezember 2025 findet in den Räumen der Kommission für Geschichte des Parlamentarismus und der politischen Parteien (KGParl) in Berlin der Workshop „Digitale Editionen der Zeitgeschichte zwischen KI und Linked Open Data“ statt.
Der Workshop widmet sich den aktuellen Herausforderungen und Chancen, die der Einsatz von Künstlicher Intelligenz (KI), Großen Sprachmodellen (LLMs) und Linked Open Data (LOD) für digitale Editionen historischer Quellen mit sich bringt. Im Fokus stehen insbesondere zeitgeschichtliche Materialien mit politischem, verwaltungsbezogenem und diplomatischem Charakter – etwa parlamentarische Quellen, Kabinettsakten und Verordnungen.
Ziel der Veranstaltung ist es, Potenziale und Grenzen neuer Technologien in der digitalen Editorik zu beleuchten und zu diskutieren, wie sich diese auf editorische Standards, Workflows und die wissenschaftliche Nutzung auswirken. Dabei wird die Frage in den Mittelpunkt gerückt, welche methodischen und technischen Innovationen geeignet sind, um digitale Editionen langfristig nachhaltig, interoperabel und anschlussfähig an wissenschaftliche Infrastrukturen zu gestalten.
Der Workshop bringt internationale Expertinnen und Experten aus Editionswissenschaft, Digital Humanities und Informatik zusammen, um Perspektiven für die Zukunft editorischer Arbeit im Kontext KI-gestützter Analyse und semantisch vernetzter Daten zu entwickeln.
Programm
Donnerstag, 4. Dezember 2025
13:00–13:30 Uhr – Begrüßung (KGParl): Grußworte und Einführung
13:30–14:30 Uhr – Max-Ferdinand Zeterberg (SUB Göttingen): Eine digitale Edition auf Basis von Labeled-Property-Graph
14:30–15:30 Uhr – Stephan Kurz (Österreichische Akademie der Wissenschaften, Wien): Wir fangen die Kalender ein! Datenmodellierung zum Austausch von (Protokoll-)Editionen
15:30–16:00 Uhr – Pause
16:00–17:00 Uhr – Michael Schonhardt (Technische Universität Darmstadt): „Diese Anfrage verstößt gegen die Inhaltsrichtlinien“: LLMs und RAG in der editorischen Praxis
17:00–18:00 Uhr – Daniela Schulz (Herzog August Bibliothek Wolfenbüttel): KI und die „Edition der fränkischen Herrschererlasse“ – Warum (noch) nicht!
Freitag, 5. Dezember 2025
09:00–10:00 Uhr – Hennie Brugman (KNAW Humanities Center, Amsterdam): Publication of historical parliamentary resolutions using automatic text recognition and modern web standards
10:00–11:00 Uhr – Dimitra Grigoriou (Österreichische Akademie der Wissenschaften, Wien): Overcoming Historical NER Challenges: A Case Study of the Austrian Ministerial Council Protocols
11:00–11:30 Uhr – Pause
11:30–12:30 Uhr – Monika Jantsch, Peter Land (Deutscher Bundestag): Das Dokumentations- und Informationssystem für Parlamentsmaterialien und seine API
12:30–13:30 Uhr – Maximilian Kruse (KGParl): Open by Default? Warum viele digitale Editionen nicht so offen sind, wie sie scheinen
Hinweis: Der Workshop wird zusätzlich über Zoom übertragen. Eine digitale Teilnahme ist möglich. Eine Anmeldung wird per E-Mail an kruse@kgparl.de erbeten.
Arbeitet ihr mit RDF-Daten (Linked Open Data) oder nutzt Wikidata bzw. das Wikibase-Ökosystem? Habt ihr Lust, mit euren Daten praktisch zu arbeiten und dabei Unterstützung zu bekommen?
Was euch erwartet: Hands-on-Sessions: Praktisches Arbeiten mit Euren eigenen Datensätzen Vertiefung spezifischer LOD-Themen und Anwendungsfälle Kollegialer Austausch, Peer-Feedback und gezielte fachliche Unterstützung
Der Workshop setzt grundlegende Kenntnisse in Linked Open Data voraus und bietet eine vertiefende Behandlung spezieller Themen und Anwendungsfälle in den Geistes- und Kulturwissenschaften. Hier geht es um:
Linked Open Data in der Forschungspraxis
Wikibase für Forschungsdaten und -fragen …
Die praktische Arbeit mit Tools und Abfragen in Wikidata
Nach verschiedenen Impulsvorträgen werden die eingeladenen ExpertInnen die Teilnehmenden bei der praktischen Anwendung von Linked Open Data am Beispiel der Plattform Wikidata auf die eigenen Forschungsdaten und -fragen unterstützen.
Am 24.11.2025 lädt HERMES ein zu einem virtuellen Bring-your-own-data-Lab zum Thema „Topic Modeling“!
Mit Hilfe der Methode Topic Modeling lassen sich aus einem Korpus an Texten Themen einzelner Texte erschließen. Dies hilft, Korpora zu gruppieren, zu analysieren und zu interpretieren.
Das Lab wird aus zwei Teilen bestehen: Vormittags werden nach einer Einführung in das Thema Anwendungsbeispiele gezeigt und diskutiert. Es erwarten Sie zwei spannende Vorträge, durch die Sie Einblicke in die Arbeit mit unterschiedlichen Topic Modeling-Verfahren und Use Cases in der Forschung erhalten.
Am Nachmittag haben Sie die Möglichkeit, mit der Software Mallet Ihr eigenes Korpus zu analysieren und Topics zu generieren. Unter Aufsicht des Experten Dr. Keli Du (Universität Trier) wird Ihnen gezeigt, welche Einstellungen gewählt werden sollten und wie die Ergebnisse interpretiert werden können.
Vorgesehen ist, dass Teilnehmende eigene Forschungsdaten mitbringen. Diese sollten im txt-Format vorliegen. Falls dies nicht möglich ist, können wir Ihnen aber auch gerne ein Beispielkorpus zur Verfügung stellen. Gerne können Sie uns auch schreiben, sollten Sie Hilfe bei der Umwandlung Ihrer Daten benötigen.
Die Veranstaltung findet online über Zoom statt. Eine Anmeldung ist für beide Teile getrennt möglich.
Zu Raum und Räumlichkeit im deutschsprachigen Roman des 20. Jahrhunderts
Seit den 1980er Jahren hat sich das Augenmerk der Kultur- und Sozialwissenschaften international zunehmend auf das Thema Raum gerichtet. Der Geograf Edward Soja lieferte für diese Entwicklung das intuitiv verständliche Label: spatial turn. Jedoch ist zu der Frage, was Raum ist und wie er untersucht werden kann, in den letzten 40 Jahren eine ganze Landschaft an fachlichen Antworten entstanden.
Die Workshop-Reihe „Literatur und Raum“ lädt alle Interessierten ein, diese Landschaft auf dem Feld der Literaturwissenschaft zu durchstreifen. Dabei richten wir den Blick insbesondere auf die Methodenvielfalt zwischen close und distant reading, zwischen qualitativen und quantitativen Ansätzen, analogen und computergestützten Verfahren. Welche Begriffe von Raum gibt es im Zusammenhang mit Literatur? Was kann man über Literatur erfahren, wenn man Raum in und um Literatur untersucht? Welcher Ansatz bringt welchen Erkenntnishorizont mit sich?
Im dritten Workshop unserer Reihe untersuchen wir diese Fragen anhand der deutschsprachigen Literatur des 20. Jahrhunderts. Dafür freuen wir uns auf Beiträge zu einzelnen Autoren dieser Zeit: Geplant sind Präsentationen von Magdalena Basedow (Universität Rostock) über Raum in den Texten von Uwe Johnson, von Dr. Stephan Lesker (Universität Rostock) über Raum bei Walter Kempowski und von Korbinian Lindel (Universität Koblenz) zum geopolitischen Raum bei Stefan Zweig. Ergänzt werden die Beiträge durch einen Überblick über verschiedene Romane des 20. Jahrhunderts und deren Räumlichkeit aus dem Projekt „CANSpiN“ , vorgestellt von Jun.-Prof. Dr. Ulrike Henny-Krahmer, Nils Kellner und Marc Lemke (Universität Rostock).
Termin
Der Workshop findet als Hybrid-Veranstaltung am 17. Oktober 2025 (freitags) von 09:00 bis 17:00 Uhr statt.
Teilnahme
Bitte melden Sie sich über das Online-Formular auf folgender Seite an: https://tinyurl.com/literatur-raum-III. Nach erfolgreicher Anmeldung erhalten Sie die Zugangsdaten für Zoom sowie Informationen zum Programmablauf.
Die Teilnahme ist kostenlos. Die Organisation und die Kosten der Reise, Unterbringung und Verpflegung tragen die Teilnehmenden selbst. Eine Teilnahmebestätigung stellen wir Ihnen auf Wunsch gerne nach der Veranstaltung aus.
Veranstaltungsort in Präsenz
Universität Rostock Zentrale Universitätsverwaltung · Beratungsraum (Erdgeschoss) Schwaansche Straße 2 18055 Rostock
Organisiert und gefördert wird die Veranstaltung vom Projekt „CANSpiN“, darunter Ulrike Henny-Krahmer, Nils Kellner und Marc Lemke, und dem Institut für Germanistik der Universität Rostock.
Die Frage, was Openness in und für die Wissenschaft(en) meint, ist seit dem Aufkommen der Open-Science-Bewegung einem kontinuierlichen Wandel unterworfen. Allerdings war die Stoßrichtung bisher stets klar – es wurde eine zunehmend umfassendere Öffnung wissenschaftlicher Veröffentlichungen, Daten, Software, Methoden oder Infrastrukturen angestrebt (vgl. UNESCO Recommendation on Open Science 2022). Lediglich datenethische Erwägungen, wie bspw. in den CARE-Prinzipien (vgl. Carroll et al. 2020) formuliert, standen dem partiell entgegen.
Gegenwärtige Entwicklungen um die Einsatzmöglichkeiten wie Datenquellen Künstlicher Intelligenz, eine datenbasierte Kriegsführung, populistische Kulturkämpfe und Vereinnahmungsversuche oder eine zunehmende gesellschaftliche Polarisierung werfen Fragen nach einer kritischen Reflexion von Openness auf. Was heißt ‚offen‘ in diesem Zusammenhang? Wann und wo sind Formen der Schließung sinnvoll oder erforderlich? Und was bedeuten derartige Überlegungen für die arbeitspraktische Ebene von Wissenschaft? Letztlich geht es somit um eine Diskussion wie Bestandsaufnahme des status quo der Openness und der damit verbundenen Open-Science-Transformation.
Diese Diskurse sind für die Kommunikations- und Medienwissenschaft besonders relevant, da es nicht nur die eigene fachliche digitale Transformation betrifft, sondern auch die Gegenstandsbereiche der Forschung selbst. Denn nicht zuletzt sind Fachdisziplinen, die sich mit der Kommunikation und deren medialen Ausdrucksformen auseinandersetzen, besonders geeignet, Wissenschaftskommunikation wie auch deren Medien und Infrastrukturen kritisch zu reflektieren. Deshalb widmet sich die Veranstaltung den Themenbereichen Offenheit und Kommunikation, Daten und Digitalität sowie Infrastrukturen. Der Workshop möchte einen Diskursraum schaffen, Perspektiven und Menschen zum Themenbereich vereinen und hieraus zentrale Bedarfe und Anforderungen für die Gestaltung fachspezifischer Informationsinfrastrukturen ableiten.
10:00 – 10:30 Open-Science-Transformation in der Kommunikations- und Medienwissenschaft
Malte Hagener und Andrea Wolff-Wölk (Philipps-Universität Marburg): Begrüßung
Kai Matuszkiewicz (Philipps-Universität Marburg): Rethinking Openness in 2025 – eine thematische Einführung
10:30 – 10:45 Kaffeepause
10:45 – 12:15 Panel 1: Offenheit und Kommunikation
Sophie G. Einwächter (Philipps-Universität Marburg): Strukturelle Hürden und strategische Grenzen. Zur notwendigen Ambivalenz von Openness
Franziska Heller (Martin-Luther-Universität Halle-Wittenberg): „I’m open. Are you?“ (Digitale) „Openness“ als medienkulturelle Praxis
Niels-Oliver Walkowski (Universität Luxemburg): Openness an ihren Grenzen. Auszüge andauernder Diskussionen über einen „offenen Zugang“ in den Wissenschaften
12:15 – 13:15 Mittagessen (Vorraum)
13:15 – 14:45 Panel 2: Daten und Digitalität
Denise Sommer (Ostfalia Hochschule): Von der Verdatung zur Datafizierung – kommunikationswissenschaftliche Forschung in datengetriebenen Zeiten
Gerhard Lauer (Johannes-Gutenberg-Universität Mainz): Infrastrukturen gegen/für Science Tracking
Thomas Scherer (Europa-Universität Viadrina): Offene Filmwissenschaft? Zwischen Urheberrecht, Computer-Vision-Disruption und Datenethik
14:45 – 15:00 Kaffeepause
15:00 – 16:30 Panel 3: Infrastrukturen
Stefan Höltgen (Universität Bonn): Materielle Infrastrukturen. Möglichkeiten der Vernetzung akademischer Game-Preservation-Initiativen
Götz Lachwitz (Deutsches Rundfunkarchiv): Archivöffnung. Perspektiven aus dem Deutschen Rundfunkarchiv
Am 14. und 15. Oktober 2025 lädt das DiHMa.Lab der Freien Universität Berlin in Kooperation mit dem ZIB zu einem gemeinsamen Workshop der Konsortien MaRDI und NFDI4Objects an die Freie Universität Berlin ein. Rund um das Thema „Objekte und Methoden“ wird der interdisziplinäre Workshop verschiedene Perspektiven aus der Mathematik und objektbasierten Geisteswissenschaften zusammenführen. Ziel ist es, Ansätze, Werkzeuge und Fragestellungen beider Disziplinen in den Dialog zu bringen, Schnittstellen sichtbar zu machen und gemeinsame methodische Herausforderungen zu diskutieren.
Das vorläufige Programm wird noch aktualisiert:
Tag 1
14.10.2025, 10:00-12:00 Uhr
Im Vorfeld des Workshops findet ein Ediathon: “Object meets Maths: Wikidata als Knowledge Hub” statt. Kommt sehr gern mit Daten und Notebooks vorbei.
Ab 17 Uhr gemeinsamer Ausklang auf Selbstzahlerbasis in der Eierschale
Tag 2
15.10.2025 (09:00 – 13:00 Uhr)
Wissenschaftliche Objektsammlungen und multimodale Forschungsdaten (9:00-9:45)
Use Case Datenanalyse “Windows on Data” (10:00-10:45)
Interdisziplinäres Arbeiten (Challenges / Schwierige Fälle / was ist nicht operationalisierbar? / was ist bereits gut operationalisiert?) / MARDI als Methodendatenbank (11:00-11:45)
Fishbowl: Zusammenarbeit mathematische Methoden in kulturhistorischen Fragestellungen (12:00-13:00)
Ab 13 Uhr gemeinsames Mittagessen auf Selbstzahlerbasis in der Mensa
Veranstaltungsort: Villa Engler, Altensteinstraße 2-4, 14195 Berlin (am Haupteingang des Botanischen Gartens)