普通视图

Received before yesterday

RIDE 19: New reviews

2026年3月31日 20:33

We are pleased to announce two new reviews in RIDE issue 19, which focuses on „Tools and Environments“ and is being released as a „rolling release“:

All reviews are available at https://ride.i-d-e.de/issues/issue-19.

RIDE, a Review Journal for Scholarly Digital Editions and Resources is published since 2014 by the Institute of Documentology and Scholarly Editing (IDE). The 19th issue has been edited by Roman Bleier and Stefan Dumont.

Abstract, Review, Postersession – (M)ein Weg zur DHd2026

2026年3月27日 22:46

Wie nimmt man als Nachwuchswissenschaftler, zumal noch als Student, an einer wissenschaftlichen Tagung teil? Allgemeingültig beantworten kann das wohl weder ich noch jemand anders. In diesem kurzen Beitrag will ich aber zumindest meinen Weg zur DHd2026 in Wien nachzeichnen. Ich hoffe damit aus Nachwuchsperspektive allen, für die eine Teilnahme an der Konferenz ebenfalls einen ersten Schritt in die Wissenschaftswelt bedeuten würde, eine Vorstellung zu geben, wie dieser Weg aussehen könnte.

Vom Vorhaben zum fertigen Abstract…

Die diesjährige Konferenz begann für mich am 22. Februar mit Ankunft in Wien. Der Weg dahin nahm seinen Anfang dagegen – wie sicher für viele Forscherinnen und Forscher aus den DH – bald ein Jahr zuvor. Denn: Nach der DHd ist vor der DHd.

Im letzten Jahr hatte ich das Glück, im heimischen Bielefeld als Teil des studentischen Organisationsteams indirekt schon an der letzten DHd-Konferenz teilnehmen zu können. Kein halbes Jahr zuvor hatte ich meine Bachelorarbeit in der Germanistik eingereicht. In dem Zusammenhang entstand bei mir bereits die Frage: Wäre meine Arbeit wohl auch was für die DHd…?

Bald darauf stellte ich meine BA im Kolloquium der Bielefelder Arbeitsgruppe CLS vor, mit anschließendem Gespräch über Publikationsmöglichkeiten. Veröffentlichen in einer Fachzeitschrift(?) – theoretisch möglich, aber vielleicht eine zu große Hürde, wo man nach der ersten Qualifikationsarbeit gerade zu laufen angefangen hat. Womöglich konzentriert man sich besser aufs Studium, immerhin stellt eine Veröffentlichung in jedem Fall einen Mehraufwand dar! Aber die Arbeit war gut, sagt man mir, und wenn man in die Wissenschaft will, gibt es hier Chancen, die sich auszuschöpfen lohnen.

Die alternative Idee: Veröffentlichen im Rahmen einer Konferenz – immerhin schwirrt die nächste DHd schon in den Köpfen rum und hier gäbe es niedrigschwelligere Einstiegsmöglichkeiten. Man könnte es versuchen, und bei Erfolg würde man diesmal als echter Teilnehmer mit eigenem Beitrag an der ersten Wissenschaftskonferenz teilnehmen. Etwa zur selben Zeit dürfte der Call for Papers eingegangen sein.

Ein Poster soll es werden. Mit Deadline für die Abstracts am 1. August ist im Juli Schreibarbeit angesagt. Eine 47-seitige Bachelorarbeit will auf 750 Wörter gestutzt werden und am Ende soll sogar noch so etwas wie eine Aussage rauskommen. Mit tatkräftiger Unterstützung von Prof. Dr. Berenike Herrmann und der ganzen AG ergeht eine x-malige Feedbackschleife – man unterschätze nicht, wie man – vor allem mit sich selbst – um jedes Wort kämpft, um das Abstract passend hinzubekommen. Am Ende bin ich zufrieden, der Beitrag ist im glücklicherweise gut funktionierenden Fidus Writer abgetippt und schließlich auf ConfTool hochgeladen. Dann heißt es auf das Open Peer-Review-Verfahren warten, um zu erfahren, ob man angenommen wurde oder nicht.

…über Reviewprozess und Posterdesign…

Und das dauert, naturgemäß. Über drei Monate, in denen das Leben natürlich weitergeht, aber man – weil es das erste Mal ist – trotzdem ungeduldig wartet. Schließlich wissen wir, ich und die weiteren drei(!) an AG-Projekten beteiligten Hilfskräfte mit Einreichungen, dass unsere Poster-Abstracts angenommen wurden! Die Freude ist groß.

Die ganze mitgereiste Bielefelder AG CLS im gr. Festsaal der Universität Wien

Sofort geht es aber weiter, denn für das Metagutachten und die Veröffentlichung im Book of Abstracts wollen die Beiträge binnen eines Monats überarbeitet werden. Außerdem muss man sich nun ernsthaft Gedanken machen, wie man eigentlich nach Wien kommt.

In den nächsten Wochen wird sich für Konferenz und Workshops registriert, es werden Absprachen getroffen und Reisen und Unterkünfte gebucht. Man beachte: Für all das muss man üblicherweise in Vorleistung gehen, und es kommt ein bisschen was zusammen. Aber es gibt Finanzierungsmöglichkeiten. Neben der Forschungskommission der eigenen Universität, ggf. sogar der betreffenden AG, schreiben die Beteiligten am Stipendienprogramm des DHd-Verbands großzügig eine ganze Reihe Reisekostenstipendien aus, für die man übrigens nicht zwingend einen Konferenzbeitrag mitbringen muss. Wer den ganzen Organisations- und Verwaltungsaufwand zum ersten Mal macht, berechne aber auch hier etwas Zeit und Nerven ein, die immer dazugehören.

Im neuen Jahr schließlich, nachdem die Überarbeitung für das Metagutachten eingereicht und die meisten Fragen geklärt sind (die letzten werden es noch auf den letzten Drücker, keine Sorge), muss nur noch das eigentliche Poster designt werden. Also nochmal reduzieren und fürs Auge aufbereiten, bei ConfTool hochladen und ab in den Druck. Dann endlich ist alles in trockenen Tüchern und ein paar Tage später ist man, eh man sich versieht, auf dem Weg zur Konferenz.

…bis schließlich zum Ziel

Und was erwartet einen da? Nun, vorausgesetzt das gewählte Verkehrsmittel bringt einen erst einmal planmäßig an sein Ziel, eine ganze Menge. Mit Wien in meinem Fall zunächst eine prächtige Kulturstadt im Herzen Europas, die ich trotz des vollen Konferenzprogramms etwas Zeit hatte, zu erkunden. Neben großen, auch im Frühjahr schönen Gärten und viel ansehnlichem habsburgischen Prunk gehörte dazu nicht zuletzt das Hauptgebäude der ältesten Universität im heutigen deutschsprachigen Raum, wo die Konferenz ihre Räumlichkeiten fand.

Auch das war drin: Schloss Schönbrunn mit der Stadt im Hintergrund, aufgenommen von der Gloriette-Anhöhe

In den Workshops gab es dort ungezwungenen Erfahrungsaustausch im Konferenz-Du und Raum zum Ausprobieren und Selbermachen. Das Kernprogramm, in dem ich durch meine Teilnahme die Möglichkeit hatte, eine ganze Reihe hochaktueller, interessanter Vorträge in breitgefächerten Konferenztracks zu hören, war gerahmt von zwei großen Keynotes im Audimax, die Anlass für anregende Gespräche boten. Dazwischen tischten die Veranstalter im kleinen und großen Festsaal zu Eröffnungsfeier und Kaffeepausen und nicht zuletzt zum großen Empfang im Ballsaal des Wiener Rathauses auf.

Der Mittelpunkt der Konferenz war für mich aber die große Poster-Vorstellung am Donnerstag. Nach vormittäglichem Poster-Slam, wo einige Mutigere die restlichen Teilnehmer kreativ und humorvoll schon auf ihre Poster heißgemacht hatten, warteten die zwei aufeinanderfolgenden Poster-Sessions mit insgesamt 98 Beiträgen.

Vorstellung meines Posters in der ersten Session

Es war eindrucksvoll, das eigene Poster dort endlich im A0-Format neben all den anderen hängen zu sehen, zumal im üppigen großen Festsaal der Universität Wien. Während der Poster-Session hatte ich die Möglichkeit, mit gestandenen Wissenschaftlern und anderen Studenten und frisch Promovierenden gleichermaßen ins Gespräch zu kommen, Zusammenhänge meiner Arbeit zu erklären und Rückfragen zu beantworten. Und in der zweiten Session konnte ich dann auch selbst herumgehen und mich mit anderen wiederum über ihre Poster austauschen. Bei all dem habe ich die Erfahrung machen dürfen, mich wirklich als Teil einer wissenschaftlichen Community zu fühlen.

In diesem Sinne kann ich allen, die wie ich noch weit am Anfang ihres akademischen Werdegangs stehen, nur empfehlen, bei Möglichkeit auch diese Erfahrungen zu machen. Ob mit eigenem Beitrag oder ohne, der Weg zur DHd kann für Nachwuchswissenschaftler ganz unterschiedlich aussehen – aber es lohnt sich in jedem Fall, ihn zu beschreiten.

Dieser Beitrag ist im Rahmen eines Early Career-Reisestipendiums für die 13. Jahrestagung des Verbands Digital Humanities im deutschsprachigen Raum e.V. entstanden. Mein herzlicher Dank gebührt dem DHd-Verband als Stipendiengeber für die finanzielle Ermöglichung meiner Teilnahme.

Nicht nur Text, nicht nur Daten: Erfahrungen von der DHd 2026 in Wien

2026年3月13日 00:39

Ich bin mit großer Vorfreude und dank des Reisekosten-Stipendiums des DHd-Verbandes zur DHd 2026 nach Wien gefahren. Die Universität Wien machte bereits beim Ankommen einen sehr imposanten Eindruck. Gleich am ersten Tag startete ich mit dem Workshop „Beyond entities: Inhaltsbasierte Erschließung digitaler Editionen mit KI“. Dort haben wir uns erst zu den Grundlagen von RDF und zu Ontologien wie z. B. FOAF bringen lassen, bevor wir praktisch wurden: Mithilfe vorgefertigter Jupyter-Notebooks und Beispieldatensätzen probierten wir verschiedene LLM-Modelle mit unterschiedlichen Parametern aus und schauten uns die Ergebnisse der RDF-Tripel-Extraktion an. Ein spannender und sehr praxisorientierter Einstieg.

Am nächsten Tag war ich beim Workshop „LLMs unter Kontrolle: Offene Modelle in Forschung und Praxis“. Der Workshop zielt genau auf das, was ich als Nachwuchswissenschaftler wichtig finde: einen transparenten und reflektierten Umgang mit generativer KI in den Digital Humanities zu fördern. Von besonderer Bedeutung für mich war der methodische Einsatz von LLMs in der eigenen Forschung. Die praktische Arbeit mit lokalen, offenen Modellen wie OLMo 2 (1B) und OLMo 3 (7B) über LM Studio zeigte, wie viel Kontrolle und Reproduzierbarkeit man dadurch gewinnt. Zugleich wurde deutlich, wie problematisch proprietäre Online-Modelle sein können, weil sie sich verändern, Outputs nicht dauerhaft dokumentiert sind und Trainingsdaten sowie Gewichtungen oft intransparent bleiben. Der darauffolgende Theorie-Block vermittelte entsprechende Evaluationsstrategien für den Einsatz solcher Modelle. Abschließend fand eine Reflexionsrunde statt, die dazu anregte, mögliche Use Cases für die eigene Forschung neu zu denken.

Zwischendurch besuchte ich Vorträge, die von technischen Umsetzungen bis zu praktischen Anwendungen reichten: Die Präsentation zur „Digitalen Erschließung des Schematismus“ demonstrierte eindrucksvoll, wie aus historischem Druck durch OCR, NER und Transformer-Modelle schrittweise eine vernetzte Graphdatenbank entsteht, mit dem Ziel, Personen verbindlich Verwaltungseinheiten zuzuordnen.

In den Poster-Sessions wurden viele überaus interessante Poster präsentiert. Eines davon befasste sich beispielsweise mit der Frage: „Wie kompatibel ist meine Bibliothek mit Digital Humanities?“ und erinnerte daran, dass Digital Humanities oft schon in den eigenen Beständen stecken und nur gefördert werden müssen.

Der Vortrag „Semantic Modelling of Intermedial and Intertextual References in Comics“ zeigte das epistemische Potenzial semantischer Modellierung: Am Beispiel von „Sibylla“ zeigte sich, wie Wissensgraphen literarisches und visuelles Wissen strukturiert, transparent und interoperabel abbilden können. Gerade für intermediale Forschung ein großer Gewinn. Ebenso praxisnah war der Beitrag zu „Fachspezifische Datenmodelle als Brücke zwischen materieller Kultur, Theorie und Praxis“: die Arbeit mit WissKI Barrels erschien mir als echter Gamechanger für kleinere Museen, weil sie Nachhaltigkeit und sofortige Einsatzfähigkeit im Sammlungsdaten-Lebenszyklus verbindet und damit Theorie und Praxis greifbar zusammenbringt.

Den Abschluss der Konferenz bildete die Keynote, die viele der zuvor diskutierten Fragen noch einmal auf einer übergeordneten Ebene bündelte: Ausgehend von der Kritik an Big Data als vermeintlichem Paradigmenwechsel wurde deutlich, dass digitale Daten keineswegs neutral oder automatisch erkenntnisfördernd sind. Vielmehr bestimmen Plattformen, APIs und intransparente Algorithmen maßgeblich, welche Daten überhaupt zugänglich sind und wie valide Forschungsergebnisse sein können. Besonders eindrücklich war der Punkt um Forschungsethik und den Umgang mit Social-Media-Daten, wie etwa die Frage nach Anonymisierung, Einwilligung und Zitierpraxis. Das zentrale Plädoyer lautete, statt nur kritische Distanz einzunehmen, eine „kritische Nähe“ zu Daten zu entwickeln: Verzerrungen und Lücken nicht nur zu bemängeln, sondern sie als Teil des analytischen Prozesses produktiv zu machen und die Politik der Daten sichtbar werden zu lassen. Für mich rundete dies Keynote den Kongress perfekt ab. Sie verband technische Praxis, ethische Reflexion und wissenschaftstheoretische Perspektive zu einem klaren Auftrag für die zukünftige Arbeit in den Digital Humanities.

Insgesamt nehme ich aus Wien nicht nur vielfältige Impulse und die fachlichen Erkenntnisse mit, sondern auch, das Gefühl mit den Digital Humanities eine wissenschaftliche Community kennengelernt zu haben, die einen sehr herzlichen, neugierigen und manchmal auch etwas selbstironischen Geist in sich vereint, mit dem ich mich sehr verbunden fühle.

Recap of the DHd 2026 Conference in Vienna

2026年3月11日 23:08

Two weeks ago, I had the pleasure in attending the DHd 2026 in Vienna! The week long conference started with being greeted and checked in by extremely kind and helpful people and receiving a DHd tote bag containing a travel mug, a programmable LED name tag, a program book, a DHd pen, and a notebook.

Then the first workshop began. I had enrolled in Workshop 6: Library Labs als Innovation Hubs für DH – Worldcafé & Community Building. Here we heard from the Bibliothek für Bildungsgeschichtliche Forschung des DIPF, the Deutsche National Bibliothek, the Stabi Lab which is part of the Staatsbibliothek zu Berlin, DIGIPOP, and the Vernetzungs- und Kompetenzstelle Open AccessBrandenburg. Each presented what offers they have, what events they host, how to access their datasets and open source resources, and how to get in touch. Then after a 15-minute coffee and pastry break, we broke out into groups and discussed the overarching theme of Library Labs, broken up into the subcategories of physical location, teaching formats, personnel/resources, target groups and communication, and cooperation and sustainability. The breakout groups was an amazing opportunity to learn and chat with other people attending the conference and hear about the work they are currently involved in.

The next day I participated in the workshop hosted by the DNBLab from the Deutsche Nationalbibliothek called “Von der Forschungsidee zumDatenkorpus”. Here we learned how to use the DNB SRU Query Tool to query and create metadata sets via the SRU interface. This workshop was again a very open and welcoming space, with all coding levels represented and everyone working together to use the tool and create visualizations from the datasets.

During the lunch break after, due to the sunny weather, many people decided to picnic outside at a nearby park before the next workshop. Tuesday evening was the Opening Keynote from Miriah Meyer, a professor in the Department of Science and Technology at Linköping University who is funded by the WASP program. Her research focuses on developing visualization tools that support exploratory and reflective data analysis and provide new ideas for using data in our lives. These tools enable people to learn more about their own data, redefine their perspectives, and revolutionize their thinking. In her keynote “Data As _: Exploring the Plurality of Data in Visualization”, she presented four different perspectives on data that reflect the range of approaches used by visualization researchers. By clearly distinguishing these perspectives, she opened new possibilities for how we create and use data and visualizations, and how we can simultaneously question our common notions of data-driven work. She also described the various projects she is and has been involved in, including one where young women are the target audience, with whom she explored Data Crafting and Data Physicalization Methods.

After the interesting Keynote, we all went to the Main Ceremonial Hall (Grosser Festsaal) for the Opening Reception where we were welcomed with food, drinks, and deserts and had time to socialize. Starting Wednesday and going until Thursday at noon, there were lectures where 2 to 3 people or groups presented their work, each total lecture lasting 1.5 hours and each having an overarching topic. The topics included digital soundscapes, digital art history, research data standards, Doctoral consortiums, named entities, digital editions, history of DH research, research software engineering, graph networks, virtuality, AI in interaction scenarios, epistemology and interpretation, research platforms as well as panel discussions. Between each lecture, there was either a coffee and pastry break, or a lunch break.

Thursday after the first coffee break, everyone headed to the Audimax where the Poster Slam took place. Each person or group presenting a poster had 60 seconds to introduce themselves, their topic and their research. The audiences applause level was recorded and whichever group received the loudest applause won. The slams were all so creative, with people working with props, being wrapped in toilet paper, performing poetry, sonnets, raps, and skits. After the Poster Slam followed lunch, and afterwards everyone gathered in the Main Ceremonial Hall for two Poster Sessions where we were able to ask questions and hear more about each poster from each of the participants.

In the evening, we were invited to the Reception in the City Hall. We entered the City Hall and were greeted with breathtaking architecture. The mayor’s representative welcomed us, speeches were held, the awards of the Poster Slam and the Poster Sessions were announced, selfies were taken and the buffet was opened. The night continued with food, drinks, desserts, and dancing and then once the City Hall closed, everyone went to a bar where bingo was played at midnight.

On Friday there were two more lecture sessions with topics including historical perspectives, digital editions II, text recognition, automation and AI, operationalization, multimodality, data modeling, digital art history II, and two more panel discussions.

This was followed by lunch and then the closing Keynote which was held by Katharina Kinder-Kurlanda, a Professor of Humanwissenschaft des Digitalen at the University of Klagenfurt in Austria. She works across disciplines in digital humanities, science and technology studies, sociology of technology, and internet research. Her research interests include new epistemologies for big data, algorithms in everyday life, data practices, social casual games, and (fair) artificial intelligence. The keynote invited us to understand digital humanities as a critical discipline that not only applies digital methods but also reflects on their social implications. She asked the question of how can we, as researchers in digital humanities, make the politics of data visible?

Following the Keynote, closing remarks were made, the Organizational Team from Vienna was brought on stage and given roses and thanked for their amazing effort, and there was a presentation about the DHd Conference 2027 which will take place in Marburg Germany.

Overall, the DHd 2026 was an amazing experience! It was an extremely open and supportive environment, allowing everyone to meet and learn from their peers and the pioneers of the field. I am very grateful to the DHD for the scholarship and this opportunity. Thank you for the inspiring week full of wonderful presentations, workshops, posters, delicious food and drinks and lovely interactions. I’m already looking forward to next year! 🤩

Rückblick zur DHd2026 – Ein Konferenzbericht aus Wien

2026年3月11日 22:43

Dieser Beitrag entstand im Rahmen eines Early Career Reisestipendiums von CLARIAH-AT für die DHd2026 in Wien. Herzlichen Dank für die Ermöglichung dieser Teilnahme.

Was macht eine wissenschaftliche Community aus? Und gehöre ich dazu? Diese Frage hatte ich im Gepäck, als ich als Masterstudierende der Digital Humanities an der Universität Regensburg zum ersten Mal zur DHd fuhr. Die DHd2026 war meine erste große DH-Konferenz und eine Einladung, die Community nun endlich live zu erleben. Das Ziel: Wien.Eine prachtvolle Stadt, eine beeindruckende Universität und ein Tagungsthema, das neugierig macht: Not just text, not just data. Was steckt in den Digital Humanities jenseits von Textkorpora und Datentabellen? Die Konferenz hat darauf viele spannende Antworten geliefert.

GPU für die GW – aber bitte DSGVO-konform

Der erste Konferenztag führte mich in den Halbtagsworkshop „Beyond the Cloud: Democratizing GPU Access for the Digital Humanities“ des DHInfra-Teams der Universität Graz und der Universität für Weiterbildung Krems. Der Bedarf an rechenintensiven Methoden wächst in der DH rasant, während kommerzielle Anbieter wie AWS oder Google Colab ernsthafte Fragen zu Datenschutz und Datensouvränität aufwerfen. DHInfra setzt hier mit einer föderierten, DSGVO-konformen GPU-Infrastruktur an. Der Workshop war dabei mehr als eine Demonstration, er diente als finale Testphase vor dem offiziellen Launch, in der die Teilnehmenden LLMs feintunen und API-basierte Workflows entwickeln konnten und gleichzeitig direktes Feedback zur Plattform gaben.

Data as…

Den Auftakt der Konferenz bildete am Abend die Eröffnungskeynote von Miriah Meyer mit dem Titel „Data as…: Exploring the Plurality of Data in Visualization“. Mit einer scheinbar simplen Frage: „Was sind eigentlich Daten?“ eröffnete sie ein breites Panorama: Daten als Input, als Ground Truth, als Design Material, als etwas Verflochtenes. Wer diese Rahmungen explizit benennt und hinterfragt, gewinnt neue Perspektiven auf Visualisierungen und die eigene Forschungspraxis. Beim anschließenden Empfang wurden diese Gedanken in Gesprächen weitergeführt. Ein schöner Beweis dafür, wie eine gute Keynote eine Konferenz inhaltlich in Gang setzt.

Annotieren: Mensch, Maschine oder beides?

Am zweiten Tag folgte der ganztägige Workshop „Film- und Videoanalyse mit VIAN & TIB-AV-A“. Die zentrale methodologische Frage: Wann annotieren wir manuell, wann die Maschine? VIAN Light macht diese Spannung produktiv, indem es manuelle Annotation mit automatischer Einstellungserkennung kombiniert und damit Raum lässt für das, was Eva Hielscher „Doing ELAN“ nennt: den Annotationsprozess selbst als erkenntnisleitenden Akt. Das Fazit des Tages: Automatisierung ersetzt die manuelle Annotation nicht. Hybride Workflows, die beides kombinieren, sind der Schlüssel.

Die Politik der Daten

Besonders nachhaltig haben mich zwei Panels beschäftigt. Im Panel „KI als Belastungsprobe für das offene Internet“ diskutierten Klaus Rettinghaus, Sarah Oberbichler, David Maus und Grischka Petri, was der Boom generativer KI bedeutet: Bot-Traffic, der sich als menschlich tarnt, blockierte Archive, ignorierte Lizenzen. Die Kernfrage: Welche Infrastrukturen bauen wir auf, welche Daten legen wir unter welchen Bedingungen offen? Das sind im Kern politische Entscheidungen und Geisteswissenschaftler:innen können mit ihrer kritischen Datenperspektive aktiv mitgestalten.

Das Panel „The Dark Sides of DH revised: From Utopia to Reality“ richtete den Blick nach innen: auf sprachliche Vielfalt, feministische Datenpraktiken, Repräsentation und ein erweitertes Verständnis von Nachhaltigkeit jenseits von Effizienz. Was mich überzeugte, war der konstruktive Grundton: Es ging nicht nur darum, Probleme zu benennen, sondern gemeinsam darüber nachzudenken, was die DH werden könnte, wenn wir diese Lücken ernst nehmen.

Research Software, Posterslam und Empfang im Wiener Rathaus

Ein weiteres Panel widmete sich Research Software Engineering. Sabina Mollenhauer plädierte für eine Richtungsumkehr: Ethnografische Methoden könnten aktiv zur Gestaltung nachhaltiger Research Software beitragen statt Wissen nur von STEM zu übernehmen. Kevin Kuck und Kevin Wunsch zeigten, wie automatisierte Workflows in Editionsprojekten Raum für inhaltliche Forschung schaffen. Kristin Herold, Hizkiel Alemayehu und Daniel Jettka diskutierten am Beispiel Edirom Online, wie Software nach Projektende überlebt: durch Modularisierung, Community-Building und gezielte Kleinstförderungen.

Ein Highlight der Konferenz war der Posterslam: In kürzester Zeit überzeugten die Slamenden das Publikum von ihrer Forschung, gemessen per Lautstärkemessgerät, Kostüme und popkulturelle Referenzen inklusive. Eine mitreißende Einleitung zu zwei Postersessions, bei denen Zeit für viele spannende Gespräche war.

Daten sind nie neutral

Den krönenden Abschluss des letzten Abends bildete der Empfang im Wiener Rathaus, ein sehr imposanter und beeindruckender Rahmen für eine Konferenz, die inhaltlich als auch atmosphärisch viel zu bieten hatte. Und passend zum Gastgeber durfte musikalisch natürlich auch Falco und der Wiener Walzer nicht fehlen.

Was bleibt

Was mich überrascht hat, war die Atmosphäre: offen, vielfältig, von echtem gegenseitigem Interesse geprägt. Gespräche entstanden schnell und unkompliziert, über Fachgrenzen und Karrierestufen hinweg. Als jemand, die gerade mitten im Studium steckt, war es besonders wertvoll, das Gefühl zu haben, wirklich Teil einer Community zu sein, nicht nur Beobachterin.

Das Stipendium von CLARIAH-AT hat mir nicht nur die Reise nach Wien ermöglicht, sondern einen Einblick gegeben, worum es in den Digital Humanities im besten Sinne geht: das gemeinsame Nachdenken über Methoden, Infrastrukturen und Verantwortung, mit Menschen, die das wirklich ernst nehmen.

Sophia Babl, Masterstudium Digital Humanities, Universität Regensburg

From Modelling to Transcription: Workshop Notes from DHd2026

2026年3月11日 22:25

During DHd2026 in Vienna, many discussions revolved around how digital tools shape the way we work with texts and data. Instead of trying to summarise the entire conference, this blog post focuses on the workshops I attended during the first days and on a few ideas that stayed with me throughout the week.

Looking back at my notes, I realised they already suggested a structure for this post. The workshops I attended raised questions about modelling, transcription, and data that later reappeared in other panels and keynotes during the conference.

Note 1: Starting with Practice

My first two days at the conference were shaped by workshops, and that felt like a good way to begin. Rather than starting with big claims about digital humanities, I started by sitting down with tools, notebooks, scripts, and a lot of practical questions.

On the first day, I attended the workshop “Beyond Entities: Inhaltsbasierte Erschließung digitaler Editionen mit KI.” We worked with Python, APIs, and Jupyter notebooks to extract RDF triples from TEI-encoded early modern letters. What I found especially interesting was that the workflow did not stop at named entities. Instead, it tried to model conceptual relations in the texts. Themes such as emotion, illness, or social order became part of a semantic structure that could then be visualised and analysed further.

Titelfolie des Workshops "Beyond Entities" im Rahmen der DHd2026 in Wien.

I liked that this workshop stayed close to the material while still asking what kinds of structures can be made visible through computational methods. It also made very clear that modelling is never neutral. Even at the level of prompts and extraction rules, decisions shape what the final data looks like.

Note 2: From Audio to Text

The second workshop I attended, “Vom Audio zum Text: Automatisierte Transkriptionen mit Whisper,” shifted the focus from written material to spoken language. We looked at automated transcription workflows, compared tools, and worked through Python-based pipelines for transcription and speaker diarisation.

Titelfolie des Workshops "Von Audio zu Text" vom Data Science Center im Rahmen der DHd2026

What stayed with me most was the discussion after the practical part. Our reflections quickly clustered around three terms: transfer, opportunities, and limits.

The question of transfer came up in relation to both teaching and research. We talked about how automated transcription might be built into thesis work, methods courses, or training materials. There were ideas about shared standards, open educational resources, and also about making these workflows usable for people who are not deeply technical.

The opportunities were easy to see. Automated transcription can save time, give a quick overview of larger amounts of audio material, and make certain kinds of corpus building much more realistic. Reusable code and adaptable workflows also make it easier to test different research setups.

At the same time, the workshop discussion was just as much about the limits. In qualitative work especially, transcripts are never just raw text. Things like pauses, laughter, overlap, hesitation, and speaker dynamics matter, and automated systems do not capture all of this equally well. We also kept coming back to transparency, validation, and the need to check what a model is actually doing. 

For me, this workshop was useful precisely because it did not present automation as a magic solution. It showed where these tools can help, but also where they flatten the material.

Note 3: The Keynote as a Frame

Only after these two workshops came the opening keynote by Miriah Meyer, “Data As ___________: Exploring the Plurality of Data in Visualization.” By that point, I already had the workshop experiences in mind, and that made the keynote even more interesting to listen to.

What I took from it was not one single definition of data, but the opposite. Data appeared here as something plural, shaped, and dependent on context. Meyer spoke about data as entangled, as design material, and as connection. That fit surprisingly well with what I had just seen in the workshops. Whether we are extracting semantic triples from letters or producing transcripts from audio, data do not simply appear ready-made. They are produced through tools, settings, modelling choices, and research interests.

The question “Is data graffiti data?” while looking at sticker emojis museum visitors made on a data sheet, stayed with me because it made this point in a way that was funny and sharp at the same time. It pushed against the idea of data as something clean and self-evident.

Looking Back at the Rest of the Week

For me, the workshops were an amazing start to DHd2026 because they made it possible to move back and forth between trying things out and thinking about what those methods actually imply for research practice.

As the conference continued, I noticed that many of the themes from the workshops reappeared in other sessions. Panels such as “Not Just Text, Intertext!” and projects like NAKAR returned to questions of modelling, connection, and interpretation. The final keynote by Katharina Kinder-Kurlanda then made the political and epistemic side of data work even more explicit.

Looking back at my notes now, this connection between experimentation and reflection is probably my main takeaway from the week. The interesting part is not only that digital tools can do more and more. They also force us to ask more precise questions about modelling, interpretation, transparency, and what we even mean when we call something data. In that sense, the workshops were not just an introduction to tools, but also to the questions that come with using them.

 

This blog post was written as part of a travel grant for the DHd 2026 conference. My sincere thanks go to NFDI4Memory for supporting my participation, and to the conference organizers for their excellent work in making the event such a positive experience.

Wie steht es um die Sichtbarkeit von Frauen und Queerness in den Digital Humanities? Ein Blick in die Dhd-Jahreskonferenz 2026 in Wien.

2026年3月7日 00:11

Nicht nur Text, nicht nur Daten unter diesem Motto fand die Dhd-Jahreskonferenz in der letzten Februarwoche an der Universität Wien statt. Eine Vielzahl an unterschiedlichsten Workshops, Panels und Postern repräsentierten das breite Themenspektrum der Digital Humanities. In diesem Blogartikel wird ein exemplarischer und persönlicher Eindruck wiedergegeben, der unter einem Schwerpunkt steht: die Sichtbarkeit von Frauen und Queerness in den Digital Humanities – ein Thema, das sowohl methodische als auch ethische Fragen aufwirft und zeigt, wie stark Daten und ihre Interpretation von gesellschaftlichen Normen geprägt sind.

Queere Perspektiven und der Gender Data Gap

Der Workshop „Beyond ‘m/w/d‘ – Queere Perspektiven auf die Modellierung geschlechtlicher Diversität“ (geleitet von Philipp Sauer und Franziska Naether, sowie mit Vorbereitung von Peter Mühleder, alle von der Sächsischen Akademie der Wissenschaften) setzte sich kritisch mit der Erfassung und Darstellung von Gender in Forschungsdaten auseinander (https://www.bbaw.de/gender-data). Ausgangspunkt ist der Gender Data Gap – das systematische Fehlen oder die unzureichende Berücksichtigung von Frauen und nicht-binären Personen in Datensätzen, das u.a. Caroline Criado Perez in „Invisible Women“ oder im von Sarah Lang und Elena Cronauer verfassten Paper „Beyond Data Feminism. Towards Ethical Data Work in the (Digital) Humanities“ (https://zfdg.de/wp_2026) thematisiert. Gerade in historischen Forschungen geht dieser Datenlücke eine Quellenlücke voran, was eine lückenahfte Überlieferung von Quellen, die von Frauen oder über Frauen und queeren Personen verfasst wurden, bedeutet.

Die anschließenden Beispiele aus aktuellen Forschungen der Workshop-Teilnehmenden zeigten, wie komplex die Modellierung von Gender ist und welche Fragen Forschende sich vor Arbeitsbeginn stellen sollten:

  • Relevanz für die Forschung: Ist die Erfassung von Gender für die konkrete Fragestellung überhaupt notwendig?
  • Umgang mit Unsicherheiten: Wie geht man mit fehlenden Informationen um? Darf man als Forscher:in einer Person ein Geschlecht zuschreiben?
  • Kategorienbildung: Sollte man nur „Frauen“ und „Männer“ erfassen oder auch FLINTA* oder “alles außer cis-Männer”?
  • Temporale Dynamik: Wie werden Änderungen der Geschlechtsidentität über die Zeit abgebildet?
  • Sprachliche Normen: Wie geht man mit dem generischen Maskulinum in bestehenden Vokabularen um?

Ein zentrales Dilemma ist die Abwägung zwischen Sichtbarkeit und Sicherheit: Geschlechtsbezogene Daten sind immer sensibel und eine ungewollte Offenlegung von Geschlechtsidentitäten oder sexueller Orientierung muss unbedingt vermieden werden, selbst wenn dadurch wissenschaftliche Erkenntnisse verloren gehen.

Bestehende Möglichkeiten zur standardisierten Erfassung von Geschlechtskategorien in Normdaten bieten keine zufriedenstellende Lösungen, wie der konservative Ansatz der GND mit den Kategorien „weiblich“, „männlich“, „unbekannt“ zeigt, aber auch Wikidata, die zwar über 100 Gender-Konzepte zulassen, welche aber oft vage definiert oder überlappend sind.

Sichtbarmachung weibliche Theaterautorinnen in der Weimarer Republik: Das Beispiel „Die Schaubühne“

Am zweiten Konferenztag bot eine Exkursion in das Austrian Center for Digital Humanities der Österreichischen Akademie der Wissenschaften Einblicke in deren aktuelle DH-Forschung. Ein vorgestelltes Projekt ist die digitale Edition von „Die Schaubühne“, einer einflussreichen Theater- und Kulturzeitschrift der Weimarer Republik, welche vom Berliner Theaterkritiker Siegfried Jacobsohn 1905 gegründet wurde. Als zentrales Forum der Weimarer Republik setzte sie sich mit zahlreichen zeitgenössischen Autor:innen auseinander und explizit auch mit weiblichen Theaterautorinnen, wie beispielsweise Henriette Riemann und Else Onno. Die digitale Aufbereitung der Zeitschrift und der thematisierten Autor:innen zeigt, wie die DH dazu beitragen können, historisch marginalisierte Stimmen sichtbar und für die Forschung weiter nutzbar zu machen (https://www.oeaw.ac.at/de/acdh/forschung/literaturwissenschaft/ressourcen/korpora/die-schaubuehne).

Ein Tool für eine diversitätsbewusste Datenpraxis: Das Vornamentool Hivoto

Am dritten Tag präsentierte Katja Liebing (Universität Halle-Wittenberg) das historische Vornamentool Hivoto, das bei der Geschlechtszuordnung von Vornamen unterstützen kann. Mit einer Datengrundlage von knapp 202.000 Vornamen aus dem deutschsprachigen Raum hilft das Tool dabei, vorliegenden Vornamen ein Geschlecht zuzuweisen. Hierbei liegen neben den Kategorien weiblich und männlich auch weitere Möglichkeiten vor, die Uneindeutigkeit sichtbar machen. So kann ein Name mit “predominantly male gendered” oder “The item does not allow for a clear gender assignment” gelabelt werden.

Fazit: Geschlechtergerechtigkeit in den Digital Humanities – eine fortlaufende Aufgabe

Die vorgestellten Eindrücke von der DHd-Konferenz 2026 machten deutlich: Die Erfassung und Repräsentation von Geschlechtern in Forschungsdaten ist ein mehrdimensionales Problem, das technische, methodische und ethische Aspekte berührt. Die DH sind ein wichtiges Feld für Innovation: Hier werden nicht nur neue Tools entwickelt, sondern auch kritisch reflektiert, wie Daten gerechter, diverser und partizipativer gestaltet werden können. Die Aufgabe bleibt, diese Ansätze in die breitere Forschungslandschaft zu tragen und so dazu beizutragen, dass Forschungsdaten verstärkt alle Geschlechter sichtbar machen.

Weitere Informationen zu den Konferenzbeiträgen finden sich im Book of Abstracts: https://zenodo.org/records/18591948

Dieser Bericht ist im Rahmen eines Reisekostenstipendiums für die Dhd 2026 entstanden. Ich möchte mich an dieser Stelle bei NFDI 4 Culture herzlich dafür bedanken, mir die Teilnahme an der Konferenz zu ermöglichen. Auch möchte ich die tolle Arbeit der Organisator:innen hervorheben und mich dafür bedanken, dass meine erste Konferenzerfahrung so positiv war und mir wohl noch lange in Erinnerung bleiben wird.

Studiolo Digital Humanities Lab Winter school 2026 in Centre for the Study of Medicine and the Body in the Renaissance

2026年3月3日 22:07

Vom 25. bis 27. Februar 2026 wurde eine online Winter School zu Digital Humanities im Centre for the Study of Medicine and the Body in the Renaissance (CSMBR) in Pisa unter dem Namen Studiolo Digital Humanities veranstaltet. Vormittags widmeten wir uns einem praktischen Kurs zur Programmierung in Python für die Geisteswissenschaften; nachmittags fanden Workshops und Fachvorträge statt, die die praktische Anwendung der Digital Humanities in aktuellen Forschungsprojekten vorstellten.

The Centre for the Study of Medicine and the Body in the Renaissance
The Centre for the Study of Medicine and the Body in the Renaissance (Bild: Fabrizio Bigotti)

Studiolo Digital Humanities Lab gehört zur Reihe Winter Schools: Humanities for the Future des CSMBR, die alle zwei Jahre vom Zentrum veranstaltet wird. Dieses Jahr fand der zweite Kurs seit der Gründung des Zentrums im Jahr 2018 statt. Die Schulung bot mir eine einzigartige Gelegenheit, mehr über die Verwendung der Digital Humanities im medizinhistorischen Kontext zu erfahren und meine bisherigen Kenntnisse zu vertiefen. Dank des Stipendiums des Verbands Digital Humanities im deutschsprachigen Raum (DHd e.V.) wurde es mir ermöglicht, an dieser Winter School teilzunehmen, wofür ich mich herzlich bedanken möchte.

Die drei intensiven Tage waren vollständig durch die Veranstaltungen ausgefüllt. Vormittags hatten wir die Gelegenheit, uns in die Programmierung mit Python und ihre Anwendungen in den Geisteswissenschaften einzuarbeiten. Bei der Einführung in die Programmierung erwarben wir praktische Kenntnisse über Funktionen, Dateiverwaltung und Daten sowie über Module – vor allem über die Bibliothek Pandas. Damit konnten wir Datensätze genauer mittels Statistik und Grafiken untersuchen. Während jeder Sitzung hatten wir genügend Gelegenheit, gezielte Fragen zu stellen, die unsere eigene Forschung und unsere Forschungsperspektiven betrafen.

Jeder Nachmittag war wissenschaftlichen Anwendungsszenarien der DH in aktuellen Forschungsprojekten oder Workshops zum Thema Entwicklung interaktiver Forschungsergebnisse in der Wissenschaftsgeschichte gewidmet, mit aktiver Diskussion offener Fragen, wie zum Beispiel: Was ist eine interaktive wissenschaftliche Veröffentlichung? Dieser Workshop veränderte meine Sicht auf wissenschaftliches Arbeiten und auf Veröffentlichungsmethoden, da interaktive Publikationen die Möglichkeit bieten, komplexe Inhalte klarer und differenzierter darzustellen. Die Fragenstellungen führten unsere Forschungsideen an eigenen Feldern durch DH-Anwendungsszenarien zur Unterstützung. Bei mir handelt es sich vor allem um lateinische mittelalterliche medizinische Handschriften. Mit Hilfe der Bibliothek Pandas können Statistiken und Diagramme erstellt werden, was meiner Forschungsrichtung sehr nützlich sein kann. Ich habe vor, die lateinischen medizinischen Handschriften einer Gattung und deren Entwicklung im Laufe der Jahrhunderte genauer zu untersuchen, wozu mir das neu erlernte Modul unbedingt behilflich sein wird. Dadurch lässt sich die Entwicklung der Gattung „regimen sanitatis“ anhand der DH-Daten vergleichen. Die allgemeine Vertiefung der vorher erworbenen Kenntnisse inspirierte mich auch, mich mehr mit den digitalen Editionen der veröffentlichten Texte zu beschäftigen.

Mein zweites Forschungsfeld, das durch die Winter School sehr profitierte, ist meine Arbeit zu den mittelalterlichen Schreibern. Ich sammelte mittlerweile mehrere Dateneinträge zu einigen Schreibern der Handschriften, aber dank dieses Kurses bekam ich breiteren Überblick darüber, was und vor allem wie man mittels DH-Methoden erreichen kann. Sei es die Statistik der Überlieferung, die Ausbreitung der Handschriften oder Diagramme, mit denen man anschließend Vergleiche zu bereits existierenden Daten ziehen kann.

Die Vorträge der gegenwärtigen Forschungsprojekte waren vielfältig: Sie reichten von 3D-Modellierungen über Python-Datenbanken bis zur Gamification, von archäologischen Ansätzen (Digitalisierung der Handschriften) bis zur Medizin und zur Geschichte der Entwicklung von Vorstellungen über Organe. All diese Felder galten als nahezu unerschöpfliche Quellen für Anwendungsszenarien und Ideen für die zukünftigen Forschungsrichtungen der Teilnehmerinnen und Teilnehmer. Nach jedem Vortrag gab es genügend Zeit für einen bereichernden Austausch. Natürlich kann man während eines Kurses nur eine gewisse Menge an Kenntnissen erwerben, aber auch darauf war der Veranstalter vorbereitet. Für viele Themen gab es Literaturvorschläge und Hinweise zum Weiterlesen, um sich weiterzuentwickeln.

Das gesamte Programm kann man auf der Website des CSMBR unter folgendem Link genauer einsehen; dort findet man auch aktuelle Veranstaltungen, Schulungen und Konferenzen, die nicht nur mit Medizingeschichte zusammenhängen. Hiermit möchte ich mich beim Verband Digital Humanities im deutschsprachigen Raum nochmals für die Unterstützung bedanken und meine Überzeugung äußern, dass mir die Teilnahme an der Winter School nicht nur neue Kenntnisse in DH, sondern auch wissenschaftliche Kontakte in meinem Bereich der Medizingeschichte brachte, von denen sowohl mein Studium als auch meine Forschung profitieren werden.

Eindrücke der Digital Humanities Benelux 2025 in Amsterdam

2026年1月1日 01:00

Die Digital Humanities Benelux 2025 fand in diesem Jahr vom 4.-6. Juni in den Niederlanden, genauer gesagt in Amsterdam, statt und wurde dort an der Freien Universität (Vrije Universiteit) ausgerichtet. Der gesamte Universitätskomplex ist neu und umfangreich ausgestattet. So gab es eine größere Outdoor-Anlage mit Möglichkeiten für Calisthenics sowie drei Beachvolleyballcourts mitten auf dem Unicampus. Das machte gleich zu Beginn Eindruck.

Anlage auf dem Campus der Universität in Amsterdam (Vrije Universiteit) mit Trainingsmöglichkeiten.
Anlage auf dem Campus der Universität (Bild: Vivian Rätzke).

Aber der Grund für meine Reise war ein anderer – gerne wollte ich die Digital Humanities Benelux besuchen und durfte eine ereignisreiche Tagung miterleben. Ich bin sehr dankbar, dass ich die Möglichkeit dazu hatte und möchte mich an dieser Stelle sehr herzlich bei dem Verband Digital Humanities im deutschsprachigen Raum (DHd e.V.) für die großzügige Unterstützung in Form eines Reisekostenstipendiums bedanken, das mir die Konferenzteilnahme ermöglichte.

Im Vorfeld zur Tagung gab es eine Vielzahl an Pre-Workshops, die am Tag vor dem offiziellen Beginn stattfanden. In meinem Fall fiel die Wahl auf Working with colonial Digital Cultural Heritage, Approaches, Tools, and Transnational Insights. Es handelte sich dabei um einen Workshop zum Umgang mit kritischen Metadaten bei Museumsobjekten aus dem Kolonialkontext. Dieser Workshop beleuchtete unterschiedliche Perspektiven und machte bewusst, was nicht auf Anhieb offensichtlich war, zum Beispiel den Verlust an Informationen bei Objekten aus dem rituellen Kontext. In diesem Rahmen konnten Beispielobjekte aufgezeigt werden, für die weitere Metadaten in Gruppenarbeiten von uns hinzugefügt wurden. Dies geschah unter dem Gesichtspunkt, welche Metadaten fehlen, aber auch welche Metadaten verändert werden müssten. Einer der aufgeworfenen Punkte, war, inwiefern Personen der betreffenden kulturellen Einflüsse in die Erstellung von Metadaten des jeweiligen Objekts einbezogen wurden oder werden sollten, um die Informationen weiterzugeben und darüber hinaus die Suche zu erleichtern. Es wäre ein wichtiger Beitrag, dass essentielle Informationen zu den Objekten und dem Kontext nicht verloren gingen, sondern für die Nachwelt erhalten blieben. Dies wäre auch ein Zeichen des Respekts im Rahmen der Aufarbeitung.

Da der Workshop nur einen halben Tag gehen sollte, buchte ich mir für den restlichen Tag einen Slot im Museum und hatte die Gelegenheit, das Kulturangebot der Stadt Amsterdam genießen zu dürfen.

Fußweg zur Tagung durch die Natur mit einem Gewässer.

Fußweg zur Tagung (Bild: Vivian Rätzke).

Am nächsten Tag ging es weiter mit der offiziellen Eröffnung der Tagung, die insgesamt zweieinhalb Tage gehen sollte. Jedoch ahnten wir zu diesem Zeitpunkt noch nicht, wie sie zum Wochenende hin enden würde, aber dazu später mehr.

Insgesamt gab es während sämtlicher Präsentationen, Vorträge zu drei parallel stattfindenden Sessions. Dies bot ein überaus umfangreiches und vielseitiges Programm für jeden Geschmack und unterschiedliche fachliche Hintergründe. Darunter fielen zum Beispiel Vorträge zur 3D-Modellierung in der Archäologie und X-Analysen anhand von Daten der Geschichtswissenschaften.

Das Reisestipendium eignete sich ideal für die Reise nach Amsterdam, denn die Tagung war international gut besucht und dementsprechend anregend im Austausch über aktuelle Themen der Digital Humanities (DH). Eröffnet wurde die Vortragsreihe mit einer Keynote von Barbara McGillivray vom King’s College London mit Tracing meaning across time: computational and human-centred approaches to semantic change. Noch eine Keynote gab es von Lise Jaillant mit AI to Unlock Archives: Revolutionising Access to our Digital Past. Beide Vorträge waren über die Maße interessant und stark besucht. Mit großem Interesse wurden zum Schluss Diskussionen mit den Tagungsteilnehmenden geführt.

Während der Tagung konnte ein dynamisches Miteinander unter den Tagungsteilnehmenden beobachtet werden. Nicht nur spannende Vorträge gab es, sondern auch eine Poster-Session sowie eine Demonstrationssitzung. Diese sowie das Rahmenprogramm förderten die Möglichkeiten der Vernetzung innerhalb der Digital Humanities Community.

Ein interessanter Punkt des angebotenen Zusatzprogramms war die Möglichkeit, an der Bibliotheksführung der ausrichtenden Universität teilzunehmen. Bei dieser Gelegenheit wurde nicht nur ein Einblick in historische Objekte wie einen Globus oder eine Karte von Japan gegeben, sondern auch ein Projekt vorgestellt, bei dem es darum ging, assyrische Tontafeln für Unterrichtszwecke zu scannen, als 3D-Modelle zu erstellen sowie mit dem 3D-Drucker zu drucken. Diese Kopien der Tontafeln wurden herumgereicht und konnten angefasst sowie ausführlich begutachtet und untersucht werden.

Wann bekommt man schon einmal die Gelegenheit, die Struktur eines antiken Objektes ausgiebig abtasten und die Keilschrift erfühlen zu dürfen? Alles natürlich unter dem Gesichtspunkt, dass das Original unberührt, unversehrt und geschützt blieb. Nicht zu vergessen, dass sogleich eine Expertin unter uns Teilnehmerinnen und Teilnehmern anfing zu erklären, worum es sich dabei genau handelte. Frau Dr. Anouk Nuijten, die auch Ansprechpartnerin für das Projekt ist, berichtete uns zusammen mit ihrem Kollegen Aidan Houtkamp mehr über die Eindrücke von den 3D-Modellen und den angefertigten Repliken im Rahmen von Digital Impressions: Creating 3D Models of Clay Tablets. Weiterhin können die Objekte hier gefunden werden.

Eine Tontafel wird gescannt.
Eine Tontafel wird gescannt (Bild: Vivian Rätzke).
Ausschnitt aus einem Projekt der Universität in Amsterdam.
Ausschnitt des Modells (Bild: Vivian Rätzke).

Der Austausch während der Tagung war produktiv und förderte die internationale Vernetzung zwischen den mehr als 200 Tagungsteilnehmenden sehr. Die anschließenden Diskussionen waren anregend und ermöglichten neue Ideen für Herangehensweisen zukünftiger Forschungsprojekte. Aber auch die Poster- und Demo-Sessions gaben Aufschluss über vielversprechende Möglichkeiten, die in DH genutzt werden können.

Das Organisationsteam vollbrachte eine reife Leistung. Wie schon erwähnt, bot das Ende der Tagung eine überraschende Herausforderung. Bereits zu Beginn stießen die Raumkapazitäten an ihre Grenzen und es mussten kurzerhand größere Räumlichkeiten der Universität zur Verfügung gestellt werden. Zwischenzeitlich gab es ein hohes Aufkommen, dass zuvor sogar auf dem Fußboden Platz genommen worden war, da sich niemand die spannenden Präsentationen entgehen lassen konnte. Womit zu guter Letzt jedoch kaum jemand gerechnet hatte, war der landesweite Bahnstreik der niederländischen Bahn, der dafür sorgte, dass spontan umdisponiert werden musste. So kam es, dass einige bereits einen Tag früher abreisten und andere wiederum ihren Aufenthalt um einen Tag verlängerten. Gleichzeitig wurde das Programm von einem auf den anderen Tag von einem Präsenzmodell zur Hybridtagung am letzten Veranstaltungstag umgewandelt. Der Plan ging auf und alle Vorträge konnten stattfinden. Organisatorisch wurde dies flexibel gehandhabt, jedoch waren am letzten Tagungstag keine Fahrten innerhalb der Niederlande möglich. Ich hatte ohnehin geplant, eine Nacht länger zu bleiben und konnte erfreulicherweise ohne Probleme am nächsten Tag weiterfahren.

Die Digital Humanities Benelux 2025 war ein Erlebnis, das ich nicht vergessen werde. Der Besuch der Tagung hat mich fachlich weitergebracht, dazu geführt, dass ich mich intensiver mit bestimmten DH-Themen auseinandergesetzt habe und mir durch die Vorträge und den Austausch dabei geholfen, neue Ideen im Rahmen meiner Masterarbeit zu entwickeln. Sogar die Aussicht auf ein Ministipendium im Rahmen meiner Abschlussarbeit für die Nutzung eines KI-Tools habe ich dadurch bekommen. Die Möglichkeit und die besondere Erfahrung möchte ich nicht missen und werde mit Freude daran zurückdenken.

Unterwegs zur Tagung durch die Natur mit Blick auf einen Fluss.
Unterwegs zur Tagung durch die Natur (Bild: Vivian Rätzke).

Die Digital Humanities Benelux wird im kommenden Jahr 2026 erneut in den Niederlanden, aber dieses Mal in Maastricht, stattfinden. Wir können gespannt sein, was uns beim nächsten Mal erwartet.

Abschluss der Konferenz am letzten Tag im Hörsaal.
Abschlussbild der Tagung (Foto: Vivian Rätzke).

Bericht zum Workshop „APIs for text-based digital editions“ am 25.09.2025

2025年11月17日 19:13

Wird es sie bald geben, die eine API, sie alle zu finden und auf ewig zu binden? Im Workshop „APIs for text-based digital editions“, der in Kooperation der Universitätsbibliothek Heidelberg und Text+ am 25.09.2025 online stattfand, wurde unter anderem auch das diskutiert. Mehr Informationen dazu gibt es im folgenden Beitrag, der den Workshop und dessen zentrale Ergebnisse zusammenfasst.

Einleitung

Was sind APIs?​

Programmierschnittstellen („API“ von Application Programming Interface) stellen Funktionen bereit, mit denen Informationen aus einem System abgerufen oder gesendet werden können. Da die zulässigen Abfragen, möglichen Parameter und Rückgaben einer API genau definiert sind, können verschiedene Systeme und Anwendungen so einheitlich und effizient auf die Daten zugreifen, ohne die genaue Struktur des zugrundeliegenden Systems kennen zu müssen. 

Beispielsweise bietet das Hochschulbibliothekszentrum des Landes NRW die API lobid-gnd an, durch die der Zugriff auf die Bestände der Gemeinsamen Normdatei (GND) der Deutschen Nationalbibliothek verhältnismäßig aufwandsarm in andere Anwendungen integriert werden kann. In dem Webportal einer digitalen Edition könnten zum Beispiel weitere Informationen zu einer Named Entity angezeigt werden, indem beim Klick auf diese im Hintergrund eine Anfrage an einen Endpunkt der lobid-gnd-API gesendet wird (z.B.: https://lobid.org/gnd/search?q=Heidelberg&format=json). Diese liefert die in der GND gespeicherten Informationen in einem einheitlichen – und in der Dokumentation der API beschriebenen – Format aus, das so seitens des Webportals für die Anzeige aufbereitet werden kann und die gewünschte Information angezeigt wird (z.B.: „Heidelberg – Stadt am Neckar, Regierungsbezirk Karlsruhe, 1196 urkundl. erwähnt“).

Die Zugänglichmachung der Datenschicht einer Edition über eine API kann damit die Recherche, Vernetzung und Nachnutzung der Editionsdaten bedeutend erleichtern; sie trägt also auch zur Umsetzung der FAIR-Prinzipien bei. Nicht ohne Grund fragt der Kriterienkatalog der Rezensionszeitschrift für digitale Editionen RIDE explizit nach dem Vorhandensein von technischen Schnittstellen.1

Idee eines Workshops zum Thema APIs

APIs finden jedoch trotz der vielen Möglichkeiten, die sie mit sich bringen, bisher noch keine breite Anwendung im Bereich der digitalen Editionen und der auf ihnen aufbauenden Forschung. Deshalb wurde in Kooperation der Universitätsbibliothek Heidelberg mit Text+ ein gemeinsamer Workshop zum Thema „APIs for text-based digital editions“ veranstaltet.

Ziel des Workshops war es, mögliche API-Nutzer:innen (z.B. Editionswissenschaftler:innen, Digital Humanists, Sprachwissenschaftler:innen) mit den Dienstanbieter:innen und Entwickler:innen zusammenzubringen, um gemeinsam Grenzen und Möglichkeiten der Schnittstellen zu erkunden, Bedarfe, Wünsche und Weiterentwicklungsmöglichkeiten zu sammeln sowie eventuelle Hürden bei der Verwendung und Implementierung zu minimieren.

Der Workshop

Teilnehmer:innen

Am 25.09. trafen über 60 Personen für den Online-Workshop zusammen. Neben Forscher:innen aus Deutschland, Österreich und der Schweiz waren auch Teilnehmende aus u.a. Polen, der Türkei, Italien und den USA dabei, womit sich die Entscheidung, Englisch als Workshop-Sprache zu verwenden, direkt als richtig erwies. Vertreten waren u.a. Bibliotheken, Forschungsinstitute, dedizierte DH-Zentren und Data Science Labs sowie auch konkrete Forschungsprojekte.

Programm

Das etwa sechsstündige Programm gliederte sich dabei in drei Teile:

  • Vortragsteil: Vier Präsentationen à 20 Minuten zu konkreten Schnittstellen(-spezifikationen) mit jeweils unmittelbar anschließender, kurzer Fragerunde
  • Diskussionsteil: Zwei Breakouträume (einmal mit technischem Fokus und einmal mit Fokus auf Nutzung und Bereitstellung) mit anschließender gemeinsamer Zusammenfassung
  • Anwendungsteil: Vortrag zur Implementierung der DTS-Spezifikation im TEI Publisher als praktisches Beispiel für die Schnittstellenintegration; ebenfalls mit anschließender Diskussionsrunde.

Vorgestellte APIs

Die vier vorgestellten Schnittstellen(-spezifikationen) werden nachfolgend zum besseren Überblick kurz erläutert.

Distributed Text Services

Diese API-Spezifikation wird seit 2015 unter ständigem Input der Community gemeinschaftlich entwickelt und liegt aktuell als Release Candidate vor; die Veröffentlichung von Version 1.0 soll dieses Jahr erfolgen. Die Spezifikation sieht neben dem Einstiegspunkt drei Endpunkte (d.h. Orte, an die Anfragen gesendet werden können) vor:

Citable units können dabei grundsätzlich jeder Art sein; denkbar wären z.B. Kapitel, Paragraphen, Seiten oder auch Verszeilen. Durch einen oder mehrere sogenannte citationTrees wird für jede Ressource hinterlegt, welche Strukturen für sie als mögliche Zugriffsform bereitstehen, sodass beispielsweise vom selben Text (sofern implementiert) sowohl die ersten 20 Seiten als auch semantisch-logische Einheiten wie z.B. 3 Kapitel abgerufen werden könnten. Das primäre Format, das über den document-Endpoint bereitgestellt wird, ist TEI-XML; über den mediaType-Parameter können jedoch auch andere verfügbare Serialisierungen der Daten abgerufen werden, z.B. plain text, HTML oder ganz andere. Die übrigen DTS-Endpunkte nutzen JSON-LD zur Auslieferung der Informationen.

SHINE API

Die SHINE API-Spezifikation wurde im Kontext des RISE-Projektes vom Max-Planck-Institut für Wissenschaftsgeschichte in Berlin sowie der Staatsbibliothek zu Berlin entwickelt und liegt in Version 1 vor. Ähnlich wie bei DTS werden Texte hier als Hierarchie von content units und sections verstanden, die in resources enthalten sind, wobei die Ressourcen wiederum in collections gesammelt werden. Über insgesamt 7 Endpunkte ist dabei u.a. Folgendes möglich, wobei die Antwort stets im JSON-Format erfolgt:

  • collections, resources, sections und content units sowie deren zugehörige Metadaten  einsehen
  • eigene Korpora aus resources zusammenstellen und diese abrufen
  • verfügbare Forschungswerkzeuge für collections abrufen/hinterlegen

Zum letzten Punkt: Ressourcen, die über eine SHINE API zugreifbar sind, können die RISE-Infrastruktur nachnutzen; darunter den Import in Textanalyse- oder Annotationsplattformen wie MARKUS und Recogito oder die Einbindung in den RISE Catalog. Über die RISE-Middleware kann zudem beim Zugriff auf ausgewählte Ressourcen ein Authentifizierungsschritt ergänzt werden, wenn gewünscht.

UDT-ITF API

Dieser API-Spezifikationsvorschlag orientiert sich am IIIF-Standard und wurde in dem 2-Jahres-Projekt „Unlocking Digital Texts: Towards an Interoperable Text Framework“ erarbeitet. Er liegt aktuell in Version 0.1.0-beta vor und wird weiter ausgebaut. 

Der Zugriff auf Textfragmente erfolgt hier mittels der Text Fragment API, während die Text Information API Metadaten zu den Textressourcen und eventuellen Versionen ausliefert. Anders als die bisher vorgestellten API-Spezifikationen ist die Versionierung damit explizit in der Spezifikation enthalten – während bei DTS z.B. indirekt mittels Dublin Core-Metadateneinträgen angegeben werden könnte, dass eine Ressource eine andere ersetzt, ist die Version hier Teil der Fragment-Anfrage: http://{server}{/prefix}/{identifier}/{version}/{mode}/{fragment}/{quality}{.format}

Die Fragmente werden dabei durch sogenannte modes spezifiziert. Vordefiniert sind u.a. char, token und book – bei char würden Fragmente z.B. anhand von character offsets zugreifbar sein, während book eine weitere Untergliederung in Seiten, Zeilen und Zeichen zulässt, sodass book-Fragmente mittels Koordinaten aus Seite–Zeile–Zeichen gebildet werden können. Diese Fragmente werden stets anhand der plaintext-Version einer Ressource berechnet, d.h. ein Server, der diese API-Spezifikation implementiert, muss sicherstellen, dass eventuelles Tagging ignoriert wird. Weitere, selbst definierte modes auf Basis der vordefinierten Möglichkeiten sind ebenso zulässig wie das Zugreifen auf die gesamte Textressource mittels der mode “full”. Als auslieferbare Formate sind dabei txt, TEI-XML, HTML und Markdown im Entwurf vorgesehen. 

Auf die weitere Gliederung der Textressourcen in übergreifende Sammlungen wird hier verzichtet, d.h. das Konzept der collections gibt es hier nicht.

TextAPI

Die TextAPI-Spezifikation ist ebenfalls von IIIF inspiriert und wird von der SUB Göttingen entwickelt. Die Spezifikation liegt in Version 1.4.2 vor, wobei das Release der Version 2.0.0 aktuell in Planung ist. 

Mittels der TextAPI können collections, manifests (physische Expression eines Werks) sowie items oder jeweils zugehörige Metadaten abgerufen, erstellt, gelöscht und ersetzt werden. Im JSON-Inhaltsobjekt können beliebige Serialisierungen der Ressourcen per URL verlinkt werden; worum genau es sich bei einem item handelt, wird dabei durch den Typ-Eintrag im JSON-Objekt klar, der frei gewählt werden kann. Ebenfalls enthalten ist dort auch ein data integrity object, in welchem die Prüfsumme der referenzierten Ressource sowie der zur Generierung verwendete Algorithmus hinterlegt werden. Diese Möglichkeit zur Sicherstellung der Datenintegrität ist in den anderen Spezifikationen nicht integriert oder zumindest nicht pflichtmäßig enthalten.

Das hier entwickelte Ökosystem umfasst neben der TextAPI auch eine AnnotationAPI, SearchAPI und IndexAPI sowie insbesondere den Text Viewer for Digital Objects (TIDO), der TextAPI-JSON konsumiert und als Frontend einer darauf aufbauenden Web Application verwendet werden kann. Ein Beispiel dafür findet sich hier: https://ahiqar.uni-goettingen.de/arabic-karshuni.html?tido=m5_i0_p0.0-1.0-2.1-3.0

Zentrale Ergebnisse der gemeinsamen Diskussion

#OneAPIToRuleThemAll?

Ausgehend von der Feststellung, dass die diskutierten API-Spezifikationen ein ähnliches Textverständnis zugrundelegen und REST-basiert sind, stellte sich gleich zu Beginn der Diskussionsrunde die Frage, ob die vier verschiedenen Spezifikationen in einen gemeinsamen Standard zusammengeführt werden könnten. 

Dagegen spricht, dass die präsentierten APIs natürlich nicht die Gesamtheit aller Schnittstellen in diesem Bereich darstellen und schon die vier genannten durch die unterschiedlichen Entwicklungs- und Anwendungskontexte verschiedene Fokusse und damit auch unterschiedliche Features mitbringen. Zudem sind manche der Schnittstellen bereits Teil eines größeren Ökosystems, sodass Änderungen hin zu einer gemeinsamen Spezifikation für Inkompatibilitäten und damit nachträglichen Anpassungsaufwand sorgen würden.

Allerdings brächte ein gemeinsamer Standard enorme Vorteile sowohl für Forschende als auch Infrastrukturanbietende mit sich: Durch ein abstraktes und flexibles Textmodell (wie es die bisher betrachteten APIs verwenden) wäre es möglich, einheitlich auf Texte und zugehörige Metadaten unterschiedlichster Editionsprojekte zuzugreifen. Die einmalige Einarbeitung in diesen Standard und die API-Verwendung würde also den Zugang zu einer Fülle von mit viel Mühe und Zeit aufbereitetem Forschungsmaterial erlauben. Mit Sicherheit würde das auch die Nachnutzung dieser Daten fördern. Infrastrukturanbieter:innen müssten gleichzeitig lediglich einen einzigen Standard implementieren und zugehörige Skripte pflegen, was die Etablierung und Verfügbarhaltung dieser Services deutlich erleichtert. Gleiches gilt für Entwickler:innen von Forschungssoftware, die so leichter überblicken könnten, welche Schnittstellen ihr Produkt vielleicht anbieten sollte.

Für die Zusammenführung der verschiedenen Spezifikationen wären dabei natürlich viele Abstimmungen nötig – idealerweise nicht nur zwischen den Entwickler:innen, sondern auch innerhalb der Community. Vielleicht kann die zur Vorbereitung des Workshops erstellte Übersicht der vier Spezifikationen neben der Überblicksfunktion hierfür auch als Diskussionsgrundlage dienen: https://doi.org/10.11588/DATA/4EKAGI (falls Interesse besteht, dort weitere APIs aufzunehmen, gerne melden!). 

Use Cases sammeln

Während der Diskussionsrunden stelle sich mehrmals die Frage, wer genau APIs nutzt und zu welchem Zweck – dies sowohl von Seiten der Wissenschaftler:innen aus, die mögliche Einsatzzwecke und damit Mehrwerte der Schnittstellen kennenlernen wollen, als auch von den Entwickler:innen, die konkrete Fallbeispiele nutzen können, um die API-Spezifikation weiterzuentwickeln und an die Bedarfe der Community anzupassen. Beispielsweise bat Hugh Cayless um Textzeugen mit komplexeren Strukturen aus Editionsprojekten, um sicherstellen zu können, dass das Design des DTSnavigation-Endpunktes die API-Implementierung in einem Projekt nicht behindert. 

Im ersten Schritt könnten die (geplanten oder bereits umgesetzten) Anwendungsfälle über die jeweiligen GitHub-/GitLab-Repositorien oder mittels der auf den API-Webseiten angegebenen Kontaktmöglichkeiten übermittelt werden. Die auf den Webseiten oft schon enthaltenen Informationen zur API-Nutzung in bestimmten Projekten könnten dann noch weiter ausgebaut werden und so vielleicht auch weitere Nachnutzungen inspirieren.

Implementierung einer API-Spezifikation: DTS im TEI Publisher

Der Vortrag von Magdalena Turska und Wolfgang Meier zur Implementierung der DTS-Spezifikation im TEI Publisher stellte den letzten Teil des Workshops dar. In der aktuellen Version 9 des TEI Publishers sind die beiden DTS-Endpunkte collection und document – jeweils zur Einsicht in Dokumentensammlungen und zum Herunterladen von Ressourcen – bereits integriert; in Version 10 soll der fehlende navigation-Endpunkt folgen. Den Nutzenden des TEI Publishers soll es dabei möglich sein, die DTS-Komponente mit wenigen Klicks zu ihrer Editionsapp hinzuzufügen oder abzuwählen, ohne selbst etwas implementieren zu müssen. 

Dies stellt jedoch besondere Herausforderungen an die Entwicklung seitens TEI Publisher, da der navigation-Endpunkt Wissen zur Textstruktur fordert, die je nach Ressource sehr unterschiedlich ausfallen kann. Das aktuell dafür herangezogene TEI-Element citeStructure ist jedoch für die Abbildung sehr komplexer Strukturen nur bedingt geeignet. Magdalena Turska schlug deshalb nach der Darlegung der Schwierigkeiten als eine mögliche Lösung vor, die ODDs (One Document Does it All – das TEI-eigene Schemaformat) derart anzupassen, dass über sie Aussagen zur Textstruktur gewonnen werden können. Damit einher ging die Idee, eine Registry dieser ODD-Dateien und DTS-nutzenden Projekte zu nutzen, da die dafür nötigen Informationen dann ohnehin im TEI Publisher vorlägen. 

Persönliches Fazit

Insgesamt sind meine Kollegen und ich mit vielen Fragen in den Workshop gestartet und mit mindestens so vielen Anregungen auch wieder davon zurückgekommen. Die allgemeine Bereitschaft, Erfahrungen zu teilen, Entwicklungsentscheidungen zu diskutieren und erneut zu durchdenken sowie das große Interesse an einem gemeinsamen Standard haben mich dabei besonders gefreut. Letzteres haben wir zusammen mit dem Wunsch nach mehr Orientierung und Nutzungsbeispielen auch klar als Bedarfe festgestellt. Gelegentlich hatten wir in den Diskussionsrunden den Eindruck, dass sich die Nicht-API-Entwickler:innen noch etwas zurückhielten – vielleicht, weil das Thema neu ist und man sich erst einmal einen Eindruck davon machen wollte. Dass wir dies mit der Kombination aus Vorträgen und Fragerunden unterstützen konnten, ist gut; zukünftige Angebote könnten hier aber vielleicht noch expliziter auf API-Neulinge eingehen. Vielleicht gibt es ja sogar bald Schulungen zu einem gemeinsamen API-Standard… In jedem Fall hoffen wir als Veranstalter, dass alle Teilnehmenden etwas aus dem Workshop für sich mitnehmen konnten, und bedanken uns noch einmal herzlich für die gemeinsame Zeit.

 

Verfasst von Katharina Brückmann, mit freundlicher Unterstützung von Philipp Hegel, Jakub Šimek und Leonhard Maylein.

  1. Siehe Punkt 4.9 in: Sahle, Patrick et al.: „Criteria for Reviewing Scholarly Digital Editions, version 1.1“, abgerufen unter https://www.i-d-e.de/publikationen/weitereschriften/criteria-version-1-1/ am 17.11.2025. ↩

DiHMA.Lab mit MaRDI und NFDI4Objects am 14. und 15. Oktober an der FU Berlin

2025年9月7日 18:08

Am 14. und 15. Oktober 2025 lädt das DiHMa.Lab der Freien Universität Berlin in Kooperation mit dem ZIB zu einem gemeinsamen Workshop der Konsortien MaRDI und NFDI4Objects an die Freie Universität Berlin ein. Rund um das Thema „Objekte und Methoden“ wird der interdisziplinäre Workshop verschiedene Perspektiven aus der Mathematik und objektbasierten Geisteswissenschaften zusammenführen. Ziel ist es, Ansätze, Werkzeuge und Fragestellungen beider Disziplinen in den Dialog zu bringen, Schnittstellen sichtbar zu machen und gemeinsame methodische Herausforderungen zu diskutieren.

Das vorläufige Programm wird noch aktualisiert:

Tag 1

14.10.2025, 10:00-12:00 Uhr

Im Vorfeld des Workshops findet ein Ediathon: “Object meets Maths: Wikidata als Knowledge Hub” statt. Kommt sehr gern mit Daten und Notebooks vorbei.

12 Uhr Mittag auf Selbstzahlerbasis in der Mensa

14.10.2025 (13:00-16:45 Uhr)  

  • Icebreaker und Vorstellungsrunde (13:00-13:45)
  • Vorstellung der NFDI-Konsortien (14:00-14:45)
  • Statistische Methoden (15:00-15:45)
  • Datenintegration Wissensgraph (16:00-16:45)
  • Ab 17 Uhr gemeinsamer Ausklang auf Selbstzahlerbasis in der Eierschale

Tag 2

15.10.2025 (09:00 – 13:00 Uhr)

  • Wissenschaftliche Objektsammlungen und multimodale Forschungsdaten (9:00-9:45)
  • Use Case Datenanalyse “Windows on Data” (10:00-10:45) 
  • Interdisziplinäres Arbeiten (Challenges / Schwierige Fälle / was ist nicht operationalisierbar? / was ist bereits gut operationalisiert?) / MARDI als Methodendatenbank (11:00-11:45) 
  • Fishbowl: Zusammenarbeit mathematische Methoden in kulturhistorischen Fragestellungen (12:00-13:00)
  • Ab 13 Uhr gemeinsames Mittagessen auf Selbstzahlerbasis in der Mensa

Veranstaltungsort: Villa Engler, Altensteinstraße 2-4, 14195 Berlin (am Haupteingang des Botanischen Gartens)

Alle Informationen finden sich hier: https://www.ada.fu-berlin.de/ada-labs/dihma-lab/DiHMa-MARDI-N4O/index.html

Zur Anmeldung: https://www.ada.fu-berlin.de/ada-labs/dihma-lab/Modulbeschreibungen_DIHMa/PM-Anmeldung_DHIMA_LAB/index.html 

Mit freundlichen Grüßen Eure Local Organizers
Anja Gerber, Christin Keller, Dennis Mischke, Fabian Fricke, Marco Reidelbach, Marcus Weber

Olá, Lisboa: DH2025 – Building Access and Accessibility, open science to all citizens

2025年8月28日 22:51

Die diesjährige Digital Humanities Konferenz fand im schönen (wenn auch ziemlich heißen!) portugiesischen Sommer in Lissabon statt. Als Brasilianerin war ich besonders froh, die DH-Community in einem portugiesischsprachigen Umfeld zu erleben, und bin mit Unterstützung eines Reisestipendiums des Verbands Digital Humanities im deutschsprachigen Raum (DHd) nach Lissabon gegangen. Ich bin daher dem Dhd für die Unterstützung sehr dankbar, welche mir die Teilnahme an der Konferenz ermöglicht hat. Ohne diese Unterstützung hätte ich diese Erfahrung nicht erleben können.

Unter anderem hatte ich vor, Ergebnisse aus dem Projekt „digitale Edition von Fernando Pessoa – Projekte und Publikationen” zu präsentieren, einem Text+ Kooperationsprojekt mit Prof. Ulrike Henny-Krahmer (Universität Rostock), mit der ich 2023 zusammengearbeitet habe. Das Projekt sollte die Infrastruktur der digitalen Edition auf den neuesten Stand bringen. Da Fernando Pessoa einer der wichtigsten Autoren der Literatur in portugiesischer Sprache und ein echter Lisboeta ist, war Lissabon der perfekte Ort, um die Ergebnisse des Projekts zu teilen.

In diesem Blogbeitrag teile ich ein paar Eindrücke von der DH2025 und während wir auf das Abstract-Buch warten, möchte ich auch ein paar Eindrücke vom Programm zeigen.

DH in Lissabon

Ein gelber Straßenbahnwagen fährt durch eine sonnige Stadtstraße, umgeben von Gebäuden, Bäumen und Oberleitungen.

Unter dem Motto „Accessibility & Citizenship“ ging es bei der Konferenz darum, den Zugang zu Wissen demokratischer zu machen, das Engagement der Community zu fördern und aktuelle gesellschaftliche Probleme auf sinnvolle Weise anzugehen. Barrierefreiheit war nicht nur ein Thema, sondern hat auch die Organisation beeinflusst. Bei der Eröffnungsfeier gab es sowohl im Saal als auch beim Zoom-Livestream Gebärdensprachdolmetscher. Das hybride Format, das an sich schon ein Zeichen für Barrierefreiheit ist, baut auf den letzten Konferenzen in Graz (2023) und Washington, DC (2024) auf und versucht, die Online-Teilnahme zu verbessern. Obwohl ich vor Ort in Lissabon war, finde ich es sehr wichtig, dass unsere Community weiterhin den Möglichkeiten für DHler:innen und Interessierte, die nicht reisen können, Priorität einräumt.

Auch die Multilingualität stand im Mittelpunkt. Präsentationen in anderen Sprachen als Englisch sind auf DH-Konferenzen nichts Neues, aber in Lissabon gab es mehrere Vorträge auf Italienisch, Portugiesisch und Spanisch. Da die ADHO neue Mitglieder wie die Associazione per l’Informatica Umanistica e la Cultura Digitale (AIUCD) aufnimmt, sollten wir den wissenschaftlichen Austausch über Sprach- und Landesgrenzen hinweg weiter fördern. Englisch ist vielleicht die Lingua franca der Wissenschaft, aber als Geisteswissenschaftler:innen sollten wir die damit verbundenen Auswirkungen kritisch hinterfragen.

Aus einer brasilianischen akademischen Perspektive ist diese Diskussion bekannt: Englisch ist oft die gemeinsame Sprache in der Wissenschaft, aber es kann auch eine Barriere darstellen, die Leute von der Teilnahme ausschließt, und zwar selbst wenn es, z.B., auf Portugiesisch fundierte wissenschaftliche Arbeiten gibt. Für uns, bei einem Vortrag über einen portugiesischen Autor im Herzen Portugals durch eine brasilianische Forscherin, haben wir (das Team: Ulrike Henny-Krahmer, Erik Renz und ich) uns dafür entschieden, auf Portugiesisch zu präsentieren. Es war wie eine Heimkehr für Pessoas Ausgabe in seine Heimatstadt.

Ich werde hier nicht versuchen, das Problem zu lösen, aber die Anzahl der mehrsprachigen Vorträge auf der Konferenz unter dem Motto „Accessibility“ hat mich wieder an diese Fragen erinnert. Das ist es meiner Meinung nach, was ein Konferenzmotto bewirken sollte. Gut gemacht, Organisationskomitee!

Die DH-Konferenz in Lissabon war nicht nur mehrsprachig, sondern auch echt international. Die Referenten kamen aus Institutionen von 45 Ländern. Die Karte unten zeigt die Teilnahme nach Ländern, basierend auf dem Konferenzprogramm und den Angaben der Teilnehmer zu ihrer jeweiligen institutionellen Zugehörigkeit. (Die Karte zeigt das Land der Institution der Referenten, nicht ihre Staatsangehörigkeit.)

Die Grafik zeigt eine Weltkarte mit der Anzahl der Präsentationen pro Land, dargestellt durch verschiedene Farbabstufungen von hellviolett bis dunkelviolett. Je dunkler die Farbe, desto mehr Präsentationen fanden in diesem Land statt.

Bei der Eröffnung hat ADHO sein 20-jähriges Jubiläum in Erinnerung gerufen (gegründet 2005) und Italien über AIUCD als neues Mitglied begrüßt. Der Antonio Zampolli Preis 2026 wurde für das Stylo Tool und die Computational Stylistics Group verliehen, deren R-Library für stilometrische Analysen und ihr Engagement für den Aufbau einer Community gewürdigt wurden. Michael Sperberg-McQueen (1954–2024) wurde außerdem in Erinnerung gerufen und der Michael Sperberg-McQueen Digital Nachlass vorgestellt (https://dh.phil-fak.uni-koeln.de/en/research/cmsmcq), eine Initiative des Departments für Digital Humanities der Universität zu Köln zur Bewahrung seines digitalen Nachlasses unter der Leitung von Elisa Cugliana und Øyvind Eide. Das Programmkomitee unter der Leitung von Gimena del rio Riande (IIBICRIT- CONICET/ USAL) und Manuel Portela (Fachbereich für Sprachen, Literatur und Kulturen, UCoimbra) folgte mit einem lustigen Sketch über KI-„Halluzinationen” und die Schwierigkeiten des akademischen Lebens, der die Stimmung auflockerte und uns gleichzeitig auf die Themen des Jahres zurückführte: Mehrsprachigkeit, Politik, Barrierefreiheit und Wissenschaft als citizenship.

Javier Cha steht vor dem Publikum im Konferenzraum und präsentiert Folien mit Schriftzeichen, während ein Dolmetscher daneben steht.

Dann kam die Keynote von Javier Cha. Cha erzählte von seiner Karriere und seiner Sicht auf (digitale) Geschichte, von seinen ersten netzwerkbasierten Rereadings historischer Quellen bis hin zu aktuellen Anwendungen von KI, die uns helfen, Archive besser im Kontext zu lesen. Der Fokus liegt nicht darauf, mit KI das Rad neu zu erfinden, sondern anders zu lesen: mithilfe von Computern Verbindungen, Nuancen und Kontexte zu erkennen, die durch Schlüsselwörter und Häufigkeit nicht erfasst (oder erkennt) werden, während der Historiker:in die Kontrolle behält. Er bezeichnete dies als „fine-tuning the historian’s macroscope”: die Fähigkeit, das Ganze zu überblicken und die richtigen Stellen zu finden, um näher hinzuschauen und genauer zu lesen.

Überblick: Poster, Präsentationen und Panels

Ein Balkendiagramm zeigt die Anzahl der Präsentationen nach Typ. "Short paper" hat mit 218 die meisten Beiträge, gefolgt von "Poster" mit 133 und "Long paper" mit 118. Weitere Kategorien sind "Workshop" (17), "Panel" (10), "Mini conference" (8) und "SIG workshop/event" (7).

Das Programmheft ist noch nicht da, aber während wir warten, können wir uns schon mal das Programm anschauen und, um einen Begriff von Cha zu verwenden, mit unserem Makroskop die Konferenz aus der Ferne betrachten und versuchen, einen Eindruck davon zu bekommen, was unsere DH Community so treibt. Ein Überblick über die Arten der eingereichten Beiträge zeigt uns die Verteilung des diesjährigen Programms (siehe oben). Die Daten für diesen Überblick stammen aus dem Programm auf Conftool (https://dh2025.adho.org/browse-the-program-agenda/), wurden maschinell erfasst und anschließend mit Python bereinigt und analysiert.

Ein Balkendiagramm zeigt die häufigsten n-Grams. "Large language models" und "cultural heritage" sind am häufigsten, gefolgt von "machine learning" und "open source".

Wenn man sich die Abstracts der Vorträge im Programm anschaut (Workshops und Panels nicht mitgerechnet), zeigt das Balkendiagramm die häufigsten N-Grams, also wie oft ein Begriff in den Abstracts vorkommt. Das Thema, das ganz klar dominiert, sind „Large Language Models” (LLMs). Das zeigt, dass der Einsatz von LLMs in den Digital Humanities weiterhin ein Trend ist, der sich durchsetzt. Gleich danach kommt „cultural heritage”, was zeigt, dass GLAM und die Arbeit mit Kulturgütern nach wie vor ein zentraler Anwendungsbereich für DH sind. Methoden sind sehr präsent, vor allem KI („machine learning” und „large language models” stehen ganz oben), während „“computational Methods” und „text analysis” den methodischen Fokus verstärken. Der Fokus auf KI und LLMs ist nicht überraschend und war auch schon in der letzten DH zu sehen. Offenheit zieht sich durch das ganze Programm, wobei „open source”, „open science”, „open data” und „FAIR principles ” häufig auftauchen. Auch Wissensrepräsentation ist ein lebhaftes Thema, wobei „knowledge graphs” und „linked open data” auf Interoperabilität und semantische Anreicherung hinweisen.

Eine zweite Visualisierung zeigt, wie Themen in den Abstracts der Vorträge zusammen auftreten. In dieser Co-Occurrence-Heatmap zählt jede Zelle die Abstracts, die ein Paar der Top N-Grams im selben Text erwähnen (die Diagonale ist ausgegraut, weil Selbstpaare raus sind). Die Matrix ist ziemlich sparsam, was darauf hindeutet, dass sich viele Beiträge auf ein einziges Hauptthema konzentrieren, aber es gibt auch klare Überschneidungen. Begriffe rund um Offenheit wie “open science”, „open source”, „open data” und „FAIR principles” tauchen zusammen auf, oft in Kombination mit „research data“ und oft in Kombination mit „cultural heritage“. Methodische Themen bilden ein weiteres Cluster, insbesondere „large language models“, „machine learning“ und „computational methods“, die gelegentlich gemeinsam mit „text analysis“ erscheinen. „Cultural heritage“ zeigt Verbindungen zu mehreren dieser Bereiche, was darauf hindeutet, dass Kulturgüter häufig durch offene Praktiken, datengetriebene Ansätze und KI-gestützte Methoden in Fallstudien integriert werden.

Ein Heatmap zeigt die Co-Occurrence der häufigsten n-Grams. Dunkle Felder markieren häufige gemeinsame Vorkommen von Begriffen wie "large language models", "cultural heritage" und "open science".

Was ich mitnehme…

Die Teilnahme an der DH ist immer eine Chance, Freunde zu treffen, neue Leute kennenzulernen und viel zu lernen. Als ich Lissabon verlassen habe, hatte ich frische Ideen für LLM-basierte Methoden zum Erfassen und Analysieren von Daten im Gepäck. Wie Cha uns betonte, müssen wir uns nicht zwischen dem Überblick und den Details entscheiden; wir können zwischen beiden hin- und herwechseln und LLMs kritisch einsetzen, während wir selbst entscheiden, wann wir den Fokus auf Nuancen legen wollen. Außerdem wurde mir wieder bewusst, wie wichtig Dokumentation und Wiederverwendbarkeit sind: Unsere beste Arbeit ist für andere nur dann nützlich, wenn sie gut dokumentiert und frei verfügbar ist. Die DH2025 hat meine Neugier geweckt und mein Notizbuch mit Ideen gefüllt. Vielleicht werden wir uns 2026 in Wien zur DHd wieder treffen.

Tchau, Lisboa, até a próxima! Bis dahin hat Lissabon uns allen beigebracht, was Saudade bedeutet.

Ein Flugzeug fliegt über Lissabon bei Sonnenuntergang, die Skyline ist im Schatten sichtbar.

DH2025: Building Access and Accessibility, open science to all citizens – Meine ersten Schritte in die Forschungswelt

2025年8月15日 23:22
Vom 14. bis 18. Juli 2025 fand in Lissabon die Digital Humanities Konferenz unter dem Motto „Building access and accessibility, open science to all citizens“ statt. Gemeinsam mit meiner Kommilitonin und Dozentin durfte ich unser Projekt als „Long Presentation“ vorstellen. Was als Kursprojekt begann, wurde zu meiner ersten internationalen Konferenzteilnahme und einer wichtigen Erfahrung für meine berufliche Zukunft. Besonders dankbar bin ich dem Verband „Digital Humanities im deutschsprachigen Raum e.V.“, der mir über das DHd-Reisestipendium die Teilnahme ermöglicht hat. Ohne diese großzügige Unterstützung wäre es mir nicht möglich gewesen, diese wertvolle Erfahrung zu sammeln.

 

Von der Studienarbeit zur internationalen Konferenz

Ich befinde mich gerade in der finalen Phase meines Masterstudiums und arbeite parallel am Institut für Digital Humanities der Universität zu Köln. Dort bekomme ich viel von den Abläufen hinter den Kulissen mit, besonders wie Promotionen und Forschungsprojekte vonstattengehen. Ursprünglich hatte ich nie vor, zu promovieren. Der Master sollte mein letzter Meilenstein sein, danach wollte ich direkt ins Berufsleben einsteigen. Die Pandemie und einige Umwege verlängerten mein Studium, wodurch ich mich unter Zeitdruck fühlte.

Doch wie so vieles in meinem Studium entwickelte sich auch diese Perspektive ganz natürlich. Dass ich überhaupt im Bereich Digital Humanities studieren würde, hätte ich mir früher nie vorstellen können. Inzwischen bin ich für neue Möglichkeiten offen. Die Konferenzerfahrung hat mein Interesse an einer Promotion geweckt.

Den Grundstein legte ein Kurs namens „Digital Humanities – Theorie und Praxis“, in dem wir als Gruppe ein Virtual-Reality-Projekt in der Spiel-Engine Unreal Engine 5 entwickelten. Mit Unterstützung unserer Dozentin wählten wir das Thema und erstellten eine Anwendung über mittelalterliche Losbücher, speziell das „Prenostica Socratis Basilei” in seinen mittelalterlichen deutschen Versionen. Diese historischen Wahrsagetexte haben ihre Wurzeln in der Spätantike und wurden vor allem vom 14. bis 16. Jahrhundert zur Zukunftsvorhersage verwendet. Typisch war dabei der Einsatz von interaktiven Ritualen wie Würfeln, um durch den nicht linearen Text zu navigieren. Als konkrete Grundlage diente uns das Losbuch Konrad Bollstatters, eine Handschrift aus dem 15. Jahrhundert, die charakteristische Merkmale dieser Textgattung zeigt.

Wir platzierten dieses Losbuch in drei virtuellen Umgebungen: einer Klosterbibliothek, einem Astrologenlabor und einer Taverne. Damit wollten wir die unterschiedlichen Nutzungskontexte der Zeit nachbilden, von spirituellen über wissenschaftliche bis hin zu unterhaltenden Zwecken.

Die von uns entwickelte VR Anwendung ermöglicht es Nutzern, das Losbuch in seinen historischen Zusammenhängen zu erleben. Dabei können sie die typischen multisensorischen Interaktionen nachempfinden, etwa das Blättern in den Pergamentseiten oder das ritualisierte Würfeln, die für die mittelalterliche Nutzung dieser Texte entscheidend waren. Schon während der Entwicklung war klar, dass wir das Projekt weiterführen und einem größeren Publikum zeigen wollten. Wir schrieben ein Paper darüber, das tatsächlich für die DH Conference akzeptiert wurde!

Die Reise nach Lissabon

Da alles sehr schnell ging, konnte nicht das gesamte Team teilnehmen. Als Studierende fehlten uns schlichtweg die finanziellen Mittel, und die Flüge und Unterkünfte waren während der Sommerzeit besonders teuer. Auch zeitliche Konflikte verhinderten, dass wir von Anfang an dabei sein konnten. Unsere Teammitglieder waren in unseren Gedanken dabei. Wir stellten sicher, dass ihre Arbeit gewürdigt wurde. Am Abend des 17. Juli landeten wir in Lissabon. Nach der Ankunft freuten wir uns sehr über das tolle Wetter. Wir nahmen die Bahn zu unserem Airbnb, das glücklicherweise nicht weit vom Flughafen entfernt lag. Unser Host war eine nette portugiesische Familie, die uns Zugang zu den meisten Räumlichkeiten gewährte.

Erste Eindrücke auf der Konferenz

Bei der Ankunft zur Konferenz war ich überwältigt von der Menschenvielfalt aus aller Welt. Nach der Anmeldung erhielten wir unsere Namensschilder mit Affiliationen. Unsere Präsentation war für Donnerstag um 14 Uhr geplant, die Slots dauerten jeweils 1,5 Stunden und begannen um 10 Uhr. Über die Whova-App konnte man sich vernetzen und für interessante Sessions eintragen. Zusätzlich gab es eine komplette Teilnehmer:innenliste und eine Messaging-Funktion für die Vernetzung. Zwei Personen mit DH2025 Konferenz-Namensschildern (Pascale Boisvert und Nadjim Noori, University of Cologne) unter einem Baum

Wir waren sehr aufgeregt, da wir uns noch nicht vollständig vorbereitet fühlten. Neue Ängste kamen auf: Was, wenn niemand oder zu wenige zu unserem Panel kommen? Was, wenn Fragen gestellt werden, die wir nicht beantworten können? Wir hatten uns zwar auf spezifische Fragen vorbereitet, aber unser Projekt würde sicherlich komplexe Fragen aufwerfen.

Ich fühlte mich etwas eingeschüchtert, denn die meisten Teilnehmenden waren Postdocs oder Promovierende. Genau deshalb wollte ich herausfinden, ob ich mir eine Karriere in diesem Bereich vorstellen kann, und suchte aktiv Gespräche in den Pausen.

Die Präsentation

Am Abend zuvor übten wir unsere Passagen und nahmen das VR-Headset für eine mögliche Live-Demo mit. Letztlich zeigten wir jedoch nur ein Video, um das Risiko technischer Probleme oder von Zeitverzögerungen zu vermeiden. Unsere Präsentationszeit war auf 20 Minuten begrenzt.

Während der Präsentation betonte unsere Dozentin, dass wir Masterstudierende seien, die zum ersten Mal in dieser Form präsentieren. Die Präsentation verlief sehr gut. Wir hielten die Zeit ein, stotterten kaum, das Englisch funktionierte, und die Diskussionsrunde war lebendig. Es gab viele Fragen, was uns freute. Kritische Stimmen gab es auch: Jemand hinterfragte unsere Methodik, doch eine andere Person wies die Kritik zurück und bezeichnete unseren Ansatz als intuitiv.

Die Konferenztage

Wir gingen relativ spät schlafen und mussten früh aufstehen. Am ersten Tag ging ich in den Pausen zu unserer Dozentin, die unsere Präsentation unterstützte und die Session moderierte. Unser Institut war schön auf der DH-Konferenz vertreten. Ich sah viele Dozent:innen und Kommiliton:innen, die ebenfalls präsentierten.

Die Mittagspause am Donnerstag war hektisch, doch ich nutzte die kurze Zeit, um etwas von Lissabon zu sehen und zu essen. Nach der Präsentation besuchten wir bis tief in den Abend weitere Sessions.

Der Freitag war viel entspannter, da der Druck weg war. Wir suchten in Ruhe interessante Sessions aus und aßen entspannt zu Mittag. Ich erlebte viele spannende Präsentationen, besonders gefielen mir die mit viel Programmierung.

Die abschließende Keynote

Am Ende des Freitags gab es die Final Keynote, bei der wir unbedingt dabei sein wollten. Roopika Risam vom Dartmouth College hielt einen Vortrag über „Digital Humanities for a World Unmade“. Sie forderte die DH-Community heraus, nicht nur technische Expert:innen, sondern auch politische Akteur:innen zu sein. Besonders hängen geblieben ist mir ihr Aufruf, digitale Forschung als Mittel für soziale Gerechtigkeit zu nutzen und marginalisierte Stimmen sichtbar zu machen.

Fachliche Einblicke und neue Horizonte

Die Sessions, die ich besuchte, zeigten die Vielfalt der Digital Humanities: von Machine-Learning-Ansätzen für Gothic Novels über Netzwerkanalysen antiker griechischer Texte bis hin zu automatisierten Text-Processing-Tools. Besonders beeindruckt hat mich der Session-Slot „Automating Text Processing with LLMs & Data Visualization Tools“. Die Präsentation zu CodeFlow” zeigte mir, wie weit wir bereits in der Automatisierung gekommen sind. Tools wie diese können digitale Geisteswissenschaften zugänglicher machen, indem sie auch weniger technisch versierten Forschenden den Zugang zu komplexen Analysemethoden erleichtern. Konferenzraum mit Teilnehmern während eines Vortrags, Blick von hinten auf das Publikum und die Präsentation vorne

Eine andere Präsentation, die mich besonders fesselte, war „Comparing Human and AI Performance in Visual Storytelling through Creation of Comic Strips“. Der Präsentierende war trotz seiner Online-Teilnahme so unterhaltsam, und die Erkenntnisse reflektierten die Vielseitigkeit und Kreativität der DH-Forschung. In der Präsentation wurde eine Studie vorgestellt, in der Menschen und KI darin verglichen wurden, einen dreiteiligen Nancy-Comic nachzustellen. Menschen mit grundlegender künstlerischer Ausbildung überzeugten durch zusammenhängende visuelle Erzählungen, während die KI trotz beeindruckender künstlerischer Replikation Schwierigkeiten hatte, eine stimmige Geschichte zu erzeugen. Die Ergebnisse zeigen, dass Menschen nach wie vor überlegen sind, Anweisungen in sinnvolle Geschichten umzusetzen.

Überraschende Erkenntnisse und Vernetzung

Was mich am meisten überrascht hat, war die Selbstverständlichkeit, mit der hier Geisteswissenschaftler:innen, Informatiker:innen, Bibliothekar:innen und Künstler:innen zusammenarbeiten. Die Bandbreite reichte von technischen Ansätzen bis zu konzeptuellen Reflexionen über digitale Kultur. Es war faszinierend zu beobachten, wie schnell sich Trends und Technologien im Feld entwickeln. 

Die Vernetzung war ein Höhepunkt der Konferenz. Ich konnte mich mit Forschenden aus Polen, den Niederlanden und den USA austauschen. Eine US-amerikanische Professorin zeigte großes Interesse an unserer Präsentation und wollte Einblicke für ihre Kurse, um ähnliche Projekte mit ihren Studierenden zu realisieren. Solche direkten Angebote für Kollaborationen hätte ich nicht erwartet.

Ein neuer Blick auf die Promotion

Eine meiner Hauptemotionen während der Konferenz war die Angst vor dem Ungewissen, vielleicht auch ein bisschen Imposter-Syndrom. Noch vor einem Jahr hätte ich gesagt, dass ein PhD für mich keine Option ist. Mir fehlte einfach der Anknüpfungspunkt. In meinem Umfeld kannte ich kaum jemanden, der eine Promotion anstrebte.

Die Konferenz ermöglichte mir einen Einblick in die weltweite DH-Forschung. Es gab sogar ein Online-Board mit Job- und PhD-Angeboten, und ich sprach mit vielen Gleichaltrigen über ihre Erfahrungen und ob sie eine Promotion empfehlen würden.

Die positive Resonanz auf unser Projekt gibt mir Mut, tiefer in dieses Forschungsfeld einzutauchen, und ich werde mich demnächst von meiner Dozentin beraten lassen.

Ausblick und Ratschläge

Nach der Masterarbeit stehen die PhD-Pläne im Raum. Vielleicht führt mich das sogar ins Ausland. Für unser VR-Projekt hoffen wir auf Funding. Diese Antwort musste ich während der Diskussionsrunde nach unserer Präsentation häufig geben, wenn gefragt wurde, warum wir bestimmte Aspekte nicht anders umgesetzt haben. Mit zusätzlichen Ressourcen könnten wir das Projekt für noch mehr Menschen zugänglich machen.

Anderen Masterstudierenden, die ihre erste Konferenz besuchen, würde ich raten: Lasst euch von eurer Unsicherheit nicht blockieren. Viele Menschen auf der Konferenz durchlaufen genau dasselbe wie ihr. Und nach der ersten Konferenz werden die nächsten viel leichter. Für zukünftige Präsentationen würde ich mein Zeitmanagement verbessern, um alles noch einmal in Ruhe durchzugehen, auch wenn mir bewusst ist, dass diese Konferenz für mich sehr plötzlich kam.

Fazit

Diese erste Konferenzerfahrung hat nicht nur meinen Blick auf eine mögliche Promotion verändert, sondern mir auch gezeigt, wie lebendig, vielfältig und zukunftsweisend die Digital Humanities sind. Die Begegnungen mit internationalen Forschenden und der Austausch über innovative Projekte haben mich bestärkt, meinen Weg in diesem Feld weiterzugehen.



RIDE 20 ist erschienen!

作者Erik Renz
2025年6月28日 03:06

Wir freuen uns, Ihnen die 20. Ausgabe der Rezensionszeitschrift RIDE anzukündigen, die seit 2014 vom Institut für Dokumentologie und Editorik (IDE) herausgegeben wird.

Die aktuelle Ausgabe wird von Ulrike Henny-Krahmer und Martina Scholger herausgegeben und widmet sich digitalen wissenschaftlichen Editionen. Sie enthält fünf Rezensionen (drei auf Englisch, zwei auf Deutsch):

Alle Rezensionen sind abrufbar unter https://www.doi.org/10.18716/ride.a.20.

Enjoy the RIDE!

Als feministische Medienwissenschaftlerin auf der DHd2025 – Reflexionen von den disziplinären Rändern

2025年6月4日 15:18

In diesem Beitrag gebe ich Einblick in meine Konferenzerfahrung auf der DHd2025 und lege hierbei den Fokus auf Aspekte, die mit meiner Perspektive als einer Doktorandin verbunden sind, die sich thematisch und disziplinär in einem Feld bewegt, das auf DH-Konferenzen deutlich unterrepräsentiert ist. Dieses Feld zeichnet sich durch eine Verbindung aus medienwissenschaftlichem Hintergrund mit starkem DH-Bezug, feministischem Ansatz, filmhistorischem Forschungsgegenstand und der Anwendung digitaler Methoden aus. Mit dieser im Kern interdisziplinären Verortung ergaben sich auf der DHd2025 zahlreiche Anknüpfungspunkte, gleichzeitig stellte sich jedoch ein gewisses Gefühl der fachlich-thematischen Vereinzelung ein, das ich im Folgenden diskutieren möchte.

Computational Literary Studies und LLMs als Schwerpunkte im Programm

Ein Blick in das Programm der DHd2025 macht deutlich, dass von insgesamt 27 Panels ganze 10 einen vornehmlich literaturwissenschaftlichen Fokus hatten (hierunter habe ich alle Panels gefasst, die unter den Titeln „CLS Methoden“ und „Editionen“ stattfanden oder den literaturwissenschaftlichen Fokus anderweitig im Titel des gesamten Panels oder den einzelnen Vorträgen erkennen ließen, wobei anzumerken ist, dass in den Editionen-Panels auch ein einzelner musikwissenschaftlicher Vortrag stattfand). Darüber hinaus gab es drei Panels im Rahmen des Doctoral Consortiums und jeweils zwei Panels zu „Digital History“, „Distant Viewing“ und allgemein zu „Large Language Models“ (ein drittes LLM-bezogenes Panel habe ich aufgrund der Schwerpunkte der Vorträge der digitalen Literaturwissenschaft zugeordnet). Außerdem gab es jeweils noch einzelne Panels zu „Forschungsdatenmanagement“, „3D-Daten“, „Modellierung“, „Projektarbeit“, „Normdaten“, „Metareflexion“ und „Wissenschaftsforschung“. Beschäftigt man sich genauer mit den Titeln der einzelnen Vorträge in diesen Panels, wird die disziplinäre und thematische Vielfalt der Digital Humanities jenseits literaturwissenschaftlicher Fragestellungen deutlich und es lassen sich Vorträge zu digitaler Kunstgeschichte, automatisierter Videoanalyse, dem Kulturerbe Tanz oder Datenvisualisierungen und -physikalisierungen finden, um hier nur einige wenige Themen herauszugreifen.

Würde ich außerdem noch die Posterbeiträge in meine Analyse einbeziehen, ließe sich sicherlich eine noch größere thematische Diversität feststellen. Da es mir an dieser Stelle jedoch um die Beschreibung von Tendenzen geht und Panels und Vorträge insgesamt einen höheren Stellenwert auf der Konferenz einnehmen, klammere ich die Posterbeiträge aus. Eine weitere Einschränkung meiner Analyse ist, dass ich mich lediglich auf das Programm der DHd2025 beziehe. Für eine umfassende Bewertung der DHd-Konferenzen im Hinblick auf die vertretenen Disziplinen wäre es jedoch notwendig, die Programme aller bisherigen Konferenzen zu berücksichtigen und miteinander zu vergleichen. Nur so ließen sich wirklich allgemeine Tendenzen herausarbeiten.

Diese Überlegungen gehen in Richtung der Frage nach einer Disziplingeschichte der Digital Humanities, wie sie im Rahmen des Panels Gemeinsame Baustellenbegehung – Digital Humanities und Wissenschaftsforschung auf der DHd2025 diskutiert wurde. Darin betonte Christof Schöch, dass sich die Computational Literary Studies, im Unterschied zu anderen Disziplinen, immer als Kern der Digital Humanities verstanden hätten. Entsprechend ist die Dominanz literaturwissenschaftlicher Fragestellungen auf der DHd2025 nicht sonderlich überraschend, auch wenn sie für die vorangehenden DHd-Konferenzen nicht in dieser Form zutreffen muss und diesbezüglich erst eine Analyse der bisherigen Konferenzprogramme konkretere Aussagen erlauben würde.

Medienwissenschaftliche Perspektiven im DH-Kontext

Als digitalaffine Medienwissenschaftlerin (oder medienwissenschaftlich situierte digitale Geisteswissenschaftlerin), die im Rahmen der von Sarah-Mai Dang geleiteten DAVIF-Forschungsgruppe untersucht, wie Metadaten zu Filmpionierinnen so aufbereitet werden können, dass sie langfristig nachnutzbar sind und zu einer höheren Sichtbarkeit der Forschung zu Frauen* im Frühen Kino beitragen, fühle ich mich mit meinem interdisziplinären Ansatz prinzipiell sehr gut verortet in den Digital Humanities. Die von mir besuchten DHd-, und DH-Konferenzen, sowie weitere disziplinrelevante Veranstaltungen lieferten insbesondere im Hinblick auf die digital-methodische Gestaltung meiner Dissertation wichtige Impulse. Gleichzeitig stellte ich fest, dass ich mich im Zuge der Datenmodellierung nicht ohne weiteres auf eine bereits existierende „Geschichte von Versuchen“ (Flanders und Jannidis 2015, 16) des Modellierens beziehen konnte, wie dies sicherlich in den Computational Literary Studies und anderen, eher im Zentrum der DH stehenden, Disziplinen der Fall ist. Stattdessen habe ich zu Beginn meiner Dissertation zunächst überlegt, an welche „Datenmodellierungsgeschichten“ anderer Sub-Disziplinen der DH ich anknüpfen könnte. Erst im Projektverlauf habe ich schließlich Filmografien als ein sinnvolles Objekt der Modellierung identifiziert, da sich hierdurch Anschlussmöglichkeiten an bereits existierende Modellierungsansätze in Filmarchiven und in der digitalen Filmgeschichtsschreibung ergeben.

Feministische Ansätze auf der DHd2025

Auf der DHd2025 erlebte ich viele interessante Gespräche und fand hilfreiche Bezugspunkte, insbesondere was die Modellierung von Unsicherheit, die Umsetzung der FAIR Prinzipien oder die Arbeit mit Wikidata betrifft, im Kern war ich mit einem Thema, das sich auf Forschung innerhalb der feministischen Filmgeschichtsschreibung bezieht, jedoch ein Stück weit eine Außenseiterin. Dieser Eindruck wurde zusätzlich dadurch verstärkt, dass neben meinem eigenen Vortrag, nur noch das Panel Gender (under) construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft einen explizit feministischen Fokus hatte. Dies steht in starkem Gegensatz zu meiner Erfahrung auf der DHd2023, auf der die DHd-AG Empower nicht nur einen Workshop zu Data Feminism in DH angeboten, sondern darüber hinaus noch das Panel Open DH? Mapping Blind Spots durchgeführt hat.

Abschließende Überlegungen

Ich gehe davon aus, dass mein Eindruck angesichts einiger sehr präsenter Disziplinen (Computational Literary Studies und Digital History) und Themen (LLMs) eher eine thematische Außenseiterin auf der DHd2025 gewesen zu sein, kein Alleinstellungsmerkmal ist, sondern auch von anderen geteilt wird. Dafür spricht beispielsweise die Umfrage Is there a Digital Art Historian at the DHd? von Julia Neubauer, deren Titel suggeriert, dass auch Vertreter*innen der Kunstgeschichte das von mir beschriebene Gefühl der Vereinzelung auf DHd-Konferenzen teilen.

Es bleibt zu überlegen, welche Schlüsse aus diesen Beobachtungen gezogen werden können. Mit Blick auf die Annahmequoten der diesjährigen DHd habe ich mich etwa gefragt, welche weiteren vielfältigen disziplinären Verortungen und Bezüge in den abgelehnten Beiträgen zu finden wären. Womöglich (und durchaus wahrscheinlich) würde sich ein diversifiziertes Bild der Community zeichnen lassen, als dies im finalen Programm abgebildet ist. Dieser Kommentar ist dabei keineswegs als Kritik am Programmkomitee der DHd2025 gemeint, das die herausfordernde Aufgabe zu bewältigen hatte, aus einer sehr großen Anzahl an Einreichungen auszuwählen. Stattdessen finde ich es im Sinne einer Disziplingeschichte wichtig, danach zu fragen, wie die eher wenig präsenten Disziplinen in den Digital Humanities stärker sichtbar gemacht werden können. Im Zusammenhang mit den in den letzten Jahren entstandenen Angeboten für Promovierende in den DH1 erscheint es mir außerdem relevant, dass dabei versucht wird, auch die Bedarfe derjenigen abzudecken, die sich im Hinblick auf ihren disziplinären Hintergrund und den thematischen Fokus nicht im Kern der DH bewegen.

Im Sinne der produktiven Unfertigkeit, die Mareike König in ihrer Keynote beschrieben hat, schließe ich hiermit und freue mich auf die DHd2026 in Wien!

1Dazu zählen unter anderem das Mentoringprogramm des DHd-Verbands, das Promotionsnetzwerk des Datenkompetenzzentrums HERMES und das Promovierendennetzwerk Digital History von NFDI4Memory, das zuletzt ein Whitepaper zum digital-historischen Promovieren veröffentlicht hat.

Acknowledgements

Diesen Beitrag habe ich als Teil meiner Konferenzbegleitung für die DHd2025 verfasst, an der ich Dank eines von NFDI4Culture finanzierten Reisekostenstipendiums teilnehmen konnte. Für die Förderung bedanke ich mich sehr herzlich.

Referenzen

Baumann, Noah, Nicole Dresselhaus, Lilia Gaivan, Pia Geißel, Nina Günther, Annika Häberlein, Inga Lange, Holle Meding, Wienke I. Meyer, Alina Ostrowski, Nina C. Rastinger, Jascha Schmitz, Philipp Schneider, Roman Smirnov, Sophie Spliethoff, Elisabeth Tangerner (2025): White Paper „Digital-historisch Promovieren“ (1.0). Zenodo. https://doi.org/10.5281/zenodo.14969027

Eggert, Lisa und Sandra König (2025): „Gemeinsame Baustellenbegehung – Digital Humanities und Wissenschaftsforschung“. Book of Abstracts of DHd 2025, Zenodo. https://doi.org/10.5281/zenodo.14943182

Flanders, Julia und Fotis Jannidis (2015): „Knowledge Organization and Data Modeling in the Humanities“, URL: https://opus.bibliothek.uni-wuerzburg.de/opus4-wuerzburg/ frontdoor/deliver/index/docId/11127/file/flanders_jannidis_datamodeling.pdf (zugegriffen: 07.04.2025)

Gengnagel, Tessa, Sarah Lang, Nora Probst, Anja Gerber, Sarah-Mai Dang, Tinghui Duan, Till Grallert, Jana Keck und Julianne Nyhan (2023): „Open DH? Mapping Blind Spots“. Book of Abstracts of DHd 2025, Zenodo. https://doi.org/10.5281/zenodo.7715329

Junginger, Pauline (2025): „Kontext, Unsicherheit und Geschlecht im Fokus der Modellierung: Datenprinzipien für die feministische Filmgeschichte“. Book of Abstracts of DHd 2025, Zenodo. https://doi.org/10.5281/zenodo.14943222

Mende, Jana-Katharina, Claudia Resch, Mareike Schumacher, Laura Untner, Imelda Rohrbacher, Elena Suarez Cronauer, Andrea Gruber und Frederike Neuber (2025): “Gender (under) Construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft”. Book of Abstracts of DHd 2025, Zenodo. https://doi.org/10.5281/zenodo.14943036

Werkstattreihe Standardisierung: edition humboldt digital

2025年6月4日 15:05

 

Christian Thomas und Stefan Dumont von der Berlin-Brandenburgischen Akademie der Wissenschaften stellten am 22. Mai 2025 die edition humboldt digital im Rahmen der „Werkstattreihe Standardisierung“ des NFDI-Konsortiums Text+ vor und gaben einen Einblick in ihre Arbeit. Sie reflektierten ihren Umgang mit Standards und deren Bedeutung für die Entwicklung der Edition. Der Werkstattbericht des Editionsprojekts kann nun hier nachgeschaut werden: https://youtu.be/ZydyHbQ_6Uo

Die Abbildung visualisiert graphisch die Vernetzung der edition humboldt digital mit internen und externen Ressourcen
Übersicht der Vernetzung der edition humboldt digital (Poster, Detail)
CC-BY-4.0 / https://zenodo.org/records/8228540

Recap: DHd-Tagung 2025 in Bielefeld – Auf dem Weg zur digital „entfesselten“ Literaturgeschichte?

2025年4月26日 21:36

In der ersten Märzwoche 2025 wurde in Bielefeld unter dem Motto „Under Construction“ die 11. Tagung des Fachverbandes „Digital Humanities im deutschsprachigen Raum“ (DHd) abgehalten. Am letzten Tagungstag fand ein Panel zum Beitrag der Computational Literary Studies (CLS) zur Literaturgeschichtsschreibung statt, bei der der Autor dieser Zeilen nicht nur als studentisches Mitglied des Organisationsteams, sondern auch aus ureigenem Interesse teilnahm. Denn vom pragmatischen Nutzen für die (schulische) Lehre einmal abgesehen, begegnet uns Literaturgeschichte als die generationenübergreifende Arbeit an einem Werk. Sie erscheint damit sowohl als Produkt, als die Essenz eines kulturellen Bestandes, als auch als Prozess, dessen Genese. Trotz der wissenschaftslogischen Randständigkeit (Daniel Fulda[1]) der Literaturgeschichtsschreibung haben ihre Kontextualisierungen immer Einfluss auf uns, und deshalb war es für mich wie wohl auch für die anderen Besucher[2] des Panels von Interesse zu hören, wie die noch relativ jungen CLS unseren Blick auf Literaturgeschichte verändern mögen.

Unter der Moderation von Nils Kellner (Rostock) diskutierten die Panellisten PD Dr. Katrin Dennerlein (Würzburg), Prof. Dr. Berenike Herrmann (Bielefeld), Prof. Dr. Fotis Jannidis (Würzburg), Marc Lemke (Rostock) und Dr. Jana-Katharina Mende (Halle/Saale) über Nutzen und Nutzbarmachung sowie Reichweite und Grenzen der computergestützten Literaturwissenschaft für die Literaturgeschichte. Als Anwendungsfall diente die (computationelle) Untersuchung literarischer Räume im Zuge des „spatial turns“ innerhalb der Literaturwissenschaft.

Bei seiner Anmoderation stellte Kellner bereits zwei in der Folge gesprächsbestimmende, klassische Problemstellungen der Literaturgeschichtsschreibung heraus: Literaturgeschichte weist erstens einen erheblichen Konstruktionscharakter aus, ist kontextabhängig und einer Auswahl von Autoren und Werken (Stichwort Kanonizität) und damit teilweise auch artifiziellen Grenzziehungen unterworfen. Zweitens soll Literaturgeschichte gleichsam einer Bildungsintention gerecht werden – als common ground für Wissenschaftler wie auch der allgemeinen Schulbildung dienen –, womit Ansprüche an ihre Plausibilität, ihre relative Überschaubarkeit und ihre intersubjektive Verständlichkeit gestellt werden. Darüber hinaus – so schien auf dem Podium in der Folge Konsens zu herrschen – besteht bei der CLS, wie bei jeder anderen Literaturgeschichtsschreibung auch, die wohl größte Herausforderung darin, nach der objektiven Datenerhebung zu entscheiden, in welche historischen Kontexte ein spezifischer Befund eingebunden werden sollte.[3]

Wohl wenig überraschend bestand auf einem Panel auf der DHd-Tagung zunächst Konsens über den großen Vorteil der CLS im Hinblick auf diese Probleme: Große Textmengen, eingeschlossen des „great unread“ (Kellner; Formulierung von Margaret Cohen[4]), können mit vergleichsweise wenig Aufwand durchgesehen und auf Muster untersucht werden. Daraus ergeben sich Möglichkeiten der Rekontextualisierung von Literaturgeschichte. Ästhetisch hochwertige und/oder viel gelesene, aber heute vergessene Autoren könnten wiederbelebt, der Beitrag weiblicher Autoren angemessen beleuchtet werden. Nationalstaatlich motivierte Konstruktionen könnten – im neutralen Wortsinne – revidiert, ebenso erweitert wie aufgelöst werden, und so weiter. Der Reihe nach stellten die Redner mögliche Ansätze vor.

Mit Hilfe der computergestützten Vergrößerung von Daten und deren statistischer Modellierung sei es möglich, die diachrone Vereinfachung der Literaturgeschichtsschreibung durch eine Erweiterung des synchronen Blickfelds zu durchbrechen, kanonische neben nichtkanonischen Werken oder mehrere Editionen desselben Werks gleichzeitig zu betrachten (Dennerlein). In der klassischen Literaturwissenschaft unbeachtete Texteigenschaften könnten jetzt untersucht und Begriffe, bspw. von ‚Raum‘, über die diegetische Ebene erweitert werden (Lemke), u.a. auch um transnationale Literaturgeschichten zu erzählen und selbst die Räume einzuschließen, in denen bzw. von denen aus Autoren ihre Werke geschrieben haben (Mende). Schließlich könnten in der CLS auch ganz neue Fragen an die Literaturgeschichte gestellt werden, um zum Beispiel systematische Perspektiven zu Raum und Affekt diachron zu untersuchen; „der Kreativität sind kaum Grenzen gesetzt“ (Herrmann).

Einen Einwand warf allerdings Prof. Jannidis in die Runde. Mit Rekontextualisierungen und lediglich neuen, anderen Literaturgeschichten blieben die CLS letzten Endes den Gedankenmodellen der klassischen Literaturwissenschaft verhaftet. Die soeben wiedergegebenen Überlegungen dürften nur als „Zwischenschritt“ betrachtet werden; Ziel der CLS müsse eine „prospektive Entfesselung“ sein. Die computergestützten Methoden machten immerhin das vormals Unmögliche möglich, und so sollten wir in voraussehbarer Zeit bspw. fähig sein, für die Literaturgeschichte alle Ereignisse rund um Literatur – jedes vorhandene Manuskript, jede Anstreichung, Verkaufszahlen, etc. – einbeziehen und interpretieren können. Gleichsam weist Jannidis eindringlich auf den hohen Ressourcenaufwand einer solchen Entfesselung hin; in seinen Worten: „Kein Manöver ohne Kosten“.

So anregend und notwendig diese Debatte auch ist, stellen sich insbesondere in Hinblick auf den zweiten Problempunkt, der Bildungsintention von Literaturgeschichte, unmittelbar pragmatische Fragen zum Nutzen der CLS für die Literaturgeschichtsschreibung hier und heute. Denn wie Prof. Herrmann betont und auch ich aus Erfahrung als Tutor bestätigen kann: Die Nachfrage nach grundlegendem Literaturgeschichts- und Kontextwissen ist gerade bei Studenten in der Lehramtsausbildung hoch. Was der Zugang der CLS hier leisten kann – so vielleicht die Kernerkenntnis aus Podiumsgespräch und Fragerunde – ist, die teilweise extreme diachrone Vereinfachung der klassischen Literaturgeschichte zu durchbrechen und das Überblickswissen um neue daten- und evidenzbasierte Ergebnisse zu erweitern.

Wie zum Abschluss gleich zwei Fragen aus dem Auditorium klarmachten, darf in diesem Kontext die „Entfesselung“ der CLS aber nicht zu einer Überforderung führen. Der einhellige Lösungsvorschlag aus dem Podium, um den Zugang auch für das Grundstudium und das außerwissenschaftliche Umfeld zu ermöglichen: Kondensierte, für den Anwendungskontext geeignete Visualisierungen, z.B. in Form narrativierter Daten in sogenannten Data Stories. Literaturwissenschaftler könnten aus der Datenwissenschaft lernen, wie sie das Bedeutende klar und übersichtlich visuell vermitteln können (und dabei an eigene Praktiken anschließen), wobei sie jedoch zweierlei zu bedenken hätten: Dass das Nadelöhr des Einzeltextes aus der Leserperspektive nie verschwinden wird (und zum Zwecke der ästhetischen Erfahrung wohl auch kaum verschwinden soll), und dass sich Wissenschaftler immer über die Pluralität von Perspektiven und die Wirkmächtigkeit vermeintlich repräsentativer Datenvisualisierungen bewusst sein müssen.

 

Zum Autor: Pierre-Michel Weiße studiert Germanistik und Anglistik im Master an der Universität Bielefeld und hat seine Bachelorarbeit über eine computerunterstützte Raumuntersuchung zu Thomas Manns Doktor Faustus geschrieben. Er ist Tutor im Germanistik-Basismodul Literaturgeschichte und wissenschaftliche Hilfskraft am Lehrstuhl von Prof. Dr. Berenike Herrmann.

 

Anmerkungen

[1] Vgl. Fulda, Daniel: Starke und schwache Historisierung im wissenschaftlichen Umgang mit Literatur. Zur Frage, was heute noch möglich ist – mit einer disziplingeschichtlichen Rückblende. In: Matthias Buschmeier, Walter Erhart, Kai Kauffmann (Hgg.): Literaturgeschichte. Theorien – Modelle – Praktiken. De Gruyter 2014, S. 101–121, https://doi.org/10.1515/9783110287295.101, hier S. 104.

[2] In diesem Beitrag wird für Personenbezeichnungen das generische Maskulinum verwendet.

[3] Vgl. Herrmann, Berenike, Daniel Kababgi, Marc Lemke, Nils Kellner, Ulrike Henny-Krahmer, Fotis Jannidis, Katrin Dennerlein und Matthias Buschmeier: Literaturgeschichte „under Construction“ – Was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur. Zenodo 2025, https://doi.org/10.5281/zenodo.14943254, S. 117.

[4] Cohen, Margaret: The Sentimental Education of the Novel. Princeton: Princeton University Press 1999, https://doi.org/10.1515/9780691188249, S. 23.

#WissPodPotsdam2024: Nachbericht zum Workshop zu Formaten und Etablierung von Wissenschaftspodcasts (Fachhochschule Potsdam, 18.-19.07.2024)

2025年1月7日 15:12

Autorin: Ulrike Wuttke (Professorin für Bibliothekswissenschaft – Strategien, Serviceentwicklung, Wissenschaftskommunikation an der Fachhochschule Potsdam

Der Fachbereich Informationswissenschaften der Fachhochschule Potsdam hatte vom 18.-19.07.2024 die Ehre mehr als zwanzig Vertreter*innen der Wissenschaftspodcast-Community zu einem inspirierenden Workshop willkommen zu heißen. Der Nachbericht fasst die Höhepunkte und Ziele des Workshops zusammen und würdigt die Teilnahme und Mitwirkung der Akteure.

In den letzten Jahren haben sich Podcasts als dynamisches Medium für die Wissenschaftskommunikation erwiesen. Sie ermöglichen Wissenschaftler*innen, Projekten und Forschungsinstitutionen, komplexe Themen auf eine direkte, flexible und persönliche Weise einem breiten Publikum sowie der eigenen Fachcommunity zugänglich zu machen. Der von Ulrike Wuttke (Fachhochschule Potsdam) und Jacqueline Klusik-Eckert (arthistocast) organisierte und konzipierte Workshop Wissenschaft auf die Ohren – Workshop zu Formaten und Etablierung von Wissenschaftspodcasts bot aktiven Podcaster*innen sowie Vertreter*innen wissenschaftlicher Institutionen wie Forschungseinrichtungen und Bibliotheken eine einzigartige Gelegenheit für den Austausch. Die Teilnehmenden waren dem CFP gefolgt bzw. als Impulsgeber für Kreativsessions (Jacqueline Klusik-Eckert) bzw. für ein Kamingespräch (Tessa Gengnagel) eingeladen. 

Workshop-Teilnehmende in Aktion während der Kreativsession (20240718_164021-CCBY_4_Nussbaum.jpg)

Im Mittelpunkt des Workshops stand der fokussierte Austausch zu den Themen Formate und die Etablierung von Podcasts als Medium der Wissenschaftskommunikation im Mittelpunkt. Die Themenbreite reichte von der Vorstellung von Podcast-Konzepten, wie z. B. durch eine Studierende des Studiengangs Archiv der Fachhochschule Potsdam für einen Archiv-Podcast, bis zu Evaluation und Impact wissenschaftlicher Podcasts durch eine Vertreterin von Wissen im Dialog.

Die Teilnehmer*innen betonten die Bedeutung von Podcasts als Open Science-Praktik der Wissenschaftskommunikation und die Potenziale zur Förderung des Zugangs zu Wissen. In einer Welt, in der die Zugänglichkeit von Wissenschaft und Forschung immer wichtiger wird, haben Podcasts ein großes Potenzial für die Demokratisierung von Wissen und dazu, die Diskussion über wissenschaftliche Themen über akademische Kreise hinauszutragen. Um dies zu erreichen, müssen jedoch Herausforderungen gelöst werden, wie z. B. nachhaltige, offene Infrastrukturen für Nachweis und Langzeitverfügbarkeit. Das gesamte Programm findet sich tabellarisch hier. Im Folgenden sind einige Programm-Punkte mit verfügbaren Materialien verlinkt. 

Den Einstieg in den ersten Workshoptag (Fokus Formate) boten Jonathan D. Geiger (Akademie der Wissenschaften und Literatur, Mainz), Lisa Kolodzie, Jascha Schmitz (HU Berlin), Mareike Schumacher (Universität Stuttgart) von RaDiHum20 mit “Erfahrungen eines Community-Podcast” (Google-Slides), ein Bericht zu praktischen Erfahrungen als Hosts sowie Impulsen für theoretische Reflexionen. Danach stellte Sharon Hundehege (Fachhochschule Potsdam) ihr Konzept “Podcast aus dem Archiv” und Ulrike Wuttke (Fachhochschule Potsdam) und Anne Baillot (DARIAH EU) ihre Überlegungen “From Global to Local? Perspektiven und Herausforderungen für eine Podcastreihe im Rahmen eines multimedialen Sammelbands” vor. Eine Metaranalyse boten anschließend Mareike Schumacher (Universität Stuttgart), Melanie Seltmann (Humboldt-Universität zu Berlin), Ulrike Wuttke (Fachhochschule Potsdam) mit “Potenziale von Podcasts für die Dissemination von Digital Humanities” (Google-Slides). Im Fokus dieses Beitrags standen Podcasts als Forschungsobjekt, z. B. für Formalanalyse oder Netzwerkanalyse, sowie Kompetenzen für die digitale Wissenschaftskommunikation (zu letzterem siehe Frick und Seltmann 2024). Danach war es Zeit für die Kreativsession “Formate für Wissenschaftspodcasts” mit Jacqueline Klusik-Eckert. Den Abschluss des ersten Tages bildete ein “Kamingespräch” mit Tessa Gengnagel (Universität Köln) (moderiert von Jacqueline Klusik-Eckert) zu ihren reichhaltigen Erfahrungen insbesondere aus dem Kontext von Coding Codices, dem Podcast des Digital Medievalist Postgraduate Committee. Dazu gab es Pizza und ein laues Sommerlüftchen, denn anders als der Name vielleicht vermuten ließe, fand dieser Programmpunkt mitten im Grünen auf dem Campusgelände der Fachhochschule Potsdam statt.

T. Gengnagel beim Kamingespräch auf dem Campus der Fachhochschule Potsdam (Gengnagel_WissPod_CCBY_4_Wuttke.JPG)

Der zweite Tag (Fokus Etablierung als Medium der Wissenschaftskommunikation) setzte mit Impulsen zu Infrastrukturen und wissenschaftlichen Datenbanken ein. Den Kick-Off machten Jakob Reuster (Bayerische Staatsbibliothek München, Fachinformationsdienst Ost-, Ostmittel- und Südosteuropa) mit “Nachweis von wissenschaftlichen Podcasts mit Osteuropabezug im Forschungsportal osmikon”; Stella Philipp (Sächsische Landesbibliothek – Staats- und Universitätsbibliothek Dresden): Infrastrukturen für Produktion und Nachweis von Wissenschaftspodcasts an der SLUB Dresden; Jens Kösters, Carolin Eisentraut, Matti Stöhr (TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften: und Universitätsbibliothek): SciPAI: Zur Idee eines KI-gestützten Infrastrukturframeworks für Wissenschaftspodcasts. Weiter ging es denn in der zweiten Session mit Alexander Winkler (digiS, dem Forschungs- und Kompetenzzentrum Digitalisierung Berlin): Podrot? Die Langzeitverfügbarkeit von Podcasts als Herausforderung, Jacqueline Klusik-Eckert (HHU Düsseldorf): “Der Traum von einer All-in-One-Lösung?”, Julia Panzer (Wissenschaft im Dialog): “Wissen, was wirkt – Evaluation und Impact wissenschaftlicher Podcasts”. Den Abschluss des zweiten Tags machte die Schreibsession mit Jacqueline Klusik-Eckert “Nachhaltiges Wissenschaftspodcasting und die FAIR-Prinzipien”.

Entwicklung eines Podcaststeckbriefs, Kreativsession mit J. Klusik-Eckert (20240718_163420-CCBY_4_Nussbaum.jpg)

Ein zentrales Ziel des Workshops war es, eine Plattform für den interdisziplinären Austausch und das Community Building rund um Wissenschaftspodcasts zu bieten. Die Teilnehmenden konnten wertvolle Erfahrungen teilen und  neue Ideen entwickeln. 

Ein großer Dank gilt allen Teilnehmenden für ihre aktive Mitwirkung und ihre wertvollen Beiträge zum Erfolg des Workshops, sowie dem studentischen Team und der Unterstützung des Fachbereichs Informationswissenschaften der Fachhochschule Potsdam. Nun gilt es, die gewonnenen Erkenntnisse und Ideen in zukünftige Projekte einfließen zu lassen und die Rolle von Wissenschaftspodcasts weiter zu stärken.

Gruppenfoto #Wisspodpotsdam2024 (Gruppenfoto_WIssPod_CCBY_4_Wuttke.JPG)

Weitere Chancen zum Vernetzen und Reinhören bieten u.a.  

  • die Wissenschaftspodcast.de-Community u.a. mit WissPod Kaminabenden (mit Bernd Rupp) und den Ganzohr-Barcamps, 
  • der Podcastfeed „Wissenschaft auf die Ohren“ (https://resonator-podcast.de/wissenschaft-auf-die-ohren/) (Kurator Henning Krause) 
  • die Fyyd-Sammlung der Teilnehmer:innen-Podcasts dieses Workshops (bei denen Henning Krause einen frei zugänglichen Podcastfeed gefunden hat, Ergänzungen, Kommentare gerne an @hnnng@chaos.social), 
  • die Konferenz und Workshopreihe für Podcasting “Subscribe”. 

Als Ausrichterinnen wünschen sich Ulrike Wuttke und Jacqueline Klusik-Eckert, dass dies nicht der letzte Workshop zu diesem Thema gewesen ist, vielleicht mag ja jemand den Staffelstab übernehmen?

Auf jeden Fall haben Ulrike Wuttke und Alexander Winkler eine Hands-On-Session zum Thema Podcasting für den 9. Bibliothekskongress/ 113. BiblioCon in Bremen 2025 eingereicht, drückt uns die Daumen!

RIDE 19 erschienen

2024年12月20日 19:08

Wir freuen uns, die 19. Ausgabe des Rezensionsjournals RIDE, das seit 2014 vom Institut für Dokumentologie und Editorik (IDE) herausgegeben wird, anzukündigen. Die aktuelle, von Roman Bleier und Stefan Dumont herausgegebene Ausgabe der Sparte „Tools and Environments“ enthält bisher zwei Rezensionen (eins auf Englisch, eins auf Deutsch):

Die Ausgabe 19 erscheint als „rolling release“, d.h. die Ausgabe ist noch nicht abgeschlossen und demächst erscheinen noch weitere Rezensionen.

Alle Rezensionen sind abrufbar unter https://ride.i-d-e.de/issues/issue-19.

DH-Professuren im deutschsprachigen Raum visualisiert

2024年7月9日 16:18

Jan Horstmann (Universität Münster), Christof Schöch (Universität Trier)

Die Etablierung der Digital Humanities lässt sich anhand mehrerer Merkmale beobachten und analysieren, z.B. der Publikation DH-bezogener Forschungsbeiträge, der Bewilligung und Förderung von DH-Projekten, der Etablierung von Studiengängen mit Anteilen von oder explizitem Fokus auf DH, der Gründung von DH-Forschungszentren und – last but not least – der Ausschreibung und Besetzung von DH-Professuren. Für den deutschsprachigen Raum hat sich Patrick Sahles laufend aktualisierter Blogbeitrag „Professuren für Digital Humanities“ (https://dhd-blog.org/?p=11018; Zugriff: 08.07.2024) als eine zentrale Anlaufstelle herauskristallisiert: Er verzeichnet die seit 2008 ausgeschriebenen DH- (oder DH-bezogenen) Professuren im deutschsprachigen Raum, derzeit 139 an der Zahl. In quantitativer Hinsicht lässt sich dort ein guter Überblick gewinnen, etwa wie viele DH-Professuren pro Jahr ausgeschrieben wurden (bislang ist das Jahr 2021 mit 16 Ausschreibungen der Titelverteidiger).

Was dort fehlt, ist die Möglichkeit, die DH-Professuren im deutschsprachigen Raum auch in örtlicher und zeitlicher Indizierung in den Blick zu nehmen und dadurch verschiedene Fragen leichter zu beantworten, darunter: Welche Orte haben sich wann als DH-Standorte etabliert, indem sie eine oder mehrere DH-Professuren ausgeschrieben haben? Wo sind wann mehrere Professuren entstanden? Wo sind befristete Professuren nicht dauerhaft eingerichtet worden? Und vieles mehr. All dies kann eine interaktive, dynamische Kartenvisualisierung übersichtlich darstellen. Die dafür nötige Art der Zeit-Raum-Visualisierung ist im DARIAH-DE Geo-Browser (https://de.dariah.eu/geobrowser; Zugriff: 08.07.2024) anders möglich als etwa in Wikidata, weshalb wir die Sahle’schen Daten für die Anzeige in diesem Tool aufbereitet haben – und versuchen werden, sie zukünftig regelmäßig zu aktualisieren.1

Link zum Datensatz: https://geobrowser.de.dariah.eu/edit/index.html?id=EAEA0-B2E1-D8CE-AA03-0

Link zur Visualisierung: https://geobrowser.de.dariah.eu/index.html?csv1=https://cdstar.de.dariah.eu/dariah/EAEA0-B2E1-D8CE-AA03-0

Mit dem Fokus auf die raumzeitliche Verortung von DH-Professur-Ausschreibungen im deutschsprachigen Raum setzen wir einen etwas anderen Akzent als verwandte Projekte wie etwa: Mapping the Digital Humanities (Christof Schöch, Mapping the Digital Humanities, v0.1.0, March 2024. Digital Humanities Trier. URL: https://dhtrier.quarto.pub/dhmap/; Zugriff: 08.07.2024) oder Till Grallerts Vorstöße mit Daten aus Wikidata (vgl. https://digitalcourage.social/@tillgrallert/112575546388768661; Zugriff: 08.07.2024).

Methode und Beispiele

Im Folgenden erläutern wir die methodischen Entscheidungen, die unserer Visualisierung zugrunde liegen. Prinzipiell erbt unsere Darstellung freilich die Data-capture-Entscheidungen, die bereits die Liste im Blogbeitrag Patrick Sahles bestimmen (und dort erläutert sind). Der Blog dient als Verzeichnis der seit 2008 im deutschsprachigen Raum erfolgten Ausschreibungen für DH-Professuren, ein Anspruch auf Vollständigkeit wird dabei nicht erhoben. DH-Professuren, die besetzt, aber nicht ausgeschrieben wurden, werden nicht aufgeführt. Ein Listeneintrag besteht aus einer fortlaufenden Nummerierung sowie Jahr der Ausschreibung, Ort, Stufe, Denomination, Zuordnung und Ergebnis der Ausschreibung, zum Beispiel:

  • 33, 2015, Wien, A1, Digital Humanities, Historisch-kulturwissenschaftliche Fakultät, Andrews

Dies lässt sich lesen als: 2015 wurde an der Historisch-kulturwissenschaftlichen Fakultät der Universität Wien eine unbefristete A1-Professur für „Digital Humanities“ ausgeschrieben und (nach Durchlaufen des Verfahrens, also in der Regel deutlich später) durch Tara Andrews besetzt.

Zwei Angaben sind für die raum-zeitliche Visualisierung über das Jahr der Ausschreibung hinaus besonders wichtig und sollen aus diesem Grund hier noch einmal kontextualisiert werden: Die Kategorie „Ort“ bezeichnet den Sitz der Hochschule, an dem die jeweilige Stelle ausgeschrieben wurde. Handelt es sich um eine Universität, wird auf den Eigennamen verzichtet (z.B.: „Düsseldorf“ statt „Heinrich-Heine-Universität Düsseldorf“). Vorteil davon ist, dass der Eintrag im Falle einer Umbenennung wie zuletzt etwa in Münster („Westfälische Wilhelms-Universität Münster“ zu „Universität Münster“) nicht angepasst werden muss. Fachhochschulen werden durch „FH“ gekennzeichnet. Bei Orten mit mehreren Universitäten erfolgt eine Präzisierung (z.B.: „Berlin (TU)“ für Technische Universität Berlin, „Berlin (HU)“ für Humboldt-Universität zu Berlin und „Berlin (FU)“ für Freie Universität Berlin). In unserer Visualisierung werden die Institutionen unterschieden, aber nicht an unterschiedlichen Orte innerhalb der jeweiligen Stadt visualisiert. In der Kategorie „Stufe“ wird durch „*“ auf eine befristete oder durch „°“ auf eine nebenberufliche Professur verwiesen. Bei dem Element Ergebnis wird durch „offen“ auf eine noch unbesetzte Stelle, durch „-„ auf ein abgebrochenes Verfahren und durch graue Unterlegung auf das Wiederverlassen der Stelle verwiesen. Zeitpunkte und -abläufe beziehen sich demnach auf den Zeitpunkt der Ausschreibung (mit dem Jahr als kleinste verwendete Zeiteinheit) sowie eine mögliche Befristung. Soweit ermittelbar, sind die Informationen zur Dauer der Besetzung einer Professur durch eine Person in den Datensatz aufgenommen worden.

Der DARIAH-DE Geo-Browser ermöglicht die dynamische und statische Darstellung von Daten und deren Visualisierung in einer Korrelation von geografischen Raumverhältnissen zu Zeitpunkten und -abläufen. Mittels der Visualisierung können räumliche Konzentrationen und Trends ersichtlich werden. Zur Visualisierung mittels des Geo-Browsers müssen die Datenstrukturen den Anforderungen des Geo-Browsers angepasst werden. Ein Eintrag des Geo-Browsers besteht aus neun Elementen: Name, Address, Description, Longitude, Latitude, Time Stamp, Time Stamp:begin, Time Stamp:end und GettyID.

  • Name besteht aus der Kombination „Universität Ort“ oder „Fachhochschule Ort“. Eine Präzisierung erfolgt nur, wenn sie durch mehrere Universitäten notwendig wird.
  • Address besteht aus dem Ortsnamen der Universität oder Hochschule. Für Universitäten oder Hochschulen, die an mehreren Orten lokalisiert sind, verwenden wir den  erstgenannten Ort (z.B. Universität Erlangen-Nürnberg hat als Address „Erlangen“). Eine Zuordnung zu mehreren Orten ist im Geo-Browser nicht möglich.
  • Description umfasst Stufe, Denomination, Zuordnung und Ergebnis der Ausschreibung nach folgendem Schema: Ergebnis: Denomination (Stufe), Zuordnung.
  • Longitude, Latitude und GettyID wurden mit dem „Getty Thesaurus of Geographic Names (TGN)“ (https://www.getty.edu/research/tools/vocabularies/tgn/; Zugriff: 08.07.2024) ermittelt. Mit TGN kann jedem Ort genau ein Längen- und Breitengrad sowie eine eindeutige GettyID (eine Identifikationsnummer) zugeordnet werden. Eine exaktere Lokalisierung ist dem Sinn des Blogs entsprechend nicht vonnöten.
  • Timestamp wird freigelassen, da keine exakten Zeitpunkte bestimmt werden müssen.
  • Time Stamp:begin erhält als Eintrag das Jahr der Ausschreibung in der Form 20xx-01-01.
  • Time Stamp:end haben wir bei unbefristeten Stellen beispielhaft generell auf 2039 gesetzt, damit die Zeitleiste in einem überschaubaren Rahmen bleibt. Bei befristeten Juniorprofessuren verwenden wir das Fristende der jeweiligen Professur. Bei abgebrochenen Ausschreibeverfahren sind time stamp:begin und time stamp:end identisch, wodurch der entsprechende Eintrag in der dynamischen Visualisierung unberücksichtigt bleibt. Im statischen Modus wird der entsprechende Eintrag dargestellt.

Einige konkrete Beispiele aus unserem in dieser Art modifizierten Datensatz vermögen die Details zu verdeutlichen:

  • Universität München, München, Schröter: Digitale Literaturwissenschaften (W2* mit TT W2), Department Germanistik, 13.466667, 48.7, 2022-01-01, 2028, 7134068

Dieses Datenelement wird gelesen als: Am Department Germanistik der Ludwig-Maximilians-Universität München wurde 2022 eine (zum Zeitpunkt der Ausschreibung) bis 2028 befristete W2-Professur (mit Tenure Track) für Digitale Literaturwissenschaften ausgeschrieben und durch Julian Schröter besetzt. München besitzt die GettyID 7134068 und (das Stadtzentrum) befindet sich nach TGN bei Längengrad 13.466667 und Breitengrad 48.7.

  • Universität Heidelberg, Heidelberg, offen: Papyrologie und Digitale Erforschung antiker Schriftzeugnisse (W3), Heidelberg Center for Digital Humanities (HCDH), 8.916667, 48.316667, 2024-01-01, 2039-12-31, 7166144

Dieses Datenelement wird gelesen als: Am Heidelberg Center for Digital Humanities (HCDH) der Universität Heidelberg wurde 2024 eine unbefristete W3-Professur für Papyrologie und Digitale Erforschung antiker Schriftzeugnisse ausgeschrieben. Die Stelle ist noch unbesetzt. Heidelberg besitzt die GettyID 7166144 und (das Stadtzentrum) befindet sich nach TGN bei Längengrad 8.916667 und Breitengrad 48.3166667.

Abschluss

Zusammenfassend lässt sich festhalten, dass unsere raumzeitliche Visualisierung der DH-Professuren im deutschsprachigen Raum eindrucksvoll die dynamische Entwicklung und die wachsende Bedeutung der Digital Humanities in der akademischen Landschaft aufzeigt. Diese kartografische Darstellung ermöglicht es, nicht nur die Verteilung und Häufigkeit der Professuren zu analysieren, sondern auch Hotspots oder ‘einsame Helden’ der DH-Entwicklung zu identifizieren. Durch die Integration in den DARIAH-DE Geo-Browser bieten wir Forscherinnen und Forschern, DH-Strukturverantwortlichen, Infrastruktureinrichtungen sowie der interessierten Öffentlichkeit eine neue Perspektive auf die Daten aus dem Blogpost von Patrick Sahle an. Die zunehmende Verbreitung und Etablierung von DH-Professuren zeigt jedenfalls, dass die Digital Humanities eine zentrale Rolle in der Zukunft der Geisteswissenschaften spielen werden.


[1] Wir danken herzlich Vincent Anker (studentische Hilfskraft im Service Center for Digital Humanities (SCDH) der Universität Münster) für seine tatkräftige Unterstützung bei der Aufbereitung der Daten.

❌