Das vierte Community Meeting 2026 von NFDI4Objects findet virtuell statt! Die Veranstaltung richtet sich an Einsteiger:innen und Interessierte und bietet spannende Einblicke in die Arbeit des Konsortiums. Freut euch auf interaktive Formate, Austauschmöglichkeiten und dezentrale Online-Workshops.
Programm und Workshop-Termine folgen in Kürze – merken Sie sich den Termin schon jetzt vor!
Hiermit laden wir Euch sehr herzlich zum nächsten Clustertreffen des CC „Authority Files and Community-driven Vocabularies“ am 29. April 2026, von 13 bis 14:30 Uhr, ein. Dieses Mal wird es ein Hands on für DANTE mit unserem Chair Michael Markert von der VZG geben.
DANTE ist ein Webservice zur Pflege und Veröffentlichung von Vokabularen, der von der Verbundzentrale des GBV auch für NFDI4Objects-Institutionen bereitgestellt wird. Zu unserem Hands-On-Treffen wollen wir gemeinsam Datensätze im DANTE-Testpool anlegen und bearbeiten, damit neue Nutzer:innen sich mit der Funktionalität vertraut machen können.
Bringt gern Beispieldaten aus dem Bereich Personen, Körperschaften, Orte und Sachbegriffe zum Ausprobieren mit!
Es wäre schön, wenn auch erfahrene DANTE-Nutzer:innen zur Unterstützung bei Fragen dabei sein könnten.
Am Dienstag, 28. April 2026 von 9 bis 11 Uhr findet die nächste Sitzung des Community Clusters Protected Heritage Sites online statt.
Themen der Sitzung sind:
Abschluss: Datenmodelle für Maßnahmenobjekte und Schutzflächen
Voraussichtlich wird dies die letzte Sitzung sein, in der die Modelle Thema sind. Falls Sie keine Zeit haben, an dem Treffen teilzunehmen, schicken Sie daher gerne Ihre Anmerkungen per E-Mail, damit sie in der Diskussion berücksichtigt werden können.
Das Protokoll der 15. Sitzung des CC Protected Heritage Sites vom 12.03. ist ab sofort via OSF verfügbar: https://osf.io/pwzg4/. Hier finden Sie auch die aktuellen Entwürfe der Datenmodelle.
Wie nimmt man als Nachwuchswissenschaftler, zumal noch als Student, an einer wissenschaftlichen Tagung teil? Allgemeingültig beantworten kann das wohl weder ich noch jemand anders. In diesem kurzen Beitrag will ich aber zumindest meinen Weg zur DHd2026 in Wien nachzeichnen. Ich hoffe damit aus Nachwuchsperspektive allen, für die eine Teilnahme an der Konferenz ebenfalls einen ersten Schritt in die Wissenschaftswelt bedeuten würde, eine Vorstellung zu geben, wie dieser Weg aussehen könnte.
Vom Vorhaben zum fertigen Abstract…
Die diesjährige Konferenz begann für mich am 22. Februar mit Ankunft in Wien. Der Weg dahin nahm seinen Anfang dagegen – wie sicher für viele Forscherinnen und Forscher aus den DH – bald ein Jahr zuvor. Denn: Nach der DHd ist vor der DHd.
Im letzten Jahr hatte ich das Glück, im heimischen Bielefeld als Teil des studentischen Organisationsteams indirekt schon an der letzten DHd-Konferenz teilnehmen zu können. Kein halbes Jahr zuvor hatte ich meine Bachelorarbeit in der Germanistik eingereicht. In dem Zusammenhang entstand bei mir bereits die Frage: Wäre meine Arbeit wohl auch was für die DHd…?
Bald darauf stellte ich meine BA im Kolloquium der Bielefelder Arbeitsgruppe CLS vor, mit anschließendem Gespräch über Publikationsmöglichkeiten. Veröffentlichen in einer Fachzeitschrift(?) – theoretisch möglich, aber vielleicht eine zu große Hürde, wo man nach der ersten Qualifikationsarbeit gerade zu laufen angefangen hat. Womöglich konzentriert man sich besser aufs Studium, immerhin stellt eine Veröffentlichung in jedem Fall einen Mehraufwand dar! Aber die Arbeit war gut, sagt man mir, und wenn man in die Wissenschaft will, gibt es hier Chancen, die sich auszuschöpfen lohnen.
Die alternative Idee: Veröffentlichen im Rahmen einer Konferenz – immerhin schwirrt die nächste DHd schon in den Köpfen rum und hier gäbe es niedrigschwelligere Einstiegsmöglichkeiten. Man könnte es versuchen, und bei Erfolg würde man diesmal als echter Teilnehmer mit eigenem Beitrag an der ersten Wissenschaftskonferenz teilnehmen. Etwa zur selben Zeit dürfte der Call for Papers eingegangen sein.
Ein Poster soll es werden. Mit Deadline für die Abstracts am 1. August ist im Juli Schreibarbeit angesagt. Eine 47-seitige Bachelorarbeit will auf 750 Wörter gestutzt werden und am Ende soll sogar noch so etwas wie eine Aussage rauskommen. Mit tatkräftiger Unterstützung von Prof. Dr. Berenike Herrmann und der ganzen AG ergeht eine x-malige Feedbackschleife – man unterschätze nicht, wie man – vor allem mit sich selbst – um jedes Wort kämpft, um das Abstract passend hinzubekommen. Am Ende bin ich zufrieden, der Beitrag ist im glücklicherweise gut funktionierenden Fidus Writer abgetippt und schließlich auf ConfTool hochgeladen. Dann heißt es auf das Open Peer-Review-Verfahren warten, um zu erfahren, ob man angenommen wurde oder nicht.
…über Reviewprozess und Posterdesign…
Und das dauert, naturgemäß. Über drei Monate, in denen das Leben natürlich weitergeht, aber man – weil es das erste Mal ist – trotzdem ungeduldig wartet. Schließlich wissen wir, ich und die weiteren drei(!) an AG-Projekten beteiligten Hilfskräfte mit Einreichungen, dass unsere Poster-Abstracts angenommen wurden! Die Freude ist groß.
Die ganze mitgereiste Bielefelder AG CLS im gr. Festsaal der Universität Wien
Sofort geht es aber weiter, denn für das Metagutachten und die Veröffentlichung im Book of Abstracts wollen die Beiträge binnen eines Monats überarbeitet werden. Außerdem muss man sich nun ernsthaft Gedanken machen, wie man eigentlich nach Wien kommt.
In den nächsten Wochen wird sich für Konferenz und Workshops registriert, es werden Absprachen getroffen und Reisen und Unterkünfte gebucht. Man beachte: Für all das muss man üblicherweise in Vorleistung gehen, und es kommt ein bisschen was zusammen. Aber es gibt Finanzierungsmöglichkeiten. Neben der Forschungskommission der eigenen Universität, ggf. sogar der betreffenden AG, schreiben die Beteiligten am Stipendienprogramm des DHd-Verbands großzügig eine ganze Reihe Reisekostenstipendien aus, für die man übrigens nicht zwingend einen Konferenzbeitrag mitbringen muss. Wer den ganzen Organisations- und Verwaltungsaufwand zum ersten Mal macht, berechne aber auch hier etwas Zeit und Nerven ein, die immer dazugehören.
Im neuen Jahr schließlich, nachdem die Überarbeitung für das Metagutachten eingereicht und die meisten Fragen geklärt sind (die letzten werden es noch auf den letzten Drücker, keine Sorge), muss nur noch das eigentliche Poster designt werden. Also nochmal reduzieren und fürs Auge aufbereiten, bei ConfTool hochladen und ab in den Druck. Dann endlich ist alles in trockenen Tüchern und ein paar Tage später ist man, eh man sich versieht, auf dem Weg zur Konferenz.
…bis schließlich zum Ziel
Und was erwartet einen da? Nun, vorausgesetzt das gewählte Verkehrsmittel bringt einen erst einmal planmäßig an sein Ziel, eine ganze Menge. Mit Wien in meinem Fall zunächst eine prächtige Kulturstadt im Herzen Europas, die ich trotz des vollen Konferenzprogramms etwas Zeit hatte, zu erkunden. Neben großen, auch im Frühjahr schönen Gärten und viel ansehnlichem habsburgischen Prunk gehörte dazu nicht zuletzt das Hauptgebäude der ältesten Universität im heutigen deutschsprachigen Raum, wo die Konferenz ihre Räumlichkeiten fand.
Auch das war drin: Schloss Schönbrunn mit der Stadt im Hintergrund, aufgenommen von der Gloriette-Anhöhe
In den Workshops gab es dort ungezwungenen Erfahrungsaustausch im Konferenz-Du und Raum zum Ausprobieren und Selbermachen. Das Kernprogramm, in dem ich durch meine Teilnahme die Möglichkeit hatte, eine ganze Reihe hochaktueller, interessanter Vorträge in breitgefächerten Konferenztracks zu hören, war gerahmt von zwei großen Keynotes im Audimax, die Anlass für anregende Gespräche boten. Dazwischen tischten die Veranstalter im kleinen und großen Festsaal zu Eröffnungsfeier und Kaffeepausen und nicht zuletzt zum großen Empfang im Ballsaal des Wiener Rathauses auf.
Der Mittelpunkt der Konferenz war für mich aber die große Poster-Vorstellung am Donnerstag. Nach vormittäglichem Poster-Slam, wo einige Mutigere die restlichen Teilnehmer kreativ und humorvoll schon auf ihre Poster heißgemacht hatten, warteten die zwei aufeinanderfolgenden Poster-Sessions mit insgesamt 98 Beiträgen.
Vorstellung meines Posters in der ersten Session
Es war eindrucksvoll, das eigene Poster dort endlich im A0-Format neben all den anderen hängen zu sehen, zumal im üppigen großen Festsaal der Universität Wien. Während der Poster-Session hatte ich die Möglichkeit, mit gestandenen Wissenschaftlern und anderen Studenten und frisch Promovierenden gleichermaßen ins Gespräch zu kommen, Zusammenhänge meiner Arbeit zu erklären und Rückfragen zu beantworten. Und in der zweiten Session konnte ich dann auch selbst herumgehen und mich mit anderen wiederum über ihre Poster austauschen. Bei all dem habe ich die Erfahrung machen dürfen, mich wirklich als Teil einer wissenschaftlichen Community zu fühlen.
In diesem Sinne kann ich allen, die wie ich noch weit am Anfang ihres akademischen Werdegangs stehen, nur empfehlen, bei Möglichkeit auch diese Erfahrungen zu machen. Ob mit eigenem Beitrag oder ohne, der Weg zur DHd kann für Nachwuchswissenschaftler ganz unterschiedlich aussehen – aber es lohnt sich in jedem Fall, ihn zu beschreiten.
—
Dieser Beitrag ist im Rahmen eines Early Career-Reisestipendiums für die 13. Jahrestagung des Verbands Digital Humanities im deutschsprachigen Raum e.V. entstanden. Mein herzlicher Dank gebührt dem DHd-Verband als Stipendiengeber für die finanzielle Ermöglichung meiner Teilnahme.
Mit dem Bachelorzeugnis in der einen und der Zulassung zum Digital Humanities-Studium in der anderen Hand fühlte ich mich zu Beginn der DHd doch ein wenig wie Jacob Kowalski, als er das erste Mal mit der Welt der Zauberer und Hexen in Kontakt kam. Alles wirkte auf eigenartige Weise vertraut und doch – ja, wie sollte man es anders beschreiben – magisch.
Aus der englischen Linguistik kommend, trug ich einige Fragen mit in das erste Semester meines Masterstudiums. Eine davon drängte sich besonders in den Vordergrund: Wo stehen die Digital Humanities in einer Welt, in der doch Natur- und Geisteswissenschaften so klar und fein säuberlich getrennt scheinen? Es mag genau dieser Schein sein, der trügt. Gerade in der Sprachwissenschaft ist diese Linie noch mit Leichtigkeit wegzudenken. Doch wie könnte man überhaupt versuchen, das menschliche Verlangen nach Bedeutung von sich und der Welt, welches über Jahrhunderte in Bild und Schrift festgehalten wurde, mit reduktiven Ansätzen zu quantifizieren? Ein Algorithmus könnte doch unmöglich die irrationalen und subtilen Gefühls- und Denkweisen nachvollziehen, die uns Menschen so vertraut sind. Genau mit diesen Fragen beschäftigt sich der Essay „Meursault as a Data Point“ von Abhinav Pratap. Seine philosophische Sichtweise stimmte mich in den Tagen vor Beginn der DHd-Jahreskonferenz neugierig und offen dafür, als „Neuling“ in diesem Bereich meine eigene Meinung zu formen. Das majestätische Gebäude der Universität Wien begrüßte mich mit der Eleganz der Neurenaissance an jenem Montagmorgen. Passend zu dem Leitmotto der diesjährigen Konferenz dachte ich mir: „In jedem Text findet man Daten; doch gilt dies auch andersherum?“
Die Konferenz wurde in meinem Fall von Mark Hall von der The Open University (UK) mit seinem Workshop Arbeiten mit der μEdition eröffnet. In seiner dazugehörigen DHd-Publikation stellte er sich unter anderem die Frage: „[…] [W]ie viel Edition braucht eine Edition, um eine Edition zu sein?“ (Hall, 2026). Wir durften in dem Workshop ein praxisfähiges Tool mit Community-Zugang ausprobieren. Ich sah dies als eine angenehme Gegenbewegung zur totalen Datenlogik. Die μEdition arbeitet mit Blick auf pragmatische Produktions- und Publikationspfade, unter anderem mit statischen HTML-Ausgaben und niederschwelligen Wegen, um Editionen für Forschende zugänglich zu machen und den „Publikationsflow“ zu vereinfachen (Hall, 2026). Was in seinem Projekt ebenfalls eine große Rolle spielt, ist, dass nicht alles sofort auf maximale Komplexität ausgelegt sein muss. Vielmehr sollen Einstiege erleichtert werden und damit auch das Wachstum der jeweiligen Edition. Nicht nur Text bedeutet hier also Publizieren: Es geht auch darum, Editionen für alle zugänglich zu machen und dabei mit kleinen Ressourcen arbeitsfähig zu bleiben.
Als Sprachwissenschaftlerin stolperte ich in meinem Bachelorstudium nur selten über literaturwissenschaftliche Annotation. Umso erfrischender war für mich der Workshop, an dem ich am zweiten Tag der DHd teilnehmen durfte. Graphbasierte Text- und Wissensmodellierung mit dem ATAG-Editor und Entity-Manager wurde geleitet von Maximilian Michel, Sebastian Enns, Vincent Neeb und Andreas Kuczera von der Akademie der Wissenschaften und der Literatur Mainz sowie der Technischen Hochschule Mittelhessen. Komplementär zur μEdition adressiert ATAG die Frage, wie man Text so speichert bzw. modelliert, dass das Datenmodell dem editorischen Denken näherkommt. In der ersten Theoriephase wurden alle Teilnehmenden in die browserbasierten Tools, den ATAG-Editor und den Entity-Manager, eingeführt. In der Praxisphase wurde jedem von uns ein Text ausgeteilt, mit dem wir unseren eigenen Regest, aufgeteilt in Summary, Archival History und Commentary, erstellen durften. Anschließend wurde uns freigestellt, die Tools zu testen und „wild drauf los“ zu annotieren (je nach Vorliebe). Zum Schluss wurde uns die Verknüpfung unserer Texte, Annotationen und Entitäten in einem Netzwerk auf Basis von Labeled Property Graphs visualisiert. Ich empfand dieses Tool als wunderbare Möglichkeit für webbasierte und vor allem kollaborative Annotation und es hat mir persönlich gezeigt, dass Text nicht bloß einer Kategorie angehört, sondern auch eine Praktik selbst ist.
„Dinge sind […] nicht nur einfach wahrzunehmende „Gegenüber“, sondern sie konstruieren die Umwelt des Menschen und bestimmen die Möglichkeit seines Handelns.“ (Peter Hahn, Materielle Kultur, 2014, S. 31)
Sind Zeichnungen, Bilder, Gemälde und Abbildungen auch Dinge im Sinne des obigen Zitats? Der Vortragsblock zu Digital Art History zeigte mit sehr interessanten Anwendungspraktiken den „Zustand“ der Digital Humanities in Bezug auf die Analyse von historischen Bilderzählungen und mittelalterlichen Manuskripten bis hin zur Erkennung von Pflanzen in Herbarien und Drucken. In den Vorträgen wurde unter anderem gezeigt, wie schwer es ist, Figuren (z. B. Maria oder den Engel Gabriel in Verkündigungsszenen) zuverlässig über Stile hinweg zu erkennen. Es wurde argumentiert, dass unter anderem Gesichtsdaten für eine erfolgreiche Analyse nicht ausreichen und es an Kontext im Sinne von zugehörigem Körper und Umgebung bedarf, um die Erkennung zu verbessern. Die Kernfrage lautet hier: Was zählt als Signal und was als Rauschen, wenn Kunstwerke zu Datensätzen werden?
Auch die Automatisierung des Klassifikationssystems ICONCLASS wurde behandelt. Dieses wurde seit den 1940er-Jahren für Bildinhalte entwickelt und wird heute in vielen kulturellen Sammlungen zur inhaltlichen Erschließung verwendet (Thomas, n. d.). Da die manuelle Vergabe solcher Klassifizierungscodes aufwändig ist, nutzen neue Automatisierungsansätze multimodale Modelle, Vektorsuche und Retrieval-Augmented Generation (RAG), um Iconclass-Klassifikationen aus Bildbeschreibungen abzuleiten, und berichten teils deutlich bessere Ergebnisse als reine Keyword-Methoden (Thomas, n. d.).
Der damit erzeugte Modelloutput ist dabei nicht einfach Bedeutung, sondern eine konstruierte Leseart, die sehr produktiv sein kann, jedoch immer wieder neu interpretiert werden muss, um auf blinde Flecken aufmerksam zu werden.
Nach den wunderbaren Vorträgen habe ich am Donnerstag meine ganz persönliche Winkelgasse und damit auch mein Highlight der DHd gefunden: die Postersessions.
Umgeben zu sein von so vielen talentierten, motivierten Forschenden, die die verschiedensten Projekte vorstellen, ließ keinen Nischenwunsch offen. Ich hatte das Glück, drei Personen für ein kleines Interview zu gewinnen.
Anja Gerber von der Klassik Stiftung Weimar adressiert mit NFDI4Objects die Zusammenführung heterogener Daten zu materiellem Kulturerbe und nutzt dafür Anschluss an Modelle wie CIDOC CRM bzw. Crosswalk-Ontologien. Das von ihr vorgestellte Projekt ist ein schönes Beispiel für Daten als semantische Vermittlung zwischen den Communities der Archäologie, Museen, Restaurierung und Forschung.
Der Posterbeitrag von Nina Brolich von der Universität Erfurt beschäftigt sich mit der Frage: Welche Infrastrukturen zwingen uns zu bestimmten Fragestellungen? Und welche öffnen neue Alternativen? Mit ihrem Projekt Edge AI zeigt sie, dass sich Aufgaben in den DH wie Entity Recognition auch lokal und mobil auf Mikrocontrollern mit einfacher Netzwerkarchitektur lösen lassen – im Kontrast zu der Idee, dass alles über immer größere Rechenressourcen laufen müsse.
Schließlich hat mich Erik Radisch von der Sächsischen Akademie der Wissenschaften zu Leipzig in das Projekt eines 3D-Positionssystems für Zeichnungen und Bilder in den Höhlen von Kucha in Zentralasien eingeführt. Hierbei wird versucht, die Wandgemälde, die teils entfernt und in Museen gebracht wurden, zu dokumentieren und ihren ursprünglichen Standort zu rekonstruieren. Dabei adressiert er auch das Modellierungsdilemma, dass schematische Darstellungen Bereiche erzeugen können, die es so im Original nicht gibt, und dass man bei diesen Verzerrungen methodisch mitdenken muss. In jedem Fall war es eine tolle Erfahrung, in den Stand des Projekts mit der bereitgestellten VR-Brille einmal selbst eintauchen zu dürfen.
Ob Kaffeepause, Rathausempfang, Posterslam, Eröffnungsfeier oder Exkursion: Die DHd2026 war von der Einführungs- bis zur Abschlusskeynote eine wahrlich magische Erfahrung. Ein großes und von Herzen kommendes Dankeschön geht hierbei an CLARIAH-AT, die mir mit der Vergabe des Stipendiums einen großen Schritt in meine persönliche Entwicklung als Forscherin in den Digital Humanities und zugleich die Erfahrung einer wunderbaren und inspirierenden Community ermöglicht haben.
Für all die Workshops, Poster Sessions und Vorträge finden Sie, liebe Leserinnen und Leser, alle wissenschaftlichen Essays, Links und Nennungen sowie weiterführende Literatur am Ende dieser Seite. Gerade für diejenigen, die erst seit kurzem den Wind der DH in ihren Segeln spüren, kann ich nur wärmstens empfehlen, sich dieser Literatur zu widmen. Wer weiß, vielleicht erweitert sie auch Ihren Horizont und führt Sie auf ganz neue, unerwartete Gewässer.
Nun, von Harry Potter zur Seemannsweisheit – so richtig entscheiden konnte ich mich in meinen verwendeten Metaphern ja nicht. Und wie sieht es mit meinem anfänglichen Dilemma der DH und der vielen unbeantworteten Fragen aus? Geisteswissenschaften existieren nicht ohne die komplexen Fragen menschlicher Existenz. Informationswissenschaft wiederum arbeitet mit quantifizierbaren Strukturen, die Daten greifbar machen. Die Digital Humanities erscheinen mir deshalb weniger als Kompromiss zwischen beiden Welten, sondern eher als ein Raum der Symbiose; ein Ort, an dem Interpretation und Modellierung nebeneinander existieren können. Und vielleicht ist es genau diese dritte Instanz, die während der DHd am deutlichsten hervortrat: der Forschende selbst, der zwischen Daten und Bedeutung vermittelt und ihnen Bedeutung gibt.
Storymap und Netzwerkvisualisierung
Um diese vielen Eindrücke, Projekte und Methoden nicht nur erzählerisch, sondern auch visuell darzustellen, habe ich im Anschluss an diesen Blogbeitrag eine kleine digitale Dokumentation erstellt. Eine StoryMap führt durch meine persönlichen Stationen der Konferenz, während eine Netzwerkvisualisierung die Verbindungen zwischen den erwähnten Projekten, Methoden und Forschenden veranschaulichen soll. Die Knoten der Netzwerkanalyse repräsentieren Forschende, Projekte, Institutionen und methodische Ansätze, während die Kanten ihre thematischen Verbindungen darstellen. Betrachtet man das Ergebnis, erkennt man, wie stark die Digital Humanities von interdisziplinären Verknüpfungen zwischen Edition, Kulturerbedaten, visueller Analyse und digitalen Modellierungsverfahren geprägt sind.
Beide Visualisierungsformen verstehen sich als Versuch, die verknüpften Wege der DHd auch mit Methoden aus dem eigenen Fachgebiet abzubilden – selbstverständlich völlig experimentell.
Literatur
Hall, M. (2024). Edition & niederschwellige digitale Editionen.
Kuczera, A. (2024). Applied Text as Graph: ATAG – Graphbasierte Text- und Wissensmodellierung.
Mandl, T. (2026). Plants in historical herbarium collections (DHd2026 Beitrag).
Pratap, A. (2025). Meursault as a Data Point. Essay.
Prathmesh M.., et al. (2020). Recognizing characters in art history using deep learning.
Thomas, D. B. (n.d.). Automating Iconclass: LLMs and RAG for large-scale classification of religious woodcuts.
Interviews
Brolich, N. (2026, 27. Februar). DH on the Edge [Poster session interview].
Gerber, A. (2026, 27. Februar). Vom Objekt zum Wissensnetz [Poster session interview].
Radisch, E. (2026, 27. Februar). 3D Positioning System for the Paintings in the Caves of Kucha [Poster session interview].
Verwendete Materialien
DHd2026 Konferenzprogramm
Poster Sessions
Workshopmaterialien der Vortragenden
Weiterführende Literatur
De Boer, V., et al. (2024). Hybrid Intelligence for Digital Humanities.
Peck, E. (2019). Data is personal: Approaches to making data tangible. Linköping University.
Hullman, J. (2019). Why authors don’t visualize uncertainty. IEEE Transactions on Visualization and Computer Graphics.
Ich bin mit großer Vorfreude und dank des Reisekosten-Stipendiums des DHd-Verbandes zur DHd 2026 nach Wien gefahren. Die Universität Wien machte bereits beim Ankommen einen sehr imposanten Eindruck. Gleich am ersten Tag startete ich mit dem Workshop „Beyond entities: Inhaltsbasierte Erschließung digitaler Editionen mit KI“. Dort haben wir uns erst zu den Grundlagen von RDF und zu Ontologien wie z. B. FOAF bringen lassen, bevor wir praktisch wurden: Mithilfe vorgefertigter Jupyter-Notebooks und Beispieldatensätzen probierten wir verschiedene LLM-Modelle mit unterschiedlichen Parametern aus und schauten uns die Ergebnisse der RDF-Tripel-Extraktion an. Ein spannender und sehr praxisorientierter Einstieg.
Am nächsten Tag war ich beim Workshop „LLMs unter Kontrolle: Offene Modelle in Forschung und Praxis“. Der Workshop zielt genau auf das, was ich als Nachwuchswissenschaftler wichtig finde: einen transparenten und reflektierten Umgang mit generativer KI in den Digital Humanities zu fördern. Von besonderer Bedeutung für mich war der methodische Einsatz von LLMs in der eigenen Forschung. Die praktische Arbeit mit lokalen, offenen Modellen wie OLMo 2 (1B) und OLMo 3 (7B) über LM Studio zeigte, wie viel Kontrolle und Reproduzierbarkeit man dadurch gewinnt. Zugleich wurde deutlich, wie problematisch proprietäre Online-Modelle sein können, weil sie sich verändern, Outputs nicht dauerhaft dokumentiert sind und Trainingsdaten sowie Gewichtungen oft intransparent bleiben. Der darauffolgende Theorie-Block vermittelte entsprechende Evaluationsstrategien für den Einsatz solcher Modelle. Abschließend fand eine Reflexionsrunde statt, die dazu anregte, mögliche Use Cases für die eigene Forschung neu zu denken.
Zwischendurch besuchte ich Vorträge, die von technischen Umsetzungen bis zu praktischen Anwendungen reichten: Die Präsentation zur „Digitalen Erschließung des Schematismus“ demonstrierte eindrucksvoll, wie aus historischem Druck durch OCR, NER und Transformer-Modelle schrittweise eine vernetzte Graphdatenbank entsteht, mit dem Ziel, Personen verbindlich Verwaltungseinheiten zuzuordnen.
In den Poster-Sessions wurden viele überaus interessante Poster präsentiert. Eines davon befasste sich beispielsweise mit der Frage: „Wie kompatibel ist meine Bibliothek mit Digital Humanities?“ und erinnerte daran, dass Digital Humanities oft schon in den eigenen Beständen stecken und nur gefördert werden müssen.
Der Vortrag „Semantic Modelling of Intermedial and Intertextual References in Comics“ zeigte das epistemische Potenzial semantischer Modellierung: Am Beispiel von „Sibylla“ zeigte sich, wie Wissensgraphen literarisches und visuelles Wissen strukturiert, transparent und interoperabel abbilden können. Gerade für intermediale Forschung ein großer Gewinn. Ebenso praxisnah war der Beitrag zu „Fachspezifische Datenmodelle als Brücke zwischen materieller Kultur, Theorie und Praxis“: die Arbeit mit WissKI Barrels erschien mir als echter Gamechanger für kleinere Museen, weil sie Nachhaltigkeit und sofortige Einsatzfähigkeit im Sammlungsdaten-Lebenszyklus verbindet und damit Theorie und Praxis greifbar zusammenbringt.
Den Abschluss der Konferenz bildete die Keynote, die viele der zuvor diskutierten Fragen noch einmal auf einer übergeordneten Ebene bündelte: Ausgehend von der Kritik an Big Data als vermeintlichem Paradigmenwechsel wurde deutlich, dass digitale Daten keineswegs neutral oder automatisch erkenntnisfördernd sind. Vielmehr bestimmen Plattformen, APIs und intransparente Algorithmen maßgeblich, welche Daten überhaupt zugänglich sind und wie valide Forschungsergebnisse sein können. Besonders eindrücklich war der Punkt um Forschungsethik und den Umgang mit Social-Media-Daten, wie etwa die Frage nach Anonymisierung, Einwilligung und Zitierpraxis. Das zentrale Plädoyer lautete, statt nur kritische Distanz einzunehmen, eine „kritische Nähe“ zu Daten zu entwickeln: Verzerrungen und Lücken nicht nur zu bemängeln, sondern sie als Teil des analytischen Prozesses produktiv zu machen und die Politik der Daten sichtbar werden zu lassen. Für mich rundete dies Keynote den Kongress perfekt ab. Sie verband technische Praxis, ethische Reflexion und wissenschaftstheoretische Perspektive zu einem klaren Auftrag für die zukünftige Arbeit in den Digital Humanities.
Insgesamt nehme ich aus Wien nicht nur vielfältige Impulse und die fachlichen Erkenntnisse mit, sondern auch, das Gefühl mit den Digital Humanities eine wissenschaftliche Community kennengelernt zu haben, die einen sehr herzlichen, neugierigen und manchmal auch etwas selbstironischen Geist in sich vereint, mit dem ich mich sehr verbunden fühle.
Gefördert werden Reisen von jungen Forschenden zu nationalen und internationalen Veranstaltungen, die eine thematische zum Vereinszweck aufweisen. Eine thematische Nähe ist gegeben bei: u.a. bei digitalen Forschungsinfrastrukturen, Forschungsdaten, virtuellen Forschungsumgebungen, digitalen Forschungsprozessen und Nutzendenperspektiven in Forschung und Lehre.
Eine Bewerbung ist auch ohne eigenen Beitrag zur Tagung möglich. Dieser ist aber natürlich erwünscht. Förderfähige Kosten sind: Bahnfahrten 2. Klasse, ÖPNV-Fahrten, Teilnahmegebühren, Übernachtungen bis max. 80 Euro/Nacht sowie Kosten für Posterdruck. Die Auszahlung erfolgt im Anschluss an die Konferenz nach Vorlage der Belege, d.h. Stipendiaten müssen in Vorleistung gehen.
Zielgruppe
Förderberechtigt sind Studierende eines geistes- oder kulturwissenschaftlichen Faches, die mit digitalen Daten, Methoden und Infrastrukturen forschen, d.h. Bachelor- und Masterstudierende sowie Absolvent:innen bis zu 2 Jahre nach dem Masterabschluss.
Die Early Career-Stipendien des GKFI dienen der Förderung Studierender mit Interessen und Forschungsvorhaben an der Schnittstelle bzw. im Feld der Digital Humanities.
Leistung der Stipendiat:innen
Die Stipendiat:innen verpflichten sich, bis spätestens vier Wochen nach dem Ende der Konferenz über ihre Erfahrungen während der Tagung zu berichten. Dazu eignen sich beispielsweise Beiträge in Blogs, die tage- oder sektionsweise Übernahme des Konferenz-Bluesky/LinkedIn/Mastodon-Accounts, Foto- oder sonstige multimediale Dokumentationen und kurze Konferenzberichte über andere mediale Kanäle. Weitere kreative Präsentations- und Publikationsformen sind ausdrücklich erwünscht und können nach Rücksprache berücksichtigt werden.
Auswahlkriterien
Studierende ohne Einreichung
Inhaltliche Passung auf die Ausschreibung
im Begründungsschreiben bekundetes Interesse an den Digital Humanities bzw. an der forschenden Nutzung von Forschungsinfrastrukturen
Vorschlag für die mediale Begleitung (Konferenzbegleitungsbeitrag) der Tagung
Die Auswahl der Stipendiat:innen wird gemeinschaftlich von Vertreter:innen des GKFI-Vorstands, Vertreter:innen des Programmkomitees und Vertreter:innen der lokalen Organisator:innen auf Basis der Bewerbungen getroffen. Bei gleicher Eignung gemäß den oben genannten Kriterien entscheidet das Los. Der Rechtsweg ist ausgeschlossen.
Bewerbung
Bewerbungen können jederzeit eingereicht werden. Füllen Sie dazu bitte das Bewerbungsformular in deutscher oder englischer Sprache aus und schicken Sie einen kurzen tabellarischen Lebenslauf mit (max. 1 Seite). Falls Sie einen eigenen Konferenzbeitrag haben, fügen Sie der Bewerbung bitte auch den Einreichungstext sowie die Gutachten des akzeptierten Beitrags hinzu.
Die personenbezogenen Daten der Bewerber:innen werden auf der Grundlage der Datenschutzerklärung zum Zwecke der Durchführung des Auswahlprozesses unter den genannten Bedingungen verarbeitet.
Die Stipendiat:innen werden voraussichtlich innerhalb von 4-5 Wochen nach Einreichung aller Unterlagen benachrichtigt. Die Einreichung der Konferenzbegleitungsbeiträge muss bis spätestens 4 Wochen nach der Tagung, die Abgabe der Abrechnung und Belege bis spätestens 8 Wochen nach der Tagung erfolgt sein. Die Auszahlung der Stipendien erfolgt nach der Prüfung der eingereichten Unterlagen durch die Fördergeber:innen.
Dieser Beitrag entstand im Rahmen eines Early Career Reisestipendiums von CLARIAH-AT für die DHd2026 in Wien. Herzlichen Dank für die Ermöglichung dieser Teilnahme.
Was macht eine wissenschaftliche Community aus? Und gehöre ich dazu? Diese Frage hatte ich im Gepäck, als ich als Masterstudierende der Digital Humanities an der Universität Regensburg zum ersten Mal zur DHd fuhr. Die DHd2026 war meine erste große DH-Konferenz und eine Einladung, die Community nun endlich live zu erleben. Das Ziel: Wien.Eine prachtvolle Stadt, eine beeindruckende Universität und ein Tagungsthema, das neugierig macht: Not just text, not just data. Was steckt in den Digital Humanities jenseits von Textkorpora und Datentabellen? Die Konferenz hat darauf viele spannende Antworten geliefert.
GPU für die GW – aber bitte DSGVO-konform
Der erste Konferenztag führte mich in den Halbtagsworkshop „Beyond the Cloud: Democratizing GPU Access for the Digital Humanities“ des DHInfra-Teams der Universität Graz und der Universität für Weiterbildung Krems. Der Bedarf an rechenintensiven Methoden wächst in der DH rasant, während kommerzielle Anbieter wie AWS oder Google Colab ernsthafte Fragen zu Datenschutz und Datensouvränität aufwerfen. DHInfra setzt hier mit einer föderierten, DSGVO-konformen GPU-Infrastruktur an. Der Workshop war dabei mehr als eine Demonstration, er diente als finale Testphase vor dem offiziellen Launch, in der die Teilnehmenden LLMs feintunen und API-basierte Workflows entwickeln konnten und gleichzeitig direktes Feedback zur Plattform gaben.
Data as…
Den Auftakt der Konferenz bildete am Abend die Eröffnungskeynote von Miriah Meyer mit dem Titel „Data as…: Exploring the Plurality of Data in Visualization“. Mit einer scheinbar simplen Frage: „Was sind eigentlich Daten?“ eröffnete sie ein breites Panorama: Daten als Input, als Ground Truth, als Design Material, als etwas Verflochtenes. Wer diese Rahmungen explizit benennt und hinterfragt, gewinnt neue Perspektiven auf Visualisierungen und die eigene Forschungspraxis. Beim anschließenden Empfang wurden diese Gedanken in Gesprächen weitergeführt. Ein schöner Beweis dafür, wie eine gute Keynote eine Konferenz inhaltlich in Gang setzt.
Annotieren: Mensch, Maschine oder beides?
Am zweiten Tag folgte der ganztägige Workshop „Film- und Videoanalyse mit VIAN & TIB-AV-A“. Die zentrale methodologische Frage: Wann annotieren wir manuell, wann die Maschine? VIAN Light macht diese Spannung produktiv, indem es manuelle Annotation mit automatischer Einstellungserkennung kombiniert und damit Raum lässt für das, was Eva Hielscher „Doing ELAN“ nennt: den Annotationsprozess selbst als erkenntnisleitenden Akt. Das Fazit des Tages: Automatisierung ersetzt die manuelle Annotation nicht. Hybride Workflows, die beides kombinieren, sind der Schlüssel.
Die Politik der Daten
Besonders nachhaltig haben mich zwei Panels beschäftigt. Im Panel „KI als Belastungsprobe für das offene Internet“ diskutierten Klaus Rettinghaus, Sarah Oberbichler, David Maus und Grischka Petri, was der Boom generativer KI bedeutet: Bot-Traffic, der sich als menschlich tarnt, blockierte Archive, ignorierte Lizenzen. Die Kernfrage: Welche Infrastrukturen bauen wir auf, welche Daten legen wir unter welchen Bedingungen offen? Das sind im Kern politische Entscheidungen und Geisteswissenschaftler:innen können mit ihrer kritischen Datenperspektive aktiv mitgestalten.
Das Panel „The Dark Sides of DH revised: From Utopia to Reality“ richtete den Blick nach innen: auf sprachliche Vielfalt, feministische Datenpraktiken, Repräsentation und ein erweitertes Verständnis von Nachhaltigkeit jenseits von Effizienz. Was mich überzeugte, war der konstruktive Grundton: Es ging nicht nur darum, Probleme zu benennen, sondern gemeinsam darüber nachzudenken, was die DH werden könnte, wenn wir diese Lücken ernst nehmen.
Research Software, Posterslam und Empfang im Wiener Rathaus
Ein weiteres Panel widmete sich Research Software Engineering. Sabina Mollenhauer plädierte für eine Richtungsumkehr: Ethnografische Methoden könnten aktiv zur Gestaltung nachhaltiger Research Software beitragen statt Wissen nur von STEM zu übernehmen. Kevin Kuck und Kevin Wunsch zeigten, wie automatisierte Workflows in Editionsprojekten Raum für inhaltliche Forschung schaffen. Kristin Herold, Hizkiel Alemayehu und Daniel Jettka diskutierten am Beispiel Edirom Online, wie Software nach Projektende überlebt: durch Modularisierung, Community-Building und gezielte Kleinstförderungen.
Ein Highlight der Konferenz war der Posterslam: In kürzester Zeit überzeugten die Slamenden das Publikum von ihrer Forschung, gemessen per Lautstärkemessgerät, Kostüme und popkulturelle Referenzen inklusive. Eine mitreißende Einleitung zu zwei Postersessions, bei denen Zeit für viele spannende Gespräche war.
Daten sind nie neutral
Den krönenden Abschluss des letzten Abends bildete der Empfang im Wiener Rathaus, ein sehr imposanter und beeindruckender Rahmen für eine Konferenz, die inhaltlich als auch atmosphärisch viel zu bieten hatte. Und passend zum Gastgeber durfte musikalisch natürlich auch Falco und der Wiener Walzer nicht fehlen.
Was bleibt
Was mich überrascht hat, war die Atmosphäre: offen, vielfältig, von echtem gegenseitigem Interesse geprägt. Gespräche entstanden schnell und unkompliziert, über Fachgrenzen und Karrierestufen hinweg. Als jemand, die gerade mitten im Studium steckt, war es besonders wertvoll, das Gefühl zu haben, wirklich Teil einer Community zu sein, nicht nur Beobachterin.
Das Stipendium von CLARIAH-AT hat mir nicht nur die Reise nach Wien ermöglicht, sondern einen Einblick gegeben, worum es in den Digital Humanities im besten Sinne geht: das gemeinsame Nachdenken über Methoden, Infrastrukturen und Verantwortung, mit Menschen, die das wirklich ernst nehmen.
Sophia Babl, Masterstudium Digital Humanities, Universität Regensburg
During DHd2026 in Vienna, many discussions revolved around how digital tools shape the way we work with texts and data. Instead of trying to summarise the entire conference, this blog post focuses on the workshops I attended during the first days and on a few ideas that stayed with me throughout the week.
Looking back at my notes, I realised they already suggested a structure for this post. The workshops I attended raised questions about modelling, transcription, and data that later reappeared in other panels and keynotes during the conference.
Note 1: Starting with Practice
My first two days at the conference were shaped by workshops, and that felt like a good way to begin. Rather than starting with big claims about digital humanities, I started by sitting down with tools, notebooks, scripts, and a lot of practical questions.
On the first day, I attended the workshop “Beyond Entities: Inhaltsbasierte Erschließung digitaler Editionen mit KI.” We worked with Python, APIs, and Jupyter notebooks to extract RDF triples from TEI-encoded early modern letters. What I found especially interesting was that the workflow did not stop at named entities. Instead, it tried to model conceptual relations in the texts. Themes such as emotion, illness, or social order became part of a semantic structure that could then be visualised and analysed further.
I liked that this workshop stayed close to the material while still asking what kinds of structures can be made visible through computational methods. It also made very clear that modelling is never neutral. Even at the level of prompts and extraction rules, decisions shape what the final data looks like.
Note 2: From Audio to Text
The second workshop I attended, “Vom Audio zum Text: Automatisierte Transkriptionen mit Whisper,” shifted the focus from written material to spoken language. We looked at automated transcription workflows, compared tools, and worked through Python-based pipelines for transcription and speaker diarisation.
What stayed with me most was the discussion after the practical part. Our reflections quickly clustered around three terms: transfer, opportunities, and limits.
The question of transfer came up in relation to both teaching and research. We talked about how automated transcription might be built into thesis work, methods courses, or training materials. There were ideas about shared standards, open educational resources, and also about making these workflows usable for people who are not deeply technical.
The opportunities were easy to see. Automated transcription can save time, give a quick overview of larger amounts of audio material, and make certain kinds of corpus building much more realistic. Reusable code and adaptable workflows also make it easier to test different research setups.
At the same time, the workshop discussion was just as much about the limits. In qualitative work especially, transcripts are never just raw text. Things like pauses, laughter, overlap, hesitation, and speaker dynamics matter, and automated systems do not capture all of this equally well. We also kept coming back to transparency, validation, and the need to check what a model is actually doing.
For me, this workshop was useful precisely because it did not present automation as a magic solution. It showed where these tools can help, but also where they flatten the material.
Note 3: The Keynote as a Frame
Only after these two workshops came the opening keynote by Miriah Meyer, “Data As ___________: Exploring the Plurality of Data in Visualization.” By that point, I already had the workshop experiences in mind, and that made the keynote even more interesting to listen to.
What I took from it was not one single definition of data, but the opposite. Data appeared here as something plural, shaped, and dependent on context. Meyer spoke about data as entangled, as design material, and as connection. That fit surprisingly well with what I had just seen in the workshops. Whether we are extracting semantic triples from letters or producing transcripts from audio, data do not simply appear ready-made. They are produced through tools, settings, modelling choices, and research interests.
The question “Is data graffiti data?” while looking at sticker emojis museum visitors made on a data sheet, stayed with me because it made this point in a way that was funny and sharp at the same time. It pushed against the idea of data as something clean and self-evident.
Looking Back at the Rest of the Week
For me, the workshops were an amazing start to DHd2026 because they made it possible to move back and forth between trying things out and thinking about what those methods actually imply for research practice.
As the conference continued, I noticed that many of the themes from the workshops reappeared in other sessions. Panels such as “Not Just Text, Intertext!” and projects like NAKAR returned to questions of modelling, connection, and interpretation. The final keynote by Katharina Kinder-Kurlanda then made the political and epistemic side of data work even more explicit.
Looking back at my notes now, this connection between experimentation and reflection is probably my main takeaway from the week. The interesting part is not only that digital tools can do more and more. They also force us to ask more precise questions about modelling, interpretation, transparency, and what we even mean when we call something data. In that sense, the workshops were not just an introduction to tools, but also to the questions that come with using them.
This blog post was written as part of a travel grant for the DHd 2026 conference. My sincere thanks go to NFDI4Memory for supporting my participation, and to the conference organizers for their excellent work in making the event such a positive experience.
Die Idee: Wissenschaftliche Ressourcen aus den Geistes- und Sozialwissenschaften – von Werkzeugen und Diensten über Trainingsmaterialien bis hin zu Workflows und Datensätzen – im SSH Open Marketplace sichtbar, gut beschrieben und leichter auffindbar machen. Dabei können neue Einträge angelegt und bestehende ergänzt oder überarbeitet werden. Das Ziel: Mehr Sichtbarkeit und Nutzbarkeit für digitale Angebote in unserer Community.
Das Ganze läuft in entspannter Atmosphäre:
keine Teilnahmegebühr
Snacks und Getränke warten auf die Teilnehmenden
wer mag, trifft sich schon am Vorabend in einem örtlichen Restaurant (Selbstzahlerbasis)
Arbeitsmaterial wird vorbereitet, Vorkenntnisse sind nicht nötig – nur ein Smartphone, Tablet oder Notebook sollte mitgebracht werden
maximal 20 Plätze vor Ort – schnell anmelden!
Eingeladen sind nicht nur Mitglieder von GKFI und Text+, sondern auch Kolleginnen und Kollegen aus anderen Projekten, die den SSH Open Marketplace nutzen möchten. Disziplinär ist alles willkommen, solange es einen Bezug zu Geistes- oder Sozialwissenschaften hat.
Der Ablauf: Ein kurzer Impuls zum SSH Open Marketplace mit Beispielen aus GKFI, Text+ und weiteren Kontexten – anschließend Gruppenarbeit, in der Ressourcen gemeinsam eingepflegt und Workflows erprobt werden. Schließlich kann jede*r die eigenen Services, Daten oder Materialien direkt ins internationale Portal bringen, wo sie dank API-Anbindung auch von anderen Plattformen geharvestet werden können.
Vom 25. bis 27. Februar 2026 wurde eine online Winter School zu Digital Humanities im Centre for the Study of Medicine and the Body in the Renaissance (CSMBR) in Pisa unter dem Namen Studiolo Digital Humanities veranstaltet. Vormittags widmeten wir uns einem praktischen Kurs zur Programmierung in Python für die Geisteswissenschaften; nachmittags fanden Workshops und Fachvorträge statt, die die praktische Anwendung der Digital Humanities in aktuellen Forschungsprojekten vorstellten.
The Centre for the Study of Medicine and the Body in the Renaissance (Bild: Fabrizio Bigotti)
Studiolo Digital Humanities Lab gehört zur Reihe Winter Schools: Humanities for the Future des CSMBR, die alle zwei Jahre vom Zentrum veranstaltet wird. Dieses Jahr fand der zweite Kurs seit der Gründung des Zentrums im Jahr 2018 statt. Die Schulung bot mir eine einzigartige Gelegenheit, mehr über die Verwendung der Digital Humanities im medizinhistorischen Kontext zu erfahren und meine bisherigen Kenntnisse zu vertiefen. Dank des Stipendiums des Verbands Digital Humanities im deutschsprachigen Raum (DHd e.V.) wurde es mir ermöglicht, an dieser Winter School teilzunehmen, wofür ich mich herzlich bedanken möchte.
Die drei intensiven Tage waren vollständig durch die Veranstaltungen ausgefüllt. Vormittags hatten wir die Gelegenheit, uns in die Programmierung mit Python und ihre Anwendungen in den Geisteswissenschaften einzuarbeiten. Bei der Einführung in die Programmierung erwarben wir praktische Kenntnisse über Funktionen, Dateiverwaltung und Daten sowie über Module – vor allem über die Bibliothek Pandas. Damit konnten wir Datensätze genauer mittels Statistik und Grafiken untersuchen. Während jeder Sitzung hatten wir genügend Gelegenheit, gezielte Fragen zu stellen, die unsere eigene Forschung und unsere Forschungsperspektiven betrafen.
Jeder Nachmittag war wissenschaftlichen Anwendungsszenarien der DH in aktuellen Forschungsprojekten oder Workshops zum Thema Entwicklung interaktiver Forschungsergebnisse in der Wissenschaftsgeschichte gewidmet, mit aktiver Diskussion offener Fragen, wie zum Beispiel: Was ist eine interaktive wissenschaftliche Veröffentlichung? Dieser Workshop veränderte meine Sicht auf wissenschaftliches Arbeiten und auf Veröffentlichungsmethoden, da interaktive Publikationen die Möglichkeit bieten, komplexe Inhalte klarer und differenzierter darzustellen. Die Fragenstellungen führten unsere Forschungsideen an eigenen Feldern durch DH-Anwendungsszenarien zur Unterstützung. Bei mir handelt es sich vor allem um lateinische mittelalterliche medizinische Handschriften. Mit Hilfe der Bibliothek Pandas können Statistiken und Diagramme erstellt werden, was meiner Forschungsrichtung sehr nützlich sein kann. Ich habe vor, die lateinischen medizinischen Handschriften einer Gattung und deren Entwicklung im Laufe der Jahrhunderte genauer zu untersuchen, wozu mir das neu erlernte Modul unbedingt behilflich sein wird. Dadurch lässt sich die Entwicklung der Gattung „regimen sanitatis“ anhand der DH-Daten vergleichen. Die allgemeine Vertiefung der vorher erworbenen Kenntnisse inspirierte mich auch, mich mehr mit den digitalen Editionen der veröffentlichten Texte zu beschäftigen.
Mein zweites Forschungsfeld, das durch die Winter School sehr profitierte, ist meine Arbeit zu den mittelalterlichen Schreibern. Ich sammelte mittlerweile mehrere Dateneinträge zu einigen Schreibern der Handschriften, aber dank dieses Kurses bekam ich breiteren Überblick darüber, was und vor allem wie man mittels DH-Methoden erreichen kann. Sei es die Statistik der Überlieferung, die Ausbreitung der Handschriften oder Diagramme, mit denen man anschließend Vergleiche zu bereits existierenden Daten ziehen kann.
Die Vorträge der gegenwärtigen Forschungsprojekte waren vielfältig: Sie reichten von 3D-Modellierungen über Python-Datenbanken bis zur Gamification, von archäologischen Ansätzen (Digitalisierung der Handschriften) bis zur Medizin und zur Geschichte der Entwicklung von Vorstellungen über Organe. All diese Felder galten als nahezu unerschöpfliche Quellen für Anwendungsszenarien und Ideen für die zukünftigen Forschungsrichtungen der Teilnehmerinnen und Teilnehmer. Nach jedem Vortrag gab es genügend Zeit für einen bereichernden Austausch. Natürlich kann man während eines Kurses nur eine gewisse Menge an Kenntnissen erwerben, aber auch darauf war der Veranstalter vorbereitet. Für viele Themen gab es Literaturvorschläge und Hinweise zum Weiterlesen, um sich weiterzuentwickeln.
Das gesamte Programm kann man auf der Website des CSMBR unter folgendem Link genauer einsehen; dort findet man auch aktuelle Veranstaltungen, Schulungen und Konferenzen, die nicht nur mit Medizingeschichte zusammenhängen. Hiermit möchte ich mich beim Verband Digital Humanities im deutschsprachigen Raum nochmals für die Unterstützung bedanken und meine Überzeugung äußern, dass mir die Teilnahme an der Winter School nicht nur neue Kenntnisse in DH, sondern auch wissenschaftliche Kontakte in meinem Bereich der Medizingeschichte brachte, von denen sowohl mein Studium als auch meine Forschung profitieren werden.
Der Relaunch von forschungsinfrastrukturen.de ist abgeschlossen! Die Website des GKFI – Verein Geistes- und kulturwissenschaftliche Forschungsinfrastrukturen – präsentiert sich ab sofort in einem neuen, klaren und konsistenten Design. Inhalte und Struktur wurden grundlegend überarbeitet, sodass Informationen zu Zielen, Gremien und Services des Vereins nun noch schneller und einfacher zu finden sind. Damit unterstützt die Website das zentrale Anliegen des GKFI: Forschungsinfrastrukturen in den Geistes- und Kulturwissenschaften in Deutschland und im europäischen Kontext zu stärken, zu koordinieren und sichtbarer zu machen. Wir freuen uns über Feedback zum neuen Auftritt – schreiben Sie uns gerne unter kontakt@forschungsinfrastrukturen.de.
Auch der GKFI-Angebotskatalog hat ein neues Gesicht bekommen. Er bietet einen strukturierten Überblick über die Services, die von den Mitgliedseinrichtungen im Bereich der Forschungsinfrastrukturen bereitgestellt werden. Die Angebote sind nach Fachbereichen geordnet, enthalten kurze Beschreibungen und verweisen direkt auf die Website des jeweiligen Services. Alle aufgeführten Dienste sind etablierte Forschungsinfrastruktur-Angebote, die Forschung durch Beratung, Bereitstellung, Weiterentwicklung und Vermittlung von Werkzeugen, Daten und Expertise unterstützen. Sie folgen den Prinzipien von Open Science, erfüllen gemeinsame Qualitätsstandards im GKFI-Netzwerk und werden von den verantwortlichen Einrichtungen betrieben. Technisch ist der Katalog nun direkt mit dem SSH Open Marketplace verbunden: Per API-Call werden die dort vom GKFI-Koordinierungsrat geprüften und eingetragenen Services automatisch auf die GKFI-Website übertragen. So bleibt der Überblick aktuell und zuverlässig – und Forschende finden noch leichter passende Infrastrukturangebote für ihre Arbeit.
Der Verein Geistes- und kulturwissenschaftliche Forschungsinfrastrukturen e.V. engagiert sich für die Weiterentwicklung und Vernetzung geistes- und kulturwissenschaftlicher Forschungsinfrastrukturen in Deutschland und Europa. Er koordiniert nationale Knoten zu europäischen Infrastrukturen, arbeitet mit wissenschaftspolitischen Akteuren, Fachgesellschaften und Interessensgruppen zusammen und fokussiert auf digitale Forschungsinfrastrukturen, Forschungsdaten, virtuelle Forschungsumgebungen sowie digitale Forschungsprozesse mit besonderem Blick auf die Perspektiven der Nutzenden in Forschung und Lehre.
Die Motivation: Gestaltung der digitalen Transformation in den Geistes- und Kulturwissenschaften, Bündelung vorhandener Angebote, Begleitung aktueller Entwicklungen und digitaler kultureller Praktiken.
Mitmachen können institutionelle wie individuelle Mitglieder – durch die Förderung der Vereinsangebote, Mitarbeit in Gremien, Mitgestaltung künftiger Entwicklungen und Teilnahme an Veranstaltungen, Tagungen und Workshops.
heute startet die Bewerbungsphase für den Zertifikatskurs Forschungsdatenmanagement, der im September 2026 zum sechsten Mal beginnt. Eine Bewerbung ist ab sofort bis zum 27. April 2026 möglich.
Über den Zertifikatskurs Forschungsdatenmanagement:
Der Kurs bietet die einzigartige Möglichkeit, Kompetenzen zum FDM und deren Anwendung in Service-Bereichen an Hochschulen und Forschungseinrichtungen berufsbegleitend, systematisch und zertifiziert zu erwerben. Er richtet sich an Beschäftigte aus wissenschaftsnahen Infrastruktur-Bereichen sowie aus der Forschung und umfasst die Themenbereiche: Forschungsdaten-Lebenszyklus, Datentypen, Forschungsprozesse in verschiedenen Fachgebieten, Open Science, Hacken und Experimentieren mit Daten, Forschungsprojektmanagement, technische Infrastruktur für Repositorien, Metadaten, nachhaltiges Datenmanagement, relevante rechtliche Aspekte sowie Ansätze zur Beratung und Vermittlung von FDM-Themen für verschiedene Zielgruppen.
Der Zertifikatskurs Forschungsdatenmanagement ist eine Kooperation der TH Köln, des ZBIW, der Landesinitiative für Forschungsdatenmanagement – fdm.nrw und ZB MED – Informationszentrum Lebenswissenschaften und wird seit 2021 für Interessierte aus Nordrhein-Westfalen und seit 2023 deutschlandweit angeboten.
Wir freuen uns, die erfolgte Veröffentlichung des Bandes From Global to Local? Digitale Methoden in den Geisteswissenschaften im deutschsprachigen Raum: Ein Triptychon bei Melusina Press in Diamond Open Access bekanntgeben zu können.
Aus dem Klappentext:
“Der Sammelband “From Global to Local? Digitale Methoden in den Geisteswissenschaften im deutschsprachigen Raum: Ein Triptychon” lädt dazu ein, lokale und globale Geschichte(n) des Einsatzes von digitalen Methoden in den Geisteswissenschaften im deutschsprachigen Raum zu entdecken und über ihre Zukunft nachzudenken. Er bietet Standortbestimmung genauso wie Experimente in der Gegenwart und Gedankenspiele für die Zukunft. Er ergründet Entwicklungslinien und stößt kritische Diskussionen an.
Der Teilband „Be-Forschen“ sammelt diskursive Aufsätze und eine Vielfalt der Themen, der Teilband „In eigenen Worten“ Audio-Essays mit einer Vielfalt der Stimmen und der Teilband „Artefaktbiographien“ Portraits (digitaler) Objekte und eine Vielfalt der Medialität. Der Aufbau als Triptychon führt die (neuen) Formate fruchtbar zusammen, spiegelt den Medienwandel und zeigt dabei überraschende Perspektiven auf. Dies spiegelt die Vielfalt der methodischen Ansätze der Digital Humanities, ganz unabhängig davon, ob man sie als Big Tent oder als globales (Zelt-)Dorf begreift.”
Sie finden die Publikation unter https://doi.org/10.26298/1981-5722. Wenn Sie eine Druckoption wünschen, so finden Sie dort ebenfalls die Möglichkeit der direkten Bestellung.
Zur Zitation des Bandes orientieren Sie sich gerne an folgendem Beispiel (Chicago 18. Edition): Wuttke, Ulrike, Christopher Nunn, Christian Schröter, Melanie Seltmann und Christian Wachter. From Global to Local: Digitale Methoden in den Geisteswissenschaften im deutschsprachigen Raum: Ein Triptychon. Melusina Press, 2026. https://doi.org/10.26298/1981-5722.
Nähere Informationen zur Publikation finden Sie im Fußbereich der Publikationswebsite oder im Impressum der Publikation.
Wir wünschen Ihnen viel Vergnügen und Lese- und Hörgenuss bei der Lektüre aller Beiträge!
NFDI4Culture, das Konsortium zur Förderung des Forschungsdatenmanagements für materielle und immaterielle Kulturgüter innerhalb der Nationalen Forschungsdateninfrastruktur (NFDI), zelebrierte vom 24. bis 26. September 2025 an der Akademie der Wissenschaften und der Literatur | Mainz bereits zum 5. Mal seine größte jährliche Zusammenkunft, das NFDI4Culture Community Plenary. Diskutiert wurde insbesondere das Fokusthema „Datensouveränität, infrastrukturelle Resilienz und Wissenschaftsfreiheit“, aber auch der aktuelle Stand, Ergebnisse des Arbeitsprogramms und die Strategie des Konsortiums für die Zukunft. Über die Details der drei Konferenz-Tage gibt dieser chronologisch-thematisch gegliederte Bericht ausführlich Auskunft, der gerne auch selektiv gelesen werden kann und zur Veranschaulichung viele authentische Stimmen von Plenary-Teilnehmenden aus der NFDI4Culture-Community wiedergibt. Eine englische Version des Berichts findet sich in Kürze auf dem NFDI4Culture Portal.
NFDI4Culture und die Community – Autor:in: Alexander Stark
Vor allem begegneten sich die rund 100 Teilnehmenden vor Ort – Vertreter:innen der Mitgliedsinstitutionen, die Mitarbeitenden des Konsortiums sowie Besucher:innen aus der (inter-)nationalen Forschung und digitalen Infrastruktur – endlich (wieder) einmal persönlich. Bei einem großen und in weiten Teilen digital durchgeführten Projekt wie NFDI4Culture stärkte das Zusammentreffen spürbar das Netzwerk der fachlich sehr vielfältigen Community sowie die geteilte Motivation und Leidenschaft für Forschungsdatenmanagement im Bereich Kulturdaten. Auch europäische Besucher:innen und Interessierte reisten zum Community Plenary, um bei NFDI4Culture mitzuwirken und sich auszutauschen, wie beispielsweise Rafael Uriarte, Ph.D., vom Kunsthistorischen Institut in Florenz, der in einem kurzen Interview seine Beweggründe schilderte:
„I came here to see what kind of contribution we can make and how to convince people to open their data, especially in art history.“
Wer nicht persönlich nach Mainz kommen konnte, hatte Gelegenheit, virtuell an den wesentlichen Programmpunkten teilzunehmen.
Konferenz-Tag 1: Workshop-Wednesday, Helpdesk-Speed-Dating und DigAMus Award
Workshops zum Forschungsdatenmanagement und Helpdesk-Speed-Dating
Zu den besonderen Programm-Highlights zählte zunächst das attraktive Workshopangebot: In entspannter und kollegialer Atmosphäre konnten die Teilnehmenden neue Skills, Tools und Techniken entdecken und die eigenen praktischen Fähigkeiten erweitern – von Pythonprogrammierung über Knowledge Graphs bis hin zur Nachhaltigkeit im Forschungsdatenmanagement. Besonderer Beliebtheit erfreute sich der „Data Stories“-Workshop. Teilnehmer Thomas Kollatz (Akademie der Wissenschaften und der Literatur | Mainz) berichtet anschließend:
„Wir sind im Workshop verdammt weit gekommen, aus unseren Daten eine lebendige Story zu machen.“
Gleichzeitig bot das NFDI4Culture-Helpdesk-Team für alle Anliegen rund um Forschungsdaten Speed-Date-Beratungen für die Plenary-Teilnehmenden an, wie beispielsweise von Jun.-Prof. Dennis Ried (Universität Halle-Wittenberg) wahrgenommen:
„Das Beratungsgespräch mit Leuten, die sich mit Förderstrukturen auskennen, hatte einen großen Mehrwert für mich, einfach gemeinsam Ideen zu sortieren.“
Helpdesk-Mitarbeiter Dr. Grischka Petri resümiert:
„Es waren durchaus umfangreiche Beratungen und auch sehr dichte, teils spezielle Infogespräche dabei. Natürlich können auch wir in einer halben Stunde die Dinge nicht vollständig lösen, aber wir konnten Türen aufstoßen und einen Wegweiser für die weiteren Schritte mit auf den Weg geben.“
Verleihung des DigAMus Awards für herausragende digitale Projekte im Kulturbereich
DigAMus Award Figur – Autor:in: DigAMus Award Team
Die festliche Abendveranstaltung bot Gelegenheit für die schicke Abendgarderobe: Die GLAMouröse Verleihung des DigAMus Awards, der für herausragende digitale Projekte im Kulturbereich vergeben wird, fand erstmals im Rahmen des NFDI4Culture Community Plenarys statt. Das Organisationsteam des DigAMus Awards kam dafür ganz in Gold und Silber. Zusammen mit den goldenen Award-Figuren verliehen sie dem Event einen Hauch von Oscar-Flair. Ein Gong-Schlag (wie es in der Akademie der Wissenschaften und der Literatur Mainz Tradition ist) läutete die Zeremonie der Preisverleihung ein und lud die Teilnehmenden vor Ort in den Plenarsaal ein. Neben dem Live-Event wurde auch die Möglichkeit der Online-Teilnahme angeboten. Die anspruchsvolle Umsetzung des hybriden Events wurde als sehr gelungen gelobt: Das Ineinandergreifen von Technik (Zoom-Stream) und Live-Event vor Ort bot eine abwechslungsreiche und unterhaltsame Mischung aus Präsenz, Einspielung von Videos und Online-Beteiligung, die alle Zuschauenden von Nah und Fern inkludierte. Nach Vorstellung der Favoriten-Projekte auf der Shortlist wurde der DigAMus Award in sechs verschiedenen Kategorien verliehen. Für die Gewinner-Projekte gab es viel Applaus, sogar Jubelrufe aus dem Publikum. Besonders die Freude der „Five Guides“ vom TikTok-Kanal @five.guides des LWL-Museums für Archäologie und Kultur (Gewinner-Projekt in der Kategorie “Zeitgemäße Vermittlung”) war regelrecht ansteckend und erfüllte den ganzen Raum. Man merkte den Guides einfach an, dass es ihnen eine Herzensangelegenheit ist, jungen Menschen einen Zugang zu Kultur und Museen auf Augenhöhe zu bieten. Die Projektbeteiligte Marie Jakob sagte nach der Verleihung:
„In das Projekt ist viel Arbeit hineingeflossen. Daher ist der Award eine tolle Bestätigung, dass wir damit einen Nerv getroffen und einen guten Job gemacht haben.“
DigAMus Award Preisträger:innen „Five Guides“ bei der Verleihung der Kategorie „Zeitgemäße Vermittlung“ – Autor:in: DigAMus Award Team
Der Publikumspreis, für den 1500 Menschen abgestimmt hatten, ging an den Museums-Podcast „Auf die Ohren“ des Ägyptischen Museums München zur altägyptischen Kulturgeschichte. Die Gewinnerinnen Roxane Bicker und Nora Heil, beide online zugeschaltet, waren ehrlich „überrascht und unvorbereitet“, „Jetzt haben wir richtig was zu feiern auf unserem Team-Fest!“
„Da sind so viele Daten aus den eingereichten Projekten – die wollen wir weiter für die Community nutzbar machen.“ NFDI4Culture unterstützt dabei insbesondere in Punkto Datenqualität und -struktur bei der Datenübertragung zu Wikidata.
“Wikidata ist dabei nicht nur Beifang. Der Preis an sich ist natürlich wichtig, auch für die Sichtbarkeit, aber der Hauptwert liegt in den Daten. Von der Kooperation mit NFDI4Culture erhoffen wir uns, dass die Community diese kuratierten Daten aufgreift und nutzt”, erklärte Johannes Sauter und ergänzte:
“Es war cool, offizieller Programmpunkt beim NFDI4Culture Community Plenary zu sein. Wir sind hier so gut aufgenommen worden, sowohl organisatorisch als auch vom Publikum. Hier ist eine sehr offene und dynamische Community, die Bock hat, wirklich etwas zu machen!”
Seine Mitstreiterin Sonja Thiel, zugeschaltet aus den USA, bekräftigte, die Kooperation habe die Verleihung des DigAMus Award in dieser Form erst möglich gemacht.
Konferenz-Tag 2: Aktueller Stand des Konsortiums und Fishbowl-Diskussion „Datensouveränität, infrastrukturelle Resilienz und Wissenschaftsfreiheit“
Spokesperson-Report, Neuigkeiten zu den Diensten und Arbeitsbereichen von NFDI4Culture
Am Donnerstag, 25.09.25, präsentierte NFDI4Culture dem Plenum den aktuellen den Stand des Konsortiums mit Berichten und wissenschaftlich Beiträgen zu den neuesten Aktivitäten und Services sowie einem Ausblick auf kommende Vorhaben. Zum Warm-Up gab eine live-Umfrage Einblicke, welche NFDI4Culture-Dienste bereits besonders gern genutzt werden (was die geneigten Leser:innen im Übrigen gern für sich selbst entscheiden dürfen). Anschließend stellten die Mitarbeitenden von NFDI4Culture, ergänzt durch kreative Show-Einlagen, ihre Updates, Beispiele und Insights zu den verschiedenen NFDI4Culture-Diensten und Arbeitsbereichen vor, darunter:
LIDO (Lightweight Information Describing Objects), ein internationaler XML-Standard zur Beschreibung von Objekten und Lingua Franca für Museen, zu der NFDI4Culture künftig auch eine LIDO-Service-Stelle anbieten will
MEI (Music Encoding Initiative), ein offener, von der Community entwickelt XML-Standard zur Codierung von Musiknoten, zu dem NFDI4Culture aktuell ein MEI-Repositorium und ein MEI-Korpus für Kulturschaffende und Wissenschaft plant
Daten der Theaterwissenschaften und Performing Arts: Entwicklung von Services für spezielle ereignisbezogene Daten (wie z.B. Aufführungen)
FOSS (Free Open Source Software): bestehende Dienste mit der Community weiterentwickeln
NFDI4Culture Registry für Forschungswerkzeuge und Datendienste – nicht nur zum Explorieren, Suchen, Filtern und Finden, sondern auch Anlaufstelle für Forschende und Entwickler:innen, die ihre Angebote (Software, Skripte, Webanwendungen, Datenrepositorien oder -portale) zur Nachnutzung zentral verzeichnen möchten
Der Culture Knowlege Graph (KG) stellt eine Verbindung zwischen allen Forschungsdaten der Community her (Daten zu inzwischen rund 18 Mio. Entitäten). Zum Durchsuchen des KGs bietet NFDI4Culture neben der SPARQL-Schnittstelle nun auch eine neue Data Search mit spezieller Incipit-Suche für Musiknotation und KI-basierter Bildersuche
Institutionelle Resilienz für Kulturerbe im digitalen Raum: Schutzstrategien für Kulturgüter und -Daten zur Prävention für den Katastrophen- oder Krisenfall
Die Präsentationen zu diesen sowie allen weiteren Vorträgen werden in Kürze auf dem NFDI4Culture Portal zur Verfügung gestellt.
Spokesperson Torsten Schrade präsentiert dem Publikum die Vision „Gemeinsame Daten – Gemeinsame Praxis – Gemeinsames Wissen“ – Autor:in: Alexander Stark
Im Spokesperson-Report berichtet Konsortiumssprecher Prof. Torsten Schrade außerdem über die aktive Teilhabe diverser NFDI4Culture-Communities und der inzwischen rund 70 Participants, die beispielsweise Beiträge zu internationalen Metadatenstandards geleistet haben. Torsten Schrade betont:
„Partizipation ist das wichtigste, das Herz von NFDI4Culture ist eine gemeinsame, Community-geleitete Entwicklung einer gemeinsamen Datenkultur!”
Wegen der Breite der vertretenen Fachdisziplinen ist NFDI4Culture eines der größten und heterogensten Konsortien in der NFDI. Die Communities dieser verschiedenen Disziplinen sollen nun zu einer “Community of Practice” zusammengeführt werden, so Prof. Holger Simon, Co-Spokesperson von NFDI4Culture, „so wollen wir unsere Vision ‚Gemeinsame Daten – Gemeinsame Praxis – Gemeinsames Wissen‘ mit Leben füllen.“
Berichtet wurde weiter unter anderem über folgende Themen:
Der NFDI4Culture Helpdesk hat sich zum „Rückgrat“ von NFDI4Culture entwickelt und verzeichnet inzwischen über 760 Beratungsvorgänge zu Themen wie Copyright, Publikation und Databases. Dabei wird deutlich: Für Sustainability braucht es rechtliche Klarheit, rund 40% der Helpdesk-Anfragen gingen an den Legal Helpdesk.
Weiterbildung im Bereich Forschungsdatenmanagement (FDM) und Data/Code Literacy mit der Culture Research Data Academy, dem Educational Resource Finder und der Culture Knowledge Base (zentrales Informationsmedium zu FDM mit Handreichungen, Video-Tutorials und kuratierten Linkempfehlungen) – mit inzwischen rund 110 gut kuratieren Empfehlungen, alle maßgeschneidert für die NFDI4Culture-Community.
Der Research Output Index zeigt, was NFDI4Culture zu bieten hat: Konferenzbeiträge und -berichte, wissenschaftliche Literatur, Artikel und vieles mehr.
Community AAI (Authorization Authentification Identification), ein NFDI-Basis-Dienst, mit dem man sich sowohl für die Dienste von NFDI4Culture als auch für die anderer Konsortien anmelden kann – einmal anmelden, alle Dienste nutzen.
Dienste über Konsortien hinweg weiterentwickeln am Beispiel von Semantic Kompakkt (freie Software zur Annotation von 3D-Daten und gleichzeitig Repositorium zur Speicherung): erste Abbildung eines chemischen Moleküls in Semantic Kompakkt in Zusammenarbeit mit NFDI4Chem.
Internationalisierung: Ausloten der Zusammenarbeit mit fachspezifischen (inter-)nationalen GLAM-Infrastrukturen und Ausbau des internationalen Netzwerks.
Konsortiumssprecher Torsten Schrade fasste noch einmal zusammen:
„Back to the Future mit NFDI4Culture: mit Innovation, Partizipation, KI, 3D, KG, Datenqualität und Internationalisierung – das Abenteuer geht weiter!“
Datensouveränität, infrastrukturelle Resilienz und Wissenschaftsfreiheit – Fishbowl-Diskussion
Ein weiteres Highlight auf dem NFDI4Culture Community Plenary war das hochkarätig besetzten Panel „Datensouveränität, infrastrukturelle Resilienz und Wissenschaftsfreiheit“ mit Prof. Dr. Andrea Rapp (Präsidentin der Akademie der Wissenschaften und der Literatur | Mainz), Prof. Dr. York Sure Vetter (Direktor der NFDI) und Prof. Dr. Dörte Schmidt (NFDI-Kuratoriums-Mitglied). Dieser wichtige Programmpunkt konnte auch online verfolgt werden. Dasinteraktive Fishbowl-Gespräch, an dem sich auch das Publikum beteiligen konnte, befasste sich nicht nur mit technischen Infrastrukturen und Datenräumen, sondern auch mit der Frage der Sicherung grundlegender Werte unserer digitalisierten Wissensgesellschaft. Digitale Souveränität und gesellschaftliche Resilienz werden in internationalen Aushandlungsprozessen mit geopolitischer Dimension verhandelt, die ein hohes Maß an „Datendiplomatie“ erfordern. Die Diskussionsrunde lotete aus, wie die NFDI und besonders ihre geistes- und kulturwissenschaftlichen Konsortien einen Beitrag zu einer verantwortungsvollen digitalen Transformation in Deutschland und Europa leisten können.
In ihren Eingangsstatements gaben die Panelist:innen Einblicke in ihre Perspektiven auf diese Themen. Den Anfang machte Prof. Andrea Rapp: Das NFDI4Culture Community Plenary zeige, was „durch die Wissenschaft organisiert“ bedeute: „Das sind mehr als eine Handvoll Nerds, sondern eine lebendige Community!“. Drei Punkte waren Andrea Rapp in ihrer Ansprache besonders wichtig: 1. In Verbindung mit dem Thema Wissenschaftsfreiheit sprach sie über langfristige Verpflichtungen am Beispiel von digitalen Editionen und wie diese die Wissenschaftsfreiheit stützen können, indem sie transparent Rechenschaft ablegen, was sich im Digitalen optimal organisieren lasse. 2. Datenqualität als Voraussetzung für KI-gestützte Verfahren: „Die unvermeidliche KI und Large Language Models sind Wahrscheinlichkeitsmodelle. Diese brauchen vertrauenswürdige Umgebungen und eine qualitätsgesicherte Datengrundlage.“ 3. Die fach- und domänenspezifischen Kompetenzen für die Langzeitverfügbarkeit von geisteswissenschaftlichen und Kulturgut-Daten sieht Andrea Rapp vor allem bei den Akademien, ergänzt durch die Universitäten: „Wir brauchen den Auftrag und die Ausstattung dafür, so fühlen wir uns gut gerüstet für diese Aufgabe“.
NFDI-Direktor Prof. York Sure-Vetter fasste zu Beginn zusammen, wie die NFDI in den letzten fünf Jahren gewachsen ist, hin zu einer „international sichtbaren Infrastruktur mit technischer Weitsicht“. Zwischen den Mitgliedern der NFDI sei trotz der fachlichen Unterschiede ein Vertrauensverhältnis aufgebaut worden, das es erlaube, gemeinsam an übergreifenden Querschnittsthemen zu arbeiten. Dabei verlieh York Sure-Vetter auch seiner Anerkennung für die hohe Professionalität von NFDI4Culture Ausdruck. Einer seiner wichtigsten Talking Points galt der Demokratie: „Als eine Wissensinfrastruktur mit Bottom-up-Prinzip ist die NFDI wichtig für die Demokratie. Das müssen wir erhalten! Dafür ist auch Transparenz wichtig.“ Darüber hinaus schaffe die in Europa einzigartige föderierte Struktur der NFDI Resilienz, und zwar genau über diese Verteilung von technischen Ressourcen und auch Köpfen. Zur Resilienz-Strategie der NFDI gehören Cyber-Security, Redundanz und offene Standards. Mit ihren sicheren, interoperablen Diensten und ihrer förderierten Struktur könnte NFDI auch als strukturelles Role Model und Innovationsmotor in der EU dienen. Dass NFDI-Direktor York Sure-Vetter persönlich mit Diskussionsbeiträgen am NFDI4Culture Community Plenary teilnahm, ist bei 26 NFDI-Konsortien und nur 52 Wochen im Jahr keine Selbstverständlichkeit und freute die Community daher ganz besonders.
Prof. Dörte Schmidt eröffnete ihre Rede mit dem Statement, sie sei „geflasht, was wir geschafft haben in fünf Jahren: eine Vielfalt an Daten und wie kooperativ wir uns zusammenraufen, statt in Konkurrenz zueinander zu gehen“. Sie pflichtete York Sure-Vetter bei, dass Demokratie eine Grundvoraussetzung und die Wissenschafts- und Kunstfreiheit, die in Art. 5 des Grundgesetzes festgehalten ist, uns ermöglichen zu definieren, was für eine Gesellschaft wir sein wollen. Beim Thema Datensouveränität sprach Dörte Schmidt von der NFDI als einem „vielköpfigen Souverän“, dessen Vorteile wir nutzen sollten, denn er bilde einen Gegenvorschlag zu Daten-Hegemonien und Monopolismen. Das bringe technische, ethische und rechtliche Anforderungen mit sich und mache Aushandlungen in unterschiedlichen Rechtsräumen nötig. „Für infrastrukturelle Resilienz müssen wir verteilt denken, denn verteilte Netzwerke sind nicht so angreifbar. Auch Redundanz wird in gewissem Maß wird gebraucht. Wir lernen gerade, was Resilienz bedeutet, und dass sie oft auch der Effizienz und vor allem dem Finanzierungskampf gegenübergestellt werden muss“. Dörte Schmidt beendet ihre Ansprache mit dem Aufruf „Denkt vernetzt! Das ist unsere demokratische Aufgabe“.
In der anschließenden Diskussionsrunde, der Fishbowl, nahmen neben den geladenen Panelist:innen auch wechselnde Diskutant:innen aus dem Publikum auf zusätzlichen freien Stühlen Platz und an der Diskussion teil. Moderiert wurde die Runde von Konsortiumssprecher Torsten Schrade.
Fishbowl Discussion: Prof. Dörte Schmidt, Prof. Andrea Rapp, Peter Gietz, Prof. Torsten Schrade, Prof. York Sure Vetter, Dr. Grischka Petri – Autor:in: Alexander Stark
Beim Thema der europäischen Anschlussfähigkeit der NFDI stellt sich York Sure-Vetter verschiedene Dienste für die European Open Science Cloud (EOSC) vor, darunter auch der Authentifizierungsdienst. Daraufhin gab Moderator Torsten Schrade die Frage an das Publikum weiter: „Welche Dienste brauchen wir?” Peter Gietz (DAASI International) ergriff die Gelegenheit sowie einen freien Stuhl in der Diskussionsrunde und bestätigte: „Die NFDI4Culture-AAI [Authorization Authentification Identification] funktioniert. NFDI4Culture ist ein super Beispiel für Vernetzung, auch auf technischer Seite der Dienste.“ Als weiteres positives Beispiel wurde wiederholt Eduroam[1] genannt und mit viel Zustimmung aus dem Saal quittiert. Auch über die angestrebte Verstetigung der NFDI wurde diskutiert. Dörte Schmidt machte sich dafür stark, die Politik zu überzeugen, „dass eine Investition in Köpfe einen Teil dieser Verstetigung darstellt“. Peter Gietz stimmte zu und merkte an: „In einem freien Raum sorgen eben diese Köpfe für Innovation“. Andrea Rapp nannte ergänzend die institutionelle Kontinuität. Einig waren sich alle, dass auch das bestehende Netzwerk verstetigt werden müsse, um nicht mit der Finanzierung wieder von vorne anfangen zu müssen. Auch das Spannungsverhältnis zwischen Demokratie und Kapitalismus wurde in der Diskussion erneut aufgegriffen. Andrea Rapp brachte den Begriff der Allmende [im Sinne eines gemeinsamen Gutes der modernen Informationsgesellschaft, beispielsweise in Form von freier Software] in die Diskussion ein und merkte an: „Gemeingut macht Arbeit“. Moderator Torsten Schrade sprach den Konflikt zwischen Plattform-Ökonomie vs. Allmende an und fragte: „Können wir den Plattform-Giganten entkommen?“ York Sure-Vetter antwortete, es sei ein Machtkampf und führte ein Beispiel an: „Die großen Sprachmodelle haben sogar Experten überrascht, aber noch mehr Daten führen jetzt nicht mehr zu besseren Modellen, es tritt eine Saturierung ein. Für den Betrieb braucht man Rechenzentren so groß wie Manhattan. Wenn man da beispielsweise an Stromausfälle denkt… Es ist schwer, dem zu entkommen, wir müssen unsere Nische finden“.
[1] Eduroam: internationale Hochschul-Initiative, die Studierenden und Wissenschaftler:innen über ihren Universitätsaccount einen WLAN-Zugang an allen teilnehmenden Institutionen ermöglicht. Analog dazu funktioniert auch der NFDI4Culture-AAI-Dienst, über den allen Nutzenden, die über DFN bei NFDI4Culture registriert sind, der gesamte Dienste-Kosmos der NFDI zur Verfügung steht.
In ihren Schlussstatements gaben die Panelist:innen eine Einschätzung, was in den kommenden Jahren besonders wichtig werde. Dörte Schmidt sprach sich dafür aus, „dass wir uns auf unsere Aufgaben und Ziele besinnen, vor allem auf unser Alleinstellungsmerkmal, das uns von großen Playern unterscheidet. Wir können etwas leisten in der Gesellschaft“. Andrea Rapp stellte heraus, die Wissenschaft werde getragen von Personen, die ertüchtigt werden müssten, sich als Teil ihrer wissenschaftlichen Arbeit auch um Souveränität zu kümmern. Dafür bedürfe es Freiraum, Ansprechpartner und finanzieller Mittel. York Sure-Vetter betonte die Bedeutung der Validierung der Dienste, die einerseits bottom-up funktioniere, indem die Communities durch ihre Nutzung zeigen, ob bestimmte Dienste, wie z.B. der Helpdesk, Anklang finden oder nicht. Gleichzeitig müsse die Führung top-down Entscheidungen treffen und „der Politik erklären können, wo wir das Geld gut investiert sehen”. Gebraucht werde also sowohl eine Politik, die unterstützt, als auch Nutzende, welche die Dienste wertschätzen.
Im Nachgang der Veranstaltung fasste Andrea Rapp ihre gewonnenen Erkenntnisse aus der Diskussion noch einmal für den vorliegenden Bericht zusammen:
„Die nachhaltige Zukunft der NFDI stellt uns vor große Herausforderungen, zugleich ist bei der Community, sowohl an der Basis als auch bei den Institutionen, Wille und Commitment groß, sich diesen Herausforderungen zu stellen und Verantwortung zu übernehmen. Dafür müssen Institutionen und Wissenschaftler:innen ertüchtigt werden.“
Rahmenprogramm: Spirio-Konzert, inspirierender Gesang, Ess- und Feierkultur
Aufgelockert wurden die Vorträge und Diskussionen von einem musikalischen Programm erster Güte. Die „Early Birds“ (die ersten 50 Plenary-Registrierten) wurden mit einem ganz besonderen Konzerterlebnis überrascht: Im Kalkhof-Rose-Saal, Deutschlands erstem Kammermusiksaal in Holzbauweise, wurde die innovative Steinway Spirio-Konzerttechnologie vorgeführt. Dabei handelt es sich um ein Selbstspielsystem, das live-Darbietungen von Pianist:innen weltweit von einem zum anderen Spirio-Flügel in Echtzeit übertragen oder aufzeichnen und originalgetreu wiedergeben kann, so authentisch, als würde die Künstlerin oder der Künstler selbst am Flügel sitzen. Geboten wurden Stücke gespielt von Hayato Sumino, Vladimir Horowitz, Jacob Collier und Arseniy Gusev.
Doch auch alle anderen Gäste kamen in den Genuss eines besonderen Konzerts: Zum musikalischen Rahmenprogramm des Plenarys zählte auch Sopranistin Lindsey Neumann aus den USA, begleitet am Klavier von Konzertpianistin Andrea Jantzen. Die beiden boten Lieder von F. Mendelssohn, R. Quilter und G. Puccini dar, mit einer Intensität und Präsenz in Stimme und Performance, die den Zuhörenden das Gefühl vermitteln konnte, ganz persönlich angesprochen zu sein. Lindsey Neumann berichtete, dass sie in der Vorbereitung auf ihren Auftritt den Auftrag erhalten habe, das Publikum zu inspirieren – was ihr zweifelsohne gelungen ist.
Konzert: Sopranistin Lindsey Neumann, begleitet am Klavier von Konzertpianistin Andrea Jantzen – Autor:in: Team Social Media
Auch über das Konzert-Programm hinaus konnten die Plenary-Besucher:innen die Veranstaltung sinnlich und kulinarisch genießen. Das bunte Tagesprogramm wurde abends von einem Dinner, einem guten Glas Wein und anschließender Party gekrönt – letztere genießen in NFDI4Culture-Kreisen bereits einen legendären Ruf. DJane Fran(ziska Fritzsche) von BASE4NFDI sowie die Musik-Wünsche der Anwesenden sorgten für einen ausgelassenen (Tanz-)Abend, der sicher vielen in Erinnerung bleibt.
Party!! DJane Fran(ziska Fritzsche) dancing – Autor:in: Team Social Media
Konferenztag 3: Markt der Möglichkeiten, 4CultureHour auf Mastodon und Stimmen aus der Community
Markt der Möglichkeiten und 4CultureHour auf Mastodon
Mit dem Markt der Möglichkeiten am Freitag, 26.09.25, bot NFDI4Culture einen Begegnungsraum vor Ort, in dem Services von NFDI4Culture, aber auch Participants und Partner:innen des Konsortiums sich anhand von Posterpräsentationen vorstellen und miteinander ins Gespräch kommen konnten. Die Marktbesucher:innen waren eingeladen zum Schlendern, Entdecken und Netzwerken. In der Speakers-Corner wurde in kurzen Marktreden auf interessante Marktstände, Veranstaltungen oder gute Ideen aufmerksam gemacht.
Auf dem Markt der Möglichkeiten – Autor:in: Alexander Stark
Dr. Fabian Pittroff (Ruhr-University Bochum) stellte mit seinem Poster beispielsweise eine „Infrabel zur Ethnografie zum Umgang mit Forschungsdaten“ vor. Infrabel setzt sich zusammen aus den Wörtern Infrastruktur und Fabel und thematisierte in diesem Falle anhand der Feldmaus und des Pelikans verschiedene Arten der Pflege von Forschungsdaten. Im Unterschied zur klassischen Fabel, in der Tiere die Eigenschaften von Menschen verkörpern, haben diese in der Infrabel Eigenschaften von Infrastrukturen. Der Markt der Möglichkeiten hat sich laut Fabian Pittroff gelohnt:
„Die Poster haben gut funktioniert, um ins Gespräch zu kommen.“
In einem kurzen Interview führte er auf die Frage nach seinen Eindrücken vom NFDI4Culture Community Plenary aus:
„Ich bin zum Plenary gekommen, weil ich den Eindruck habe, dass mir NFDI4Culture beim Einarbeiten in das Thema FDM potenziell viel Arbeit abnehmen kann. Ich habe mir darüber hinaus viel Überraschendes notiert. Mich interessiert auch, wie sich NFDI4Culture organisiert. Es fand recht viel Selbstverständigung des Konsortiums statt, dadurch bekam man Einblicke in den Inner Circle – gleichzeitig fühlte ich mich sehr willkommen. Und was mir aus der Fishbowl-Diskussion noch in Erinnerung geblieben ist, waren Schlagworte wie ‚verteilte, aber vernetzte Strukturen‘, ‚mit stolz von unseren Daten sprechen‘ und ‚Lust an der Heterogenität‘.“
Auch andere Marktbesucher:innen konnten von den Posterpräsentationen profitieren:
„Bei den Postern habe ich sogar etwas gelernt, was ich für unser Projekt Buber-Korrespondenzen Digital verwenden kann“, freute sich Thomas Kollatz (Akademie der Wissenschaften und der Literatur | Mainz).
Eine Zusammenstellung aller vertretenen Poster wird in Kürze auf dem NFDI4Culture Portal veröffentlicht.
Poster-Collage – Autor:in: Katja Sternitzke
Mit der4CultureHour, die sich dann sogar auf mehrere „Hours“ ausweitete, wurde der Markt der Möglichkeiten vom NFDI4Culture-Social-Media-Team live auf Mastodon begleitet. Bereits die Social-Media-Berichterstattung der beiden Vortage hatte viel Resonanz erzeugt. Während des letzten Konferenztages hatten Interessierte nun die Möglichkeit, direkt auf die Poster zu reagieren oder Fragen zu stellen. Teilweise konnten diese dann sogar von der Poster-betreuenden Person auf Mastodon beantwortet werden. So übertrug sich die allseitige Begeisterung auch in den digitalen Raum. Weitere Eindrücke von NFDI4Culture in den Sozialen Medien sind auch auf LinkedIn und auf Mastodon unter #4CultureCommunityPlenary zu finden.
Die Community resümiert
Bevor sich alle auf die Heimreise machten, rekapitulierten einige Plenary-Teilnehmende für uns ihre persönlichen Eindrücke von der Veranstaltung. Dennis Ried (Uni Halle-Wittenberg), der übrigens 2024 mit dem NFDI4Culture Music Award ausgezeichnet wurde, fasste seine Plenary-Erfahrung folgendermaßen zusammen:
„Ich wollte mir ein Bild machen, was für Dienste es bei NFDI4Culture gibt, was die können und wie sie funktionieren. Mich persönlich interessiert darüber hinaus besonders die Verbindung von 3D-Daten und Musikwissenschaft und wie man die einsetzen kann. Es gäbe da gute Möglichkeiten für fächerübergreifenden Datenaustausch, zum Beispiel bei antiker Musik mit der Archäologie, wenn sich beispielsweise Musik auf antiken Amphoren findet. Beim Data-Stories-Workshop habe ich nebenbei noch erfahren, was man mit dem Culture Knowledge Graph alles machen kann. Insgesamt finde ich es beeindruckend, wie stark die NFDI als Ganzes aus 1000 Einzelteilen hervorgegangen ist. Nur bei den ganzen internen Kürzeln blicke ich noch nicht durch – wenn ich mir etwas wünschen könnte, dann wäre es ein Glossar der Abkürzungen“.
Andreas Kohlbecker vom ZKM Karlsruhe, welches Participant bei NFDI4Culture ist, war zum NFDI4Culture Community Plenary gekommen, um zu erfahren, was der aktuelle Stand des Konsortiums ist und wohin die Reise künftig geht – und auch, weil er gerne die Kommunikationskanäle des Konsortiums, wie beispielsweise den RocketChat, nutzen möchte. Des Weiteren nahm er am Workshop zu den Base4NFDI-Services teil:
„Da konnte man sehen, was sich inzwischen in der NFDI alles getan hat. Ich wollte mich informieren, wie genau ich die Tools bei uns im Haus nutzen kann, um Probleme zu lösen. Der Workshop war echt ein Highlight, weil sich danach ein Gesprächsfäden über die drei Konferenztage hinweg ergeben hat. Insgesamt hat es sich wirklich gelohnt, nach Mainz zu kommen, ich habe mich sehr wohl gefühlt, konnte mein Netzwerk erweitern – und NFDI4Culture kann tolle Parties feiern!“
Für die Zukunft möchte er dem Konsortium noch mit auf den Weg geben: „NFDI4Culture muss europäischer werden!“. Genau das hat NFDI4Culture mit seinen Internationalisierungsbestrebungen auch vor.
NFDI-Kollegin Veronica Haas (Universität Mannheim) vom Konsortium BERD@NFDI verabschiedete sich mit den Worten:
„So eine schöne Konferenz – und die Musikeinlagen waren beeindruckend!“
Auch NFDI4Culture freut sich, besonders nach diesem fruchtbaren Austausch, dem gemeinsamen Lernen, Glitzern, Feiern, Netzwerken, Diskutieren, Konzert-Erleben, Schlemmen und Tanzen, auf ein Wiedersehen mit der Community – allerspätestens beim nächsten Culture Community Plenary!
NFDI4Culture und die Community – Autor:in: Alexander Stark
Ich freue mich Ihnen mitzuteilen, dass zum 2. Digital Independence Day die Auftaktfolge meines neuen Podcasts „Die Wissensarchitekt*innen“ online gegangen ist.
Der Wissenschaftspodcast “Die Wissensarchitekt*innen” erkundet die Welt hinter den Daten und was Bibliotheken, Forschung und Algorithmen miteinander verbindet. In Gesprächen über das Wissen von morgen werden kritische Aspekte der Informationsgesellschaft und ihre politischen und gesellschaftlichen Folgen diskutiert.
In jeder Folge sind Gäst*innen aus unterschiedlichen Bereichen der Informations- und Wissenslandschaft zu Gast, um über ihre Arbeit und Themen zu sprechen. In der ersten Staffel von “Die Wissensarchitekt*innen” steht das Thema Datentracking mit Fokus Science Tracking (d.h. das nicht datenschutzgerechte Erheben und Nachnutzen von Nutzungsdaten auf kommerziellen wissenschaftlichen Webseiten) zentral.
Der Podcast wird von mir, Ulrike Wuttke, im Rahmen meiner Transferprofessur an der FH Potsdam mit dem Projekt T.R.A.C.K.S. “Training on Analytics, Compliance, Knowledge, and Security” produziert.
Mit freundlichen Grüßen und viel Spaß beim Reinhören!
Ulrike Wuttke
Prof. Dr. Ulrike Wuttke
Bibliothekswissenschaft – Strategien, Serviceentwicklung und Wissenschaftskommunikation | Library Science – Strategies, Service Development and Scholarly Communication
The Social Sciences and Humanities Open Marketplace is a discovery portal which pools and contextualises resources for Social Sciences and Humanities research communities: tools, services, training materials, datasets, publications and workflows.
The Marketplace highlights and showcases solutions and research practices for every step of the SSH research data life cycle.
Training Series Learning objectives
Understand Open Science, FAIR and CARE principles in practice Participants will be able to explain the Open Science paradigm and the FAIR and CARE principles, and assess their implications for responsible research data management across the full data lifecycle in the arts and humanities, social sciences, language sciences, and GLAM-related research.
Navigate and critically use the SSH Open Marketplace Participants will be able to confidently navigate the SSH Open Marketplace to discover, evaluate, and select relevant tools, services, datasets, workflows, and training materials for their research needs.
Integrate digital resources into research workflows Participants will be able to incorporate SSH Open Marketplace resources into discipline-specific research workflows, enhancing transparency, reproducibility, and efficiency in arts and humanities, social sciences, language sciences, and GLAM-related research.
Contribute to and curate resources Participants will be able to contribute their own communities’ high-quality resources to the SSH Open Marketplace by applying editorial guidelines, metadata standards, and best practices for documentation, interoperability, and reuse, as well as reuse Marketplace resources to support reproducible and transparent research practices.
Apply domain-specific standards, resources and research practices Participants will be able to document, share, and reuse domain-specific research workflows, data, and tools within arts and humanities (DARIAH), social sciences (CESSDA), language sciences (CLARIN), cultural heritage contexts, thereby fostering interoperability, FAIR compliance, and sustainable knowledge exchange within national and European research infrastructures
Leverage the SSH Open Marketplace for community-specific applications
Participants will be able to design and implement customized application scenarios by utilizing the SSH Open Marketplace to create, curate, and disseminate tailored resource lists or complex catalogs that meet the specific needs and standards of their respective research communities.
Overview of sessions and learning objectives per session
Training session
Learning objectives
20 February: FAIR, CARE & Open Science Principles
1. Explain the core principles of Open Research and their relevance for SSH research practices.2. Distinguish between FAIR and CARE principles and understand their complementary roles in data governance.3. Identify key FAIR-compliant research infrastructures relevant to SSH research.4. Assess the implications of Open Science requirements for data management planning and project design.5. Apply FAIR and CARE principles to a concrete research use case or project scenario.
20 March: Introduction to SSH Open Marketplace
1. Describe the purpose, scope, and added value of the SSH Open Marketplace for SSH research.2. Navigate the SSH Open Marketplace interface to locate resources (tools, services, datasets, training materials, and workflows).3. Use search and filtering functions to identify relevant resources for a specific research question.4. Understand how the Marketplace connects community use-cases to European SSH research infrastructures.5. Select appropriate resources from the Marketplace for early-stage or exploratory research tasks.
17 April: Making the most of the SSH Open Marketplace
1. Explore and differentiate advanced resource types such as workflows.2. Integrate Marketplace resources into existing research workflows.3. Evaluate the quality, relevance, and reuse potential of Marketplace entries using metadata and relations.4. Enrich existing Marketplace records by adding metadata, links, and contextual information.5. (Re)use Marketplace resources to support reproducible and transparent research practices.
15 May: Contributing to the SSH Open Marketplace
1. Understand the role of community contributions in sustaining the SSH Open Marketplace.2. Add new tools, datasets, workflows, or training materials to the Marketplace.3. Apply editorial guidelines and quality standards for resource curation.4. Use metadata schemas and controlled vocabularies to improve interoperability and discoverability.5. Critically review and improve existing Marketplace entries to enhance reuse and FAIRness.6. Understand programmatic access and re-use of marketplace material via API and WordPress plug-ins.
19 June: Thematic Art and Humanities
1. Identify DARIAH services and workflows relevant to arts and humanities research.2. Understand how arts and humanities research workflows are represented in the SSH Open Marketplace.3. Apply DARIAH tools and workflows (e.g. ATRIUM) to concrete research scenarios.4. Integrate heterogeneous data types typical of arts and humanities research into FAIR-aligned workflows.5. Share and document arts and humanities workflows for reuse within the SSH community.
18 September: Thematic GLAM institutions
1. Understand the specific characteristics and challenges of cultural heritage and GLAM data.2. Identify relevant tools, standards, and services for GLAM data in the SSH Open Marketplace.3. Apply FAIR principles to digitised and born-digital cultural heritage data.4. Integrate GLAM datasets into interdisciplinary SSH research workflows.5. Promote reuse and sustainability of cultural heritage data through documentation and sharing practices.
16 October: Thematic language data
1. Identify CLARIN services and standards for managing and analysing language data.2. Understand FAIR and legal/ethical challenges specific to language data (e.g. sensitive or personal data).3. Use the SSH Open Marketplace to discover language resources, tools, and workflows.4. Integrate CLARIN tools into linguistic research workflows.5. Prepare and document language datasets for reuse within national and European infrastructures.
20 November: Thematic Social sciences
1. Identify CESSDA services, standards, and tools relevant to social science research.2. Understand best practices for managing, documenting, and sharing social science data.3. Use the SSH Open Marketplace to locate CESSDA-related datasets and services.4.Apply FAIR and ethical principles to quantitative and qualitative social science data.5. Connect social science research workflows to European data services and infrastructures.
FAIR-by-design learning materials
The training series are conceptualised following the FAIR-by-design methodology developed in skills4EOSC (Filiposka et al. 2024), which consists in taking a systematic approach for conceptualizing each training session, e.g. defining the target audience, the learning objectives and the means to achieve them in each training session, publishing the materials and guides about how to use them, among others. FAIR learning materials enable the reuse of the materials both by learners and by trainers.
Target audience
The workshop series is aimed at a broad audience with links to the social sciences and humanities – from beginners to experienced researchers and practitioners who want to contribute their perspectives or benefit from the experiences of others.
a discovery portal, to foster serendipity in digital methods
an aggregator of useful and well curated resources
a catalogue, contextualising resources
an entry point in the EOSC for the Social Sciences and Humanities researchers
The SSH Open Marketplace is not:
a repository. Nothing is hosted in the SSH Open Marketplace. Workflow content type can be hosted, but this is an exception.
a data catalogue. The goal is not to collect all the SSH datasets, but selected datasets are indexed to support the contextualisation (dataset mentioned in a publication or used in a training material for example).
a commercial Marketplace. There is nothing to sell in the SSH Open Marketplace. Commercial software/services can be referenced
Das NFDI-Konsortium Text+ fördert jährlich auf ein Kalenderjahr begrenzte sog. Kooperationsprojekte mit dem Ziel, die Angebote an Daten und Services von Text+ kontinuierlich zu erweitern und für die Forschungscommunitys langfristig verfügbar zu machen bzw. die in Text+ verfügbaren Daten und Services gezielt für innovative Forschungsfragen zu nutzen.
Die Kooperationsprojekte von 2025 sind nun abgeschlossen und möchten sich und ihre Projektergebnisse in einer kurzweiligen virtuellen Veranstaltung den interessierten Communitys vorstellen: am 17. Februar 2026, 10–12 Uhr.
Folgende Projekte stellen sich in der Veranstaltung vor:
Text+-Schnittstellen zu den Interview-Sammlungen in Oral-History.Digital (text+oh.d)
Aufbau einer offenen digitalen Sammlung historischer musiktheoretischer Texte aus dem deutschsprachigen Raum anhand von Beispielen aus dem 19. Jahrhundert (DigiMusTh)
LOD-Rollen-Modellierungen aus den Registern von Regestenwerken zum Mittelalter (LRM)
Glossarium Graeco-Arabicum – Open Data (GlossGA-OD)
Die Digital Humanities Benelux 2025 fand in diesem Jahr vom 4.-6. Juni in den Niederlanden, genauer gesagt in Amsterdam, statt und wurde dort an der Freien Universität (VrijeUniversiteit) ausgerichtet. Der gesamte Universitätskomplex ist neu und umfangreich ausgestattet. So gab es eine größere Outdoor-Anlage mit Möglichkeiten für Calisthenics sowie drei Beachvolleyballcourts mitten auf dem Unicampus. Das machte gleich zu Beginn Eindruck.
Anlage auf dem Campus der Universität (Bild: Vivian Rätzke).
Aber der Grund für meine Reise war ein anderer – gerne wollte ich die Digital Humanities Benelux besuchen und durfte eine ereignisreiche Tagung miterleben. Ich bin sehr dankbar, dass ich die Möglichkeit dazu hatte und möchte mich an dieser Stelle sehr herzlich bei dem Verband Digital Humanities im deutschsprachigen Raum (DHd e.V.) für die großzügige Unterstützung in Form eines Reisekostenstipendiums bedanken, das mir die Konferenzteilnahme ermöglichte.
Im Vorfeld zur Tagung gab es eine Vielzahl an Pre-Workshops, die am Tag vor dem offiziellen Beginn stattfanden. In meinem Fall fiel die Wahl auf Working with colonial Digital Cultural Heritage, Approaches, Tools, and Transnational Insights. Es handelte sich dabei um einen Workshop zum Umgang mit kritischen Metadaten bei Museumsobjekten aus dem Kolonialkontext. Dieser Workshop beleuchtete unterschiedliche Perspektiven und machte bewusst, was nicht auf Anhieb offensichtlich war, zum Beispiel den Verlust an Informationen bei Objekten aus dem rituellen Kontext. In diesem Rahmen konnten Beispielobjekte aufgezeigt werden, für die weitere Metadaten in Gruppenarbeiten von uns hinzugefügt wurden. Dies geschah unter dem Gesichtspunkt, welche Metadaten fehlen, aber auch welche Metadaten verändert werden müssten. Einer der aufgeworfenen Punkte, war, inwiefern Personen der betreffenden kulturellen Einflüsse in die Erstellung von Metadaten des jeweiligen Objekts einbezogen wurden oder werden sollten, um die Informationen weiterzugeben und darüber hinaus die Suche zu erleichtern. Es wäre ein wichtiger Beitrag, dass essentielle Informationen zu den Objekten und dem Kontext nicht verloren gingen, sondern für die Nachwelt erhalten blieben. Dies wäre auch ein Zeichen des Respekts im Rahmen der Aufarbeitung.
Da der Workshop nur einen halben Tag gehen sollte, buchte ich mir für den restlichen Tag einen Slot im Museum und hatte die Gelegenheit, das Kulturangebot der Stadt Amsterdam genießen zu dürfen.
Fußweg zur Tagung (Bild: Vivian Rätzke).
Am nächsten Tag ging es weiter mit der offiziellen Eröffnung der Tagung, die insgesamt zweieinhalb Tage gehen sollte. Jedoch ahnten wir zu diesem Zeitpunkt noch nicht, wie sie zum Wochenende hin enden würde, aber dazu später mehr.
Insgesamt gab es während sämtlicher Präsentationen, Vorträge zu drei parallel stattfindenden Sessions. Dies bot ein überaus umfangreiches und vielseitiges Programm für jeden Geschmack und unterschiedliche fachliche Hintergründe. Darunter fielen zum Beispiel Vorträge zur 3D-Modellierung in der Archäologie und X-Analysen anhand von Daten der Geschichtswissenschaften.
Das Reisestipendium eignete sich ideal für die Reise nach Amsterdam, denn die Tagung war international gut besucht und dementsprechend anregend im Austausch über aktuelle Themen der Digital Humanities (DH). Eröffnet wurde die Vortragsreihe mit einer Keynote von Barbara McGillivray vom King’s College London mit Tracing meaning across time: computational and human-centred approaches to semantic change. Noch eine Keynote gab es von Lise Jaillant mit AI to Unlock Archives: Revolutionising Access to our Digital Past. Beide Vorträge waren über die Maße interessant und stark besucht. Mit großem Interesse wurden zum Schluss Diskussionen mit den Tagungsteilnehmenden geführt.
Während der Tagung konnte ein dynamisches Miteinander unter den Tagungsteilnehmenden beobachtet werden. Nicht nur spannende Vorträge gab es, sondern auch eine Poster-Session sowie eine Demonstrationssitzung. Diese sowie das Rahmenprogramm förderten die Möglichkeiten der Vernetzung innerhalb der Digital Humanities Community.
Ein interessanter Punkt des angebotenen Zusatzprogramms war die Möglichkeit, an der Bibliotheksführung der ausrichtenden Universität teilzunehmen. Bei dieser Gelegenheit wurde nicht nur ein Einblick in historische Objekte wie einen Globus oder eine Karte von Japan gegeben, sondern auch ein Projekt vorgestellt, bei dem es darum ging, assyrische Tontafeln für Unterrichtszwecke zu scannen, als 3D-Modelle zu erstellen sowie mit dem 3D-Drucker zu drucken. Diese Kopien der Tontafeln wurden herumgereicht und konnten angefasst sowie ausführlich begutachtet und untersucht werden.
Wann bekommt man schon einmal die Gelegenheit, die Struktur eines antiken Objektes ausgiebig abtasten und die Keilschrift erfühlen zu dürfen? Alles natürlich unter dem Gesichtspunkt, dass das Original unberührt, unversehrt und geschützt blieb. Nicht zu vergessen, dass sogleich eine Expertin unter uns Teilnehmerinnen und Teilnehmern anfing zu erklären, worum es sich dabei genau handelte. Frau Dr. Anouk Nuijten, die auch Ansprechpartnerin für das Projekt ist, berichtete uns zusammen mit ihrem Kollegen Aidan Houtkamp mehr über die Eindrücke von den 3D-Modellen und den angefertigten Repliken im Rahmen von Digital Impressions: Creating 3D Models of Clay Tablets. Weiterhin können die Objekte hier gefunden werden.
Eine Tontafel wird gescannt (Bild: Vivian Rätzke).
Ausschnitt des Modells (Bild: Vivian Rätzke).
Der Austausch während der Tagung war produktiv und förderte die internationale Vernetzung zwischen den mehr als 200 Tagungsteilnehmenden sehr. Die anschließenden Diskussionen waren anregend und ermöglichten neue Ideen für Herangehensweisen zukünftiger Forschungsprojekte. Aber auch die Poster- und Demo-Sessions gaben Aufschluss über vielversprechende Möglichkeiten, die in DH genutzt werden können.
Das Organisationsteam vollbrachte eine reife Leistung. Wie schon erwähnt, bot das Ende der Tagung eine überraschende Herausforderung. Bereits zu Beginn stießen die Raumkapazitäten an ihre Grenzen und es mussten kurzerhand größere Räumlichkeiten der Universität zur Verfügung gestellt werden. Zwischenzeitlich gab es ein hohes Aufkommen, dass zuvor sogar auf dem Fußboden Platz genommen worden war, da sich niemand die spannenden Präsentationen entgehen lassen konnte. Womit zu guter Letzt jedoch kaum jemand gerechnet hatte, war der landesweite Bahnstreik der niederländischen Bahn, der dafür sorgte, dass spontan umdisponiert werden musste. So kam es, dass einige bereits einen Tag früher abreisten und andere wiederum ihren Aufenthalt um einen Tag verlängerten. Gleichzeitig wurde das Programm von einem auf den anderen Tag von einem Präsenzmodell zur Hybridtagung am letzten Veranstaltungstag umgewandelt. Der Plan ging auf und alle Vorträge konnten stattfinden. Organisatorisch wurde dies flexibel gehandhabt, jedoch waren am letzten Tagungstag keine Fahrten innerhalb der Niederlande möglich. Ich hatte ohnehin geplant, eine Nacht länger zu bleiben und konnte erfreulicherweise ohne Probleme am nächsten Tag weiterfahren.
Die Digital Humanities Benelux 2025 war ein Erlebnis, das ich nicht vergessen werde. Der Besuch der Tagung hat mich fachlich weitergebracht, dazu geführt, dass ich mich intensiver mit bestimmten DH-Themen auseinandergesetzt habe und mir durch die Vorträge und den Austausch dabei geholfen, neue Ideen im Rahmen meiner Masterarbeit zu entwickeln. Sogar die Aussicht auf ein Ministipendium im Rahmen meiner Abschlussarbeit für die Nutzung eines KI-Tools habe ich dadurch bekommen. Die Möglichkeit und die besondere Erfahrung möchte ich nicht missen und werde mit Freude daran zurückdenken.
Unterwegs zur Tagung durch die Natur (Bild: Vivian Rätzke).
Die Digital Humanities Benelux wird im kommenden Jahr 2026 erneut in den Niederlanden, aber dieses Mal in Maastricht, stattfinden. Wir können gespannt sein, was uns beim nächsten Mal erwartet.
Das NFDI-Konsortium Text+ lädt ein zum Workshop „Sprach- und Textdaten für Gesellschaft, Gesundheit und Medizin“ am 05.-06.03.2026 am Hamburger Zentrum für Sprachkorpora (HZSK). Der zweitägige Workshop (Lunch-to-Lunch) der TaskArea „Collections“ widmet sich den Schnittstellen zwischen sprach- und textbasierten Forschungsdaten und angrenzenden Disziplinen in den Bereichen Gesellschaft, Gesundheit und Medizin. Gemeinsam wollen wir erkunden, wie sich Forschungsdatenmanagement (FDM) für text- und sprachbasierte Forschung in diesen interdisziplinären Kontexten gestalten lässt.
Text+ ist ein Konsortium der Nationalen Forschungsdateninfrastruktur (NFDI) und hat zum Ziel, sprach- und textbasierte Forschungsdaten langfristig zu erhalten und ihre Nutzung in der Wissenschaft zu ermöglichen. Der Workshop bietet ein Forum für den Austausch über nachhaltige und sichere Bereitstellung, Analyse und Nachnutzung von Forschungsdaten. Dabei geht es u.a. um Fragen der mehrsprachigen Kommunikation und Multimodalität.
Programm-Highlights:
Keynotes und Fachvorträge zu aktuellen Herausforderungen und Lösungen im FDM für sprach- und textbasierte Forschungsdaten mit dem Fokus auf die Bereiche Gesellschaft, Gesundheit und Medizin
Posterpräsentationen und Demos: Teilnehmende sind eingeladen, eigene Ansätze und Projekte vorzustellen
Möglichkeiten der Erschließung weiterer Sprach- und Textdaten sowie deren Integration in Text+ und NFDI4Health
Zielgruppe:
Forscherinnen und Forscher aus den Geistes-, Sozial- und Lebenswissenschaften sowie alle, die sich für sprach- und textbasierte Daten in interdisziplinären Kontexten interessieren.