阅读视图

DiHMA.Lab mit MaRDI und NFDI4Objects am 14. und 15. Oktober an der FU Berlin

Am 14. und 15. Oktober 2025 lädt das DiHMa.Lab der Freien Universität Berlin in Kooperation mit dem ZIB zu einem gemeinsamen Workshop der Konsortien MaRDI und NFDI4Objects an die Freie Universität Berlin ein. Rund um das Thema „Objekte und Methoden“ wird der interdisziplinäre Workshop verschiedene Perspektiven aus der Mathematik und objektbasierten Geisteswissenschaften zusammenführen. Ziel ist es, Ansätze, Werkzeuge und Fragestellungen beider Disziplinen in den Dialog zu bringen, Schnittstellen sichtbar zu machen und gemeinsame methodische Herausforderungen zu diskutieren.

Das vorläufige Programm wird noch aktualisiert:

Tag 1

14.10.2025, 10:00-12:00 Uhr

Im Vorfeld des Workshops findet ein Ediathon: “Object meets Maths: Wikidata als Knowledge Hub” statt. Kommt sehr gern mit Daten und Notebooks vorbei.

12 Uhr Mittag auf Selbstzahlerbasis in der Mensa

14.10.2025 (13:00-16:45 Uhr)  

  • Icebreaker und Vorstellungsrunde (13:00-13:45)
  • Vorstellung der NFDI-Konsortien (14:00-14:45)
  • Statistische Methoden (15:00-15:45)
  • Datenintegration Wissensgraph (16:00-16:45)
  • Ab 17 Uhr gemeinsamer Ausklang auf Selbstzahlerbasis in der Eierschale

Tag 2

15.10.2025 (09:00 – 13:00 Uhr)

  • Wissenschaftliche Objektsammlungen und multimodale Forschungsdaten (9:00-9:45)
  • Use Case Datenanalyse “Windows on Data” (10:00-10:45) 
  • Interdisziplinäres Arbeiten (Challenges / Schwierige Fälle / was ist nicht operationalisierbar? / was ist bereits gut operationalisiert?) / MARDI als Methodendatenbank (11:00-11:45) 
  • Fishbowl: Zusammenarbeit mathematische Methoden in kulturhistorischen Fragestellungen (12:00-13:00)
  • Ab 13 Uhr gemeinsames Mittagessen auf Selbstzahlerbasis in der Mensa

Veranstaltungsort: Villa Engler, Altensteinstraße 2-4, 14195 Berlin (am Haupteingang des Botanischen Gartens)

Alle Informationen finden sich hier: https://www.ada.fu-berlin.de/ada-labs/dihma-lab/DiHMa-MARDI-N4O/index.html

Zur Anmeldung: https://www.ada.fu-berlin.de/ada-labs/dihma-lab/Modulbeschreibungen_DIHMa/PM-Anmeldung_DHIMA_LAB/index.html 

Mit freundlichen Grüßen Eure Local Organizers
Anja Gerber, Christin Keller, Dennis Mischke, Fabian Fricke, Marco Reidelbach, Marcus Weber

  •  

Neues Online-Portal: Digitaler Zeichenkatalog der Mayaschrift

Mit dem digitalen Zeichenkatalog der Mayahieroglyphen (A Digital Catalog of Maya Hieroglyphs) steht seit Kurzem eine neue Open-Access-Forschungsressource online, die epigraphische Grundlagenforschung mit digitalen Methoden verbindet. Ein deutsch– und ein englischsprachiger Einführungstext bieten sowohl eine inhaltliche Orientierung als auch ein Handbuch zur Nutzung der Such- und Filterfunktionen des Onlineportals. Entwickelt wurde die Plattform im Rahmen des Langzeitprojekts Textdatenbank und Wörterbuch des Klassischen Maya an der Universität Bonn. Gefördert wird das Projekt seit 2014 von der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste sowie von der Union der deutschen Akademien der Wissenschaften, geleitet von Prof. Dr. Nikolai Grube und koordiniert von Dr. Christian Prager. Arbeitsstelle des Projekts ist die Abteilung für Altamerikanistik, Universität Bonn, während die SUB Göttingen und das Cologne Center for eHumanities (CCeH) die Digital-Humanities-Komponenten umgesetzt haben.

Der Katalog knüpft an eine lange Tradition von Zeichenkatalogen der Mayaschrift an, die seit 1931 publiziert wurden, insbesondere an Eric Thompsons Standardwerk von 1962. Im Unterschied zu diesen gedruckten Vorläufern ist die neue Ressource vollständig digital angelegt, dynamisch erweiterbar und als Open Access verfügbar. In den vergangenen Jahren wurden Fehlklassifikationen korrigiert, hunderte bisher nicht erfasste Zeichen ergänzt und neue epigraphische Funde integriert. Für alle dokumentierten Zeichen wurden neue, einheitliche Zeichnungen mit Fontcharakter erstellt, die eine konsistente visuelle Vergleichbarkeit ermöglichen und auch für weiterführende digitale Anwendungen für Unicode usw. nutzbar sind.

Ein zentrales Merkmal des Katalogs ist seine Transparenz: Verschiedene Lesungen werden nach klar definierten Kriterien bewertet, der Grad wissenschaftlicher Sicherheit wird eindeutig gekennzeichnet, und unterschiedliche Hypothesen sind nachvollziehbar dokumentiert. Damit bildet die Datenbank nicht nur den aktuellen Forschungsstand ab, sondern macht zugleich sichtbar, in welchen Bereichen Konsens besteht und wo Unsicherheit herrscht. Technisch liegen die Informationen im Zeichenkatalog als RDF-Tripel vor, während die Texte in XML/TEI kodiert sind und in der virtuellen Forschungsumgebung TextGrid gehostet werden.

Die digitale Umsetzung eröffnet Funktionen, die in gedruckten Katalogen nicht realisierbar waren. Mit leistungsfähigen Filter- und Suchwerkzeugen lassen sich Zeichenlisten nach Kriterien wie Fundort, Artefaktgattung, Materialität oder den Auftraggebern der Monumente generieren. So können spezifische Forschungsfragen – etwa zu einem einzelnen Monument, einer Stätte oder einem Herrscher – direkt in digitale Abfragen übersetzt werden.

Der Zeichenkatalog ist als dynamische Plattform angelegt und wird kontinuierlich erweitert. Feedback aus der Fachgemeinschaft ist ausdrücklich erwünscht, um fehlende Varianten, zusätzliche Literatur oder neue Funde zu integrieren. Auf diese Weise wächst die Datenbank als offene und kollaborative Ressource weiter.

Im Kontext der Digital Humanities zeigt das Portal, wie sich philologische und archäologische Quellen mit digitalen Verfahren modellieren, vernetzen und nachhaltig verfügbar machen lassen. Neben dem Zeichenkatalog bietet die Plattform weitere Module: ein Text- und Bildarchiv, ein Bildarchiv mit rund 20.000 historischen und aktuellen Aufnahmen, eine umfassende Bibliografie, Werkzeuge für Kalenderberechnungen und interaktive 3D-Modelle von Artefakten. Die enge Integration dieser Datenbanken eröffnet neue Möglichkeiten der Analyse und Kontextualisierung. 

Ansprechpartner:
Dr. Christian Prager (Koordination) / Prof. Dr. Nikolai Grube (Leitung)
Projekt Textdatenbank und Wörterbuch des Klassischen Maya
https://classicmayan.org
Universität Bonn

  •  

Trends in den Computational Literary Studies bei den DHd-Jahrestagungen

Die Computational Literary Studies (CLS) haben sich im vergangenen Jahrzehnt als ein dynamisches und zunehmend eigenständiges Forschungsfeld innerhalb der Digital Humanities etabliert. Die DHd-Jahrestagungen fungieren dabei nicht nur als Forum für aktuelle Diskussionen, sondern auch als Schaufenster für langfristige Entwicklungen, methodische Innovationen und disziplinäre Herausforderungen.

Etablierung der CLS in den Digital Humanities

Wie Hatzel et al. (2023, 1-2) in ihrem Übersichtsartikel „Machine Learning in Computational Literary Studies“ betonen, verstehen sich die CLS als ein Teilbereich der Digital Humanities, der sich durch die Anwendung computerbasierter Verfahren auf literaturwissenschaftliche Fragestellungen auszeichnet. Einen wichtigen Schub erhielten die CLS durch die Einrichtung des von der DFG geförderten Schwerpunktprogramms „Computational Literary Studies“ (SPP 2207) sowie durch die Gründung des Journal of Computational Literary Studies (JCLS) in der ersten Hälfte der 2020er Jahre.

In der deutschsprachigen DH-Community ist die wachsende Bedeutung der CLS auch an der Entwicklung der Tagungsformate der DHd ablesbar: Während CLS-relevante Beiträge in den frühen Jahrestagungen noch unter allgemeineren Titeln wie „Texte und Strukturen“ (2019) oder „Komplexe Textphänomene“ (2020) verhandelt wurden, tragen die Sessions seit 2023 explizit den Titel „Computational Literary Studies“. 2025 genügten bereits die Kürzel „CLS Analyse“, „CLS Methoden I“ und „CLS Methoden II“ – ein deutliches Signal für die gewachsene disziplinäre Eigenständigkeit und Sichtbarkeit des Feldes.

Angesichts dieser zunehmenden Etablierung stellte sich mir die Frage, welche methodischen Trends und inhaltlichen Entwicklungslinien sich in den Abstracts der DHd-Jahrestagungen von 2014 bis 2025 abzeichnen. Um relevante Beiträge zu identifizieren, habe ich basierend auf der Definition des Schwerpunktprogramms1 und einem Listenabgleich von Keywords, Topics und most distinctive Words (siehe Abb. 1) pro Beitrag CLS-relevante Abstracts automatisch aus den XML-Dateien extrahiert. Das so zusammengestellte Untersuchungskorpus wurde anschließend tabellarisch aufbereitet und mit den Metadaten aus den XMLs und manuellen Ergänzungen angereichert. Der Dataframe bildete sodann die Grundlage für interaktive Visualisierungen, die eine Exploration der CLS-Entwicklungen im Kontext der vergangenen DHd-Jahrestagungen ermöglichen.2

Most distinctive words der Beiträge der DHd-Jahrestagung 2020
Abb. 1: Der Screenshot zeigt die zehn most distinctive words inklusive ihrer berechneten TF-IDF Scores für alle Beiträge der DHd-Jahrestagung 2020. In der interaktiven Visualisierung der Daten mit einem Drop-Down-Menü können die Beiträge nach Jahr, Autor:in oder durch die Auswahl eines spezifischen Abstracts gefiltert werden. Die interaktive Visualisierung zum Ausprobieren finden Sie hier.

Welche CLS-Forschungstrends zeigen sich in den Abstracts der DHd-Jahrestagungen?

Ein zentrales Ergebnis der Analyse ist die methodische Breite der CLS, die von der Anwendung gängiger DH-Verfahren wie Netzwerkanalyse, Topic Modeling und Sentimentanalyse bis hin zu klassischem maschinellem Lernen und dem Einsatz generativer Sprachmodelle reicht. Die differenzierte Behandlung von Subkategorien des maschinellen Lernens stellte sich dabei als besondere Herausforderung heraus. Schließlich wollte ich die Entwicklungen und Höhepunkte traditioneller, feature-basierter Klassifikationsalgorithmen, multi-layered neuronaler Netze im Deep Learning sowie statistisch-kontextbasierter und generativer Sprachmodelle jeweils separat visualisieren. Ein Histogramm der verwendeten Methoden als Keyword-Cluster pro Abstract zeigt, welche Verfahren wann zum ersten Mal behandelt wurden, an Bedeutung gewinnen oder verlieren (siehe Abb. 2).

Liniendiagramm mit dem relativen Anteil der verwendeten Methoden als Keyword-Cluster pro Abstract geclustert pro Konferenzjahr.
Abb. 2: Diese Visualisierung der verwendeten Methoden als Keyword-Cluster pro Abstract zeigt den relativen Anteil (%) der Methodengruppen pro Jahr. Eine interaktive Version dieser Graphik finden Sie hier.

Das dargestellte Liniendiagramm (Abb. 2) zeigt die relative Nennung der 15 häufigsten Methodengruppen in den Abstracts (siehe Code). Die Y-Achse gibt den prozentualen Anteil an, den jede Methodengruppe im jeweiligen Jahr an der Gesamtzahl aller Abstracts hat und ermöglicht eine zeitlich normalisierte Betrachtung, bei der Schwankungen in der Gesamtanzahl der Abstracts pro Jahr berücksichtigt werden. Jeder Linienverlauf repräsentiert eine Methodengruppe und zeigt, wie oft sie im Verhältnis zur Gesamtzahl der Abstracts eines Jahres erwähnt wurde.

Die Abbildung verdeutlicht die konstruktive Weiterentwicklung der CLS: Zunächst müssen Textdaten aufbereitet und in geeigneter Qualität zur Verfügung gestellt werden, bevor sie analysiert und schließlich als Grundlage für das Finetuning von Sprachmodellen verwendet werden können. Nicht überraschend ist also der Peak an Abstracts zur Aufbereitung digitaler Editionen und Textkorpora in der Anfangszeit der DHd-Jahrestagungen sowie ihre andauernde Relevanz. In den Abstracts werden die digitale Bereitstellung von Texten, der Digitalisierungsprozess sowie die Entwicklung von Qualitätsstandards in OCR, XML/TEI und Normdatenanreicherung behandelt. War auch das Preprocessing in den Anfangsjahren noch ein zentraler Diskussionspunkt, wird es in den letzten Jahren bereits nicht mehr explizit in den Abstracts aufgeführt. Dieses Nichtaufführen im Fließtext weist auf die Etablierung von anerkannten Standards in der Datenvorbereitung hin und spricht für die Qualität von Preprocessinglibraries, Pipelines und ihren Ergebnissen.

Während auch Distinktivitäts- und Netzwerkanalysen zu den Verfahren gehören, die seit der ersten Jahrestagung vertreten sind, werden Topic Modeling und Sentimentanalyse erstmals 2015 erwähnt, sind seitdem aber nicht mehr wegzudenken, auch wenn sie seit ihren Höhepunkten (2020 Topic Modeling, 2023 Sentimentanalyse) tendenziell rückläufig sind. Die Blütezeit der CLS hat hingegen gerade erst begonnen: Nach einem ersten Peak 2022 (Zeitpunkt der Abstracteinreichung (Juli 2021) parallel zum Ende des ersten Jahres des DFG-SPP CLS) erzielt das Keyword-Cluster3 einen beeindruckenden Aufschwung mit kontinuierlich steigender Tendenz.
Ein klarer Aufwärtstrend zeigt sich auch bei „deep learning & neural nets“, die ab 2015 deutlich zulegen und sich als zunehmend wichtige Methode etablieren. Gemeinsam mit den differenzierten Keyword-Clustern „general machine learning“ und „generative language models (LLMS)“ bilden sie ein omnipräsentes Methodenrepertoire in den CLS.
Besonders auffällig ist, dass Annotationen über den gesamten Zeitraum hinweg ein zentrales Element bleiben, sei es als Grundlage manueller Analysen oder als Trainings- und Testdaten für maschinelles Lernen.

Und was ging bei der DHd2025?

Auf der Jahrestagung 2025 war die Präsenz der Computational Literary Studies unübersehbar. Ich besuchte die explizit als CLS ausgewiesenen Sessions „CLS Analyse“, „CLS Methoden I“ und „CLS Methoden II“, in denen zentrale Fragen der computergestützten Literaturwissenschaft diskutiert wurden. Darüber hinaus fanden sich CLS-relevante Vorträge auch in angrenzenden Formaten wie der Session „Large Language Models I“ und dem Doctoral Consortium. Besonders bemerkenswert ist auch, dass es dieses Jahr gleich zwei Panels zur digitalen Untersuchung von Literatur gab, was die zunehmende Sichtbarkeit und Relevanz des Feldes nochmals unterstreicht: interdisziplinär unter dem Titel „Gender (under) construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft“ (Mende et al. 2025) und mit stärkerem Fokus auf das Computationale unter dem Titel „Literaturgeschichte ‚under construction‘ – was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur“.

Die Beiträge des Jahres 2025 spiegeln aktuelle Forschungstrends wider, die sich thematisch zwischen methodischer Validierung und dem produktiven Umgang mit Vagheit bewegen. Ein immer wiederkehrendes Thema ist dabei die Frage, wie literaturwissenschaftliche Konzepte so operationalisiert werden können, dass sie mit den Methoden der NLP analysierbar werden. Auch die Diskussion um Referenzkorpora und Qualitätsstandards für Annotationen war präsent: Während viele Projekte auf spezifisch zusammengestellte Korpora zurückgreifen, fehlt es nach wie vor an breit akzeptierten und annotierten Referenzkorpora. Hinsichtlich der Qualität von Annotationen schlug Janina Jacke (2025) einen „Platinstandard“ für kollaborativ erstellte, argumentativ begründete Annotationen mit Entscheidungsbäumen vor.
Ein innovativer methodischer Vorschlag kam von Julia Dudar und Christof Schöch (2025), die synthetische Texte als Kontrollgruppe verwendeten, um Analyseeffekte besser einordnen zu können. In diesem Zusammenhang wurden Stichprobenstrategien und Validierungsverfahren als offene Forschungsfragen thematisiert. Auch das Distinktivitätsmaß Zeta wurde wieder intensiv diskutiert und seine Leistungsfähigkeit erneut unter Beweis gestellt werden. Christof Schöch wies jedoch darauf hin, dass es nicht das eine perfekte Maß gebe, sondern es immer auf die zugrundeliegenden Fragestellungen und Korpora ankomme.

Ein weiteres Thema war die Segmentierung von Erzähltexten, etwa in Szenen oder andere narrative Einheiten – eine Herausforderung an der Schnittstelle von Linguistik und Narratologie, zu der Nora Ketschik (2025) treffend anmerkte, dass Prosatexte eben keine Dramen seien, die in der Regel schon von ihrer Textstruktur her eine sinnvolle Segmentierung mitbringen. Auch die Modellierung von Figuren und Perspektiven rückte stärker in den Fokus: Hier wurde betont, wie wichtig eine präzise Koreferenzauflösung ist, um zwischen handelnden und nur erwähnten Figuren zu unterscheiden, wenn Figurenbeziehungen in Netzwerken visualisiert werden sollen. Auch der Modellierung von Vagheit wurde in diesem Jahr wieder Aufmerksamkeit geschenkt: Julian Schröter (2025) stellte den c@1-Score vor, der es Modellen erlaubt, sich im Falle von Unsicherheiten zu enthalten – ein Verfahren, das er als besonders geeignet für vage literarische Kategorien vorstellte. Neu in der methodischen Diskussion war die Analyse gesprochener Literatur: Haimo Stiemer et al. (2025) untersuchten Pausen, Intonation und Prosodie in Hörbuchprosa mit Hilfe des Tools WhisperX, um Korrelationen zwischen Sprechpausen und narrativen Einschnitten zu identifizieren, die für einen neuen Ansatz der Textsegmentierung genutzt werden können.

Ein über einzelne Vorträge hinausgehendes immer wiederkehrendes Thema ist die Evaluierung (u.a. spezifisch behandelt in Pichler et al. (2025)), da sich mit zunehmender Anwendung generativer Modelle auch deren Fokus verschiebt: Neue Evaluationsmetriken und speziell kuratierte Testdatensätze gewinnen an Bedeutung, da herkömmliche, öffentlich verfügbare Daten aufgrund möglicher Pre-Training-Überschneidungen an Aussagekraft verlieren. Gerade im Hinblick auf generative KI in Annotationsprozessen stellt sich die Frage nach der Validität der Ergebnisse: Wie können wir sicher sein, dass, wenn die Annotation der 50 Beispiele aus unseren Testdaten erfolgreich war, die Annotationen auch darüber hinaus valide und nicht womöglich halluziniert sind?

Nicht zuletzt rückte auch die Rolle der CLS für die Literaturgeschichtsschreibung ins Zentrum der Diskussion (Panel von Herrmann et al. (2025)). Die Analyse größerer literarischer Korpora ermöglicht es, neue literaturgeschichtliche Narrative zu formulieren und kanonübergreifende Entwicklungen sichtbar zu machen. Dabei geht es nicht nur um die Datenmenge, sondern vor allem um die Verknüpfung von Textanalysen mit Kontextinformationen und Metadaten. Als neues Ideal der Literaturgeschichtsschreibung gilt die Einbeziehung der literarischen Kommunikation, so dass nicht nur eine Literaturgeschichte, sondern verschiedene Literaturgeschichten gleichzeitig geschrieben werden, ohne dabei das Einzelphänomen aus dem Blick zu verlieren.

Insgesamt zeigt die DHd2025 eindrucksvoll, wie weit die CLS innerhalb der Digital Humanities gekommen sind: Methodisch vielfältig, institutionell verankert und thematisch anschlussfähig erweisen sie sich als ein zentraler Baustein der digitalen Literaturwissenschaft, der nicht vor den schnelllebigen und sich ständig wandelnden Sprachmodellen zurückschreckt, sondern innovative Wege findet, neue Methoden produktiv in den Werkzeugkasten der CLS zu integrieren.

1 CLS „is dedicated to developi[n]g and establishing innovative computational methods in the field of literary studies. In this emerging rese[]a[r]ch field, literary scholars are working together with computer linguists and computer scientists to discover new perspectives on literary history, narratology and style analysis“ (SPP 2207 CLS, 2020).

2 Der verwendete Code befindet sich im GitHub Repositorium. Die XML-Versionen der DHd-Abstracts sind über die DHd GitHub Repositorien abrufbar. Mein besonderer Dank gilt Patrick Helling für die schnelle Bereitstellung der XML-Versionen der Jahrestagung 2025.

3 „computational literary studies (CLS)“: [„computational literary studies“, „CLS“, „computationelle literaturwissenschaft“, „komputationale literaturwissenschaft“, „literary computing“, „digitale literaturwissenschaft“, „digital literary studies“, „algorithmische literaturwissenschaft“]

Acknowledgements

Mein Dank gilt dem DHd-Verband, der mir durch ein Reisekostenstipendium die Teilnahme an der DHd2025 zum Thema „Under Construction“ in Bielefeld ermöglichte.

Referenzen

DHd-Verband (2025): DHd-Abstracts 2014 bis 2025 [GitHub Repositories], https://github.com/DHd-Verband.

Dudar, Julia and Christof Schöch (2025): “Exploring Measures of Distinctiveness: An Evaluation Using Synthetic Texts”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943110.

Guhr, Svenja (2025): CLS-Trends at DHd [GitHub Repository], https://github.com/SvenjaGuhr/CLS-Trends_at_DHd.

Hatzel, Hans Ole, Haimo Stiemer, Chris Biemann, and Evelyn Gius (2023): “Machine Learning in Computational Literary Studies”, it-Information Technology. DOI: 10.1515/itit-2023-0041.

Herrmann, Berenike, Daniel Kababgi, Marc Lemke, Nils Kellner, Ulrike Henny-Krahmer, Fotis Jannidis, Katrin Dennerlein, and Matthias Buschmeier (2025): „Literaturgeschichte ‚under Construction‘ – Was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943254.

Jacke, Janina (2025): “Platinstandard-Annotation in der digitalen Literaturwissenschaft: Definition, Funktionen und diskursive Argumentvisualisierung als Best-Practice-Beispiel”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943180.

Ketschik, Nora (2025): “Netzwerkanalysen Narrativer Texte – Ein Vorgehensmodell”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.15124132.

Mende, Jana-Katharina, Claudia Resch, Mareike Schumacher, Laura Untner, Imelda Rohrbacher, Elena Suarez Cronauer, Andrea Gruber und Frederike Neuber (2025): “Gender (under) Construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943036.

Pichler, Axel, Dominik Gerstorfer, Jonas Kuhn und Janis Pagel (2025): “Empirische Evaluation des Verhaltens von LLMs auf Basis sprachphilosophischer Theorien: Methode und Pilotannotationen”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943146.

Schröter, Julian (2025): „Zur Modellierung von Unsicherheit: Machine Learning und begriffliche Vagheit Am Beispiel der Novellen im 19. Jahrhundert“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943086.

SPP 2207 CLS (2020): Computational Literary Studies [Website], https://dfg-spp-cls.github.io.

Stiemer, Haimo, Hans Ole Hatzel, Chris Biemann und Evelyn Gius (2025): „Pause im Text. Zur Exploration semantisch konditionierter Sprechpausen in Hörbüchern“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943032.

  •  

Virtuelles DH-Kolloquium an der BBAW, 02.12.2024: „Transformative Prozesse in der Lexikologie und Lexikografie des Mandschurischen: Von historischen Wörterbüchern zur digitalen Erschließung“

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 2. Dezember 2024, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Oliver Corff
über
Transformative Prozesse in der Lexikologie und Lexikografie des Mandschurischen: Von historischen Wörterbüchern zur digitalen Erschließung

***

Das Volk der Manjuren eroberte im Jahre 1644 die chinesische Hauptstadt Peking, was das offizielle Gründungsdatum der Qing-Dynastie, der letzten großen Fremdherrschaft auf chinesischem Boden, ist. Die Manjuren kultivierten und formalisierten zumindest in der ersten Hälfte der Qing-Dynastie ihre Sprache. Zu diesem Zweck kompilierten sie eine Reihe großer Wörterbücher. Das erste Wörterbuch stammt aus dem Jahr 1708. Der Wortschatz wurde über mehrere Jahrzehnte systematisch erweitert, die Struktur des Wörterbuches bei Beibehaltung der ursprünglichen Organisationsprinzipien selbst reformiert. Das Ergebnis wurde 1772 veröffentlicht.

Gegenstand der Forschungsarbeiten ist die Erarbeitung eines vereinheitlichen Korpus, der beide Wörterbücher umfasst, die Darstellung der Änderungshistorie mit Hilfe stochastischer und anderer Methoden, und die Erarbeitung einer formalen Grammatik, die einerseits der Strukturbeschreibung dient und andererseits den Rahmen für eine maschinell unterstützte Übersetzung des Materials in eine westliche Sprache bereitstellt.

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.

  •  

Virtuelles DH-Kolloquium an der BBAW, 28.10.2024: „fRAGen Sie Ihre Daten – Perspektiven für den Einsatz von Retrieval Augmented Generation in den DH“

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 28. Oktober 2024, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Timm Lehmberg (Akademie der Wissenschaften in Hamburg)
über
fRAGen Sie Ihre Daten – Perspektiven für den Einsatz von Retrieval Augmented Generation in den DH

***

Der Beitrag führt in die Methoden der Retrieval Augmented Generation (RAG) ein, einem mittlerweile auch in den Digital Humanities verbreiteten Verfahren, das es ermöglicht, auf eigene Datenquellen mithilfe großer Sprachmodelle (Large Language Models, LLMs)  zuzugreifen. Ziel der Mehrzahl der Anwendungsfälle ist dabei zumeist, fachspezifische Abfragen und Analysen (nicht selten unter Verwendung eingeschränkt zugänglicher lokaler Datenbestände) per Chat Prompting durchzuführen.  

Da bereits eine beachtliche Zahl bedienungsfreundlicher Frameworks und gut dokumentierte Workflows den Einstieg out-of-the-box erleichtern, ist das bloße Generieren solcher Abfragen keine sehr große Herausforderung mehr. Die Skalierung und Anpassung und letztendliche Nutzung im Rahmen des wissenschaftlichen Arbeitens hingegen erfordert häufig ein umfassendes Anpassen der einzelnen Schritte und Komponenten. 

Anhand einiger Anwendungsbeispiele wird daher das Verfahren zunächst zu Methoden wie dem Fine-Tuning von LLMs und dem Prompt Engineering abgegrenzt werden. Darauf aufbauend werden die einzelnen Verarbeitungsschritte (Vorverarbeitung der Daten, Chunking, Skalierung des verwendeten Chat Modells etc.) und deren Auswirkungen auf das Retrievalergebnis anschaulich vorgestellt.  

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.

  •  

Virtuelles DH-Kolloquium an der BBAW, 30.09.2024: „Automatische Texterkennung für die (digitalen) Geisteswissenschaften – OCR4all als Open-Source-Ansatz“

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 30. September 2024, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Christian Reul (Universität Würzburg)
über
Automatische Texterkennung für die (digitalen) Geisteswissenschaften – OCR4all als Open-Source-Ansatz

***

Ein zentraler Aspekt der Arbeit von geistes- und kulturwissenschaftlich Forschenden ist die Auseinandersetzung mit historischen Quellen in Form von gedruckten und handschriftlichen Textzeugen. Diese liegen häufig lediglich als Scans vor, aus denen zunächst maschinenverarbeitbarer Volltext extrahiert werden muss, wozu Methoden der automatischen Texterkennung zum Einsatz kommen. Dabei stellen gerade sehr alte Drucke und Handschriften aus verschiedensten Gründen häufig noch eine große Herausforderung dar. Das am Zentrum für Philologie und Digitalität (ZPD) der Universität Würzburg entwickelte, frei verfügbare Open-Source-Tool OCR4all hat zum Ziel, auch technisch weniger versierten Nutzenden die Möglichkeit zu geben, anspruchsvolle Drucke und Handschriften selbstständig und in höchster Qualität zu erschließen. OCR4all fasst den gesamten Texterkennungsworkflow und alle dafür benötigten Tools in einer einzigen Anwendung zusammen, die über eine komfortable grafische Nutzeroberfläche bedient werden kann.

Der Vortrag erläutert zunächst die Grundlagen der automatischen Texterkennung und stellt OCR4all und dessen Funktionsweise vor. Weiterhin wird die Anwendbarkeit und Performanz auf unterschiedlichem Material demonstriert und ein Überblick über aktuelle Arbeiten sowie ein Ausblick auf zukünftige Entwicklungen gegeben.

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.

  •  

DH-Professuren im deutschsprachigen Raum visualisiert

Jan Horstmann (Universität Münster), Christof Schöch (Universität Trier)

Die Etablierung der Digital Humanities lässt sich anhand mehrerer Merkmale beobachten und analysieren, z.B. der Publikation DH-bezogener Forschungsbeiträge, der Bewilligung und Förderung von DH-Projekten, der Etablierung von Studiengängen mit Anteilen von oder explizitem Fokus auf DH, der Gründung von DH-Forschungszentren und – last but not least – der Ausschreibung und Besetzung von DH-Professuren. Für den deutschsprachigen Raum hat sich Patrick Sahles laufend aktualisierter Blogbeitrag „Professuren für Digital Humanities“ (https://dhd-blog.org/?p=11018; Zugriff: 08.07.2024) als eine zentrale Anlaufstelle herauskristallisiert: Er verzeichnet die seit 2008 ausgeschriebenen DH- (oder DH-bezogenen) Professuren im deutschsprachigen Raum, derzeit 139 an der Zahl. In quantitativer Hinsicht lässt sich dort ein guter Überblick gewinnen, etwa wie viele DH-Professuren pro Jahr ausgeschrieben wurden (bislang ist das Jahr 2021 mit 16 Ausschreibungen der Titelverteidiger).

Was dort fehlt, ist die Möglichkeit, die DH-Professuren im deutschsprachigen Raum auch in örtlicher und zeitlicher Indizierung in den Blick zu nehmen und dadurch verschiedene Fragen leichter zu beantworten, darunter: Welche Orte haben sich wann als DH-Standorte etabliert, indem sie eine oder mehrere DH-Professuren ausgeschrieben haben? Wo sind wann mehrere Professuren entstanden? Wo sind befristete Professuren nicht dauerhaft eingerichtet worden? Und vieles mehr. All dies kann eine interaktive, dynamische Kartenvisualisierung übersichtlich darstellen. Die dafür nötige Art der Zeit-Raum-Visualisierung ist im DARIAH-DE Geo-Browser (https://de.dariah.eu/geobrowser; Zugriff: 08.07.2024) anders möglich als etwa in Wikidata, weshalb wir die Sahle’schen Daten für die Anzeige in diesem Tool aufbereitet haben – und versuchen werden, sie zukünftig regelmäßig zu aktualisieren.1

Link zum Datensatz: https://geobrowser.de.dariah.eu/edit/index.html?id=EAEA0-B2E1-D8CE-AA03-0

Link zur Visualisierung: https://geobrowser.de.dariah.eu/index.html?csv1=https://cdstar.de.dariah.eu/dariah/EAEA0-B2E1-D8CE-AA03-0

Mit dem Fokus auf die raumzeitliche Verortung von DH-Professur-Ausschreibungen im deutschsprachigen Raum setzen wir einen etwas anderen Akzent als verwandte Projekte wie etwa: Mapping the Digital Humanities (Christof Schöch, Mapping the Digital Humanities, v0.1.0, March 2024. Digital Humanities Trier. URL: https://dhtrier.quarto.pub/dhmap/; Zugriff: 08.07.2024) oder Till Grallerts Vorstöße mit Daten aus Wikidata (vgl. https://digitalcourage.social/@tillgrallert/112575546388768661; Zugriff: 08.07.2024).

Methode und Beispiele

Im Folgenden erläutern wir die methodischen Entscheidungen, die unserer Visualisierung zugrunde liegen. Prinzipiell erbt unsere Darstellung freilich die Data-capture-Entscheidungen, die bereits die Liste im Blogbeitrag Patrick Sahles bestimmen (und dort erläutert sind). Der Blog dient als Verzeichnis der seit 2008 im deutschsprachigen Raum erfolgten Ausschreibungen für DH-Professuren, ein Anspruch auf Vollständigkeit wird dabei nicht erhoben. DH-Professuren, die besetzt, aber nicht ausgeschrieben wurden, werden nicht aufgeführt. Ein Listeneintrag besteht aus einer fortlaufenden Nummerierung sowie Jahr der Ausschreibung, Ort, Stufe, Denomination, Zuordnung und Ergebnis der Ausschreibung, zum Beispiel:

  • 33, 2015, Wien, A1, Digital Humanities, Historisch-kulturwissenschaftliche Fakultät, Andrews

Dies lässt sich lesen als: 2015 wurde an der Historisch-kulturwissenschaftlichen Fakultät der Universität Wien eine unbefristete A1-Professur für „Digital Humanities“ ausgeschrieben und (nach Durchlaufen des Verfahrens, also in der Regel deutlich später) durch Tara Andrews besetzt.

Zwei Angaben sind für die raum-zeitliche Visualisierung über das Jahr der Ausschreibung hinaus besonders wichtig und sollen aus diesem Grund hier noch einmal kontextualisiert werden: Die Kategorie „Ort“ bezeichnet den Sitz der Hochschule, an dem die jeweilige Stelle ausgeschrieben wurde. Handelt es sich um eine Universität, wird auf den Eigennamen verzichtet (z.B.: „Düsseldorf“ statt „Heinrich-Heine-Universität Düsseldorf“). Vorteil davon ist, dass der Eintrag im Falle einer Umbenennung wie zuletzt etwa in Münster („Westfälische Wilhelms-Universität Münster“ zu „Universität Münster“) nicht angepasst werden muss. Fachhochschulen werden durch „FH“ gekennzeichnet. Bei Orten mit mehreren Universitäten erfolgt eine Präzisierung (z.B.: „Berlin (TU)“ für Technische Universität Berlin, „Berlin (HU)“ für Humboldt-Universität zu Berlin und „Berlin (FU)“ für Freie Universität Berlin). In unserer Visualisierung werden die Institutionen unterschieden, aber nicht an unterschiedlichen Orte innerhalb der jeweiligen Stadt visualisiert. In der Kategorie „Stufe“ wird durch „*“ auf eine befristete oder durch „°“ auf eine nebenberufliche Professur verwiesen. Bei dem Element Ergebnis wird durch „offen“ auf eine noch unbesetzte Stelle, durch „-„ auf ein abgebrochenes Verfahren und durch graue Unterlegung auf das Wiederverlassen der Stelle verwiesen. Zeitpunkte und -abläufe beziehen sich demnach auf den Zeitpunkt der Ausschreibung (mit dem Jahr als kleinste verwendete Zeiteinheit) sowie eine mögliche Befristung. Soweit ermittelbar, sind die Informationen zur Dauer der Besetzung einer Professur durch eine Person in den Datensatz aufgenommen worden.

Der DARIAH-DE Geo-Browser ermöglicht die dynamische und statische Darstellung von Daten und deren Visualisierung in einer Korrelation von geografischen Raumverhältnissen zu Zeitpunkten und -abläufen. Mittels der Visualisierung können räumliche Konzentrationen und Trends ersichtlich werden. Zur Visualisierung mittels des Geo-Browsers müssen die Datenstrukturen den Anforderungen des Geo-Browsers angepasst werden. Ein Eintrag des Geo-Browsers besteht aus neun Elementen: Name, Address, Description, Longitude, Latitude, Time Stamp, Time Stamp:begin, Time Stamp:end und GettyID.

  • Name besteht aus der Kombination „Universität Ort“ oder „Fachhochschule Ort“. Eine Präzisierung erfolgt nur, wenn sie durch mehrere Universitäten notwendig wird.
  • Address besteht aus dem Ortsnamen der Universität oder Hochschule. Für Universitäten oder Hochschulen, die an mehreren Orten lokalisiert sind, verwenden wir den  erstgenannten Ort (z.B. Universität Erlangen-Nürnberg hat als Address „Erlangen“). Eine Zuordnung zu mehreren Orten ist im Geo-Browser nicht möglich.
  • Description umfasst Stufe, Denomination, Zuordnung und Ergebnis der Ausschreibung nach folgendem Schema: Ergebnis: Denomination (Stufe), Zuordnung.
  • Longitude, Latitude und GettyID wurden mit dem „Getty Thesaurus of Geographic Names (TGN)“ (https://www.getty.edu/research/tools/vocabularies/tgn/; Zugriff: 08.07.2024) ermittelt. Mit TGN kann jedem Ort genau ein Längen- und Breitengrad sowie eine eindeutige GettyID (eine Identifikationsnummer) zugeordnet werden. Eine exaktere Lokalisierung ist dem Sinn des Blogs entsprechend nicht vonnöten.
  • Timestamp wird freigelassen, da keine exakten Zeitpunkte bestimmt werden müssen.
  • Time Stamp:begin erhält als Eintrag das Jahr der Ausschreibung in der Form 20xx-01-01.
  • Time Stamp:end haben wir bei unbefristeten Stellen beispielhaft generell auf 2039 gesetzt, damit die Zeitleiste in einem überschaubaren Rahmen bleibt. Bei befristeten Juniorprofessuren verwenden wir das Fristende der jeweiligen Professur. Bei abgebrochenen Ausschreibeverfahren sind time stamp:begin und time stamp:end identisch, wodurch der entsprechende Eintrag in der dynamischen Visualisierung unberücksichtigt bleibt. Im statischen Modus wird der entsprechende Eintrag dargestellt.

Einige konkrete Beispiele aus unserem in dieser Art modifizierten Datensatz vermögen die Details zu verdeutlichen:

  • Universität München, München, Schröter: Digitale Literaturwissenschaften (W2* mit TT W2), Department Germanistik, 13.466667, 48.7, 2022-01-01, 2028, 7134068

Dieses Datenelement wird gelesen als: Am Department Germanistik der Ludwig-Maximilians-Universität München wurde 2022 eine (zum Zeitpunkt der Ausschreibung) bis 2028 befristete W2-Professur (mit Tenure Track) für Digitale Literaturwissenschaften ausgeschrieben und durch Julian Schröter besetzt. München besitzt die GettyID 7134068 und (das Stadtzentrum) befindet sich nach TGN bei Längengrad 13.466667 und Breitengrad 48.7.

  • Universität Heidelberg, Heidelberg, offen: Papyrologie und Digitale Erforschung antiker Schriftzeugnisse (W3), Heidelberg Center for Digital Humanities (HCDH), 8.916667, 48.316667, 2024-01-01, 2039-12-31, 7166144

Dieses Datenelement wird gelesen als: Am Heidelberg Center for Digital Humanities (HCDH) der Universität Heidelberg wurde 2024 eine unbefristete W3-Professur für Papyrologie und Digitale Erforschung antiker Schriftzeugnisse ausgeschrieben. Die Stelle ist noch unbesetzt. Heidelberg besitzt die GettyID 7166144 und (das Stadtzentrum) befindet sich nach TGN bei Längengrad 8.916667 und Breitengrad 48.3166667.

Abschluss

Zusammenfassend lässt sich festhalten, dass unsere raumzeitliche Visualisierung der DH-Professuren im deutschsprachigen Raum eindrucksvoll die dynamische Entwicklung und die wachsende Bedeutung der Digital Humanities in der akademischen Landschaft aufzeigt. Diese kartografische Darstellung ermöglicht es, nicht nur die Verteilung und Häufigkeit der Professuren zu analysieren, sondern auch Hotspots oder ‘einsame Helden’ der DH-Entwicklung zu identifizieren. Durch die Integration in den DARIAH-DE Geo-Browser bieten wir Forscherinnen und Forschern, DH-Strukturverantwortlichen, Infrastruktureinrichtungen sowie der interessierten Öffentlichkeit eine neue Perspektive auf die Daten aus dem Blogpost von Patrick Sahle an. Die zunehmende Verbreitung und Etablierung von DH-Professuren zeigt jedenfalls, dass die Digital Humanities eine zentrale Rolle in der Zukunft der Geisteswissenschaften spielen werden.


[1] Wir danken herzlich Vincent Anker (studentische Hilfskraft im Service Center for Digital Humanities (SCDH) der Universität Münster) für seine tatkräftige Unterstützung bei der Aufbereitung der Daten.

  •  

Einladung zum (Online-)Vortrag „Frauen im frühromantischen Briefnetzwerk” von Elena Suárez Cronauer am 3. Juli

Am 3. Juli 2024 stellt Elena Suárez Cronauer das DFG-Projekt „Korrespondenzen der Frühromantik” vor und berichtet, wie mit geschlechtsspezifischen Herausforderungen bei der quantitativen Untersuchung von Frauen im Netzwerk umgegangen werden kann.

Die Jenaer (und Berliner) Frühromantik gilt als die herausragende intellektuelle Revolution junger deutscher Autor*innen und Gelehrter an der Epochenschwelle um 1800. Innerhalb ihres Briefnetzwerks, das im DFG-Projekt „Korrespondenzen der Frühromantik” modelliert wird, finden sich zahlreiche Briefe dieser romantischen Autorinnen und Akteurinnen, z.B. von Dorothea Schlegel, Caroline Schlegel(-Schelling), Sophie Tieck-Bernhardi oder Rahel Levin Varnhagen. Allerdings stellen sich bei der quantitativen Untersuchung von Frauen im Netzwerk einige geschlechtsspezifische Herausforderungen wie lückenhafte Überlieferung der Briefe oder fehlende Informationen über Frauen in Normdatensystemen, um nur einige zu nennen.

Wie können also solche marginalisierten Gruppen mit Methoden der historischen Netzwerkanalyse untersucht werden, ohne dass biases in den (bereits edierten) Quellen, die sich in den Daten widerspiegeln, unreflektiert wiederholt und somit weitergetragen werden? Welche Potentiale hat wiederum die quantitative Betrachtung solcher Gruppen im Gegensatz zu einem rein qualitativen Vorgehen? Im Vortrag sollen diese Ansätze zur Untersuchung sowie Ideen zum Umgang mit den genannten Herausforderungen vorgestellt und diskutiert werden.

Der Vortrag findet am 3. Juli 2024 von 10 bis 12 Uhr (c.t.) im Raum A11 an der Universität Trier und via Zoom statt.

Den Zoomlink und alle Informationen zum Vortrag gibt es unter: https://tcdh.uni-trier.de/de/event/frauen-im-fruehromantischen-briefnetzwerk

Wir freuen uns auf Sie!

  •  

Virtuelles DH-Kolloquium an der BBAW, 24.06.2024: „Vom anderen Geschlecht zu anderen Geschlechtern. Jenseits der Binarität – Über die literaturwissenschaftliche Genderanalyse in historischen und modernen Klassikern.“

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 24. Juni 2024, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Marie Flüh (Uni Hamburg) und Mareike Schumacher (Uni Stuttgart)

In unserem Vortrag zeigen wir anhand von zwei Fallstudien, wie die Klassifikation von Genderaspekten in literarischen Texten mithilfe der Methoden der Computational Literary Studies umgesetzt werden kann. Ausgehend von der Frage, was typische Genderdarstellungen sind und wann diese brüchig werden, untersuchen wir unterschiedliche Korpora: Im Fokus dieses Vortrags steht sowohl ein historisches Korpus mit Texten, die von Simone de Beauvoir anlässlich ihrer Studie “Das andere Geschlecht” (1949) analysiert wurden, als auch ein zeitgenössisches Korpus mit den Romanen der Harry-Potter-Serie (1997–2000). Mit der analytische Reise vom “anderen Geschlecht” nach Hogwarts geben wir Einblicke in unser Forschungsprojekt m*w/DISKO und zeigen eine genre- und zeitunabhängige Überrepräsentation männlicher Figuren-Referenzen. Dieser steht ein kleinerer Teil “anderer” Genderrepräsentationen gegenüber, die nicht ausschließlich als weiblich klassifiziert werden können. Anstelle einer binären Darstellung von Gender offenbart sich so ein aus mindestens drei Komponenten bestehendes “Gegengewicht” aus weiblichen, neutralen und diversen Figuren-Referenzen.

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzrraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.


  •  

ZDL-Jahrestagung am 16. Mai 2024

Seit 2019 widmet sich das Zentrum für digitale Lexikographie der deutschen Sprache (ZDL) der Dokumentation des deutschen Wortschatzes in Gegenwart und Geschichte. Die Jahrestagung des ZDL gibt Einblicke sowohl in die fachliche Vielfalt der lexikographischen Arbeit als auch in die  zugrundeliegenden digitalen Methoden. In einem komprimierten Format werden drei ganz  unterschiedliche Schlaglichter auf das ZDL geworfen:

  1. Der Nachmittag widmet sich dem allgegenwärtigen Thema der Generativen KI, insbesondere dem Einfluss, den Large Language Models auf die Lexikographie haben. Dazu wurden erfahrene  internationale Referentinnen und Referenten aus drei zentralen Institutionen Deutschlands und Europas eingeladen.
  2. Im Übergang zur Abendveranstaltung geben insgesamt 8 Posterstände einen Überblick über die bislang  erreichten Ergebnisse des ZDL in der 1. Projektphase.
  3. In der Abendveranstaltung geht es in einem Bühnengespräch und anschließender Lesung um die Praxis des literarischen Übersetzens und die Rolle der Wörterbücher für diese Arbeit.

Auf der Tagungswebsite finden Sie Details zum Programm und zum Ablauf der Veranstaltung. Eine Anmeldung nur für die Nachmittags- bzw. Abendveranstaltung oder aber für beide Veranstaltungen ist möglich.

***

Workshop zur ZDL-Jahrestagung 2024
Generative AI in lexicography / Generative KI in der Lexikographie
Donnerstag, 16. Mai 2024, 14:30 Uhr (Einlass ab 14:00 Uhr)
Akademiegebäude am Gendarmenmarkt
Leibniz-Saal, Markgrafenstraße 38, 10117 Berlin
Anmeldung unter: https://events.gwdg.de/event/758/timetable/

***

Abendveranstaltung zur ZDL-Jahrestagung 2024
WÖRTER FINDEN. Ein Rundgespräch zum literarischen Übersetzen
Donnerstag, 16. Mai 2024, 19:00 Uhr (Einlass ab 18:20 Uhr)
Akademiegebäude am Gendarmenmarkt
Leibniz-Saal, Markgrafenstraße 38, 10117 Berlin
Anmeldung unter: https://events.gwdg.de/event/758/timetable/

***

Bei Rückfragen wenden Sie sich bitte an Franziska Nojack, Öffentlichkeitsarbeit des Zentrums für digitale Lexikographie der deutschen Sprache, nojack@bbaw.de.

  •  

Zum Stand der Forschungsdaten in den digitalen Geisteswissenschaften

Dieser Beitrag über die DHd2024 entstand mit Unterstützung eines Reisekostenstipendiums von NFDI4Culture. Hiermit möchte ich mich herzlich bei NFDI4Culture für die Finanzierung der Reise bedanken.

Netzwerk mit Büchern, Computermonitor, Kugeln, Glühbirnen und anderen Symbolen, die auf Wissenschaft referieren
CC-BY 4.0 Melanie Seltmann, erstellt mit recraft.ai

Forschungsdaten sind nicht zuletzt durch die Konsortien der Nationalen Forschungsdateninfrastruktur (NFDI) in (fast) aller Munde. In den Geisteswissenschaften besteht das Bild, dass viele gar nicht realisieren, dass es sich bei ihrem Forschungsgegenstand um Forschungsdaten handelt. Betrachtet man allerdings die mannigfaltigen Definitionen von Forschungsdaten – etwa von Kindling und Schirmbacher (2013) “Forschungsdaten bezeichnen (digitale) Daten, die je nach Fachkontext Gegenstand eines Forschungsprozesses sind, während eines Forschungsprozesses entstehen oder sein Ergebnis sind” – so wird schnell klar, dass wohl die meisten, wenn nicht gar alle, Wissenschaffenden es mit Forschungsdaten zu tun haben. Innerhalb der digitalen Geisteswissenschaften sollte das Verständnis hierfür wesentlich weiter ausgebaut sein. Auch wenn die NFDI allgemein mit Weiterbildungen, Vorträgen und sonstiger Wissenschaftskommunikation für immer mehr Bewusstsein in den gesamten Geisteswissenschaften sorgt. 

Das Vorgehen

Um den aktuellen Stand des Umgangs mit Forschungsdaten in den digitalen Geisteswissenschaften zu untersuchen – oder zumindest das Schreiben über diesen Umgang – habe ich mir die Einreichungen der diesjährigen DHd-Konferenz angesehen. Meine Datengrundlage sind die Abstracts, die als Schlagwort Forschungsdaten, Daten, Metadaten, FAIR, virtuelle Forschungsumgebung(en) oder Infrastruktur vergeben haben. Die Abstracts wurden in einer Zotero-Bibliographie gespeichert und als CSV-Datei exportiert. Innerhalb der daraus erstellten Excel Tabelle wurden verschiedene Kategorien annotiert. Diese Kategorien orientieren sich an den Phasen des Datenlebenszyklus (Datenbeschreibung, Datenerhebung, Datenaufbereitung, Datenhaltung/-speicherung, Datenarchivierung sowie Datennachnutzung). Hier wurde jeweils erfasst, ob die entsprechende Kategorie im Abstract beschrieben wurde. Zudem wurde die entsprechende Disziplin, aus der das Abstract stammt, erfasst und, ob die Wissenschaffenden selbst von Forschungsdaten schreiben. Ausgewertet wird hieraus nun, welche Abstracts überhaupt von Forschungsdaten sprechen und in welcher Form. Zudem wird untersucht, ob es disziplinäre Auffälligkeiten gibt.

Das Korpus

Auf die eben beschriebene Methode ließen sich 42 Abstracts von insgesamt 144 Abstracts herausfiltern, die in das Korpus einflossen (29%). Hierunter fallen 2 Panels, 25 Poster, 8 Vorträge und 7 Workshops. Die disziplinäre Zuordnung wurde anhand der Beschreibungen im Text vorgenommen und war teilweise etwas uneindeutig. Zudem wurden nicht nur Fächer vergeben, sondern auch breitere Felder wie Editionswissenschaft oder eine Kategorie interdisziplinär. Pro Abstract wurde genau eine Kategorie vergeben. Die meisten Abstracts waren interdisziplinär (n=14). Jeweils 6 Abstracts gehörten zur Geschichtswissenschaft oder zur Editionswissenschaft. 4 Abstracts kamen aus der Germanistik. Jeweils 2 Abstracts stammten aus der Kulturwissenschaft, Kunstgeschichte, den Regionalstudien oder der Romanistik und mit jeweils 1 Abstract waren die Klassische Philologie, die Musikwissenschaft, die Theaterwissenschaft sowie die Theologie vertreten.

Der Begriff der Forschungsdaten

In insgesamt 12 Abstracts wurde der Begriff Forschungsdaten explizit verwendet, auch wenn weitere Abstracts Daten durchaus in einem Forschungsdatenverständnis aufgeführt haben. Diese 12 Abstracts verteilen sich zum einen auf 71% aller Workshops (n=5), 50% aller Panel (n=1), 20% der Poster (n=5) sowie 13% aller Vorträge (n=1). Disziplinär verteilen sich die entsprechenden Abstracts zu jeweils 50% auf die Kulturwissenschaft (n=1) und die interdisziplinären Abstracts (n=7) sowie zu jeweils 33% auf die Geschichtswissenschaft (n=2) sowie die Editionswissenschaft (n=2). In der Hälfte der Abstracts geht es um das Thema Forschungsdatenmanagement oder einen Teilbereich daraus (n=6). Lediglich 2 Abstracts behandeln eine disziplin-originäre Forschungsfrage (Pultar et al. 2024; Gödel et al. 2024).

Diskussion der Ergebnisse

Insgesamt kann man feststellen, dass das Thema Forschungsdaten durchaus präsent in der DH-Community ist. Auch in den Beiträgen, die nicht explizit von Forschungsdaten reden, sind insbesondere die Bereiche Datenbeschreibung, Datenaufbereitung sowie Datenhaltung/-speicherung beschrieben. Und keines der Abstracts lässt die Vermutung aufkommen, dass die behandelten Daten nicht als Forschungsdaten aufgefasst würden. Durchaus besonders ist auch die Beschäftigung mit dem Forschungsdatenmanagement als solchem. In nur wenigen disziplinspezifischen Tagungen wird dem eine ganze Reihe von eigenen Beiträgen gewidmet, von der Informationswissenschaft einmal abgesehen. Die hier behandelten Themen reichten etwa vom grünen Forschungsdatenmanagementplan (Gerber und Rosendahl 2024) über barrierefreien Umgang mit Forschungsdaten (Wunsch et al. 2024) bis hin zu konkreten Hilfestellungen zu Datenmanagementplänen in den Computational Literary Studies (Jung et al. 2024). Neben den betrachteten Abstracts gab es zudem noch einen Stand von der Memorandumsgruppe der vier geisteswissenschaftlichen NFDI-Konsortien NFDI4Culture, Text+, NFDI4Memory undNFDI4Objects sowie Base4NFDI, an dem man sich beraten lassen konnte, Gespräche (nicht nur) über Forschungsdaten führen konnte sowie das ein oder andere schicke Merch bekommen hat.

Bibliographie

Gerber, Anja und Lisa Rosendahl. 2024. Der Weg zum grünen Forschungsdatenmanagementplan. doi: 10.5281/zenodo.10698392.

Gödel, Martina, Lou Klappenbach, Ruth Sander und Markus Schnöpf. 2024. Wer sind die Herausgeber:innen Digitaler Editionen? Eine Untersuchung zur Repräsentation von Digital Humanities-Wissenschaftler:innen. doi: 10.5281/zenodo.10698446.

Jung, Kerstin, Patrick Helling und Steffen Pielström. 2024. Vom DMP zum DDP – Erstellen fachspezifischer Datenmanagementpläne für die Computational Literary Studies im Research Data Management Organizer (RDMO). doi: 10.5281/zenodo.10698436.

Kindling, Maxi und Peter Schirmbacher. 2013. „Die digitale Forschungswelt“ als Gegenstand der Forschung / Research on Digital Research / Recherche dans la domaine de la recherche numérique: Lehrstuhl Informationsmanagement / The informationmanagement department / La section gestion de l’information à l’IBI. Information – Wissenschaft & Praxis 64, Nr. 2–3: 127–136. doi: 10.1515/iwp-2013-0017.

Pultar, Yannick, Christina Abel, Matthias Weber, Dominik Kasper und Andreas Kuczera. 2024. Vernetzte Forschungsdaten – wer kennt wen im Mittelalter? doi: 10.5281/zenodo.10698303.

Wunsch, Samuel, Katrin Anna Lehnen, Katrin Henzel und Andreas Christ. 2024. Offen – frei zugänglich – für alle? Partizipative Ansätze zum barrierefreien Umgang mit Forschungsdaten. doi: 10.5281/zenodo.10698481.

  •  

Wissenschaftliche*r Mitarbeiter*in (m/w/d) | Digitale Proveneinzforschung im Datenkompetenzzentrum SODa | vorauss. 36 Monate mit Vollzeit E 13 TV-L HU  

Wissenschaftliche*r Mitarbeiter*in (m/w/d) – vorauss. mit Vollzeit E 13 TV-L HU (Drittmittelfinanzierung, befr. für 36 Monate) an der Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland (Humboldt-Universität zu Berlin, ZI Hermann von Helmholtz-Zentrum für Kulturtechnik)

Wissenschaftliche Sammlungen an Hochschulen und Universitäten sind bedeutende Infrastrukturen. Ihre vielfältigen Potentiale für Forschung, Lehre und Transfer können jedoch erst ausgeschöpft werden, wenn die Möglichkeiten der Digitalisierung optimal genutzt werden. Die Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland (KUS), die am Helmholtz-Zentrum für Kulturtechnik der Humboldt-Universität zu Berlin angesiedelt ist, entwickelt mit dem Verbundprojekt “SODa – Sammlungen Objekte Datenkompetenzen” ein Datenkompetenzzentrum, an dem für die Forschung in und mit wissenschaftlichen Sammlungen notwendige Datenkompetenzen transdisziplinär und praxisbezogen vermittelt und weiterentwickelt werden. 

Aufgabengebiet „Fachexpertise Digitale Provenienzforschung“:

  • Forschung zu anwendbaren Verfahren, Methoden und Standards für die Digitale Provenienzforschung in wissenschaftlichen Sammlungen
  • Forschung zu anwendbaren Verfahren, Methoden und Standards für das Modellieren, Strukturieren, Standardisieren, Anreichern und globale Vernetzen unter Berücksichtigung so genannter FAIR-Prinzipien für Forschungsdaten mit dem Ziel der Etablierung von Standards zur Dokumentation, Archivierung und Publizierung der Provenienz von Objekten
  • Mitarbeit im Rahmen der im Verbundprojekt vertretenen Fachexpertise beim Konzipieren, Durchführen, Evaluieren und Dokumentieren von Veranstaltungsformaten mit dem Ziel, Wissenschaftler*innen im Expertisefeld des Datenkompetenzzentrums weiterzubilden, sie zu vernetzen und gemeinsam mit ihnen entsprechende Verfahren, Methoden, Standards und Werkzeuge forschend weiterzuentwickeln
  • Herstellen von Materialien und Produkten der Wissenschaftskommunikation
  • Aufbereiten und Präsentation von Forschungsergebnissen auf Kongressen/Forschungskolloquien usw.
  • Publikationen zu eigenen Forschungsergebnissen

Anforderungen: 

  • abgeschlossenes wissenschaftliches Hochschulstudium, z. B. in Informationswissenschaften, Kulturinformatik, Digital Humanities, Geschichts- und Sozialwissenschaften sowie naturkundlichen Disziplinen
  • Erfahrung in der (digitalen) Provenienzforschung
  • Kenntnisse digitaler Werkzeuge und Methoden für die Provenienzforschung
  • Kenntnisse aktueller Fachdebatten, insbesondere im Bereich digitaler Methoden in der Arbeit in und mit wissenschaftlichen Sammlungen und in der Provenienzforschung
  • Erfahrungen in der Arbeit mit wissenschaftlichen Sammlungen und Objekten
  • Erfahrungen in inter- und transdisziplinären wissenschaftlichen Projekten erwünscht
  • Erfahrung in der Entwicklung von Lehr- und Vermittlungsangeboten erwünscht
  • vorteilhaft sind Erfahrungen in Community Building-Prozessen und im Projektmanagement
  • ausgeprägte Kommunikationsfähigkeit, mündlich und schriftlich, in Englisch und Deutsch
  • ausgeprägte Teamfähigkeit, auch bei der Zusammenarbeit über digitale Tools
  • strukturierte, selbständige und lösungsorientierte Arbeitsweise 

Wir bieten:

  • einen eigenen Wirkungs- und Gestaltungsbereich in einem sich neu entwickelnden, zukunftsweisenden und dynamischen Tätigkeitsfeld im Kontext wissenschaftlicher Sammlungen, Kulturerbe und Digitalisierung
  • Mitarbeit in einem motivierten, interdisziplinär aufgestellten Team
  • ein attraktives Arbeitsumfeld und vielfältige Vernetzungsmöglichkeiten auf dem grünen Campus Nord in der Mitte Berlins

Bewerbungen (mit Anschreiben, Lebenslauf und relevanten Zeugnissen) richten Sie bitte bis 8. Januar 2024 unter Angabe der Kennziffer DR/143/23 an die Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland, Helmholtz-Zentrum für Kulturtechnik, Humboldt-Universität zu Berlin, Unter den Linden 6, 10099 Berlin oder bevorzugt per E-Mail in einer PDF-Datei an: hzk.bewerbungen@hu-berlin.de 

Für Rückfragen steht der Co-Sprecher der Koordinierungsstelle und SODa-Projektleiter Martin Stricker (martin.stricker@hu-berlin.de, Tel. 030 2093 12879) zur Verfügung.

 

Zur Sicherung der Gleichstellung sind Bewerbungen qualifizierter Frauen besonders willkommen. Schwerbehinderte Menschen werden bei gleicher Eignung bevorzugt. Bewerbungen von Menschen mit Migrationsgeschichte sind ausdrücklich erwünscht. Da wir Ihre Unterlagen nicht zurücksenden, bitten wir Sie, Ihrer Bewerbung nur Kopien beizulegen.

Datenschutzrechtliche Hinweise zur Verarbeitung Ihrer personenbezogenen Daten im Rahmen des Ausschreibungs- und Auswahlverfahrens finden Sie auf der Homepage der Humboldt-Universität zu Berlin: https://hu.berlin/DSGVO.

  •  

2 Wissenschaftliche*r Mitarbeiter*innen (m/w/d) | Fachexpertise Erschließung im Datenkompetenzzentrum SODa | vorauss. 36 Monate mit Vollzeit E 13 TV-L HU

Zwei Wissenschaftliche*r Mitarbeiter*innen (m/w/d) – vorauss. mit Vollzeit E 13 TV-L HU (Drittmittelfinanzierung, befr. für 36 Monate) an der Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland (Humboldt-Universität zu Berlin, ZI Hermann von Helmholtz-Zentrum für Kulturtechnik)

Wissenschaftliche Sammlungen an Hochschulen und Universitäten sind bedeutende Infrastrukturen. Ihre vielfältigen Potentiale für Forschung, Lehre und Transfer können jedoch erst ausgeschöpft werden, wenn die Möglichkeiten der Digitalisierung optimal genutzt werden. Die Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland (KUS), die am Helmholtz-Zentrum für Kulturtechnik der Humboldt-Universität zu Berlin angesiedelt ist, entwickelt mit dem Verbundprojekt “SODa – Sammlungen Objekte Datenkompetenzen” ein Datenkompetenzzentrum, an dem für die Forschung in und mit wissenschaftlichen Sammlungen notwendige Datenkompetenzen transdisziplinär und praxisbezogen vermittelt und weiterentwickelt werden. 

Aufgabengebiet „Fachexpertise Erschließung“:

  • Forschung zu anwendbaren Verfahren, Methoden und Standards für das wissenschaftliche Erschließen und Herstellen von in der Forschung nutzbaren digitalen Reproduktionen von Objekten wissenschaftlicher Sammlungen sowie für die systematische Digitalisierung und Katalogisierung
  • Forschung zu anwendbaren Verfahren, Methoden und Standards für das Modellieren, Strukturieren, Standardisieren, Anreichern und globale Vernetzen unter Berücksichtigung so genannter FAIR-Prinzipien für Forschungsdaten mit dem Ziel, die wissenschaftliche Sammlungserschließung durch die Erstellung von Konzepten voranzutreiben
  • Mitarbeit im Rahmen der im Verbundprojekt vertretenen Fachexpertise beim Konzipieren, Durchführen, Evaluieren und Dokumentieren von Veranstaltungsformaten mit dem Ziel, Wissenschaftler*innen im Expertisefeld des Datenkompetenzzentrums weiterzubilden, sie zu vernetzen und gemeinsam mit ihnen entsprechende Verfahren, Methoden, Standards und Werkzeuge forschend weiterzuentwickeln
  • Herstellen von Materialien und Produkten der Wissenschaftskommunikation
  • Aufbereiten und Präsentation von Forschungsergebnissen auf Kongressen/Forschungskolloquien usw.
  • Publikationen zu eigenen Forschungsergebnissen

Anforderungen

  • abgeschlossenes wissenschaftliches Hochschulstudium, z. B. in Informationswissenschaften, Kulturinformatik, Digital Humanities, Geschichts- und Sozialwissenschaften sowie naturkundlichen Disziplinen
  • nachweislich Kenntnisse digitaler Werkzeuge, Datenbankanwendungen und Forschungsumgebungen (wie z.B. WissKI, 3D-Digitalisierung, Wissensgraphen)
  • nachweislich Erfahrung in der digitalen Erschließung wissenschaftlicher Sammlungen oder in der Aufbereitung digitaler Sammlungsdaten
  • Erfahrungen in der Arbeit mit wissenschaftlichen Sammlungen und Objekten
  • Kenntnisse didaktischer Methoden, Konzepte und Vermittlungsformate sowohl analog als auch digital
  • Kenntnisse digitaler Werkzeuge, Datenbankanwendungen und Forschungsumgebungen (wie z.B. WissKI, 3D-Digitalisierung, Wissensgraphen) 
  • Kenntnisse aktueller Fachdebatten, insbesondere im Bereich digitaler Methoden in der Arbeit in und mit wissenschaftlichen Sammlungen  
  • Erfahrungen in inter- und transdisziplinären wissenschaftlichen Projekten erwünscht
  • Erfahrung in der Entwicklung von Lehr- und Vermittlungsangeboten erwünscht
  • vorteilhaft sind Erfahrungen in Community Building-Prozessen und im Projektmanagement
  • ausgeprägte Kommunikationsfähigkeit, mündlich und schriftlich, in Englisch und Deutsch
  • ausgeprägte Teamfähigkeit, auch bei der Zusammenarbeit über digitale Tools
  • strukturierte, selbständige und lösungsorientierte Arbeitsweise 

Wir bieten:

  • einen eigenen Wirkungs- und Gestaltungsbereich in einem sich neu entwickelnden, zukunftsweisenden und dynamischen Tätigkeitsfeld im Kontext wissenschaftlicher Sammlungen, Kulturerbe und Digitalisierung
  • Mitarbeit in einem motivierten, interdisziplinär aufgestellten Team
  • ein attraktives Arbeitsumfeld und vielfältige Vernetzungsmöglichkeiten auf dem grünen Campus Nord in der Mitte Berlins

Bewerbungen (mit Anschreiben, Lebenslauf und relevanten Zeugnissen) richten Sie bitte bis 8. Januar 2024 unter Angabe der Kennziffer DR/142/23 an die Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland, Helmholtz-Zentrum für Kulturtechnik, Humboldt-Universität zu Berlin, Unter den Linden 6, 10099 Berlin oder bevorzugt per E-Mail in einer PDF-Datei an: hzk.bewerbungen@hu-berlin.de

Für Rückfragen steht der Co-Sprecher der Koordinierungsstelle und SODa-Projektleiter Martin Stricker (martin.stricker@hu-berlin.de, Tel. 030 2093 12879) zur Verfügung.

 

Zur Sicherung der Gleichstellung sind Bewerbungen qualifizierter Frauen besonders willkommen. Schwerbehinderte Menschen werden bei gleicher Eignung bevorzugt. Bewerbungen von Menschen mit Migrationsgeschichte sind ausdrücklich erwünscht. Da wir Ihre Unterlagen nicht zurücksenden, bitten wir Sie, Ihrer Bewerbung nur Kopien beizulegen.

Datenschutzrechtliche Hinweise zur Verarbeitung Ihrer personenbezogenen Daten im Rahmen des Ausschreibungs- und Auswahlverfahrens finden Sie auf der Homepage der Humboldt-Universität zu Berlin: https://hu.berlin/DSGVO.

  •  

Wissenschaftliche*r Mitarbeiter*in (m/w/d) | Wissenschaftliche Programmentwicklung im Datenkompetenzzentrum SODa | vorauss. 36 Monate Vollzeit E 13 TV-L HU

Wissenschaftliche*r Mitarbeiter*in (m/w/d) – vorauss. mit Vollzeit E 13 TV-L HU (Drittmittelfinanzierung, befr. für 36 Monate) an der Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland (Humboldt-Universität zu Berlin, ZI Hermann von Helmholtz-Zentrum für Kulturtechnik)

Wissenschaftliche Sammlungen an Hochschulen und Universitäten sind bedeutende Infrastrukturen. Ihre vielfältigen Potentiale für Forschung, Lehre und Transfer können jedoch erst ausgeschöpft werden, wenn die Möglichkeiten der Digitalisierung optimal genutzt werden. Die Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland (KUS), die am Helmholtz-Zentrum für Kulturtechnik der Humboldt-Universität zu Berlin angesiedelt ist, entwickelt mit dem Verbundprojekt “SODa – Sammlungen Objekte Datenkompetenzen” ein Datenkompetenzzentrum, an dem für die Forschung in und mit wissenschaftlichen Sammlungen notwendige Datenkompetenzen transdisziplinär und praxisbezogen vermittelt und weiterentwickelt werden. 

Aufgabengebiet „Wissenschaftliche Programmentwicklung“:

  • Erarbeitung des fachlich und didaktische Vermittlungs-,Vernetzungs- und   Forschungsprogramms des Zentrums, insbesondere:
  • Sammlung, Systematisierung und Auswertung wissenschaftlicher Veröffentlichungen / Materialien (Literaturrecherche / Quellenrecherche / Datenbankanalyse) des aktuellen Forschungsstand zu wissenschaftlichen Datenkompetenzen
  • Erarbeitung von didaktischen Konzepten und Vermittlungsmethoden sowie deren Evaluation 
  • Konzipieren, Durchführen, Evaluieren und Dokumentieren von Veranstaltungsformaten, mit dem Ziel Wissenschaftler*innen im Expertisefeld des Datenkompetenzzentrums weiterzubilden, sie zu vernetzen und gemeinsam mit ihnen entsprechende Verfahren, Methoden, Standards und Werkzeuge forschend weiterzuentwickeln
  • Organisation und Ergebnissicherung von Workshops mit externen Expert*innen und der Öffentlichkeit
  • Aufbereitung und Präsentation der Erkenntnisse inkl. Abfassung von wissenschaftlichen Texten sowie vermittelnden Texten
  • Unterstützung der Öffentlichkeitsarbeit

Anforderungen

  • abgeschlossenes wissenschaftliches Hochschulstudium, z. B. in Informationswissenschaften, Kulturinformatik, Digital Humanities, Geschichts- und Sozialwissenschaften sowie naturkundlichen Disziplinen
  • nachweislich Kenntnisse digitaler Werkzeuge, Datenbankanwendungen und Forschungsumgebungen (wie z.B. WissKI, 3D-Digitalisierung, Wissensgraphen)
  • Erfahrungen in der Arbeit mit wissenschaftlichen Sammlungen und Objekten 
  • Kenntnisse didaktischer Methoden, Konzepte und Vermittlungsformate – sowohl analog als auch digital
  • Erfahrung in der Entwicklung von Lehr- und Vermittlungsangeboten erwünscht
  • Erfahrungen in inter- und transdisziplinären wissenschaftlichen Projekten erwünscht
  • vorteilhaft sind Erfahrungen in Community Building-Prozessen und im Projektmanagement 
  • ausgeprägte Kommunikationsfähigkeit, mündlich und schriftlich, in Englisch und Deutsch
  • ausgeprägte Teamfähigkeit, auch bei der Zusammenarbeit über digitale Tools
  • strukturierte, selbständige und lösungsorientierte Arbeitsweise 

Wir bieten:

  • einen eigenen Wirkungs- und Gestaltungsbereich in einem sich neu entwickelnden, zukunftsweisenden und dynamischen Tätigkeitsfeld im Kontext wissenschaftlicher Sammlungen, Kulturerbe und Digitalisierung
  • Mitarbeit in einem motivierten, interdisziplinär aufgestellten Team
  • ein attraktives Arbeitsumfeld und vielfältige Vernetzungsmöglichkeiten auf dem grünen Campus Nord in der Mitte Berlins

Bewerbungen (mit Anschreiben, Lebenslauf und relevanten Zeugnissen) richten Sie bitte bis 8. Januar 2024 unter Angabe der Kennziffer DR/141/23 an die Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland, Helmholtz-Zentrum für Kulturtechnik, Humboldt-Universität zu Berlin, Unter den Linden 6, 10099 Berlin oder bevorzugt per E-Mail in einer PDF-Datei an: hzk.bewerbungen@hu-berlin.de

Für Rückfragen steht der Co-Sprecher der Koordinierungsstelle und SODa-Projektleiter Martin Stricker (martin.stricker@hu-berlin.de, Tel. 030 2093 12879) zur Verfügung. 

 

Zur Sicherung der Gleichstellung sind Bewerbungen qualifizierter Frauen besonders willkommen. Schwerbehinderte Menschen werden bei gleicher Eignung bevorzugt. Bewerbungen von Menschen mit Migrationsgeschichte sind ausdrücklich erwünscht. Da wir Ihre Unterlagen nicht zurücksenden, bitten wir Sie, Ihrer Bewerbung nur Kopien beizulegen.

Datenschutzrechtliche Hinweise zur Verarbeitung Ihrer personenbezogenen Daten im Rahmen des Ausschreibungs- und Auswahlverfahrens finden Sie auf der Homepage der Humboldt-Universität zu Berlin: https://hu.berlin/DSGVO.

  •  

Virtuelles DH-Kolloquium an der BBAW, 11.12.2023: Ausweitung der Korpuszone: Neue Daten für die empirische Lexikographie

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 11. Dezember 2023, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Roman Schneider (Leibniz-Institut für Deutsche Sprache, Mannheim)
Adrien Barbaresi (Berlin-Brandenburgische Akademie der Wissenschaften)

Ausweitung der Korpuszone: Neue Daten für die empirische Lexikographie

***

Roman Schneider (IDS Mannheim): Songtexte als lexikografische Datenbasis

Mit dem Songkorpus (Schneider 2022) liegt erstmalig eine nachhaltig nutzbare wissenschaftliche Ressource für empirische Songtextanalysen vor. Sie enthält zum einen fortlaufend die erfolgreichsten deutschsprachigen Titel der ost-, west- und gesamtdeutschen Hitparaden seit 1970; Chartplatzierungen dienen dabei analog zu Auflagenzahlen bei Zeitungen oder Bestsellerlisten in der Belletristik als Kriterium der Wirkmächtigkeit. Weiterhin dazu gehören thematisch stratifizierte Archive, beispielsweise für Subgenres wie Hiphop oder Neue Deutsche Welle. Und schließlich umfasst das Korpus umfangreich annotierte Künstlerarchive mit den kompletten Werken ausgewählter Sänger und Bands. Insgesamt deckt die kontinuierlich anwachsende Datenbasis mit derzeit ca. 9.000 Songtexten bzw. 2 Millionen Wortformen mehr als ein halbes Jahrhundert populäre Musik(texte) ab und unterstützt damit gleichermaßen synchrone und diachrone Perspektiven.

Ein besonderer Wert der Sammlung liegt in der Dokumentation standardnaher und -ferner Phänomene. Der Vortrag greift ausgewählte lexikalische und morphosyntaktische Eigenheiten auf. Sprachlicher Avantgardismus etwa zeigt sich beim lexikalischen Inventar; mit empirischen Methoden lassen sich dabei Okkasionalismen von echten Neologismen trennen. Weiterhin vorgestellt werden unkonventionelle grammatische Konstruktionen sowie Belege einer sprachökonomisch angepassten Morphosyntax.


Adrien Barbaresi (BBAW): Webkorpora groß und klein

In der modernen Lexikografie stützen sich Aussagen zu sprachlichen Eigenschaften der beschriebenen Wörter und zu Besonderheiten ihrer Verwendung auf umfassende Korpusevidenz. In diesem Rahmen bietet die DWDS-Plattform eine Vielzahl von allgemeinen und spezialisierten Websammlungen. Zwei Korpora verdeutlichen diesen Prozess. Die Basis des Breitband-Webkorpus besteht aus  hunderttausenden Webseiten, aus denen Milliarden von Tokens samt Metadaten erfasst werden. Im Webmonitor werden prominente Quellen aus Deutschland, Österreich, der Schweiz, Südtirol, Luxemburg, Liechtenstein und Ostbelgien fokussiert gesammelt und täglich aktualisiert. Im Vortrag soll gezeigt werden, nach welchen Konzepten die Korpora zusammengestellt werden und wie diese Arbeit mit Werkzeugen unter Open-Source-Lizenz reproduziert werden kann.

Dieses Kolloquium ist der 3. Teil der vierteiligen Workshop-Reihe „Korpora für die Lexikographie – Erfahrungen und Zukunftsperspektiven“, die im Herbst und Winter 2023/24 im Rahmen des DH-Kolloquiums stattfindet.

Weiterer Termin der Reihe:

26.02.2024 Korpora, literarischer Wortgebrauch und Lexikographie

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzrraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.

  •  

SCDH Münster: Unbefristete Stelle (E13) Knowledge Engineering

(English version below.)

Die Universitäts- und Landesbibliothek (ULB) Münster ist die Zentralbibliothek der Universität Münster und gleichzeitig Landesbibliothek für den Landesteil Westfalen. Sie ist eine der größten wissenschaftlichen Bibliotheken Deutschlands. Die ULB Münster bietet ein umfangreiches Portfolio von wissenschaftsnahen Dienstleistungen für Forschende, Lehrende und Studierende an, dessen Weiterentwicklung im Rahmen der aktuellen digitalen Transformationsprozesse in der Wissenschaft von einer großen Entwicklungsdynamik geprägt ist.

Das an der ULB Münster angesiedelte Service Center for Digital Humanities (SCDH) unterstützt die Forschenden der Universität Münster im Bereich Digital Humanities (DH) mit zahlreichen Services. Im SCDH ist vorbehaltlich der Mittelzuweisung zum nächstmöglichen Zeitpunkt die unbefristete Stelle als

Wissenschaftliche*r Mitarbeiter*in
im Kontext DH mit dem Schwerpunkt Knowledge Engineering
(E 13 TV-L)

mit 100 % der regelmäßigen wöchentlichen Arbeitszeit zu besetzen.

Ihre Aufgaben:
Sie unterstützen digitale Forschungsprojekte der Geistes-, Sozial- und Kulturwissenschaften als Knowledge Engineer durch:

  • Entwurf, Implementierung und Pflege von Datenmodellen und Ontologien
  • Entwicklung von Workflows zur Datenerfassung und Datenbereinigung
  • Evaluation und Einrichtung von Graphdatenbanken und Knowledge-Management-Systemen
  • Konzeption von visuellen und statistischen Analysemethoden für Graphdaten

Unsere Erwartungen:
Wir suchen eine engagierte Persönlichkeit mit eigenverantwortlichem, lösungsorientiertem Arbeitsstil, sehr guten konzeptionellen Fähigkeiten und ausgeprägter Teamfähigkeit. Sie zeichnen sich darüber hinaus durch Flexibilität sowie gute Kommunikationsfähigkeit aus und erfüllen folgendes Profil:

  • abgeschlossenes Hochschulstudium der Informatik mit nachgewiesenem Bezug(Zeugnisse/Zertifikate) zu den (Digital) Humanities oder verwandter Fachrichtungen bzw. abgeschlossenes Hochschulstudium in einer Geisteswissenschaft mit nachgewiesenen Informatikkenntnissen (Zeugnisse/Zertifikate)
  • nachgewiesene Erfahrungen in der eigenverantwortlichen Planung und Durchführung oben genannter Aufgaben des Knowledge Engineerings (Zeugnisse/Zertifikate)
  • nachgewiesene Kenntnisse im Umgang mit Semantic-Web-Technologien (z.B. RDF, OWL, JSONLD, SPARQL, etc.) (Zeugnisse/Zertifikate)
  • nachgewiesener Bezug zu den Digital Humanities (Zeugnisse/Zertifikate)
  • Gute Deutsch- und Englischkenntnisse (Niveau B1) bzw. die Bereitschaft, sich diese im Laufe des ersten Jahres der Beschäftigung anzueignen

Darüber hinaus wünschenswerte Kenntnisse sind:

  • ein ausgeprägtes Vermögen zur Analyse und Abstraktion
  • Bereitschaft zur Einarbeitung in vielfältige Fachdomänen
  • Kommunikationsgeschick zur Darstellung von Methoden der Wissensorganisation und zur Überbrückung von Fachjargons
  • Beherrschung von Kollaborationstechniken und -werkzeugen
  • Erfahrungen in einer Programmiersprache und einschlägigen Libraries oder Softwaresystemen: Java (z.B. Jena, Fuseki); Python (z.B. RDFLib, OWLReady), Javascript (z.B. jsonld.js)
  • Kenntnisse einschlägiger Ontologien in den Digital Humanities (CIDOC-CRM, FRBRoo, SKOS)
  • Kenntnisse RDF-basierter Annotationstechnologien (z.B. Web Annotation Data Model)
  • Interesse an innovativen Editionsansätzen im Bereich Linked Data

Ihr Gewinn:

  • Wertschätzung, Verbindlichkeit, Offenheit und Respekt – das sind Werte, die uns wichtig sind.
  • Mit einer großen Anzahl an unterschiedlichsten Arbeitszeitmodellen ermöglichen wir Ihnen flexibles Arbeiten – auch von Zuhause aus.
  • Ob Pflege oder Kinderbetreuung – unser Servicebüro Familie bietet Ihnen konkrete Unterstützungsangebote, damit Sie Privates und Berufliches unter einen Hut bekommen.
  • Ihre individuelle, passgenaue Fort- und Weiterbildung ist uns als Bildungseinrichtung nicht nur wichtig, sondern eine Herzensangelegenheit.
  • Von Aikido bis Zumba – unsere Sport- und Gesundheitsangebote von A – Z sorgen für Ihre Work-Life-Balance.
  • Sie profitieren von zahlreichen Benefits des öffentlichen Dienstes wie z. B. einer attraktiven betrieblichen Altersvorsorge (VBL), einer Jahressonderzahlung und einem Arbeitsplatz, der kaum von wirtschaftlichen Schwankungen abhängig ist.

Die Universität Münster setzt sich für Chancengerechtigkeit und Vielfalt ein. Wir begrüßen alle Bewerbungen unabhängig von Geschlecht, Nationalität, ethnischer oder sozialer Herkunft, der Religion oder Weltanschauung, Beeinträchtigung, Alter sowie sexueller Orientierung oder Identität. Eine familiengerechte Gestaltung der Arbeitsbedingungen ist uns ein selbstverständliches Anliegen. Eine Stellenbesetzung in Teilzeit ist grundsätzlich möglich.

Bewerbungen von Frauen sind ausdrücklich erwünscht; Frauen werden bei gleicher Eignung, Befähigung und fachlicher Leistung bevorzugt berücksichtigt, sofern nicht in der Person eines Mitbewerbers liegende Gründe überwiegen.

Bei Fragen vorab kontaktieren Sie gerne Herrn Dr. Jan Horstmann (0251-83-25297, jan.horstmann@uni-muenster.de).

Haben wir Ihr Interesse geweckt?
Dann freuen wir uns auf Ihre aussagekräftige und vollständige Bewerbung. Senden Sie ihre Bewerbung  ausschließlich per E-Mail unter AZ 2023-14 in deutscher oder englischer Sprache und in einer PDF-Datei  von maximal 25 MB Größe bis zum 08.12.2023 an:

bewerbung.ulb@uni-muenster.de

Internet http://www.ulb.uni-muenster.de

 


 

The University and State Library (ULB) Münster is both the central library of the University of Münster and the state library for the state of Westphalia. It is one of the largest academic libraries in Germany. The ULB Münster offers a comprehensive portfolio of academic-related services for researchers, teachers and students, the further development of which is characterized by major dynamic developments associated with the current digital transformation processes occurring in academia.

The Service Center for Digital Humanities (SCDH), located at the ULB Münster, supports researchers at the University of Münster in the field of Digital Humanities (DH) with numerous services. The SCDH is seeking (subject to budget approval) to fill the position of a

Research Associate
in the context of DH with focus on Knowledge Engineering
(salary level E 13 TV-L, 100%)

This permanent full-time position is set to commence at the earliest possible date.

Your tasks:
You will support digital research projects in the humanities, social sciences and cultural studies as a knowledge engineer by:

  • designing, implementing and maintaining data models and ontologies
  • developing workflows for data acquisition and data cleansing
  • evaluating and setting up graph databases and knowledge management systems
  • designing visual and statistical analysis methods for graph data

Our expectations:
We are looking for a committed personality with a self-reliant, solution-oriented working style, very good conceptual skills and a strong ability to work in a team. The successful candidate will also characterized by flexibility as well as good communication skills and meet the following profile:

  • hold a completed higher education degree in computer science with proven relevance (via credentials/certificates) to the (digital) humanities or a related discipline or a completed higher education degree in a humanities discipline with proven knowledge of computer science (credentials/certificates)
  • proven experience in the independent planning and execution of the above-mentioned knowledge engineering tasks (credentials/certificates)
  • proven knowledge of Semantic Web technologies (RDF, OWL, JSONLD, SPARQL, etc.) (credentials/certificates)
  • proven connection to the digital humanities (credentials/certificates)
  • good knowledge of German and English (level B1) or the willingness to acquire these during the first year of employment

Further desirable skills include:

  • a strong capacity for analysis and abstraction
  • willingness to familiarize yourself with a wide range of subject domains
  • communication skills to demonstrate methods of knowledge organization and to bridge technical jargon
  • mastery of collaboration techniques and tools
  • experience in a programming language and relevant libraries or software systems: Java (e.g. Jena,  Fuseki); Python (e.g. RDFLib, OWLReady), Javascript (e.g. jsonld.js)
  • knowledge of relevant ontologies in the digital humanities (e.g. CIDOC-CRM, FRBRoo, SKOS)
  • knowledge of RDF-based annotation technologies (e.g. web annotation data model)
  • interest in innovative edition approaches in the area of linked data

Your benefit:

  • Appreciation, commitment, openness and respect – these are values that are important to us.
  • With a large number of different working time models, we enable you to work flexibly – even from home.
  • Whether through nursing care or childcare – our Family Service Office offers you concrete support options to help you balance your private and professional life.
  • As an educational institution, your individual, tailor-made training and continuing education is not only important to us, but a matter close to our hearts.
  • From Aikido to Zumba – our sports and health offers from A to Z ensure your work-life balance.
  • You benefit from numerous public service benefits such as an attractive company pension plan (VBL), a special annual payment and a job that is hardly dependent on economic fluctuations.

The University of Münster is committed to equal opportunities and diversity. We welcome all applications regardless of gender, nationality, ethnic or social origin, religion or ideology, impairment, age, sexual orientation or identity. Family-friendly working conditions are a self-evident priority for us. Part-time employment is generally possible.

We actively encourage applications by women. Women with equivalent qualifications and academic achievements will be preferentially considered unless these are outweighed by reasons which necessitate the selection of another candidate.

If you have any questions, please contact Dr Jan Horstmann (0251-83-25297, jan.horstmann@uni-muenster.de).

Did we catch your interest?
Then we look forward to receiving your detailed and complete application. Send your application exclusively by e-mail under AZ 2023-14 in German or English and as a single PDF file (maximum 25 MB) by 8 December 2023 to:

bewerbung.ulb@uni-muenster.de

Internet http://www.ulb.uni-muenster.de

  •  

Virtuelles DH-Kolloquium an der BBAW, 13.11.2023: Historische Textkorpora für die Lexikographie

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 13. November 2023, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Matthias Boenig, Susanne Haaf, Marius Hug
(alle Berlin-Brandenburgische Akademie der Wissenschaften)
Nico Dorn, Volker Harm, Nathalie Mederake, Kerstin Meyer-Hinrichs
(alle Niedersächsische Akademie der Wissenschaften zu Göttingen)

Historische Textkorpora für die Lexikographie

In diesem Kolloquium betrachten wir das Zusammenspiel aus der Bereitstellung historischer Textkorpora des Deutschen als Forschungsdaten und der Nutzung dieser Korpora für die historisch-lexikographische Arbeit.

Im ersten Teil werden wir mögliche Workflows zum Aufbau historischer Korpora beleuchten, wie sie im Kontext des Deutschen Textarchivs (DTA) entwickelt wurden. Im Zentrum stehen dabei Aspekte wie die Ausgewogenheit der Korpora nach Textsorten, Erschließungstiefe, Textqualität, Vollständigkeit der Metadaten, Verfahren der Volltexterfassung (manuell vs. OCR) sowie Perspektiven für zukünftige Textzugewinne und vor diesem Hintergrund das Spannungsfeld aus Qualität und Quantität.

Im zweiten Teil wird die konkrete lexikographische Arbeit mit historischen Korpora am Beispiel des ZDL-Teilprojekts „Wortgeschichte digital“ illustriert. Vorgestellt werden die Nutzung zur Verfügung stehender Korpora sowie Methoden der Belegauswahl, sowohl in inhaltlicher als auch in technischer Hinsicht. Dabei werden auch Anforderungen und Wünsche an historische Korpora aus lexikographischer Perspektive diskutiert.

Das Kolloquium ist Teil der vierteiligen Workshop-Reihe „Korpora für die Lexikographie – Erfahrungen und Zukunftsperspektiven“, die im Herbst und Winter 2023/24 im Rahmen des DH-Kolloquiums stattfindet.

Weitere Termine der Reihe:

27.11.2023 Neues aus dem Maschinenraum der Korpus-Annotation
11.12.2023 Ausweitung der Korpuszone: Neue Daten für die empirische Lexikographie
tba (2024) Korpora, literarischer Wortgebrauch und Lexikographie

 

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzrraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.

  •  

Call for Articles „Schnittstelle Mediävistik“

Kollaborationen der Mittelalterforschung im digitalen Zeitalter

Themenheft 2025/1 von Das Mittelalter

Im Namen der Herausgeberinnen und des DFG Netzwerks „Offenes Mittelalter“.

Der Begriff der Schnittstelle
Die Mediävistik ist ein per definitionem interdisziplinär ausgerichtetes Fachgebiet. Aufgrund ihrer
heterogenen, oftmals fragilen und nicht leicht zugänglichen Forschungsgegenstände und ihrer
besonderen Anforderungen haben sich Mediävist*innen schon früh der Möglichkeiten des Com-
puters bedient und sich damit als Pionier*innen der digitalen Geisteswissenschaften erwiesen.
Eine Vielzahl geisteswissenschaftlich-kultureller Praktiken blickt auf Vorläufer und Vorbilder aus
dem Mittelalter zurück, aus philologischer Tradition zählen hierzu etwa Übersetzungshilfen, The-
sauri, Konkordanzen und Annotationen. Die adäquate Darstellung der Quellen und ihre Erfahr-
barkeit im digitalen Raum sind besondere Herausforderungen, für die die Mediävistik Lösungen
entwickeln muss. Wegen der Vielfalt der Forschungsgegenstände, ihrer Historizität und ihrer
kulturhistorischen Bezugssysteme handelt es sich dabei um hochgradig interdisziplinäre Aufga-
ben. Computergestützte Ansätze und digitale Praktiken erweitern das Methodenspektrum und
schaffen neue Möglichkeiten eines nachhaltigen und vernetzten Wissensfundus. Die Mediävistik
hat in den letzten Jahren viele Ressourcen digital aufbereitet und von den technischen Möglich-
keiten profitiert, etwa im Bereich der Editionsphilologie zur Darstellung synoptischer Editionen
oder der Einbindung von Digitalisaten. Doch zumeist bleiben die erarbeiteten Mittel Insellösun-
gen. Nur in Ansätzen wurden theoretische Überlegungen entwickelt, wie einzelne Projekte mit-
einander verbunden werden können.

Das Themenheft „Schnittstelle Mediävistik“ widmet sich der computationell arbeitenden Mittel-
alterforschung in ihrer verbindungsstiftenden Funktion. Als Schnittstelle vermittelt sie zwi-
schen den Disziplinen, Digitalem und Analogem, heterogenen Forschungsgegenständen und
vielfältigen Methoden. Dabei integriert sie nicht nur Ansätze und Wissen aus anderen Fachbe-
reichen, sondern trägt auch zum Erkenntnisgewinn über ihre eigene Disziplin hinaus bei, indem
etwa Daten zu Handschriften für historische Netzwerkforschung oder Geovisualisierungen wei-
tergenutzt werden.

Das Themenheft adressiert Interdisziplinarität auf zwei Seiten: auf der Seite der Forschungs-
gegenstände, die abhängig von den Fachdisziplinen z. B. historische Daten, literarische Texte,
philologische Themen, Schrift- und Bild-Zusammenhänge und anderes untersuchen; auf der
Seite der Herangehensweisen, die je nach Fachdisziplinen ‚traditionelle‘ Arbeitsweisen und
computationelle Herangehensweisen, Annotationen, Machine-Learning-Ansätze, Modellierung,
Linked Open Data (LOD) und vieles mehr nutzen. Über die „Schnittstelle Mediävistik“ lassen
sich fachliche Heterogenität und Vielfalt der Gegenstände mit der Vielfalt der Methoden
produktiv verbinden.

Die „Schnittstelle Mediävistik“ hat in ihrer vermittelnden Funktion auch unmittelbare Auswirkun-
gen auf Aspekte der Nachhaltigkeit. Denn nur durch nachhaltig verfügbare und genormte Daten,
durch die Einhaltung von Standards und die Verwendung persistenter Identifikatoren kann eine
langfristige interdisziplinäre Forschung bzw. Nachnutzung der Daten im Wechselspiel verschie-
dener Disziplinen und Methoden ermöglicht werden.

Unter zeitgemäßer digitaler Mittelalterforschung verstehen wir außerdem auch nationale und in-
ternationale Forschungsinfrastrukturen, die von Mediävist*innen mit einem gemeinsamen Inte-
resse an einer tiefgreifenden Erschließung von Forschungsgegenständen kollaborativ gepflegt
und gestaltet werden. Dies impliziert eine Offenheit, die sich nicht nur auf die Verwendung offe-
ner Standards und die interdisziplinären Perspektiven auf heterogene Forschungsgegenstände
bezieht, sondern durch die auch eine gesamtgesellschaftliche Teilhabe am zu bewahrenden
kulturellen Erbe angestrebt wird.

Ziel des Bandes
Das Forschungsfeld des Themenhefts reicht somit von methodologischen über daten- oder ob-
jektbezogene Fragestellungen hin zu infrastrukturellen Aufgaben, die unter den Aspekten der
digitalen Nachhaltigkeit und Vernetzung vereint werden. Ziel des Bandes ist, kollaborative
Verfahren der Digital Humanities forschungsorientiert und praxisnah vorzustellen und die
hierfür angewandten Methoden und Praktiken zu evaluieren und zu diskutieren.
Das Themenheft soll in erster Linie dazu einladen, das methodische Feld in Bezug auf Verfahren
der Verknüpfung und Kontextualisierung zu erweitern. Mithilfe quantitativer und kontextualisie-
render Ansätze wird eine neue Qualität von Forschungsdaten erreicht, indem verstreute Infor-
mationen systematisch miteinander verknüpft werden, sodass komplexe Zusammenhänge
sichtbar und neue Zugänge geschaffen werden. Hier bieten digitale Verfahren auch neue Per-
spektiven für eine global ausgerichtete Mediävistik. Erst diese Art der Vernetzung befördert auf
lange Sicht einen Kulturwandel. Er zeichnet sich durch transparente, offene und nachhaltige
Wissenschaft ebenso aus wie durch kollaborative und innovative Forschung und die Übernahme
der gemeinsamen Verantwortung für den Aufbau und langfristigen Betrieb digitaler Arbeitsum-
gebungen und Forschungsinfrastrukturen. Zu diesen Herausforderungen der digitalen Mediävis-
tik will der Band einen Beitrag leisten.

Themenheft „Digitale Mediävistik“ (2019)
Durch seinen Bezug zu digitalen Forschungsthemen knüpft das Themenheft an das Heft „Digi-
tale Mediävistik und der deutschsprachige Raum“ (Band 24, Heft 1) an, wählt aber durch den
hier vorgeschlagenen methodischen Fokus einen anderen Zugang zu dem Forschungsfeld. Die-
ser ermöglicht es nicht nur, einzelne Aspekte des Heftes aus dieser Perspektive neu aufzugrei-
fen, sondern insbesondere, die Thematik um andere Aspekte zu ergänzen – und dabei das Po-
tenzial vernetzter Ressourcen interdisziplinär wie international zu denken. Darüber hinaus sind
die Entwicklungen in den Digitalen Geisteswissenschaften in den letzten fünf Jahren rasant fort-
geschritten.

Mögliche Themenvorschläge und Fragestellungen
Die „Schnittstelle Mediävistik“ bietet vielfältige Anknüpfungspunkte für interdisziplinäre natio-
nale wie internationale Themen von hoher Aktualität, die im Themenheft versammelt werden
sollen:

Zentrale Themen sind beispielsweise Normdaten, Forschungsdatenmanagement und Infra-
strukturprojekte wie vernetzte Repositorien- und Speichersysteme, besonders CLARIN/DA-
RIAH und die Nationale Forschungsdateninfrastruktur (NFDI). Dazu zählen mit Text+,
NFDI4Culture, NFDI4Memory und NDFI4Objects vier geisteswissenschaftliche Konsortien, die
sich der Bewahrung des materiellen wie immateriellen Kulturerbes widmen. Für die Mediävistik
sind sie alle relevant, was den Charakter der fachlichen Schnittstelle unterstreicht. In diesem
Kontext spielt zudem einerseits die Gemeinsame Normdatei (GND) eine bedeutende Rolle, die
Standards für die Erfassung von Informationen entwickelt und die (im deutschsprachigen Raum)
größte Normdatensammlung bereitstellt. Andererseits ergeben sich durch die Nutzung von offe-
nen und kollaborativen Wissensplattformen wie Wikidata auch für die Wissenschaft neue
Möglichkeiten.

Auch Fragen nach der Modellierung von Informationen sind von Interesse, insbesondere hin-
sichtlich spezifisch mediävistischer Herausforderungen wie unsicherer Quellenlage oder ambi-
ger Informationen. Nach wie vor gibt es keinen einheitlichen Umgang mit unscharfen Daten oder
Ambiguitäten. Des Weiteren stellen textimmanente Ambiguitäten (die gar nicht disambiguiert
werden sollen) eine Herausforderung insbesondere für die digitale Erfassung von Daten dar.
Hier kann die Mediävistik also nicht auf allgemeine Standards zurückgreifen, sondern muss
(auch) fachspezifische Lösungen hervorbringen.

Die Editionsphilologie kann ebenfalls wesentlich von den hier skizzierten Möglichkeiten profi-
tieren. Für sie stellen quantitative und kontextualisierende Verfahren ein wertvolles Werkzeug
dar, das zur weiteren Generierung von Wissen und der nachhaltigen Nutzung digitaler Editionen
führen kann. Beiträge könnten etwa durchleuchten, wie das Gebiet der mediävistischen Edition-
spraxis durch kollaborative Verfahren und digitale Arbeitsmethoden an Komplexität gewinnt oder
die Daten interdisziplinär nachgenutzt werden können (z. B. Geovisualisierung).

Ein weiterer zentraler Punkt des Themenheftes können kollaborative Tools und Systeme, kol-
lektiv praktizierte De-facto-Standards und der erkenntnisgeleitete Einsatz von Forschungsin-
frastrukturen sein. Gemeinsame Initiativen wie beispielsweise Fragmentarium, Handschriften-
portal, RI OPAC, Biblissima+, IIIF, Transkribus und eScripta sind Lösungsansätze zur Bewälti-
gung und nachhaltigen Verfügbarmachung von Daten und der projektübergreifenden Nutzbar-
keit von HTR und OCR Software. Nach wie vor fehlt es aber an Dokumentationen und der Be-
schreibung von Methodologien zur Anwendung neuer Technologien auf bestehende For-
schungsdaten. Welche Erkenntnisse, positive wie negative, konnten in den Vorhaben gewonnen
werden? Besonders interessant erscheinen uns hier auch experimentelle Ansätze in der Nach-
nutzung von Forschungsdaten aus dem Bereich der interdisziplinären Mittelalterforschung sowie
Ergebnisse aus kollaborativen Forschungsprojekten.

Ein besonderes Augenmerk legen wir auf LOD, die durch die Verknüpfung strukturierter, ein-
deutig identifizierbarer Daten nicht nur die Qualität und Erschließungstiefe von Daten optimieren,
sondern durch deren Kontextualisierung auch zu einem vertieften Verständnis führen. LOD-Ver-
fahren stellen eine vielversprechende Option dar, Ressourcen zu erschließen, weiter anzurei-
chern und somit sichtbar, verfügbar und nachnutzbar zu machen. Gleichzeitig werden sie den
FAIR-Prinzipien gerecht und spiegeln damit den Anspruch einer interdisziplinären, offenen For-
schung im Sinne von Open Science wider. Es liegt in der Natur von LOD, multimodale Verlin-
kungen herzustellen, sodass auch perspektivische, disziplinenübergreifende Kollaborationen
beleuchtet werden können. Hierzu gehören insbesondere Methoden zur Kontextualisierung, die
das Erschließen jeweils geltender Episteme – eine besondere Herausforderung für historische
Bestände – ermöglichen, um eine digitale Hermeneutik zu implementieren, von der die Qualität
der Erschließungstiefe ebenso profitiert wie das Verständnis der Rezipient*innen. Disziplinen, die sich für Beiträge zu diesem Themenheft anbieten, sind demnach beispielsweise Archäologie, Byzantinistik, Didaktik, Germanistik, Geschichte, Kunstgeschichte, Musikwissen-
schaft, Philosophie, Religionswissenschaft, Romanistik, Theologie uvm. Auch interdisziplinäre
Digital-Humanities-Vorhaben sind willkommen, etwa aus den Bereichen Citizen Science, Open
Science und Open Education sowie Vorhaben, die den „computational turn” von händischen zu
zunehmend automatisierten Verfahren reflektieren (z. B. Deep Machine Learning).
Von reinen Projektbeschreibungen ist abzusehen, das Augenmerk soll auf Kontextualisierung,
Vernetzung und Methodenreflexion im Sinne der „Schnittstelle” gelegt werden.

Wir bitten um Abstracts von etwa 300–500 Wörtern auf Deutsch oder Englisch bis zum
15.11.2023. Bitte senden Sie Ihre Vorschläge an die Herausgeberinnen: info@offenesmittelalter.org

Herausgeberinnen:
Dr. Luise Borek – Technische Universität Darmstadt, Institut für Sprach- und Literaturwissen-
schaft, Deutschland
Dr. Katharina Zeppezauer-Wachauer – Universität Salzburg, Mittelhochdeutsche Begriffsdaten-
bank (MHDBDB), Österreich
Dr. Karoline Döring – Universität Salzburg, Interdisziplinäres Zentrum für Mittelalter und Früh-
neuzeit, Österreich
Bitte beachten Sie folgenden Hinweis: Das Themenheft erscheint bei Heidelberg University
Publishing im Open Access unter der Lizenz CC-BY-SA 4.0.

Planung des weiteren Ablaufs:
● Mitte Dezember 2023: Auswahl der Beiträge und Zusage an die Autor:innen
● Mitte Juni 2024: Einsendung der Beiträge; Weitergabe der Beiträge in die Begutachtung
● vorauss.10./11. Oktober 2024, Salzburg: Heft-Workshop im Stil einer
Autor:innenkonferenz zur Diskussion der Beiträge
● Anfang November 2024: Abgabe der auf der Grundlage der Gutachten und der
Workshopdiskussion überarbeiteten Beiträge
● 28. Februar 2025: Versand der lektorierten Beiträge zur letzten Prüfung an die
Autor:innen
● April 2025: Versand der Druckfahnen an die Autor:innen
● Mai/Juni 2025: Erscheinungstermin online und im Buchhandel

Link zur PDF Datei des Calls auf den Seiten des Mediävistenverbandes: https://www.mediaevistenverband.de/wp-content/uploads/Call_Das-Mittelalter_Schnittstelle-Mediaevistik.pdf

 

  •