普通视图

Received before yesterday

Virtuelles DH-Kolloquium an der BBAW, 26.01.2026: „Vertrauen in Daten und Code: Software-Engineering Praktiken zwischen Refactoring, Feature-Wünschen und Publikationsdruck“

2026年1月15日 17:22

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 26. Januar 2026, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Bastian Politycki & Alexander Häberlin (Sammlung Schweizer Rechtsquellen (SSRQ))

Die Entwicklung nachhaltiger Forschungssoftware in den Digital Humanities ist kein rein mechanisches Unterfangen, sondern ein ständiger Aushandlungsprozess zwischen technischen Anforderungen, wissenschaftlicher Arbeit und Pflege der Codebasis. Am Beispiel der „Sammlung Schweizerischer Rechtsquellen“ (SSRQ) beleuchtet dieser Vortrag die Herausforderungen, eine komplexe, historisch gewachsene Editionsinfrastruktur technisch zukunftsfähig zu halten.

Im Zentrum steht die Adaption des professionellen Research Software Engineering (RSE) für den geisteswissenschaftlichen Alltag. Methoden wie Test-Driven Development (TDD) werden nicht nur zur Validierung von Code, sondern auch zur Qualitätssicherung historischer Daten eingesetzt, womit das notwendige „Vertrauen“ in die gedruckte und digitale Edition geschaffen wird. Gleichzeitig erfordert die langfristige Wartbarkeit ein kontinuierliches Refactoring der Codebasis.

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzrraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.

Virtuelles DH-Kolloquium an der BBAW, 24.11.2025: „TEI-Publisher“

2025年11月17日 20:32

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 24. November 2025, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Wolfgang Meier (Jinntec GmbH)

Der Vortrag stellt die neueste Version von TEI Publisher vor und demonstriert einige der wesentlichen Neuerungen. TEI Publisher 10 führt die Grundidee eines modularen Werkzeugkastens fort und implementiert sie auf einer höheren Ebene: an die Stelle einer zentralen Anwendung, die jeweils auf konkrete Editionsprojekte angepasst wird, tritt nun eine Sammlung von Profilen. Jedes Profil behandelt einen spezifischen Aspekt. Profile implementieren sowohl technische Grundlagen, wie z.B. die Unterstützung für ein bestimmtes XML-Format, Kommunikationsprotokoll oder Teile der Benutzeroberfläche, wie auch funktionale Aspekte, die auf einen bestimmten Editionstyp zugeschnitten sind, z.B. die Navigation zwischen Briefen einer Korrespondenz. Auch Webdesign und Darstellung werden durch Profile festgelegt und sind entsprechend austauschbar.

Eine digitale Editionsanwendung entsteht dann durch die Kombination unterschiedlicher Profile und deren Konfiguration. Letzere erfolgt über eine zentrale Konfigurationsdatei, zu der jedes Profil seine Parameter beiträgt und aus der die Anwendung erzeugt wird. Dies vereinfacht den Entwicklungsprozeß weiter, insbesondere für Anwender ohne Programmiererfahrung. Die Entwicklung kann darüber hinaus nun völlig iterativ erfolgen, d.h. es können jederzeit einzelne Profile hinzugefügt, verändert oder entfernt werden.

Die Aufteilung in Profile verbessert neben der Wiederverwendbarkeit insbesondere auch die Wartbarkeit der Anwendung: Updates können großteils automatisch durchgeführt werden, wenn sich einzelne Profile verändern. Bislang musste dagegen jeweils die gesamte Editionsanwendung manuell angepasst werden, um von einer neueren TEI Publisher-Version zu profitieren. Mit TEI Publisher 10 kümmert sich der zentrale Anwendungsmanager, Jinks, um die Aktualisierung aller Profile und ihrer Abhängigkeiten.

Nutzer können auch eigene Profile erstellen und in die Bibliothek von TEI Publisher integrieren. Dies macht zum einen dann Sinn, wenn bestimmte funktionale oder visuelle Aspekte automatisch auf mehrere Editionsprojekte angewandt werden sollen. So kann z.B. sichergestellt werden, dass alle Publikationen einer Institution eine einheitliche Gestaltung aufweisen und festgelegte Mindeststandards einhalten. Zum anderen können Projekte, die eine bestimmte Funktionalität benötigen, diese als generalisiertes Profil zu TEI Publisher beitragen und mit anderen Projekten teilen. Damit steigt die Wahrscheinlichkeit, dass das entsprechende Profil auch auf längere Sicht verfügbar bleibt und gewartet wird.

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzrraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.

Bericht zum Workshop „APIs for text-based digital editions“ am 25.09.2025

2025年11月17日 19:13

Wird es sie bald geben, die eine API, sie alle zu finden und auf ewig zu binden? Im Workshop „APIs for text-based digital editions“, der in Kooperation der Universitätsbibliothek Heidelberg und Text+ am 25.09.2025 online stattfand, wurde unter anderem auch das diskutiert. Mehr Informationen dazu gibt es im folgenden Beitrag, der den Workshop und dessen zentrale Ergebnisse zusammenfasst.

Einleitung

Was sind APIs?​

Programmierschnittstellen („API“ von Application Programming Interface) stellen Funktionen bereit, mit denen Informationen aus einem System abgerufen oder gesendet werden können. Da die zulässigen Abfragen, möglichen Parameter und Rückgaben einer API genau definiert sind, können verschiedene Systeme und Anwendungen so einheitlich und effizient auf die Daten zugreifen, ohne die genaue Struktur des zugrundeliegenden Systems kennen zu müssen. 

Beispielsweise bietet das Hochschulbibliothekszentrum des Landes NRW die API lobid-gnd an, durch die der Zugriff auf die Bestände der Gemeinsamen Normdatei (GND) der Deutschen Nationalbibliothek verhältnismäßig aufwandsarm in andere Anwendungen integriert werden kann. In dem Webportal einer digitalen Edition könnten zum Beispiel weitere Informationen zu einer Named Entity angezeigt werden, indem beim Klick auf diese im Hintergrund eine Anfrage an einen Endpunkt der lobid-gnd-API gesendet wird (z.B.: https://lobid.org/gnd/search?q=Heidelberg&format=json). Diese liefert die in der GND gespeicherten Informationen in einem einheitlichen – und in der Dokumentation der API beschriebenen – Format aus, das so seitens des Webportals für die Anzeige aufbereitet werden kann und die gewünschte Information angezeigt wird (z.B.: „Heidelberg – Stadt am Neckar, Regierungsbezirk Karlsruhe, 1196 urkundl. erwähnt“).

Die Zugänglichmachung der Datenschicht einer Edition über eine API kann damit die Recherche, Vernetzung und Nachnutzung der Editionsdaten bedeutend erleichtern; sie trägt also auch zur Umsetzung der FAIR-Prinzipien bei. Nicht ohne Grund fragt der Kriterienkatalog der Rezensionszeitschrift für digitale Editionen RIDE explizit nach dem Vorhandensein von technischen Schnittstellen.1

Idee eines Workshops zum Thema APIs

APIs finden jedoch trotz der vielen Möglichkeiten, die sie mit sich bringen, bisher noch keine breite Anwendung im Bereich der digitalen Editionen und der auf ihnen aufbauenden Forschung. Deshalb wurde in Kooperation der Universitätsbibliothek Heidelberg mit Text+ ein gemeinsamer Workshop zum Thema „APIs for text-based digital editions“ veranstaltet.

Ziel des Workshops war es, mögliche API-Nutzer:innen (z.B. Editionswissenschaftler:innen, Digital Humanists, Sprachwissenschaftler:innen) mit den Dienstanbieter:innen und Entwickler:innen zusammenzubringen, um gemeinsam Grenzen und Möglichkeiten der Schnittstellen zu erkunden, Bedarfe, Wünsche und Weiterentwicklungsmöglichkeiten zu sammeln sowie eventuelle Hürden bei der Verwendung und Implementierung zu minimieren.

Der Workshop

Teilnehmer:innen

Am 25.09. trafen über 60 Personen für den Online-Workshop zusammen. Neben Forscher:innen aus Deutschland, Österreich und der Schweiz waren auch Teilnehmende aus u.a. Polen, der Türkei, Italien und den USA dabei, womit sich die Entscheidung, Englisch als Workshop-Sprache zu verwenden, direkt als richtig erwies. Vertreten waren u.a. Bibliotheken, Forschungsinstitute, dedizierte DH-Zentren und Data Science Labs sowie auch konkrete Forschungsprojekte.

Programm

Das etwa sechsstündige Programm gliederte sich dabei in drei Teile:

  • Vortragsteil: Vier Präsentationen à 20 Minuten zu konkreten Schnittstellen(-spezifikationen) mit jeweils unmittelbar anschließender, kurzer Fragerunde
  • Diskussionsteil: Zwei Breakouträume (einmal mit technischem Fokus und einmal mit Fokus auf Nutzung und Bereitstellung) mit anschließender gemeinsamer Zusammenfassung
  • Anwendungsteil: Vortrag zur Implementierung der DTS-Spezifikation im TEI Publisher als praktisches Beispiel für die Schnittstellenintegration; ebenfalls mit anschließender Diskussionsrunde.

Vorgestellte APIs

Die vier vorgestellten Schnittstellen(-spezifikationen) werden nachfolgend zum besseren Überblick kurz erläutert.

Distributed Text Services

Diese API-Spezifikation wird seit 2015 unter ständigem Input der Community gemeinschaftlich entwickelt und liegt aktuell als Release Candidate vor; die Veröffentlichung von Version 1.0 soll dieses Jahr erfolgen. Die Spezifikation sieht neben dem Einstiegspunkt drei Endpunkte (d.h. Orte, an die Anfragen gesendet werden können) vor:

Citable units können dabei grundsätzlich jeder Art sein; denkbar wären z.B. Kapitel, Paragraphen, Seiten oder auch Verszeilen. Durch einen oder mehrere sogenannte citationTrees wird für jede Ressource hinterlegt, welche Strukturen für sie als mögliche Zugriffsform bereitstehen, sodass beispielsweise vom selben Text (sofern implementiert) sowohl die ersten 20 Seiten als auch semantisch-logische Einheiten wie z.B. 3 Kapitel abgerufen werden könnten. Das primäre Format, das über den document-Endpoint bereitgestellt wird, ist TEI-XML; über den mediaType-Parameter können jedoch auch andere verfügbare Serialisierungen der Daten abgerufen werden, z.B. plain text, HTML oder ganz andere. Die übrigen DTS-Endpunkte nutzen JSON-LD zur Auslieferung der Informationen.

SHINE API

Die SHINE API-Spezifikation wurde im Kontext des RISE-Projektes vom Max-Planck-Institut für Wissenschaftsgeschichte in Berlin sowie der Staatsbibliothek zu Berlin entwickelt und liegt in Version 1 vor. Ähnlich wie bei DTS werden Texte hier als Hierarchie von content units und sections verstanden, die in resources enthalten sind, wobei die Ressourcen wiederum in collections gesammelt werden. Über insgesamt 7 Endpunkte ist dabei u.a. Folgendes möglich, wobei die Antwort stets im JSON-Format erfolgt:

  • collections, resources, sections und content units sowie deren zugehörige Metadaten  einsehen
  • eigene Korpora aus resources zusammenstellen und diese abrufen
  • verfügbare Forschungswerkzeuge für collections abrufen/hinterlegen

Zum letzten Punkt: Ressourcen, die über eine SHINE API zugreifbar sind, können die RISE-Infrastruktur nachnutzen; darunter den Import in Textanalyse- oder Annotationsplattformen wie MARKUS und Recogito oder die Einbindung in den RISE Catalog. Über die RISE-Middleware kann zudem beim Zugriff auf ausgewählte Ressourcen ein Authentifizierungsschritt ergänzt werden, wenn gewünscht.

UDT-ITF API

Dieser API-Spezifikationsvorschlag orientiert sich am IIIF-Standard und wurde in dem 2-Jahres-Projekt „Unlocking Digital Texts: Towards an Interoperable Text Framework“ erarbeitet. Er liegt aktuell in Version 0.1.0-beta vor und wird weiter ausgebaut. 

Der Zugriff auf Textfragmente erfolgt hier mittels der Text Fragment API, während die Text Information API Metadaten zu den Textressourcen und eventuellen Versionen ausliefert. Anders als die bisher vorgestellten API-Spezifikationen ist die Versionierung damit explizit in der Spezifikation enthalten – während bei DTS z.B. indirekt mittels Dublin Core-Metadateneinträgen angegeben werden könnte, dass eine Ressource eine andere ersetzt, ist die Version hier Teil der Fragment-Anfrage: http://{server}{/prefix}/{identifier}/{version}/{mode}/{fragment}/{quality}{.format}

Die Fragmente werden dabei durch sogenannte modes spezifiziert. Vordefiniert sind u.a. char, token und book – bei char würden Fragmente z.B. anhand von character offsets zugreifbar sein, während book eine weitere Untergliederung in Seiten, Zeilen und Zeichen zulässt, sodass book-Fragmente mittels Koordinaten aus Seite–Zeile–Zeichen gebildet werden können. Diese Fragmente werden stets anhand der plaintext-Version einer Ressource berechnet, d.h. ein Server, der diese API-Spezifikation implementiert, muss sicherstellen, dass eventuelles Tagging ignoriert wird. Weitere, selbst definierte modes auf Basis der vordefinierten Möglichkeiten sind ebenso zulässig wie das Zugreifen auf die gesamte Textressource mittels der mode “full”. Als auslieferbare Formate sind dabei txt, TEI-XML, HTML und Markdown im Entwurf vorgesehen. 

Auf die weitere Gliederung der Textressourcen in übergreifende Sammlungen wird hier verzichtet, d.h. das Konzept der collections gibt es hier nicht.

TextAPI

Die TextAPI-Spezifikation ist ebenfalls von IIIF inspiriert und wird von der SUB Göttingen entwickelt. Die Spezifikation liegt in Version 1.4.2 vor, wobei das Release der Version 2.0.0 aktuell in Planung ist. 

Mittels der TextAPI können collections, manifests (physische Expression eines Werks) sowie items oder jeweils zugehörige Metadaten abgerufen, erstellt, gelöscht und ersetzt werden. Im JSON-Inhaltsobjekt können beliebige Serialisierungen der Ressourcen per URL verlinkt werden; worum genau es sich bei einem item handelt, wird dabei durch den Typ-Eintrag im JSON-Objekt klar, der frei gewählt werden kann. Ebenfalls enthalten ist dort auch ein data integrity object, in welchem die Prüfsumme der referenzierten Ressource sowie der zur Generierung verwendete Algorithmus hinterlegt werden. Diese Möglichkeit zur Sicherstellung der Datenintegrität ist in den anderen Spezifikationen nicht integriert oder zumindest nicht pflichtmäßig enthalten.

Das hier entwickelte Ökosystem umfasst neben der TextAPI auch eine AnnotationAPI, SearchAPI und IndexAPI sowie insbesondere den Text Viewer for Digital Objects (TIDO), der TextAPI-JSON konsumiert und als Frontend einer darauf aufbauenden Web Application verwendet werden kann. Ein Beispiel dafür findet sich hier: https://ahiqar.uni-goettingen.de/arabic-karshuni.html?tido=m5_i0_p0.0-1.0-2.1-3.0

Zentrale Ergebnisse der gemeinsamen Diskussion

#OneAPIToRuleThemAll?

Ausgehend von der Feststellung, dass die diskutierten API-Spezifikationen ein ähnliches Textverständnis zugrundelegen und REST-basiert sind, stellte sich gleich zu Beginn der Diskussionsrunde die Frage, ob die vier verschiedenen Spezifikationen in einen gemeinsamen Standard zusammengeführt werden könnten. 

Dagegen spricht, dass die präsentierten APIs natürlich nicht die Gesamtheit aller Schnittstellen in diesem Bereich darstellen und schon die vier genannten durch die unterschiedlichen Entwicklungs- und Anwendungskontexte verschiedene Fokusse und damit auch unterschiedliche Features mitbringen. Zudem sind manche der Schnittstellen bereits Teil eines größeren Ökosystems, sodass Änderungen hin zu einer gemeinsamen Spezifikation für Inkompatibilitäten und damit nachträglichen Anpassungsaufwand sorgen würden.

Allerdings brächte ein gemeinsamer Standard enorme Vorteile sowohl für Forschende als auch Infrastrukturanbietende mit sich: Durch ein abstraktes und flexibles Textmodell (wie es die bisher betrachteten APIs verwenden) wäre es möglich, einheitlich auf Texte und zugehörige Metadaten unterschiedlichster Editionsprojekte zuzugreifen. Die einmalige Einarbeitung in diesen Standard und die API-Verwendung würde also den Zugang zu einer Fülle von mit viel Mühe und Zeit aufbereitetem Forschungsmaterial erlauben. Mit Sicherheit würde das auch die Nachnutzung dieser Daten fördern. Infrastrukturanbieter:innen müssten gleichzeitig lediglich einen einzigen Standard implementieren und zugehörige Skripte pflegen, was die Etablierung und Verfügbarhaltung dieser Services deutlich erleichtert. Gleiches gilt für Entwickler:innen von Forschungssoftware, die so leichter überblicken könnten, welche Schnittstellen ihr Produkt vielleicht anbieten sollte.

Für die Zusammenführung der verschiedenen Spezifikationen wären dabei natürlich viele Abstimmungen nötig – idealerweise nicht nur zwischen den Entwickler:innen, sondern auch innerhalb der Community. Vielleicht kann die zur Vorbereitung des Workshops erstellte Übersicht der vier Spezifikationen neben der Überblicksfunktion hierfür auch als Diskussionsgrundlage dienen: https://doi.org/10.11588/DATA/4EKAGI (falls Interesse besteht, dort weitere APIs aufzunehmen, gerne melden!). 

Use Cases sammeln

Während der Diskussionsrunden stelle sich mehrmals die Frage, wer genau APIs nutzt und zu welchem Zweck – dies sowohl von Seiten der Wissenschaftler:innen aus, die mögliche Einsatzzwecke und damit Mehrwerte der Schnittstellen kennenlernen wollen, als auch von den Entwickler:innen, die konkrete Fallbeispiele nutzen können, um die API-Spezifikation weiterzuentwickeln und an die Bedarfe der Community anzupassen. Beispielsweise bat Hugh Cayless um Textzeugen mit komplexeren Strukturen aus Editionsprojekten, um sicherstellen zu können, dass das Design des DTSnavigation-Endpunktes die API-Implementierung in einem Projekt nicht behindert. 

Im ersten Schritt könnten die (geplanten oder bereits umgesetzten) Anwendungsfälle über die jeweiligen GitHub-/GitLab-Repositorien oder mittels der auf den API-Webseiten angegebenen Kontaktmöglichkeiten übermittelt werden. Die auf den Webseiten oft schon enthaltenen Informationen zur API-Nutzung in bestimmten Projekten könnten dann noch weiter ausgebaut werden und so vielleicht auch weitere Nachnutzungen inspirieren.

Implementierung einer API-Spezifikation: DTS im TEI Publisher

Der Vortrag von Magdalena Turska und Wolfgang Meier zur Implementierung der DTS-Spezifikation im TEI Publisher stellte den letzten Teil des Workshops dar. In der aktuellen Version 9 des TEI Publishers sind die beiden DTS-Endpunkte collection und document – jeweils zur Einsicht in Dokumentensammlungen und zum Herunterladen von Ressourcen – bereits integriert; in Version 10 soll der fehlende navigation-Endpunkt folgen. Den Nutzenden des TEI Publishers soll es dabei möglich sein, die DTS-Komponente mit wenigen Klicks zu ihrer Editionsapp hinzuzufügen oder abzuwählen, ohne selbst etwas implementieren zu müssen. 

Dies stellt jedoch besondere Herausforderungen an die Entwicklung seitens TEI Publisher, da der navigation-Endpunkt Wissen zur Textstruktur fordert, die je nach Ressource sehr unterschiedlich ausfallen kann. Das aktuell dafür herangezogene TEI-Element citeStructure ist jedoch für die Abbildung sehr komplexer Strukturen nur bedingt geeignet. Magdalena Turska schlug deshalb nach der Darlegung der Schwierigkeiten als eine mögliche Lösung vor, die ODDs (One Document Does it All – das TEI-eigene Schemaformat) derart anzupassen, dass über sie Aussagen zur Textstruktur gewonnen werden können. Damit einher ging die Idee, eine Registry dieser ODD-Dateien und DTS-nutzenden Projekte zu nutzen, da die dafür nötigen Informationen dann ohnehin im TEI Publisher vorlägen. 

Persönliches Fazit

Insgesamt sind meine Kollegen und ich mit vielen Fragen in den Workshop gestartet und mit mindestens so vielen Anregungen auch wieder davon zurückgekommen. Die allgemeine Bereitschaft, Erfahrungen zu teilen, Entwicklungsentscheidungen zu diskutieren und erneut zu durchdenken sowie das große Interesse an einem gemeinsamen Standard haben mich dabei besonders gefreut. Letzteres haben wir zusammen mit dem Wunsch nach mehr Orientierung und Nutzungsbeispielen auch klar als Bedarfe festgestellt. Gelegentlich hatten wir in den Diskussionsrunden den Eindruck, dass sich die Nicht-API-Entwickler:innen noch etwas zurückhielten – vielleicht, weil das Thema neu ist und man sich erst einmal einen Eindruck davon machen wollte. Dass wir dies mit der Kombination aus Vorträgen und Fragerunden unterstützen konnten, ist gut; zukünftige Angebote könnten hier aber vielleicht noch expliziter auf API-Neulinge eingehen. Vielleicht gibt es ja sogar bald Schulungen zu einem gemeinsamen API-Standard… In jedem Fall hoffen wir als Veranstalter, dass alle Teilnehmenden etwas aus dem Workshop für sich mitnehmen konnten, und bedanken uns noch einmal herzlich für die gemeinsame Zeit.

 

Verfasst von Katharina Brückmann, mit freundlicher Unterstützung von Philipp Hegel, Jakub Šimek und Leonhard Maylein.

  1. Siehe Punkt 4.9 in: Sahle, Patrick et al.: „Criteria for Reviewing Scholarly Digital Editions, version 1.1“, abgerufen unter https://www.i-d-e.de/publikationen/weitereschriften/criteria-version-1-1/ am 17.11.2025. ↩

ediarum.MEETUP – nächste virtuelle Veranstaltung am 24.11.2025

2025年11月14日 01:14

Liebe ediarum-Community, liebe ediarum-Interessierte, liebe Kolleg:innen!

im Namen des Konsortiums Text+ der Nationalen Forschungsdateninfrastruktur (NFDI) und des ediarum-Teams an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) laden wir Sie herzlich zum nächsten virtuellen ediarum.MEETUP ein:

 am Montag, den 24. November 2025, 11:00 Uhr s.t.

Marcus Lampert aus der TELOTA-Abteilung der BBAW stellt ein neues ediarum-Modul vor: ediarum.WEBDAV. Vor einem Jahr an der BBAW eingeführt, verfolgt ediarum.WEBDAV das Ziel, ein sicheres und transparentes System für das Bearbeiten, Speichern und Sichern von XML-Forschungsdaten bereitzustellen. Mittlerweile nutzen bereits fast zehn Projekte an der BBAW die Software täglich.

Marcus wird die Software aus verschiedenen Blickwinkeln vorstellen: Zunächst demonstriert er, wie Nutzerinnen und Nutzer über Oxygen und die Benutzeroberfläche mit dem System arbeiten. Anschließend zeigt er, wie ediarum.WEBDAV automatische Git-Commits verwendet, um XML-Forschungsdaten zuverlässig zu speichern und zu sichern. Schließlich werden wir gemeinsam einen Blick auf Teile des Codes werfen, um zu verstehen, wie das Laravel-Framework die verschiedenen Komponenten der Software koordiniert.

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/nad-mge-0rq-ufp erreichbar.

***

Weitere Informationen zum Meetup finden Sie auf der ediarum-Website (https://www.ediarum.org/meetups.html).

Das ediarum.MEETUP ist primär für DH-Entwickler:innen gedacht, die sich zu spezifischen ediarum-Entwicklungsfragen austauschen wollen, jedoch sind auch ediarum-Nutzer:innen und Interessierte herzlich willkommen.

Wir freuen uns auf zahlreiches Erscheinen!

Viele Grüße
Nadine Arndt im Namen der ediarum-Koordination

Workshop: Digitale Editionen der Zeitgeschichte zwischen KI und Linked Open Data

2025年11月7日 20:43
Das aktuelle Bild hat keinen Alternativtext. Der Dateiname ist: KGParl_titel_L.png

Datum: 4.–5. Dezember 2025
Ort: Kommission für Geschichte des Parlamentarismus und der politischen Parteien (KGParl), Schiffbauerdamm 40, Berlin
Veranstalter: Kommission für Geschichte des Parlamentarismus und der politischen Parteien (KGParl)

Beschreibung

Am 4. und 5. Dezember 2025 findet in den Räumen der Kommission für Geschichte des Parlamentarismus und der politischen Parteien (KGParl) in Berlin der Workshop „Digitale Editionen der Zeitgeschichte zwischen KI und Linked Open Data“ statt.

Der Workshop widmet sich den aktuellen Herausforderungen und Chancen, die der Einsatz von Künstlicher Intelligenz (KI), Großen Sprachmodellen (LLMs) und Linked Open Data (LOD) für digitale Editionen historischer Quellen mit sich bringt. Im Fokus stehen insbesondere zeitgeschichtliche Materialien mit politischem, verwaltungsbezogenem und diplomatischem Charakter – etwa parlamentarische Quellen, Kabinettsakten und Verordnungen.

Ziel der Veranstaltung ist es, Potenziale und Grenzen neuer Technologien in der digitalen Editorik zu beleuchten und zu diskutieren, wie sich diese auf editorische Standards, Workflows und die wissenschaftliche Nutzung auswirken. Dabei wird die Frage in den Mittelpunkt gerückt, welche methodischen und technischen Innovationen geeignet sind, um digitale Editionen langfristig nachhaltig, interoperabel und anschlussfähig an wissenschaftliche Infrastrukturen zu gestalten.

Der Workshop bringt internationale Expertinnen und Experten aus Editionswissenschaft, Digital Humanities und Informatik zusammen, um Perspektiven für die Zukunft editorischer Arbeit im Kontext KI-gestützter Analyse und semantisch vernetzter Daten zu entwickeln.


Programm

Donnerstag, 4. Dezember 2025

13:00–13:30 Uhr – Begrüßung (KGParl): Grußworte und Einführung

13:30–14:30 Uhr – Max-Ferdinand Zeterberg (SUB Göttingen): Eine digitale Edition auf Basis von Labeled-Property-Graph

14:30–15:30 Uhr – Stephan Kurz (Österreichische Akademie der Wissenschaften, Wien): Wir fangen die Kalender ein! Datenmodellierung zum Austausch von (Protokoll-)Editionen

15:30–16:00 Uhr – Pause

16:00–17:00 Uhr – Michael Schonhardt (Technische Universität Darmstadt): „Diese Anfrage verstößt gegen die Inhaltsrichtlinien“: LLMs und RAG in der editorischen Praxis

17:00–18:00 Uhr – Daniela Schulz (Herzog August Bibliothek Wolfenbüttel): KI und die „Edition der fränkischen Herrschererlasse“ – Warum (noch) nicht!

Freitag, 5. Dezember 2025

09:00–10:00 Uhr – Hennie Brugman (KNAW Humanities Center, Amsterdam): Publication of historical parliamentary resolutions using automatic text recognition and modern web standards

10:00–11:00 Uhr – Dimitra Grigoriou (Österreichische Akademie der Wissenschaften, Wien): Overcoming Historical NER Challenges: A Case Study of the Austrian Ministerial Council Protocols

11:00–11:30 Uhr – Pause

11:30–12:30 Uhr – Monika Jantsch, Peter Land (Deutscher Bundestag): Das Dokumentations- und Informationssystem für Parlamentsmaterialien und seine API

12:30–13:30 Uhr – Maximilian Kruse (KGParl): Open by Default? Warum viele digitale Editionen nicht so offen sind, wie sie scheinen


Kontakt:
Kommission für Geschichte des Parlamentarismus und der politischen Parteien (KGParl)
E-Mail: kruse@kgparl.de, juengerkes@kgparl.de

Hinweis:
Der Workshop wird zusätzlich über Zoom übertragen. Eine digitale Teilnahme ist möglich.
Eine Anmeldung wird per E-Mail an kruse@kgparl.de erbeten.

________________

Stellenausschreibung: 2 Wissenschaftliche/r Mitarbeiter/innen und WHK (m/w/d) an der HAB

2025年10月29日 18:45

Im neuen Verbundprojekt EDIKILEX, gefördert durch das Wissenschaftsförderprogramm „zukunft.niedersachsen“, sind an der Herzog August Bibliothek Wolfenbüttel ab sofort drei neue Stellen zu besetzen. Zum nächstmöglichen Zeitpunkt suchen wir

  • eine/n wissenschaftliche/n Mitarbeiter*in (m/w/d), E 13 TV-L, 100%,
  • eine/n wissenschaftliche/n IT-Mitarbeiter*in (m/w/d), E 13 TV-L, 100% und
  • eine wissenschaftliche Hilfskraft (m/w/d), 80 h/Monat.

Alle Stellen sind auf 4 Jahre befristet.

Das Verbundprojekt EDIKILEX bringt fünf Teilprojekte aus den Bereichen Editionswissenschaft, Historische Lexikografie sowie Informations- und KI-Technologie zusammen und entwickelt neue digitale Methoden zur Erschließung historischer Sprach- und Textdaten, erprobt diese interdisziplinär und reflektiert ihren Einsatz kritisch.

Bewerbungen werden bis zum 16.11. entgegengenommen. Zu den Stellenausschreibungen: https://www.hab.de/jobs/

Stellenausschreibung: Digitale Edition (TEI) und Web Development in DFG-Langfristvorhaben „Edition zum NS-Völkermord an den Sinti und Roma in Europa“

2025年10月21日 18:23

Der Bereich Digitale Forschungsinfrastrukturen der FUB-IT an der Freien Universität Berlin sucht Unterstützung für die Umsetzung einer digitalen Edition (TEI) und Web Development im DFG-Langfristvorhaben Edition zum NS-Völkermord an den Sinti und Roma in Europa. Aktuell ist eine volle Stelle (E13) für die erste Förderphase (2026-2029) ausgeschrieben, eine Verlängerung wird angestrebt.

Aufgaben:
– Beratung und Schulung der Projektmitarbeiter*innen beim Einsatz der digitalen Anwendungen
– Mitarbeit an der Konzeption der Edition als zweisprachige digitale Edition, Unterstützung bei der (semi-)automatisierten Transkription und Annotation der Daten
– Konzeption und Implementierung des Webportals der digitalen Edition sowie der Schnittstellen für Austausch und Verknüpfung der Daten mit der Online-Enzyklopädie und mit Normdateien
– Bereitstellung und Betreuung einer nachhaltigen Infrastruktur für das Editionsprojekt (Server-Landschaft, kollaborative Arbeitsumgebung, Erschließungswerkzeuge, Präsentationsschicht, Datenbank)
– Ausarbeitung von Konzepten zur nachhaltigen Sicherung der Projektergebnisse

Einstellungsvoraussetzungen:
Abgeschlossenes wissenschaftliches Hochschulstudium (Master, Diplom) in einer tätigkeitsbezogenen Fachrichtung (z. B. Digital Humanities, Informatik) oder vergleichbare Fachkenntnisse und Erfahrungen.

Bewerbungsfrist ist der 10.11.2025.

Über das Projekt: https://www.it.fu-berlin.de/projekte/e-research-projekte/vsr/index.html

Weitere Informationen und Ausschreibung: https://www.fu-berlin.de/universitaet/beruf-karriere/jobs/nichtwiss/57_ze-fub-it/FUB-IT-FUB-IT-LSF-DFI-2025-01.html



Digitale Editionen und …

2025年10月16日 05:00

In Fortführung einer mehrwöchigen Veranstaltungsreihe im Herbst 2023, bei der die Grundlagen von digitalen Editionen mit XML vorgestellt, erprobt und diskutiert wurden, blickt die Workshopreihe Digitale Editionen und …  nun über den engeren Rahmen hinaus. In fünf Sitzungen sollen Fragen angesprochen werden, die bei der Erstellung digitaler Editionen regelmäßig auftreten, aber nicht mit Textkodierung allein zu beantworten sind.  Die in dieser zweiten Runde diskutierten Themen sind:

(1) Digitale Editionen und Webpräsentation
(2) Digitale Editionen und Versionskontrolle
(3) Digitale Editionen und Künstliche Intelligenz

Die Sitzungen finden ab dem 24. Oktober jeweils von 14 bis 16 Uhr online via Zoom statt und werden möglichst praktisch orientiert, hands-on, gestaltet. Die Sitzungen können auch einzeln besucht werden und sind für Anfänger:innen ohne Vorkenntnisse in den genannten Themenfeldern geeignet. Die Zahl der Teilnehmer:innen ist auf 25 Plätze begrenzt, eine Anmeldung über die Veranstaltungsseite daher notwendig. Dort findet sich das vollständige Programm. Verantwortliche Veranstalterin des Workshops ist die Kommission für Editionswissenschaft und Digital Humanities in der Arbeitsgemeinschaft für germanistische Edition, mit freundlicher Unterstützung des NFDI-Konsortiums Text+

ediarum.MEETUP – nächste virtuelle Veranstaltung am 14.07.2025

2025年6月25日 02:25

Liebe ediarum-Community, liebe ediarum-Interessierte, liebe Kolleg:innen!

im Namen des Konsortiums Text+ der Nationalen Forschungsdateninfrastruktur (NFDI) und des ediarum-Teams an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) sowie in Kooperation mit der Gender & Data-Arbeitsgruppe der BBAW laden wir Sie herzlich zum nächsten virtuellen ediarum.MEETUP ein:

 am Montag, den 14. Juli 2025, 11:00 Uhr s.t.

Zum Thema Encoding Gender kündigen wir folgende Beiträge an:

Themenblock Kodierung

  • Nadine Arndt (BBAW/TELOTA): Auszeichnung von „sex“ & „gender“ in ediarum
  • Marius Hug und Frank Wiegand (BBAW/Text+): Bevorzugte Waffen der Frauen – Annotationen im Deutschen Textarchiv als Voraussetzung für eine genderspezifische Korpusanalyse mit dem DWDS

Themenblock Normdaten

  • Sabine von Mering (Museum für Naturkunde Berlin): Das Potenzial von Wikidata für die Sichtbarmachung von Frauen – Gender data gap in der Naturkunde
  • Julian Jarosch, Denise Jurst-Görlach und Thomas Kollatz (Akademie der Wissenschaften und der Literatur Mainz): Genderattribution in der GND und entityXML am Beispiel der Korrespondenz Martin Bubers

Das Meetup soll den Austausch fördern, Problemfelder identifizieren und gemeinsam Lösungsansätze erarbeiten. Wir freuen uns auf vielseitige Perspektiven und eine lebhafte Diskussion!

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/nad-mge-0rq-ufp erreichbar.

***

Weitere Informationen zum Meetup finden Sie auf der ediarum-Website (https://www.ediarum.org/meetups.html).

Das ediarum.MEETUP ist primär für DH-Entwickler:innen gedacht, die sich zu spezifischen ediarum-Entwicklungsfragen austauschen wollen, jedoch sind auch ediarum-Nutzer:innen und Interessierte herzlich willkommen.

Wir freuen uns auf zahlreiches Erscheinen!

Viele Grüße
Nadine Arndt und Frederike Neuber
im Namen der ediarum-Koordination und der Gender & Data-Arbeitsgruppe

Workshop/Abendvortrag: Digitales Edieren in Gedächtnisinstitutionen, 8.7.2025, Zentralbibliothek Zürich

2025年6月20日 20:58

Seit der ‚Digitalen Wende‘ sind Gedächtnisinstitutionen mit neuen Aufgaben befasst: Neben der traditionellen Erschließung von Materialien und Beständen sowie der digitalen Präsentation von Quellen und Dokumenten übernehmen sie in zunehmendem Masse auch weitreichende Aufgaben im Bereich der digitalen Editorik. Sie verfolgen eigene digitale Editionsprojekte, in denen sie ausgewählte Bestände nach philologischen Kriterien öffentlich zugänglich machen, oder arbeiten mit Forschungsteams in Projekten zusammen.
Der Workshop möchte sich näher mit dem digitalen Edieren in Gedächtnisinstitutionen befassen und die gemachten Erfahrungen zusammentragen. Aus der spezifischen Perspektive dieser Institutionen soll der editorische Prozess von der Projektidee über die Umsetzungen bis hin zum Projektabschluss in den Blick genommen werden. Es geht dabei um einen Austausch, der dos und dont’s thematisiert und möglicherweise auch dazu beitragen kann, zukünftige Projekte effizienter zu gestalten und durchzuführen.

Der Abendvortrag von Dr. Johannes Mangei (Stv. Direktor HAB Wolfenbüttel) bietet Einblicke in die institutionellen Erfahrungen von mehr als zwanzig Jahren digitalem Edieren an der Herzog August Bibliothek in Wolfenbüttel. Ein Live-Stream wird angeboten.

Weitere Informationen finden Sie hier: 

https://www.zb.uzh.ch/de/events/workshop-digitales-edieren-in-gedaechtnisinstitutionen?date=945

https://www.zb.uzh.ch/de/events/vortrag-digitales-edieren-an-gedaechtnisinstitutionen-am-beispiel-der-herzog-august-bibliothek-wolfenbuettel?date=946

Werkstattreihe Standardisierung: edition humboldt digital

2025年6月4日 15:05

 

Christian Thomas und Stefan Dumont von der Berlin-Brandenburgischen Akademie der Wissenschaften stellten am 22. Mai 2025 die edition humboldt digital im Rahmen der „Werkstattreihe Standardisierung“ des NFDI-Konsortiums Text+ vor und gaben einen Einblick in ihre Arbeit. Sie reflektierten ihren Umgang mit Standards und deren Bedeutung für die Entwicklung der Edition. Der Werkstattbericht des Editionsprojekts kann nun hier nachgeschaut werden: https://youtu.be/ZydyHbQ_6Uo

Die Abbildung visualisiert graphisch die Vernetzung der edition humboldt digital mit internen und externen Ressourcen
Übersicht der Vernetzung der edition humboldt digital (Poster, Detail)
CC-BY-4.0 / https://zenodo.org/records/8228540

Stellenausschreibung: Stud. Hilfskraft (m/w/d) im Bereich Parlamentarismus- und Parteiengeschichte

2025年5月16日 17:32

Zur Unterstützung der Geschäftsstelle sowie verschiedener Forschungs- und Editionsprojekte werden zum nächstmöglichen Zeitpunkt studentische Hilfskräfte (m/w/d) gesucht.

Die Stelle wird mit € 13,25/Stunde vergütet. Die wöchentliche Arbeitszeit beträgt (mindestens) 10 Stunden, die an festgelegten Arbeitstagen in Präsenz abgeleistet werden. Dienstort ist das Forschungsinstitut der KGParl im »Haus der Bundespresskonferenz« in Berlin-Mitte.

Das Arbeitsgebiet umfasst hauptsächlich folgende Aufgaben:

Die Ausschreibung richtet sich an Master- oder fortgeschrittene Bachelor-Studierende mit Interesse an der Parlamentarismus-, Parteien- und Zeitgeschichte sowie im Bereich Buchherstellung/Lektorat. Wünschenswert sind Erfahrungen im Umgang mit TEI-XML, Aufmerksamkeit für digitale Methoden in der Geschichtswissenschaft und Begeisterungsfähigkeit für Bücher.

Wenn Sie hervorragende Recherchefähigkeiten, ein hohes Maß an Sorgfalt, sehr gute Kenntnisse der deutschen Sprache und intellektuelle Neugier besitzen, freuen wir uns über Ihre aussagekräftige Bewerbung bis zum 6. Juni 2025, ausschließlich auf elektronischem Weg in einem PDF-Dokument, an info@kgparl.de. Betreff: Bewerbung SHK KGParl 2025.

Bei Fragen wenden Sie sich bitte an Frau Pia Grundheber (grundheber@kgparl.de).

Bewerbungen von Menschen jeglichen Geschlechts und jeder Herkunft sind willkommen. Das Verbot der Diskriminierung, das Allgemeine Gleichbehandlungsgesetz und das Gleichstellungsdurchsetzungsgesetz werden beachtet.

https://kgparl.de/stellenausschreibung-stud-hilfskraft-m-w-d-parlamentarismus-und-parteiengeschichte-2025/

Stellenausschreibung: Wissenschaftl. Projekt-Mitarbeiter:in (m/w/d) (100%, 39 h/Woche, TVöD-Bund E13)

2025年3月5日 17:07

Die Kommission für Geschichte des Parlamentarismus und der politischen Parteien e.V. (KGParl) sucht zum 1. Juni 2025 zur Verstärkung des Editionsprogramms »Fraktionen im Deutschen Bundestag 1949–2005« eine:n

Wissenschaftl. Projekt-Mitarbeiter:in (m/w/d)
(100%, 39 h/Woche, TVöD-Bund E13)

Im Rahmen des durch den Deutschen Bundestag geförderten Editionsprogramms »Fraktionen im Deutschen Bundestag 1949–2005« erschließt und kommentiert die KGParl die Sitzungsprotokolle der Fraktionen des Deutschen Bundestages und macht die Ergebnisse online und in gedruckten Büchern zugänglich.

Nähere Informationen zur Edition:

www.fraktionsprotokolle.de
www.kgparl.de/forschung/fraktionen-im-bundestag/

Die Stelle ist zunächst bis zum 31.12.2025 befristet; eine Verlängerung bis 2028 wird vorbehaltlich der Haushaltsbewilligung angestrebt.

Ihre Aufgaben:

  • wissenschaftliche Mitarbeit im Forschungs- und Editionsprojekt sowie bei der Umsetzung des Editionsprozesses (von der Erfassung, Transkription und Annotation der archivalischen Quellen bis zur Web-Präsentation und Drucklegung);
  • Verfassen und Bearbeitung von wissenschaftlichen Texten zur Edition auf der Basis eigenständiger wissenschaftlicher Recherchen;
  • wissenschaftliche Mitarbeit im Institut der KGParl.

Ihr Profil:

  • ein abgeschlossenes Hochschulstudium (Master) in der Geschichtswissenschaft oder einer benachbarten Disziplin, möglichst im Bereich Zeitgeschichte;
  • Erfahrungen mit digitalen wissenschaftlichen Editionen sowie Interesse an der Anwendung moderner Technologien in der historischen Forschung;
  • selbstständige und strukturierte Arbeitsweise sowie Kommunikations- und Teamfähigkeit.

Wünschenswert:

  • Vertrautheit mit Methoden und Inhalten der Geisteswissenschaften, insbesondere der Geschichte der Bundesrepublik Deutschland und der Editionswissenschaft;
  • Vertrautheit mit Methoden und Werkzeugen digitaler wissenschaftlicher Editionen (bspw. TEI-XML, Normdaten, Oxygen-XML-Editor).

Wir bieten:

  • eine anspruchsvolle Stelle in einem Projekt, das Geschichtswissenschaft, Parlamentarismusforschung und Digital Humanities vereint;
  • einen Arbeitsplatz am Sitz der KGParl im Haus der Bundespressekonferenz in Berlin-Mitte (nahe Hauptbahnhof);
  • tageweises mobiles Arbeiten;
  • betriebliche Altersvorsorge für den öffentlichen Dienst (VBL);
  • Möglichkeit zur Teilnahme am (vergünstigten) Job-Ticket des VBB;
  • Möglichkeit zur Teilnahme an den vielfältigen wissenschaftlichen Veranstaltungen und Aktivitäten der KGParl

Wir freuen uns auf Ihre aussagekräftige Bewerbung bitte bis zum 28.03.2025 per E-Mail (PDF) mit dem Betreff »Bewerbung Editionsprogramm« an:

Prof. Dr. Dominik Geppert
Kommission für Geschichte des Parlamentarismus und der politischen Parteien e. V.
Schiffbauerdamm 40
10117 Berlin
info@kgparl.de

Bei Nachfragen wenden Sie sich bitte an Dr. Benedikt Wintgens, 030-206 33 94-0 bzw. wintgens@kgparl.de

Auswahlgespräche finden voraussichtlich in der 15. Kalenderwoche (vor dem 11.04.2025) statt; dazu wird gesondert eingeladen.

Bewerbungen von Menschen jeglichen Geschlechts und jeder Herkunft sind willkommen. Frauen werden nach Maßgabe des Landesgleichstellungsgesetzes Berlin bevorzugt berücksichtigt, sofern nicht in der Person eines Mitbewerbers liegende Gründe überwiegen. Die Rechte von Menschen mit einer Schwerbehinderung, bei gleicher Eignung bevorzugt berücksichtigt zu werden, bleiben unberührt.

Zur Stellenausschreibung als PDF

Call for Contributions: »Digitale Editionen der Zeitgeschichte zwischen KI und Linked Open Data: Herausforderungen und Perspektiven«

2025年2月21日 17:19

Zum 5-jährigen Bestehen der digitalen TEI-Edition »Fraktionen im Deutschen Bundestag. Sitzungsprotokolle 1949 bis 2005« (fraktionsprotokolle.de) lädt die KGParl ExpertInnen aus den Digital Humanities, der Editionswissenschaft und angrenzenden Disziplinen am 4./5. Dezember 2025 zum Workshop »Digitale Editionen der Zeitgeschichte zwischen KI und Linked Open Data: Herausforderungen und Perspektiven« in Berlin ein.

Ziel des Workshops ist es, die Auswirkungen von Künstlicher Intelligenz, Großen Sprachmodellen und Linked Open Data auf digitale Editionen zu diskutieren – mit besonderem Fokus auf politischen, verwaltungsbezogenen und diplomatischen Quellen wie Parlaments- und Fraktionsprotokollen, Verordnungen oder Kabinettsakten.

Im Mittelpunkt steht die Frage, welche methodischen und technischen Innovationen erforderlich sind, um digitale Editionen parlamentarisch-administrativer Quellen langfristig nachhaltig, interoperabel und wissenschaftlich nutzbar zu machen.

Zum Call for Contributions

Beiträge für den Workshop sollen als kurzes Abstract (nicht mehr als 200–300 Wörter) eingereicht werden. Das Abstract sollte die Fragestellung, Methodik und erwarteten Ergebnisse klar skizzieren.

Bitte senden Sie Ihr Abstract bis zum 31. März 2025 an juengerkes@kgparl.de.

Einladung zum 18. Philtag an der Uni Würzburg

2025年1月22日 17:37

via Dag Nikolaus Hasse, Zentrum für Philologie und Digitalität, Universität Würzburg

hiermit lade ich Sie im Namen der Organisatoren Torsten Roeder und Christof Weiß herzlich zum 18. Philtag ein, der in Raum 00.001 des ZPD stattfindet:

Donnerstag, 6.2.2025, 14:00-19:00 Uhr: KI und digitale Edition

mit Vorträgen von Jonatan Steller, Martina Scholger, Michael Schonhardt, Leonard Konle und Anne Baillot (keynote 18:00)

Freitag, 7.2.2025, 09:30-13:00 Uhr: Computational Analysis of Multimodal Data

mit Vorträgen von Stephanie Döpper, Vincent Christlein, Christof Weiß und Uwe Kühhirt


Das volle Programm finden Sie hier:

https://www.uni-wuerzburg.de/zpd/veranstaltungen/philtag/

Bitte leiten Sie die Einladung gern an interessierte Kolleginnen und Kollegen, Studentinnen und Studenten weiter.


Herzliche Grüße
Ihr Dag Nikolaus Hasse


RIDE 19 erschienen

2024年12月20日 19:08

Wir freuen uns, die 19. Ausgabe des Rezensionsjournals RIDE, das seit 2014 vom Institut für Dokumentologie und Editorik (IDE) herausgegeben wird, anzukündigen. Die aktuelle, von Roman Bleier und Stefan Dumont herausgegebene Ausgabe der Sparte „Tools and Environments“ enthält bisher zwei Rezensionen (eins auf Englisch, eins auf Deutsch):

Die Ausgabe 19 erscheint als „rolling release“, d.h. die Ausgabe ist noch nicht abgeschlossen und demächst erscheinen noch weitere Rezensionen.

Alle Rezensionen sind abrufbar unter https://ride.i-d-e.de/issues/issue-19.

Durch den DHd-Publikationsfonds gefördert: »halb und halb« – Hybride Edition als Kompromiss?

2024年12月11日 23:26

In diesem Jahr ist meine Dissertationsschrift mit dem Titel »halb und halb« – Hybride Edition als Kompromiss? Eine Studie zu Methodik, Möglichkeiten und Grenzen in der hybriden Musikedition am Beispiel der Edition von Ludwig Baumanns »Kantate. Den Gefallenen zum Gedächtnis, den Trauernden zum Trost« beim Logos-Verlag Berlin erschienen. Die Publikation ist sowohl im Druck (teilw. in Farbe) erhältlich als auch im Open Access (PDF, Vollfarbe) und das ganz ohne Moving- oder Paywall (DOI: 10.30819/5730 und auf Zenodo).

Es freut und ehrt mich sehr, dass der Vorstand der DHd den Antrag auf Unterstützung genehmigt hat und diese Dissertationsschrift durch den DHd-Publikationsfonds gefördert werden konnte.

Was ist eigentlich eine hybride Edition? Eine Frage, die wir uns noch öfter stellen sollten. Es gibt eine große Zahl traditioneller und digitaler Editionen und auch Forschungsliteratur hierzu. Was ist aber mit den Editionen, die eine Brücke zwischen traditioneller und digitaler Edition bilden? Die Forschungsliteratur hierzu ist ziemlich ›dünn‹. Im Bereich der Musikedition werden seit etwa 20 Jahren hybride Editionen angestrengt, die nahe zu alle in Langzeit-Akademieprojekten produziert werden. Umfassende Erörterungen, was eine hybride Musikedition ist, gab es bisher allerdings nicht.

Die Schrift »halb und halb« – Hybride Edition als Kompromiss? begegnet diesem Desiderat auf eigene Weise. In der zweiteiligen Anlage wird zunächst eine scheinbar traditionelle Musikedition präsentiert, die spätestens im Kritischen Bericht die Grenzen des Medium Buch aufzeigt. Die Kritischen Anmerkungen sind nicht nur wegen ihres Umfangs digital erfasst, sondern weil es nach knapp 20 Jahren nötig erschien, diese »medienadäquater zu gestalten« (S. 330). Schließlich sind kritische Berichte von Natur aus streng schematisch und müssten sich geradezu einfach in XML modellieren lassen (vgl. Kap. I.6.3 & II.4.2.2).

Den zweiten Teil der Arbeit bildet eine theoretische Abhandlung zur hybriden (Musik-)Edition. Schwerpunkte liegen auf der Forschungssoftware Edirom (Kap. II.2) und auf dem Phänomen Online-Portal (Kap. II.3), das bei hybriden und digitalen Editionen immer stärker in Erscheinung tritt. Die Edition im ersten Teil der Arbeit wird aktiv in die Theoriebildung einbezogen, um methodische Fragen gezielt erörtern zu können. Ergänzt wird diese Dissertationsschrift durch eine umfangreiche und ebenfalls im Open Access publizierte Datensammlung (DOI: 10.5281/zenodo.10072484).

ediarum.MEETUP – nächste virtuelle Veranstaltung am 25.11.2024

2024年11月19日 02:32

Liebe ediarum-Community, liebe ediarum-Interessierte, liebe Kolleg:innen!

im Namen des Konsortiums Text+ der Nationalen Forschungsdateninfrastruktur (NFDI) und des ediarum-Teams an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) laden wir Sie herzlich zum nächsten virtuellen ediarum.MEETUP ein:

 am Montag, dem 25. November 2024, 11:00 Uhr s.t.

Dieses Mal wollen wir ohne projektspezifischen Input mit Ihnen ins Gespräch kommen und erfahren, woran Sie derzeit im ediarum-Kontext arbeiten.

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/nad-mge-0rq-ufp erreichbar.

***

Weitere Informationen zum Meetup finden Sie auf der ediarum-Website (https://www.ediarum.org/meetups.html).

Das ediarum.MEETUP ist primär für DH-Entwickler:innen gedacht, die sich zu spezifischen ediarum-Entwicklungsfragen austauschen wollen, jedoch sind auch ediarum-Nutzer:innen und Interessierte herzlich willkommen.

Wir freuen uns auf zahlreiches Erscheinen! Viele Grüße
Nadine Arndt im Namen der ediarum-Koordination

Bleibt alles anders: 10 Jahre correspSearch

2024年9月6日 17:10

Seit 2014 sammelt correspSearch die Metadaten von edierten Briefen und stellt sie zur projektübergreifenden Recherche bereit. Pünktlich zum runden Geburtstag gibt es jetzt neue Features: Visualisierungen, Volltextsuche und einen SPARQL-Endpoint. Über 270.000 edierte Briefe sind recherchierbar. Grund genug, nicht nur die neuen Funktionen vorzustellen, sondern auch zurück zu blicken und zu schauen, was noch kommt.

Von Stefan Dumont, Sascha Grabsch, Jonas Müller-Laackman, Ruth Sander und Steven Sobkowski

Blick zurück

Vor zehn Jahren, genauer gesagt am 1. September 2014, ging correspSearch mit einer E-Mail an die TEI-Liste und einem DHd-Blogpost offiziell online. Die Initiative zum Webservice war im Februar 2014 im Workshop „Briefeditionen um 1800: Schnittstellen finden und vernetzen“ entstanden, der von Anne Baillot und Markus Schnöpf an der BBAW organisiert worden war. Dort stellte Peter Stadler die Überlegungen zum geplanten TEI-Element correspDesc vor und äußerte in diesem Rahmen auch die Idee, über ein Austauschformat Korrespondenzmetadaten aus Briefeditionen bereitzustellen und editionsübergreifend zu aggregieren (Stadler 2014). 

Screenshot der Suchoberfläche im Prototypen von correspSearch, ca. 2015

Im Nachgang zum Workshop wurde an der BBAW von Stefan Dumont der Prototyp eines Webservices entwickelt, der Dateien aggregieren und basal schon recherchierbar machen konnte: correspSearch (Dumont 2018; 2023). Gleichzeitig wurde von einer Taskforce der TEI Correspondence SIG die Modellierung von correspDesc abgeschlossen (Stadler, Illetschko und Seifert 2016). Mit dem Eingang von correspDesc in die TEI-Richtlinien (Version 2.8.0) im Frühjahr 2015 konnte auch das Correspondence Metadata Interchange Format (CMIF), das ebenfalls im Rahmen der TEI Correspondence SIG entwickelt wurde, in einer ersten Version finalisiert werden. Das CMIF setzt auf ein sehr reduziertes und restriktives Set an Elementen (und damit Informationen). Charakteristisch ist die konsequente Nutzung von URIs aus Normdateien wie der Gemeinsamen Normdatei (GND) für Personen und GeoNames für Orte. Dadurch können diese Entitäten projektübergreifend eindeutig identifiziert und gesucht werden.

Von Beginn an war correspSearch auf die Datenbereitstellung seitens der Editionsvorhaben, Forschungsprojekte und Institutionen angewiesen. Datenbeiträger der ersten Stunde waren z.B. die Weber-Gesamtausgabe und Briefe und Texte aus dem intellektuellen Berlin um 1800. In den folgenden Jahren wuchs der Datenbestand langsam, aber stetig an. Im Sommer 2016 konnten schon über 17.000 edierte Briefe nachgewiesen werden. Das und die Auszeichnung von correspSearch mit dem Berliner DH-Preis 2015 gab Rückenwind für die Beantragung eines DFG-Projekts. Der Antrag wurde dankenswerterweise positiv beschieden und das Projekt konnte 2017 starten.

Im Rahmen des DFG-Projekts wurde der Prototyp durch eine neue, modularisierte Softwarearchitektur ersetzt, die im Kern vor allem auf die Suchmaschinensoftware Elasticsearch setzt. Dadurch können auch sehr große Mengen an Meta- und Volltext-Daten (zu letzterem siehe weiter unten) performant durchsucht werden. Auch für Harvesting, Ingest und API wurden jeweils neue Applikationen entwickelt, die einen sicheren und stabilen Produktivbetrieb gewährleisten.  

Kartenbasierte Suche in correspSearch

Die Software Elasticsearch ermöglichte auch eine facettierte Suche, so dass Suchergebnisse weiter exploriert und gefiltert werden können. Dabei wurden auch einige Filter entwickelt, die erst durch die Anreicherung der aggregierten CMIF-Daten mit weiteren Normdaten möglich werden. So können jetzt auch Briefe nach Geschlecht sowie Berufen ihrer Korrespondenten:innen recherchiert werden. Dazu nutzt correspSearch Daten aus der Gemeinsamen Normdatei und Wikidata nach. Mit Hilfe der von GeoNames bezogenen Geokoordinaten kann z.B. die kartenbasierte Suche benutzt werden. Hier kann nach Briefen anhand einer Region gesucht werden, die entweder frei eingezeichnet wird oder aus einem in HistoGIS vorgehaltenen, historischem Staatsgebiet (nach 1815) ausgewählt wird. Die neue Suchoberfläche wurde in Vue.js umgesetzt, die Website insgesamt ist nun responsiv und kann daher auf allen Endgeräten genutzt werden. 

Erfassungsmaske im CMIF Creator

Darüber hinaus wurde mit dem CMIF Creator ein browserbasiertes Eingabeformular geschaffen, mit dessen Hilfe Wissenschafter:innen ohne technische Vorkenntnisse digitale Briefverzeichnisse ihrer Editionen erstellen können. Bei der Eingabe von Personen und Orten kann auch direkt bequem die GND bzw. GeoNames angefragt werden, um Normdaten-IDs für Personen und Orte zu ergänzen. Die Services CMIF Check und CMIF Preview unterstützen die Überprüfung von CMIF-Dateien. Außerdem wurden eigens Erklärvideos zu correspSearch und zum CMIF Creator produziert, die die bereits vorhandene Dokumentation ergänzen. Auch die Community stellte dankenswerterweise Tools für die CMIF-Erstellung bereit: So entwickelte Klaus Rettinghaus das Python-Tool CSV2CMI, das CSV-Tabellen in CMIF-Dateien umwandeln kann. Das Tool wird von der Sächsischen Akademie der Wissenschaften auch als Webservice angeboten ergänzt um den Dienst ba[sic]?. Julian Jarosch (Akademie der Wissenschaften und der Literatur Mainz) entwickelte vor kurzem die eXistdb-Funktionsbibliothek CMIFerator, mit deren Hilfe eine CMIF API in eXistdb umgesetzt werden kann.

Das Widget csLink im Einsatz in der Weber-Gesamtausgabe (unten rechts)

Im DFG-Projekt wurde außerdem das Javascript-Widget csLink entwickelt, das zu einem edierten Brief in der eigenen digitalen Edition auf zeitlich benachbarte Briefe der Korrespondenzpartner:innen aus anderen Editionen hinweist (dafür fragt es die API von correspSearch ab). Dieser ‚erweiterte Korrespondenzkontext‘ kann sehr interessant sein, denn eine Person kann über ein Ereignis etc. an verschiedene Korrespondenzpartner schreiben – und das unter Umständen auch mit unterschiedlichem Inhalt (Dumont 2023, 745). Das Widget csLink ist unter einer freien Lizenz publiziert und kann von jeder digitalen Edition nachgenutzt werden. 

2018 kam ein kleines Nebenprojekt hinzu, das von Student:innen initiiert und umgesetzt wurde: quoteSalute (Lou Klappenbach, Marvin Kullick und Louisa Philipp, betreut von Stefan Dumont, Frederike Neuber und Oliver Pohl). Der Dienst quoteSalute bietet kuratierte Grußformeln aus edierten Briefen an, die in der eigenen (E-Mail-)Korrespondenz verwendet werden können (siehe hierzu auch den Artikel im DHd-Blog). QuoteSalute wurde mit dem DARIAH-DE DH-Award 2018 ausgezeichnet. Im selben Jahr wurde zudem der community-getriebene Projektverbund aus correspDesc, CMIF & correspSearch mit dem Rahtz Price for TEI Ingenuity der Text Encoding Initiative ausgezeichnet.

Zufällige Grußformeln mit quoteSalute

Im Laufe der vergangenen Jahre wuchs die Anzahl der in correspSearch nachgewiesenen Briefe durch zahlreiche Datenbereitstellungen – der größte Teil kam dabei aus der Fachcommunity, d.h. von den Editionsvorhaben und Institutionen selbst. Alle Datenbeiträger aufzuzählen würde den Rahmen dieses Blogbeitrags leider sprengen, aber einige sollen (neben den schon oben genannten) beispielhaft erwähnt werden: Alfred Escher-Briefedition, Alexander Rollett. Seine Welt in Briefen 1844-1903 (ZIM Graz), Briefe der Bach-Familie (Sächsische Akademie der Wissenschaften und Bach-Archiv Leipzig), Arthur Schnitzler – Briefwechsel mit Autorinnen und Autoren (M. A. Müller, G. Susen, L. Untner, ÖAW; nicht nur selbst edierte Briefe, sondern auch Metadaten zu Schnitzler-Briefen in anderen Editionen), Digitale Edition der Korrespondenz August Wilhelm Schlegels (J. Strobel & C. Bamberg), Briefe Friedrich Wilhelm Joseph Schelling 1786-1802 (BAdW), Melanchthon-Briefwechsel (Heidelberger Akademie der Wissenschaften), hallerNet, verschiedene Editionen, die im Rahmen des von Annika Rockenberger geleiteten Projekts Norwegian Correspondences (NorKorr) erfasst bzw. bereitgestellt wurden (z.B. zu Camilla Collet oder Edvard Munch), die Korrespondenz von Otto Nicolai (K. Rettinghaus), Hallesche Pastoren in Pennsylvenia (Franckesche Stiftungen), Briefe an Johann Wolfgang Goethe (Klassik Stiftung Weimar), Briefe von und an Theodor Fontane (Fontane-Archiv Potsdam), die Korrespondenz von Paul d’Estournelles de Constant (Anne Baillot & Team), The Mary Hamilton Papers (D. Denison et al.), das Thomas Gray Archive (R. Eck & A. Huber), CatCor The Correspondence of Catherine the Great … die Liste ließe sich fortsetzen. Eine vollständige Übersicht aller CMIF-Dateien bzw. Publikationen kann hier eingesehen werden. 

CorrespSearch ist für die aggregierten Daten übrigens keine Einbahnstraße: Der Webservice kann auch übrigens bereits seit dem Launch 2014 über APIs abgefragt und die Daten unter einer freien Lizenz maschinenlesbar abgerufen werden. Als Formate stehen TEI-XML, TEI-JSON sowie CSV zur Verfügung in der API-Dokumentation können die Details eingesehen werden. Im Herbst 2023 wurde die technisch rundum erneuerte API 2.0 gelauncht, die auch bei großen Abfragen eine gute Performance gewährleistet. Darüber hinaus bietet eine BEACON-Schnittstelle die Möglichkeit, die in correspSearch nachgewiesenen Korrespondenzen automatisiert (etwa aus Personenregistereinträgen) zu verknüpfen. Und dank Klaus Rettinghaus steht auch in der (deutsch- und englischsprachigen) Wikipedia eine Vorlage bereit, um anhand der GND-ID von Wikipediaartikeln zu Personen aus zu deren Korrespondenzen in correspSearch zu verlinken.

Stand der Dinge: Version 3.0 mit Visualisierungen und Volltextsuche

Vor kurzem konnte das DFG-Projekt erfolgreich abgeschlossen werden und die Version 3.0 des Webservices correspSearch freigeschaltet werden. Damit einhergehend stehen nun auch neue Funktionen bereit. Neben Verbesserungen wie durchsuchbare Facetten, wurden auch zwei grundlegend neue Funktionen eingeführt. 

Die (publizierte) Korrespondenz von A. v. Humboldt im Zeitverlauf visualisiert

Zum einen können Suchergebnisse nun auch in Visualisierungen exploriert werden. Zur Auswahl stehen drei verschiedene Visualisierungstypen: Zeitverlauf (als gestapeltes Balkendiagramm) der Korrespondenzen, Kartenansicht der Schreib- und Empfangsorte (ebenfalls im Zeitverlauf) und Netzwerkdarstellung der Korrespondenzpartner:innen. Alle drei Visualisierungen können aus dem Suchergebnis heraus (also nach dem Ausführen einer initialen Suche) aufgerufen werden. Je nach Suche eignen sich die verschiedenen Visualisierung unterschiedlich gut für eine weitere Exploration. Während der Zeitverlauf gut für die Darstellung einer Gesamtkorrespondenz ist (etwa die von Constance de Salm-Salm), eignet sich die Kartenansicht besonders gut für Reisekorrespondenzen (etwa die von A. v. Humboldt 1829 in Russland).

Korrespondenznetz aus den Daten der Weber-Gesamtausgabe

Die Netzwerkansicht dagegen ist interessant für nicht personenzentrierte Abfragen oder Editionen, die auch Briefe Dritter bzw. aus dem Umfeld enthalten (z.B. der Weber-Gesamtausgabe). Außerdem lassen sich mit ihr auch gut Briefnetze und Briefnetzwerke von ganzen Zeitschnitten erkunden (etwa 1789-1798). Allen Visualisierungen kann man durch Zoom-Funktion und Pop-Ups die zugrundeliegenden Metadaten entnehmen. Auch ist ein Wechsel zurück ins Suchergebnis für detailliertere Recherchen an vielen Stellen möglich. Das reibungslose “Switchen” vom Suchergebnis in die Visualisierung und zurück war ein zentraler Punkt im Konzept der Visualisierungen, die mit Hilfe von D3.js umgesetzt wurden.

Trefferanzeige der Suche nach „Jubiläum*“ in correspSearch. Über den Textsnippets ist markiert, ob es sich um Treffer im Regest, dem Brieftext oder dem Herausgeberkommentar handelt

Zum anderen kann correspSearch nun neben den Metadaten auch die Volltexte der edierten Briefe harvesten, aggregieren und zur Recherche bereitstellen (z.B. für eine Suche nach “Jubiläum*”). Dabei wird im CMIF lediglich die URL zum TEI-XML-Volltext des jeweiligen Briefes angegeben und beim Ingest der Metadaten von dort bezogen. Digitale Editionen, die ihre Daten sowieso schon via API anbieten, können so leicht auch die Volltexte für correspSearch bereitstellen. Aber auch der Bezug der einzelnen Dateien aus Datendumps (etwa auf GitHub oder Zenodo) ist technisch grundsätzlich möglich. Beim Ingest werden TEI-Grundstrukturen ausgewertet und im Suchergebnis entsprechend angezeigt: So können Recherchierende Treffer im (originalen) Brieftext von denjenigen im Herausgeberkommentar oder Regest unterscheiden. Derzeit sind nur Texte aus den ersten vier digitalen Editionen recherchierbar, die dankenswerterweise bereits die CMIF-Schnittstelle entsprechend erweitert haben (u.a. Weber-Gesamtausgabe und Dehmel digital). Die Menge der im Volltext durchsuchbaren Briefe werden unter dem Suchschlitz der Volltextsuche angezeigt. 

Neben der Volltextsuche werden die Suchfunktionen demnächst auch noch um eine weitere ergänzt: So kann man dann nicht nur nach Korrespondenzpartner:innen suchen, sondern auch nach erwähnten Personen. Die Funktion ist bereits fertig implementiert und wird in Kürze freigeschaltet. Sie basiert wie die Volltextsuche auf der Erweiterung des CMIF in Version 2 (Proposal, vgl. auch Dumont et al. 2019).

Mit der Version 3.0 von correspSearch wurde auch die API um eine weitere Schnittstelle erweitert: ab sofort können die Daten auch über einen SPARQL-Endpoint abgefragt werden. Dieser kann dankenswerterweise auf der Plattform lod.academy, die von der Akademie der Wissenschaften und der Literatur Mainz betrieben wird, angeboten werden. Das aktuelle RDF-Datenmodell ist dort ebenfalls dokumentiert. Zu beachten ist, dass der SPARQL-Endpoint derzeit noch als Betaversion betrieben wird und sich auch noch Änderungen am Datenmodell ergeben können. 

Der Datenbestand konnte diesen Sommer auch wieder einen neuen Stand erreichen. Vor allem durch die Datenbeiträge aus der Editions- und Forschungscommunity, aber auch aus dem Kooperationsprojekt PDB18 (siehe dazu weiter unten) können aktuell über 270.000 Briefversionen recherchiert werden.  

Bleibt alles anders

Das DFG-Projekt correspSearch Briefeditionen vernetzen ist nun zu Ende gegangen, der Webservice wird aber durch die BBAW dauerhaft weiterbetrieben (BBAW 2023, 6). Außerdem läuft derzeit noch das DFG-Kooperationsprojekt Der deutsche Brief im 18. Jahrhundert (PDB18), das zusammen mit dem Interdisziplinären Zentrum für die Erforschung der Europäischen Aufklärung an der Universität Halle und der ULB Darmstadt durchgeführt wird. Ziel des Projekts ist es, eine Datenbasis und ein kooperatives Netzwerk zur Digitalisierung und Erforschung des deutschen Briefes in der Zeit der Aufklärung aufzubauen. Im Fokus des Projekts steht die Retrodigitalisierung bzw. Metadatenerfassung von gedruckten, abgeschlossenen Briefeditionen (Décultot et al. 2023). 

Darüber hinaus wird der Webservice im PDB18-Teilprojekt an der BBAW um einige zusätzliche Funktionen erweitert (z.B. die Filter “Datenset” und “Verwendete Sprache”). Die wichtigste Entwicklung wird allerdings csRegistry werden. Mit csRegistry wird es möglich sein, für einen Brief (als “abstrakte” Entität) eine eindeutige URI zu vergeben und unterschiedliche Editionen dieses Briefes damit zu verknüpfen. Dadurch wird es in Zukunft möglich sein, verschiedene Editionen zu ein und demselben Brief in correspSearch anzeigen zu können bzw. diese “doppelten” Nennungen bei Bedarf aus den Daten herauszufiltern etwa für die Netzwerkanalyse. 

So wird die Zukunft noch ein paar Neuerungen für correspSearch bringen. Hoffentlich aber auch weiterhin viele neue digitale Briefverzeichnisse als CMIF, die den Datenbestand weiter anwachsen lassen. Denn auch wenn schon eine erkleckliche Menge an edierten Briefen in correspSearch nachgewiesen ist, die Masse der insgesamt edierten Briefe (allein im deutschsprachigen Raum) ist noch sehr viel größer. Daher ist auch ein Dienst wie correspSearch ohne die vielen großen und kleinen Datenlieferungen durch Editionsvorhaben, Wissenschaftler:innen und Institutionen nutzlos. Wir möchten uns daher an dieser Stelle für die zahlreichen Datenspenden der letzten 10 Jahre ganz herzlich bedanken. Und wer noch (oder wieder) Daten bereitstellen möchte, findet unter “Mitmachen” auf correspSearch.net alle weiteren Informationen. 

Literatur

Berlin-Brandenburgische Akademie der Wissenschaften. 2023. “Das Leitbild Open Science der Berlin-Brandenburgischen Akademie der Wissenschaften.” urn:nbn:de:kobv:b4-opus4-37530.

Décultot, Elisabeth, Stefan Dumont, Katrin Fischer, Dario Kampkaspar, Jana Kittelmann, Ruth Sander und Thomas Stäcker. 2023. “PDB18: The German Letter in the 18th Century.” [Poster]. Encoding Cultures Joint MEC and TEI Conference. Paderborn 2023. https://hcommons.org/deposits/item/hc:59731/ 

Dumont, Stefan. 2018. “correspSearch – Connecting Scholarly Editions of Letters.” Journal of the Text Encoding Initiative 10. https://doi.org/10.4000/jtei.1742.

Dumont, Stefan, Ingo Börner, Jonas Müller-Laackman, Dominik Leipold, Gerlinde Schneider. 2019. Correspondence Metadata Interchange Format (CMIF). In: Encoding Correspondence. A Manual for Encoding Letters and Postcards in TEI-XML and DTABf. Hg. v. Stefan Dumont, Susanne Haaf, and Sabine Seifert. URL: https://encoding-correspondence.bbaw.de/v1/CMIF.html URN: urn:nbn:de:kobv:b4-20200110163712891-8511250-2

Dumont, Stefan. 2023. “Briefeditionen vernetzen.” In Digitale Literaturwissenschaft: DFG-Symposion 2017, edited by Fotis Jannidis, 729–49. Germanistische Symposien. Stuttgart: J.B. Metzler. https://doi.org/10.1007/978-3-476-05886-7_30.

Stadler, Peter. 2014. “Interoperabilität von Digitalen Briefeditionen.” In Fontanes Briefe Ediert, edited by Hanna Delf von Wolzhagen, 278–87. Fontaneana 12. Würzburg: Königshausen & Neumann.

Stadler, Peter, Marcel Illetschko, and Sabine Seifert. 2016. “Towards a Model for Encoding Correspondence in the TEI: Developing and Implementing <correspDesc>.” Journal of the Text Encoding Initiative [Online] 9. https://dx.doi.org/10.4000/jtei.1742.

Update 10.09.2024: Hinweis auf Wikipedia-Vorlage für correspSearch ergänzt; Tippfehler korrigiert.
Update 13.09.2024: Hinweis auf CMIFerator ergänzt.

 

 

 

ediarum.MEETUP – nächste virtuelle Veranstaltung am 10.06.2024

2024年5月31日 21:35

Liebe ediarum-Community, liebe ediarum-Interessierte, liebe Kolleg:innen!

im Namen des Konsortiums Text+ der Nationalen Forschungsdateninfrastruktur (NFDI) und des ediarum-Teams an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) laden wir Sie herzlich zum nächsten virtuellen ediarum.MEETUP mit einem Projektbericht aus Würzburg ein:

am Montag, dem 10. Juni 2024, 11:00 Uhr s.t.

Das Zentrum für Philologie und Digitalität der Universität Würzburg betreut die technischen Aspekte verschiedener digitaler Editionsprojekte. Eine der Grundlagen hierfür stellt das ediarum-Ökosystem dar. Claudia Esch und Yannik Herbst präsentieren den dazu verwendeten Workflow.

Zunächst werden das Portfolio des ZPD und der allgemeine Workflow vorgestellt, bevor spezifische Problemstellungen und Lösungsansätze, die sich in der praktischen Arbeit mit ediarum ergeben, diskutiert werden. Dazu zählt beispielsweise die Frage nach der Versionierung mit eXist-DB und Github sowie die Herausforderungen bezüglich CI/CD.

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/nad-mge-0rq-ufp erreichbar.

***

Weitere Informationen zum Meetup finden Sie auf der ediarum-Website (https://www.ediarum.org/meetups.html).

Das ediarum.MEETUP ist primär für DH-Entwickler:innen gedacht, die sich zu spezifischen ediarum-Entwicklungsfragen austauschen wollen, jedoch sind auch ediarum-Nutzer:innen und Interessierte herzlich willkommen.

Wir freuen uns auf zahlreiches Erscheinen!

Viele Grüße
Nadine Arndt im Namen der ediarum-Koordination

❌