Marcus Lampert aus der TELOTA-Abteilung der BBAW stellt ein neues ediarum-Modul vor: ediarum.WEBDAV. Vor einem Jahr an der BBAW eingeführt, verfolgt ediarum.WEBDAV das Ziel, ein sicheres und transparentes System für das Bearbeiten, Speichern und Sichern von XML-Forschungsdaten bereitzustellen. Mittlerweile nutzen bereits fast zehn Projekte an der BBAW die Software täglich.
Marcus wird die Software aus verschiedenen Blickwinkeln vorstellen: Zunächst demonstriert er, wie Nutzerinnen und Nutzer über Oxygen und die Benutzeroberfläche mit dem System arbeiten. Anschließend zeigt er, wie ediarum.WEBDAV automatische Git-Commits verwendet, um XML-Forschungsdaten zuverlässig zu speichern und zu sichern. Schließlich werden wir gemeinsam einen Blick auf Teile des Codes werfen, um zu verstehen, wie das Laravel-Framework die verschiedenen Komponenten der Software koordiniert.
Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/nad-mge-0rq-ufp erreichbar.
Das ediarum.MEETUP ist primär für DH-Entwickler:innen gedacht, die sich zu spezifischen ediarum-Entwicklungsfragen austauschen wollen, jedoch sind auch ediarum-Nutzer:innen und Interessierte herzlich willkommen.
Wir freuen uns auf zahlreiches Erscheinen!
Viele Grüße Nadine Arndt im Namen der ediarum-Koordination
Wir möchten Sie herzlich zur nächsten Veranstaltung unserer Werkstattreihe Standardisierung einladen: Jennifer Ecker, Pia Schwarz und Rebecca Wilm werden DeReKo vorstellen und freuen sich auf die Diskussion mit uns: https://events.gwdg.de/event/1024/.
DeReKo
Das IDS beheimatet viele Daten und Tools für die Forschung mit insbesondere deutschsprachige Daten. Unter anderem besteht die Möglichkeit, große, annotierte Korpora zu durchsuchen, ein sehr prominentes Beispiel ist das Deutsche Referenzkorpus DeReKo, das mithilfe der Korpus-Analyseplatform KorAP genutzt, durchsucht und “beforscht” werden kann. Im Hintergrund müssen die Sprachdaten dafür in einem bestimmten TEI-Format vorliegen: In diesem Beitrag gehen wir auf TEI I5 ein, erläutern wie man mit welchen Tools eine Sprachdatensammlung in das notwendige Format umwandelt und so aufbereitet, dass sie am IDS als Korpus archiviert und in einem weiteren Schritt auch mit KorAP aufgerufen werden könnte.
Wir freuen uns auf den Vortrag durch unsere Kolleginnen Jennifer Ecker, Pia Schwarz und Rebecca Wilm. Bitte verteilt die Einladung gerne innerhalb eurer Kreise weiter.
Und leiten Sie diese Einladung auch gern an andere Interessierte weiter.
Worum geht es in der Werkstattreihe Standardisierung?
Anhand konkreter Anwendungsbeispiele (https://text-plus.org/themen-dokumentation/standardisierung/anwendungsbeispiele/) erhalten die Teilnehmenden Einblicke in die Verwendung von Standards und standardisierten Tools und können an den Erfahrungen der Vortragenden in ihren jeweiligen Projekten teilhaben. Ziel ist es, ihnen so die Planung und Umsetzung ihrer Vorhaben zu erleichtern.
Darüber hinaus soll die Werkstattreihe Weichen für die zukünftige Datenintegrationen in die Text+ Infrastruktur stellen, die interne Reflektion über Angebotsentwicklung, Infrastruktur und Schnittstellen voranbringen sowie Partizipationsmöglichkeiten für Datengebende beleuchten. Die Reihe ist eine gemeinsame Aktivität aller Task Areas in Text+ in Zusammenarbeit mit Kolleginnen und Kollegen aus der Community.
Die Anwendungsbeispiele:
• 20. März: DTABf, Marius Hug, Frank Wiegand
• 11. April: correspSearch, Stefan Dumont
• 22. Mai: edition humboldt digital, Christian Thomas, Stefan Dumont
• 5. Juni: INSeRT, Felix Helfer, N.N.
• 17. Juli: PROPYLÄEN. Goethes Biographica, Martin Prell
• 18. September: DeReKo, Jennifer Ecker, Pia Schwarz, Rebecca Wilm
• 16. Oktober: Klaus Mollenhauer Ausgabe, Max Zeterberg
• 20. November: BERIA Collection, Isabel Compes, Felix Rau
Zielgruppe:
Die Reihe spricht ein breites Publikum mit Bezug zu Sprach- und Textwissenschaften an. Sie ist sowohl für Neulinge, die einen ersten Einstieg in das Thema finden möchten (z. B. Promovierende, Forschende ohne Infrastrukturanbindung), aber auch für im Einsatz von Standards und Tools Versierte, die von Erfahrungen aus ähnlichen Vorhaben profitieren möchten bzw. ebenfalls ihre Erfahrungen mitteilen möchten, gleichermaßen geeignet. Gerne darf diese Einladung also breit weiterverteilt werden.
Die Einladungen für die weiteren Veranstaltungen folgen. Es ist aber bereits auch jetzt möglich, sich für alle Veranstaltungen individuell anzumelden: https://events.gwdg.de/category/284/.
Zum Thema Encoding Gender kündigen wir folgende Beiträge an:
Themenblock Kodierung
Nadine Arndt (BBAW/TELOTA): Auszeichnung von „sex“ & „gender“ in ediarum
Marius Hug und Frank Wiegand (BBAW/Text+): Bevorzugte Waffen der Frauen – Annotationen im Deutschen Textarchiv als Voraussetzung für eine genderspezifische Korpusanalyse mit dem DWDS
Themenblock Normdaten
Sabine von Mering (Museum für Naturkunde Berlin): Das Potenzial von Wikidata für die Sichtbarmachung von Frauen – Gender data gap in der Naturkunde
Julian Jarosch, Denise Jurst-Görlach und Thomas Kollatz (Akademie der Wissenschaften und der Literatur Mainz): Genderattribution in der GND und entityXML am Beispiel der Korrespondenz Martin Bubers
Das Meetup soll den Austausch fördern, Problemfelder identifizieren und gemeinsam Lösungsansätze erarbeiten. Wir freuen uns auf vielseitige Perspektiven und eine lebhafte Diskussion!
Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/nad-mge-0rq-ufp erreichbar.
Das ediarum.MEETUP ist primär für DH-Entwickler:innen gedacht, die sich zu spezifischen ediarum-Entwicklungsfragen austauschen wollen, jedoch sind auch ediarum-Nutzer:innen und Interessierte herzlich willkommen.
Wir freuen uns auf zahlreiches Erscheinen!
Viele Grüße Nadine Arndt und Frederike Neuber im Namen der ediarum-Koordination und der Gender & Data-Arbeitsgruppe
Christian Thomas und Stefan Dumont von der Berlin-Brandenburgischen Akademie der Wissenschaften stellten am 22. Mai 2025 die edition humboldt digital im Rahmen der „Werkstattreihe Standardisierung“ des NFDI-Konsortiums Text+ vor und gaben einen Einblick in ihre Arbeit. Sie reflektierten ihren Umgang mit Standards und deren Bedeutung für die Entwicklung der Edition. Der Werkstattbericht des Editionsprojekts kann nun hier nachgeschaut werden: https://youtu.be/ZydyHbQ_6Uo
Übersicht der Vernetzung der edition humboldt digital (Poster, Detail) CC-BY-4.0 / https://zenodo.org/records/8228540
Wir möchten Sie herzlich zur nächsten Veranstaltung unserer Werkstattreihe Standardisierung einladen: Felix Helfer (SAW) wird INSeRT vorstellen und freut sich auf die Diskussion mit Ihnen: https://events.gwdg.de/event/1022/.
Eine Übersicht über alle weiteren Termine der Werkstattreihe und die Anmeldemöglichkeiten finden Sie hier.
Und leiten Sie diese Einladung auch gern an andere Interessierte weiter!
Worum geht es in der Werkstattreihe Standardisierung? Anhand konkreter Anwendungsbeispiele erhalten die Teilnehmenden Einblicke in die Verwendung von Standards und standardbasierten Tools und können an den Erfahrungen der Vortragenden in ihren jeweiligen Projekten teilhaben. Ziel ist es, ihnen so die Planung und Umsetzung ihrer Vorhaben zu erleichtern.
Darüber hinaus soll die Werkstattreihe Weichen für zukünftige Datenintegrationen in die Text+ Infrastruktur stellen, die interne Reflektion über Angebotsentwicklung, Infrastruktur und Schnittstellen voranbringen sowie Partizipationsmöglichkeiten für Datengebende beleuchten. Die Reihe ist eine gemeinsame Aktivität aller Task Areas in Text+ in Zusammenarbeit mit Kolleginnen und Kollegen aus der Community.
Die Anwendungsbeispiele:
• 20. März: DTABf, Marius Hug, Frank Wiegand
• 11. April: correspSearch, Stefan Dumont
• 22. Mai: edition humboldt digital, Christian Thomas, Stefan Dumont
• 5. Juni: INSeRT, Felix Helfer
• 17. Juli: PROPYLÄEN. Goethes Biographica, Martin Prell
• 18. September: DeReKo, Jennifer Ecker, Pia Schwarz, Rebecca Wilm
• 16. Oktober: Klaus Mollenhauer Ausgabe, Max Zeterberg
• 20. November: BERIA Collection, Isabel Compes, Felix Rau
Zielgruppe
Die Reihe spricht ein breites Publikum mit Bezug zu Sprach- und Textwissenschaften an. Sie ist sowohl für Neulinge, die einen ersten Einstieg in das Thema finden möchten (z.B. Promovierende, Forschende ohne Infrastrukturanbindung), aber auch für im Einsatz von Standards und Tools Versierte, die von Erfahrungen aus ähnlichen Vorhaben profitieren möchten bzw. ebenfalls ihre Erfahrungen mitteilen möchten, gleichermaßen geeignet. Gerne darf diese Einladung also breit weiter verteilt werden.
Anmeldung
Zur Anmeldung für die nächste Veranstaltung bitte hier entlang.
Die Einladungen für die weiteren Veranstaltungen folgen. Es ist aber bereits auch jetzt möglich, sich für alle Veranstaltungen individuell anzumelden.
Wir möchten Sie herzlich zur nächsten Veranstaltung unserer Werkstattreihe Standardisierung einladen: Christian Thomas (BBAW) und Stefan Dumont (BBAW) werden edition humboldt digital vorstellen und freuen sich auf die Diskussion mit Ihnen: https://events.gwdg.de/event/1021/
Eine Übersicht über alle weiteren Termine der Werkstattreihe und die Anmeldemöglichkeiten finden Sie hier.
Und leiten Sie diese Einladung auch gern an andere Interessierte weiter!
Worum geht es in der Werkstattreihe Standardisierung? Anhand konkreter Anwendungsbeispiele erhalten die Teilnehmenden Einblicke in die Verwendung von Standards und standardbasierten Tools und können an den Erfahrungen der Vortragenden in ihren jeweiligen Projekten teilhaben. Ziel ist es, ihnen so die Planung und Umsetzung ihrer Vorhaben zu erleichtern.
Darüber hinaus soll die Werkstattreihe Weichen für zukünftige Datenintegrationen in die Text+ Infrastruktur stellen, die interne Reflektion über Angebotsentwicklung, Infrastruktur und Schnittstellen voranbringen sowie Partizipationsmöglichkeiten für Datengebende beleuchten. Die Reihe ist eine gemeinsame Aktivität aller Task Areas in Text+ in Zusammenarbeit mit Kolleginnen und Kollegen aus der Community.
Die Anwendungsbeispiele:
• 20. März: DTABf, Marius Hug, Frank Wiegand
• 11. April: correspSearch, Stefan Dumont
• 22. Mai: edition humboldt digital, Christian Thomas, Stefan Dumont
• 5. Juni: INSeRT, Felix Helfer
• 17. Juli: PROPYLÄEN. Goethes Biographica, Martin Prell
• 18. September: DeReKo, Jennifer Ecker, Pia Schwarz, Rebecca Wilm
• 16. Oktober: Klaus Mollenhauer Ausgabe, Max Zeterberg
• 20. November: BERIA Collection, Isabel Compes, Felix Rau
Zielgruppe
Die Reihe spricht ein breites Publikum mit Bezug zu Sprach- und Textwissenschaften an. Sie ist sowohl für Neulinge, die einen ersten Einstieg in das Thema finden möchten (z.B. Promovierende, Forschende ohne Infrastrukturanbindung), aber auch für im Einsatz von Standards und Tools Versierte, die von Erfahrungen aus ähnlichen Vorhaben profitieren möchten bzw. ebenfalls ihre Erfahrungen mitteilen möchten, gleichermaßen geeignet. Gerne darf diese Einladung also breit weiter verteilt werden.
Anmeldung
Zur Anmeldung für die nächste Veranstaltung bitte hier entlang.
Die Einladungen für die weiteren Veranstaltungen folgen. Es ist aber bereits auch jetzt möglich, sich für alle Veranstaltungen individuell anzumelden.
Im Namen des Konsortiums Text+ der Nationalen Forschungsdateninfrastruktur (NFDI) und des ediarum-Teams an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) sowie in Kooperation mit der Gender & Data-Arbeitsgruppe der BBAW freuen wir uns, das nächste virtuelle ediarum.Meetup anzukündigen:
Neben einer Einführung in die Thematik und einer Vorstellung der ediarum-Funktion zur Kodierung von Sex und Gender laden wir Projekte, die sich mit der Kodierung von Gender beschäftigen, ein, kurze Beiträge (ca. 5–10 Minuten) einzureichen. Das Meetup soll den Austausch zu diesem Thema fördern, Problemfelder identifizieren und gemeinsam Lösungsansätze erarbeiten. Ob Herausforderungen bei der Modellierung oder konkrete Lösungsansätze in TEI/XML – wir freuen uns auf vielseitige Perspektiven und eine lebhafte Diskussion!
Wenn Sie einen 5- bis 10-minütigen Impulsbeitrag zum Thema „Encoding Gender“ leisten möchten, senden Sie bitte eine kurze, informelle Beschreibung Ihres Beitrags bis zum 15. Mai 2025 an neuber@bbaw.de.
Viele Grüße,
Nadine Arndt und Frederike Neuber im Namen der ediarum-Koordination und der Gender & Data-Arbeitsgruppe
* Aus organisatorischen Gründen weichen wir diesmal leicht vom angestammten Rhythmus ab.
Wir möchten Sie herzlich zur nächsten Veranstaltung unserer Werkstattreihe Standardisierung einladen: Stefan Dumont (BBAW) wird correspSearch vorstellen und freut sich auf die Diskussion mit uns: https://events.gwdg.de/event/1020/
Und leiten Sie diese Einladung auch gern an andere Interessierte weiter.
Worum geht es in der Werkstattreihe Standardisierung? Anhand konkreter Anwendungsbeispiele (https://text-plus.org/themen-dokumentation/standardisierung/anwendungsbeispiele/) erhalten die Teilnehmenden Einblicke in die Verwendung von Standards und standardbasierten Tools und können an den Erfahrungen der Vortragenden in ihren jeweiligen Projekten teilhaben. Ziel ist es, ihnen so die Planung und Umsetzung ihrer Vorhaben zu erleichtern.
Darüber hinaus soll die Werkstattreihe Weichen für zukünftige Datenintegrationen in die Text+ Infrastruktur stellen, die interne Reflektion über Angebotsentwicklung, Infrastruktur und Schnittstellen voranbringen sowie Partizipationsmöglichkeiten für Datengebende beleuchten. Die Reihe ist eine gemeinsame Aktivität aller Task Areas in Text+ in Zusammenarbeit mit Kolleginnen und Kollegen aus der Community.
Die Anwendungsbeispiele:
• 20. März: DTABf, Marius Hug, Frank Wiegand
• 11. April: correspSearch, Stefan Dumont
• 22. Mai: edition humboldt digital, Christian Thomas, Stefan Dumont
• 5. Juni: INSeRT, Felix Helfer, N.N. • 17. Juli: PROPYLÄEN. Goethes Biographica, Martin Prell
• 18. September: DeReKo, Jennifer Ecker, Pia Schwarz, Rebekka Wilm
• 16. Oktober: Klaus Mollenhauer Ausgabe, Max Zeterberg
• 20. November: BERIA Collection, Isabel Compes, Felix Rau
Zielgruppe:
Die Reihe spricht ein breites Publikum mit Bezug zu Sprach- und Textwissenschaften an. Sie ist sowohl für Neulinge, die einen ersten Einstieg in das Thema finden möchten (z.B. Promovierende, Forschende ohne Infrastrukturanbindung), aber auch für im Einsatz von Standards und Tools Versierte, die von Erfahrungen aus ähnlichen Vorhaben profitieren möchten bzw. ebenfalls ihre Erfahrungen mitteilen möchten, gleichermaßen geeignet. Gerne darf diese Einladung also breit weitervereilt werden.
Die Einladungen für die weiteren Veranstaltungen folgen. Es ist aber bereits auch jetzt möglich, sich für alle Veranstaltungen individuell anzumelden: https://events.gwdg.de/category/284/
Im Rahmen der Love Data Week 2025 lädt Sie das Kompetenzzentrum OCR der Universitätsbibliotheken Tübingen und Mannheim zu einer speziellen Veranstaltung unserer OCR-Sprechstunde ein! Am Donnerstag, den 13. Februar 2025 stehen wir Ihnen diesmal etwas länger von 15:00 bis 16:30 Uhr über Zoom zur Verfügung.
Neben Ihren Fragen zur automatischen Texterkennung von Handschriften und Druckschriften werden Ihnen spannende Einblicke und Hinweise zu rechtlichen Aspekten von der Digitalisierung über die Volltexterkennung bis hin zur Bereitstellung und Nachnutzung der Volltexte durch die Juristin Vasilka Stoilova (UB Mannheim & BERD@NFDI) geboten. Nutzen Sie die Gelegenheit, Ihre rechtlichen Fragen zum Thema OCR an eine Expertin zu richten.
Wer mit dem Gedanken spielt zu Mastodon umzuziehen und noch nicht genau weiß, wie das eigentlich funktioniert, kein Verzagen! Bei der DHd 2024 gab es einen Workshop zu den Grundlagen von Mastodon, zur Digital Humanities Instanz Fedihum (herzliche Einladung) und zum automatisierten Tröten mit Autodone.
Die Folien zum Workshop mit Mareike König, Jürgen Hermes, Philip Schildkamp, Vivien Wolter, Ulrike Wuttke und Henrik Schönemann haben wir aus aktuellem Anlass auf Zenodo zur Nachnutzung veröffentlicht, viel Erfolg!
König, M., Hermes, J., Schildkamp, P., Wolter, V., Wuttke, U., & Schönemann, H. (2025, Januar 23). Microblogging mit Mastodon: Fediverse, Fedihum und Co. in den Digital Humanities – ein Praxisworkshop. DHd 2024 Quo Vadis DH (DHd2024), Passau. Zenodo. https://doi.org/10.5281/zenodo.14728233
Zu Autodone freuen sich über Nachrichten: Jürgen Hermes und Philip Schildkamp.
Wie Mastodon als Teil des Fediverse zur offenen Wissenschaftskommunikation beiträgt, welche Gedanken sich der DHd-Verband beim Aufsetzen der Fedihum-Instanz gemacht hat und welche Einsatzmöglichkeiten, z. B. in der Lehre die automatisierte Veröffentlichung von Kurznachrichten bietet, kann genauer im dazugehörigen Abstract im Book of Abstracts der DHd 2024 nachgelesen werden: König, M., Hermes, J., Schildkamp, P., Wolter, V., & Wuttke, U. (2024, Februar 21). Microblogging mit Mastodon: Fediverse, Fedihum und Co. in den Digital Humanities – ein Praxisworkshop. DHd 2024 Quo Vadis DH (DHd2024), Passau, Deutschland. https://doi.org/10.5281/zenodo.10698458
Wir freuen uns, die 19. Ausgabe des Rezensionsjournals RIDE, das seit 2014 vom Institut für Dokumentologie und Editorik (IDE) herausgegeben wird, anzukündigen. Die aktuelle, von Roman Bleier und Stefan Dumont herausgegebene Ausgabe der Sparte „Tools and Environments“ enthält bisher zwei Rezensionen (eins auf Englisch, eins auf Deutsch):
OAPEN (Open Access Publishing in European Networks) bietet ein breites Spektrum an Fachwissen, Dienstleistungen und gut kuratierten wissenschaftlichen Inhalten für Bibliothekare, Verleger, Forscher und Geldgeber. OAPEN fördert und unterstützt den Übergang zu Open Access für akademische Bücher durch die Bereitstellung offener Infrastrukturdienste für die Akteure der wissenschaftlichen Kommunikation. Wir arbeiten mit Verlagen zusammen, um eine qualitätsgeprüfte Sammlung von Open-Access-Büchern aufzubauen, und bieten Dienstleistungen für Verlage, Bibliotheken und Forschungsförderer in den Bereichen Hosting, Hinterlegung, Qualitätssicherung, Verbreitung und digitale Bewahrung.
Das DOAB (Directory of Open Access Books) ist ein von der Community betriebener Suchdienst, der wissenschaftliche, von Experten begutachtete Open-Access-Bücher indexiert und zugänglich macht und Nutzern hilft, vertrauenswürdige Open-Access-Buchverlage zu finden. Alle DOAB-Dienste sind kostenlos und alle Daten sind frei verfügbar.
Beide Initiativen sind für die Gemeinschaften rund um die NFDI-Konsortien der MoU-Gruppe von Bedeutung: NFDI4Culture, Text+, NFDI4Memory, und NFDI4Objects.
Silke Davison und Sebastiano Sali, Community Manager bei OAPEN & DOAB, werden die Zuhörer in beide Dienste einführen, die Vorteile für unsere Communities aufzeigen und über einige der vielen bereits bestehenden Arbeitsbeziehungen mit Institutionen der deutschen Wissenschaft sprechen.
Am Ende des Vortrags sollen die Teilnehmer Lust bekommen, sich mit den Diensten von OAPEN und DOAB sowie mit Open-Access-Publikationen zu beschäftigen. Dieser Vortrag wird in Englisch gehalten.
Zielpublikum
Die Veranstaltung richtet sich an Personen, die in den Sozial- und Geisteswissenschaften forschen, an einer Infrastruktureinrichtung in diesem Bereich arbeiten oder sich einfach für das Thema interessieren. Darüber hinaus sind auch Teilnehmer aus anderen NFDI-Konsortien besonders willkommen.
Für weitere Informationen zur Veranstaltung und zur Anmeldung bitte hier entlang.
im Namen des Konsortiums Text+ der Nationalen Forschungsdateninfrastruktur (NFDI) und des ediarum-Teams an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) laden wir Sie herzlich zum nächsten virtuellen ediarum.MEETUP ein:
am Montag, dem 25. November 2024, 11:00 Uhr s.t.
Dieses Mal wollen wir ohne projektspezifischen Input mit Ihnen ins Gespräch kommen und erfahren, woran Sie derzeit im ediarum-Kontext arbeiten.
Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/nad-mge-0rq-ufp erreichbar.
Das ediarum.MEETUP ist primär für DH-Entwickler:innen gedacht, die sich zu spezifischen ediarum-Entwicklungsfragen austauschen wollen, jedoch sind auch ediarum-Nutzer:innen und Interessierte herzlich willkommen.
Wir freuen uns auf zahlreiches Erscheinen! Viele Grüße Nadine Arndt im Namen der ediarum-Koordination
Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 28. Oktober 2024, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):
Timm Lehmberg (Akademie der Wissenschaften in Hamburg) über fRAGen Sie Ihre Daten – Perspektiven für den Einsatz von Retrieval Augmented Generation in den DH
***
Der Beitrag führt in die Methoden der Retrieval Augmented Generation (RAG) ein, einem mittlerweile auch in den Digital Humanities verbreiteten Verfahren, das es ermöglicht, auf eigene Datenquellen mithilfe großer Sprachmodelle (Large Language Models, LLMs) zuzugreifen. Ziel der Mehrzahl der Anwendungsfälle ist dabei zumeist, fachspezifische Abfragen und Analysen (nicht selten unter Verwendung eingeschränkt zugänglicher lokaler Datenbestände) per Chat Prompting durchzuführen.
Da bereits eine beachtliche Zahl bedienungsfreundlicher Frameworks und gut dokumentierte Workflows den Einstieg out-of-the-box erleichtern, ist das bloße Generieren solcher Abfragen keine sehr große Herausforderung mehr. Die Skalierung und Anpassung und letztendliche Nutzung im Rahmen des wissenschaftlichen Arbeitens hingegen erfordert häufig ein umfassendes Anpassen der einzelnen Schritte und Komponenten.
Anhand einiger Anwendungsbeispiele wird daher das Verfahren zunächst zu Methoden wie dem Fine-Tuning von LLMs und dem Prompt Engineering abgegrenzt werden. Darauf aufbauend werden die einzelnen Verarbeitungsschritte (Vorverarbeitung der Daten, Chunking, Skalierung des verwendeten Chat Modells etc.) und deren Auswirkungen auf das Retrievalergebnis anschaulich vorgestellt.
***
Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.
Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.
Base4NFDI is an initiative that will develop and offer a set of common shared RDM enabling services to the NFDI community. Base4NFDI supports this via an iterative three-step process, allowing a participatory path to roll-out and, importantly, gaining consensus from the NFDI community along the way. Base4NFDI will have a number of basic services at different stages of technical fruition by November 2024.
To showcase the basic services and allow the audience to understand the service offering, examine how they can integrate the service into the NFDI community, and critically evaluate what this means in real-terms in terms of technical interoperability and local policies. The interactive programme will cover aspects of the different services, get insights from the institutions who will support their take-up as well as issues such as alignment with other infrastructures both nationally and at European level.
Who is this conference aimed at:
Members of NFDI who are interested in consortia-wide buy-in to a particular service
Members of the NFDI community who are closely involved with the potential integration of the basic services within their consortia
Those who wish to contribute to critical discussions on the development of the services and any respective challenges
What are the main goals and takeaways:
To get a better understanding and discuss the rollout of the current basic services and how they will manifest when they get to operational stage
Give the NFDI community a chance to comment on the services at their respective stages
A clearer analysis of how to commit to a service and what agreements need to be in place across consortia and respective institutions
What interoperability with EOSC actually means, how this applies to basic services and what components of the NFDI basic services can be offered at EOSC level
The timetable is now finalized. Please feel free to take a look at it. You will find the revised abstract for each contribution based on the review comments.
Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 30. September 2024, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):
Christian Reul (Universität Würzburg) über Automatische Texterkennung für die (digitalen) Geisteswissenschaften – OCR4all als Open-Source-Ansatz
***
Ein zentraler Aspekt der Arbeit von geistes- und kulturwissenschaftlich Forschenden ist die Auseinandersetzung mit historischen Quellen in Form von gedruckten und handschriftlichen Textzeugen. Diese liegen häufig lediglich als Scans vor, aus denen zunächst maschinenverarbeitbarer Volltext extrahiert werden muss, wozu Methoden der automatischen Texterkennung zum Einsatz kommen. Dabei stellen gerade sehr alte Drucke und Handschriften aus verschiedensten Gründen häufig noch eine große Herausforderung dar. Das am Zentrum für Philologie und Digitalität (ZPD) der Universität Würzburg entwickelte, frei verfügbare Open-Source-Tool OCR4all hat zum Ziel, auch technisch weniger versierten Nutzenden die Möglichkeit zu geben, anspruchsvolle Drucke und Handschriften selbstständig und in höchster Qualität zu erschließen. OCR4all fasst den gesamten Texterkennungsworkflow und alle dafür benötigten Tools in einer einzigen Anwendung zusammen, die über eine komfortable grafische Nutzeroberfläche bedient werden kann.
Der Vortrag erläutert zunächst die Grundlagen der automatischen Texterkennung und stellt OCR4all und dessen Funktionsweise vor. Weiterhin wird die Anwendbarkeit und Performanz auf unterschiedlichem Material demonstriert und ein Überblick über aktuelle Arbeiten sowie ein Ausblick auf zukünftige Entwicklungen gegeben.
***
Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.
Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.
Das TextGrid Repository ist ein digitales Langzeitarchiv für geisteswissenschaftliche Forschungsdaten, das einen umfangreichen, durchsuch- und nachnutzbaren Bestand an Texten und Bildern liefert. Es ist an den Grundsätzen von Open Access und den FAIR-Prinzipien orientiert und fokussiert sich auf Texte in XML TEI, um vielfältige Szenarien der Nachnutzung zu unterstützen. Für Forschende bietet das TextGrid Repository eine nachhaltige, dauerhafte und sichere Möglichkeit zur zitierfähigen Publikation ihrer Forschungsdaten und zur verständlichen Beschreibung derselben durch erforderliche Metadaten. Mehr Informationen zum Thema Nachhaltigkeit, FAIR und Open Access befinden sich im Mission Statement des TextGrid Repository.
Der Bestand basiert auf dem Erwerb der Digitalen Bibliothek und wurde durch zahlreiche Editions- und Korpusprojekte erweitert. Dadurch befinden sich nun auch Manuskripte (Bilder) und Transkriptionen (XML/TEI-kodierte Textdaten) im TextGrid Repository, z.B. die Bibliothek der Neologie oder auch das Projekt zur deutsch-französischen Reisekorrespondenz ARCHITRAVE. Neue Texte im TextGrid Repository sind die Korpora der European Text Collection (ELTec) und das Corpus of Novels of the Spanisch Silver Age (CoNSSA)
Bereits im Jahr 2020 wurde das TextGrid Repository erstmalig mit dem CoreTrustSeal zertifiziert, das alle drei Jahre erneuert werden muss. Nun wurde das TextGrid Repository erneut mit dem CoreTrustSeal ausgezeichnet!
Das CoreTrustSeal (CTS) ist eine internationale, gemeinnützige Organisation mit dem Ziel, vertrauenswürdige Dateninfrastrukturen zu fördern. Sie zertifiziert Repositorien auf Grundlage des Anforderungskatalogs der Core Trustworthy Data Repositories Requirements. Dieser fragt Kernkompetenzen von vertrauenswürdigen Repositorien ab. Nachdem eine Zertifizierung beantragt wurde, wird der Antrag von einer Reihe internationaler Prüferinnen und Prüfer bearbeitet. Die CoreTrustSeal-Zertifizierung gehört zu den bekanntesten und international anerkannten Zertifizierungen.
Dadurch befindet sich das TextGrid Repository weiterhin in der Riege international renommierter und CTS-zertifizierter Repositorien. Das Zertifikat ist bis 2027 gültig und soll weiterhin regelmäßig erneuert werden.
Seit 2014 sammelt correspSearch die Metadaten von edierten Briefen und stellt sie zur projektübergreifenden Recherche bereit. Pünktlich zum runden Geburtstag gibt es jetzt neue Features: Visualisierungen, Volltextsuche und einen SPARQL-Endpoint. Über 270.000 edierte Briefe sind recherchierbar. Grund genug, nicht nur die neuen Funktionen vorzustellen, sondern auch zurück zu blicken und zu schauen, was noch kommt.
Von Stefan Dumont, Sascha Grabsch, Jonas Müller-Laackman, Ruth Sander und Steven Sobkowski
Blick zurück
Vor zehn Jahren, genauer gesagt am 1. September 2014, ging correspSearch mit einer E-Mail an die TEI-Liste und einem DHd-Blogpost offiziell online. Die Initiative zum Webservice war im Februar 2014 im Workshop „Briefeditionen um 1800: Schnittstellen finden und vernetzen“ entstanden, der von Anne Baillot und Markus Schnöpf an der BBAW organisiert worden war. Dort stellte Peter Stadler die Überlegungen zum geplanten TEI-Element correspDesc vor und äußerte in diesem Rahmen auch die Idee, über ein Austauschformat Korrespondenzmetadaten aus Briefeditionen bereitzustellen und editionsübergreifend zu aggregieren (Stadler 2014).
Screenshot der Suchoberfläche im Prototypen von correspSearch, ca. 2015
Im Nachgang zum Workshop wurde an der BBAW von Stefan Dumont der Prototyp eines Webservices entwickelt, der Dateien aggregieren und basal schon recherchierbar machen konnte: correspSearch (Dumont 2018; 2023). Gleichzeitig wurde von einer Taskforce der TEI Correspondence SIG die Modellierung von correspDesc abgeschlossen (Stadler, Illetschko und Seifert 2016). Mit dem Eingang von correspDesc in die TEI-Richtlinien (Version 2.8.0) im Frühjahr 2015 konnte auch das Correspondence Metadata Interchange Format (CMIF), das ebenfalls im Rahmen der TEI Correspondence SIG entwickelt wurde, in einer ersten Version finalisiert werden. Das CMIF setzt auf ein sehr reduziertes und restriktives Set an Elementen (und damit Informationen). Charakteristisch ist die konsequente Nutzung von URIs aus Normdateien wie der Gemeinsamen Normdatei (GND) für Personen und GeoNames für Orte. Dadurch können diese Entitäten projektübergreifend eindeutig identifiziert und gesucht werden.
Von Beginn an war correspSearch auf die Datenbereitstellung seitens der Editionsvorhaben, Forschungsprojekte und Institutionen angewiesen. Datenbeiträger der ersten Stunde waren z.B. die Weber-Gesamtausgabe und Briefe und Texte aus dem intellektuellen Berlin um 1800. In den folgenden Jahren wuchs der Datenbestand langsam, aber stetig an. Im Sommer 2016 konnten schon über 17.000 edierte Briefe nachgewiesen werden. Das – und die Auszeichnung von correspSearch mit dem Berliner DH-Preis 2015 – gab Rückenwind für die Beantragung eines DFG-Projekts. Der Antrag wurde dankenswerterweise positiv beschieden und das Projekt konnte 2017 starten.
Im Rahmen des DFG-Projekts wurde der Prototyp durch eine neue, modularisierte Softwarearchitektur ersetzt, die im Kern vor allem auf die Suchmaschinensoftware Elasticsearch setzt. Dadurch können auch sehr große Mengen an Meta- und Volltext-Daten (zu letzterem siehe weiter unten) performant durchsucht werden. Auch für Harvesting, Ingest und API wurden jeweils neue Applikationen entwickelt, die einen sicheren und stabilen Produktivbetrieb gewährleisten.
Kartenbasierte Suche in correspSearch
Die Software Elasticsearch ermöglichte auch eine facettierte Suche, so dass Suchergebnisse weiter exploriert und gefiltert werden können. Dabei wurden auch einige Filter entwickelt, die erst durch die Anreicherung der aggregierten CMIF-Daten mit weiteren Normdaten möglich werden. So können jetzt auch Briefe nach Geschlecht sowie Berufen ihrer Korrespondenten:innen recherchiert werden. Dazu nutzt correspSearch Daten aus der Gemeinsamen Normdatei und Wikidata nach. Mit Hilfe der von GeoNames bezogenen Geokoordinaten kann z.B. die kartenbasierte Suche benutzt werden. Hier kann nach Briefen anhand einer Region gesucht werden, die entweder frei eingezeichnet wird oder aus einem in HistoGIS vorgehaltenen, historischem Staatsgebiet (nach 1815) ausgewählt wird. Die neue Suchoberfläche wurde in Vue.js umgesetzt, die Website insgesamt ist nun responsiv und kann daher auf allen Endgeräten genutzt werden.
Erfassungsmaske im CMIF Creator
Darüber hinaus wurde mit dem CMIF Creator ein browserbasiertes Eingabeformular geschaffen, mit dessen Hilfe Wissenschafter:innen ohne technische Vorkenntnisse digitale Briefverzeichnisse ihrer Editionen erstellen können. Bei der Eingabe von Personen und Orten kann auch direkt bequem die GND bzw. GeoNames angefragt werden, um Normdaten-IDs für Personen und Orte zu ergänzen. Die Services CMIF Check und CMIF Preview unterstützen die Überprüfung von CMIF-Dateien. Außerdem wurden eigens Erklärvideos zu correspSearch und zum CMIF Creator produziert, die die bereits vorhandene Dokumentation ergänzen. Auch die Community stellte dankenswerterweise Tools für die CMIF-Erstellung bereit: So entwickelte Klaus Rettinghaus das Python-Tool CSV2CMI, das CSV-Tabellen in CMIF-Dateien umwandeln kann. Das Tool wird von der Sächsischen Akademie der Wissenschaften auch als Webservice angeboten – ergänzt um den Dienst ba[sic]?. Julian Jarosch (Akademie der Wissenschaften und der Literatur Mainz) entwickelte vor kurzem die eXistdb-Funktionsbibliothek CMIFerator, mit deren Hilfe eine CMIF API in eXistdb umgesetzt werden kann.
Das Widget csLink im Einsatz in der Weber-Gesamtausgabe (unten rechts)
Im DFG-Projekt wurde außerdem das Javascript-Widget csLink entwickelt, das zu einem edierten Brief in der eigenen digitalen Edition auf zeitlich benachbarte Briefe der Korrespondenzpartner:innen aus anderen Editionen hinweist (dafür fragt es die API von correspSearch ab). Dieser ‚erweiterte Korrespondenzkontext‘ kann sehr interessant sein, denn eine Person kann über ein Ereignis etc. an verschiedene Korrespondenzpartner schreiben – und das unter Umständen auch mit unterschiedlichem Inhalt (Dumont 2023, 745). Das Widget csLink ist unter einer freien Lizenz publiziert und kann von jeder digitalen Edition nachgenutzt werden.
2018 kam ein kleines Nebenprojekt hinzu, das von Student:innen initiiert und umgesetzt wurde: quoteSalute (Lou Klappenbach, Marvin Kullick und Louisa Philipp, betreut von Stefan Dumont, Frederike Neuber und Oliver Pohl). Der Dienst quoteSalute bietet kuratierte Grußformeln aus edierten Briefen an, die in der eigenen (E-Mail-)Korrespondenz verwendet werden können (siehe hierzu auch den Artikel im DHd-Blog). QuoteSalute wurde mit dem DARIAH-DE DH-Award 2018 ausgezeichnet. Im selben Jahr wurde zudem der community-getriebene Projektverbund aus correspDesc, CMIF & correspSearch mit dem Rahtz Price for TEI Ingenuity der Text Encoding Initiative ausgezeichnet.
CorrespSearch ist für die aggregierten Daten übrigens keine Einbahnstraße: Der Webservice kann auch – übrigens bereits seit dem Launch 2014 – über APIs abgefragt und die Daten unter einer freien Lizenz maschinenlesbar abgerufen werden. Als Formate stehen TEI-XML, TEI-JSON sowie CSV zur Verfügung – in der API-Dokumentation können die Details eingesehen werden. Im Herbst 2023 wurde die technisch rundum erneuerte API 2.0 gelauncht, die auch bei großen Abfragen eine gute Performance gewährleistet. Darüber hinaus bietet eine BEACON-Schnittstelle die Möglichkeit, die in correspSearch nachgewiesenen Korrespondenzen automatisiert (etwa aus Personenregistereinträgen) zu verknüpfen. Und dank Klaus Rettinghaus steht auch in der (deutsch- und englischsprachigen) Wikipedia eine Vorlage bereit, um anhand der GND-ID von Wikipediaartikeln zu Personen aus zu deren Korrespondenzen in correspSearch zu verlinken.
Stand der Dinge: Version 3.0 mit Visualisierungen und Volltextsuche
Vor kurzem konnte das DFG-Projekt erfolgreich abgeschlossen werden und die Version 3.0 des Webservices correspSearch freigeschaltet werden. Damit einhergehend stehen nun auch neue Funktionen bereit. Neben Verbesserungen wie durchsuchbare Facetten, wurden auch zwei grundlegend neue Funktionen eingeführt.
Die (publizierte) Korrespondenz von A. v. Humboldt im Zeitverlauf visualisiert
Zum einen können Suchergebnisse nun auch in Visualisierungen exploriert werden. Zur Auswahl stehen drei verschiedene Visualisierungstypen: Zeitverlauf (als gestapeltes Balkendiagramm) der Korrespondenzen, Kartenansicht der Schreib- und Empfangsorte (ebenfalls im Zeitverlauf) und Netzwerkdarstellung der Korrespondenzpartner:innen. Alle drei Visualisierungen können aus dem Suchergebnis heraus (also nach dem Ausführen einer initialen Suche) aufgerufen werden. Je nach Suche eignen sich die verschiedenen Visualisierung unterschiedlich gut für eine weitere Exploration. Während der Zeitverlauf gut für die Darstellung einer Gesamtkorrespondenz ist (etwa die von Constance de Salm-Salm), eignet sich die Kartenansicht besonders gut für Reisekorrespondenzen (etwa die von A. v. Humboldt 1829 in Russland).
Korrespondenznetz aus den Daten der Weber-Gesamtausgabe
Die Netzwerkansicht dagegen ist interessant für nicht personenzentrierte Abfragen oder Editionen, die auch Briefe Dritter bzw. aus dem Umfeld enthalten (z.B. der Weber-Gesamtausgabe). Außerdem lassen sich mit ihr auch gut Briefnetze und Briefnetzwerke von ganzen Zeitschnitten erkunden (etwa 1789-1798). Allen Visualisierungen kann man durch Zoom-Funktion und Pop-Ups die zugrundeliegenden Metadaten entnehmen. Auch ist ein Wechsel zurück ins Suchergebnis für detailliertere Recherchen an vielen Stellen möglich. Das reibungslose “Switchen” vom Suchergebnis in die Visualisierung und zurück war ein zentraler Punkt im Konzept der Visualisierungen, die mit Hilfe von D3.js umgesetzt wurden.
Trefferanzeige der Suche nach „Jubiläum*“ in correspSearch. Über den Textsnippets ist markiert, ob es sich um Treffer im Regest, dem Brieftext oder dem Herausgeberkommentar handelt
Zum anderen kann correspSearch nun neben den Metadaten auch die Volltexte der edierten Briefe harvesten, aggregieren und zur Recherche bereitstellen (z.B. für eine Suche nach “Jubiläum*”). Dabei wird im CMIF lediglich die URL zum TEI-XML-Volltext des jeweiligen Briefes angegeben und beim Ingest der Metadaten von dort bezogen. Digitale Editionen, die ihre Daten sowieso schon via API anbieten, können so leicht auch die Volltexte für correspSearch bereitstellen. Aber auch der Bezug der einzelnen Dateien aus Datendumps (etwa auf GitHub oder Zenodo) ist technisch grundsätzlich möglich. Beim Ingest werden TEI-Grundstrukturen ausgewertet und im Suchergebnis entsprechend angezeigt: So können Recherchierende Treffer im (originalen) Brieftext von denjenigen im Herausgeberkommentar oder Regest unterscheiden. Derzeit sind nur Texte aus den ersten vier digitalen Editionen recherchierbar, die dankenswerterweise bereits die CMIF-Schnittstelle entsprechend erweitert haben (u.a. Weber-Gesamtausgabe und Dehmel digital). Die Menge der im Volltext durchsuchbaren Briefe werden unter dem Suchschlitz der Volltextsuche angezeigt.
Neben der Volltextsuche werden die Suchfunktionen demnächst auch noch um eine weitere ergänzt: So kann man dann nicht nur nach Korrespondenzpartner:innen suchen, sondern auch nach erwähnten Personen. Die Funktion ist bereits fertig implementiert und wird in Kürze freigeschaltet. Sie basiert – wie die Volltextsuche – auf der Erweiterung des CMIF in Version 2 (Proposal, vgl. auch Dumont et al. 2019).
Mit der Version 3.0 von correspSearch wurde auch die API um eine weitere Schnittstelle erweitert: ab sofort können die Daten auch über einen SPARQL-Endpoint abgefragt werden. Dieser kann dankenswerterweise auf der Plattform lod.academy, die von der Akademie der Wissenschaften und der Literatur Mainz betrieben wird, angeboten werden. Das aktuelle RDF-Datenmodell ist dort ebenfalls dokumentiert. Zu beachten ist, dass der SPARQL-Endpoint derzeit noch als Betaversion betrieben wird und sich auch noch Änderungen am Datenmodell ergeben können.
Der Datenbestand konnte diesen Sommer auch wieder einen neuen Stand erreichen. Vor allem durch die Datenbeiträge aus der Editions- und Forschungscommunity, aber auch aus dem Kooperationsprojekt PDB18 (siehe dazu weiter unten) können aktuell über 270.000 Briefversionen recherchiert werden.
Bleibt alles anders
Das DFG-Projekt correspSearch – Briefeditionen vernetzen ist nun zu Ende gegangen, der Webservice wird aber durch die BBAW dauerhaft weiterbetrieben (BBAW 2023, 6). Außerdem läuft derzeit noch das DFG-Kooperationsprojekt Der deutsche Brief im 18. Jahrhundert (PDB18), das zusammen mit dem Interdisziplinären Zentrum für die Erforschung der Europäischen Aufklärung an der Universität Halle und der ULB Darmstadt durchgeführt wird. Ziel des Projekts ist es, eine Datenbasis und ein kooperatives Netzwerk zur Digitalisierung und Erforschung des deutschen Briefes in der Zeit der Aufklärung aufzubauen. Im Fokus des Projekts steht die Retrodigitalisierung bzw. Metadatenerfassung von gedruckten, abgeschlossenen Briefeditionen (Décultot et al. 2023).
Darüber hinaus wird der Webservice im PDB18-Teilprojekt an der BBAW um einige zusätzliche Funktionen erweitert (z.B. die Filter “Datenset” und “Verwendete Sprache”). Die wichtigste Entwicklung wird allerdings csRegistry werden. Mit csRegistry wird es möglich sein, für einen Brief (als “abstrakte” Entität) eine eindeutige URI zu vergeben und unterschiedliche Editionen dieses Briefes damit zu verknüpfen. Dadurch wird es in Zukunft möglich sein, verschiedene Editionen zu ein und demselben Brief in correspSearch anzeigen zu können bzw. diese “doppelten” Nennungen bei Bedarf aus den Daten herauszufiltern – etwa für die Netzwerkanalyse.
So wird die Zukunft noch ein paar Neuerungen für correspSearch bringen. Hoffentlich aber auch weiterhin viele neue digitale Briefverzeichnisse als CMIF, die den Datenbestand weiter anwachsen lassen. Denn auch wenn schon eine erkleckliche Menge an edierten Briefen in correspSearch nachgewiesen ist, die Masse der insgesamt edierten Briefe (allein im deutschsprachigen Raum) ist noch sehr viel größer. Daher ist auch ein Dienst wie correspSearch ohne die vielen großen und kleinen Datenlieferungen durch Editionsvorhaben, Wissenschaftler:innen und Institutionen nutzlos. Wir möchten uns daher an dieser Stelle für die zahlreichen Datenspenden der letzten 10 Jahre ganz herzlich bedanken. Und wer noch (oder wieder) Daten bereitstellen möchte, findet unter “Mitmachen” auf correspSearch.net alle weiteren Informationen.
Literatur
Berlin-Brandenburgische Akademie der Wissenschaften. 2023. “Das Leitbild Open Science der Berlin-Brandenburgischen Akademie der Wissenschaften.” urn:nbn:de:kobv:b4-opus4-37530.
Décultot, Elisabeth, Stefan Dumont, Katrin Fischer, Dario Kampkaspar, Jana Kittelmann, Ruth Sander und Thomas Stäcker. 2023. “PDB18: The German Letter in the 18th Century.” [Poster]. Encoding Cultures – Joint MEC and TEI Conference. Paderborn 2023. https://hcommons.org/deposits/item/hc:59731/
Dumont, Stefan. 2018. “correspSearch – Connecting Scholarly Editions of Letters.” Journal of the Text Encoding Initiative 10. https://doi.org/10.4000/jtei.1742.
Dumont, Stefan, Ingo Börner, Jonas Müller-Laackman, Dominik Leipold, Gerlinde Schneider. 2019. Correspondence Metadata Interchange Format (CMIF). In: Encoding Correspondence. A Manual for Encoding Letters and Postcards in TEI-XML and DTABf. Hg. v. Stefan Dumont, Susanne Haaf, and Sabine Seifert. URL: https://encoding-correspondence.bbaw.de/v1/CMIF.html URN: urn:nbn:de:kobv:b4-20200110163712891-8511250-2
Stadler, Peter. 2014. “Interoperabilität von Digitalen Briefeditionen.” In Fontanes Briefe Ediert, edited by Hanna Delf von Wolzhagen, 278–87. Fontaneana 12. Würzburg: Königshausen & Neumann.
Stadler, Peter, Marcel Illetschko, and Sabine Seifert. 2016. “Towards a Model for Encoding Correspondence in the TEI: Developing and Implementing <correspDesc>.” Journal of the Text Encoding Initiative [Online] 9. https://dx.doi.org/10.4000/jtei.1742.
Update 10.09.2024: Hinweis auf Wikipedia-Vorlage für correspSearch ergänzt; Tippfehler korrigiert. Update 13.09.2024: Hinweis auf CMIFerator ergänzt.
Jan Horstmann (Universität Münster), Christof Schöch (Universität Trier)
Die Etablierung der Digital Humanities lässt sich anhand mehrerer Merkmale beobachten und analysieren, z.B. der Publikation DH-bezogener Forschungsbeiträge, der Bewilligung und Förderung von DH-Projekten, der Etablierung von Studiengängen mit Anteilen von oder explizitem Fokus auf DH, der Gründung von DH-Forschungszentren und – last but not least – der Ausschreibung und Besetzung von DH-Professuren. Für den deutschsprachigen Raum hat sich Patrick Sahles laufend aktualisierter Blogbeitrag „Professuren für Digital Humanities“ (https://dhd-blog.org/?p=11018; Zugriff: 08.07.2024) als eine zentrale Anlaufstelle herauskristallisiert: Er verzeichnet die seit 2008 ausgeschriebenen DH- (oder DH-bezogenen) Professuren im deutschsprachigen Raum, derzeit 139 an der Zahl. In quantitativer Hinsicht lässt sich dort ein guter Überblick gewinnen, etwa wie viele DH-Professuren pro Jahr ausgeschrieben wurden (bislang ist das Jahr 2021 mit 16 Ausschreibungen der Titelverteidiger).
Was dort fehlt, ist die Möglichkeit, die DH-Professuren im deutschsprachigen Raum auch in örtlicher und zeitlicher Indizierung in den Blick zu nehmen und dadurch verschiedene Fragen leichter zu beantworten, darunter: Welche Orte haben sich wann als DH-Standorte etabliert, indem sie eine oder mehrere DH-Professuren ausgeschrieben haben? Wo sind wann mehrere Professuren entstanden? Wo sind befristete Professuren nicht dauerhaft eingerichtet worden? Und vieles mehr. All dies kann eine interaktive, dynamische Kartenvisualisierung übersichtlich darstellen. Die dafür nötige Art der Zeit-Raum-Visualisierung ist im DARIAH-DE Geo-Browser (https://de.dariah.eu/geobrowser; Zugriff: 08.07.2024) anders möglich als etwa in Wikidata, weshalb wir die Sahle’schen Daten für die Anzeige in diesem Tool aufbereitet haben – und versuchen werden, sie zukünftig regelmäßig zu aktualisieren.1
Mit dem Fokus auf die raumzeitliche Verortung von DH-Professur-Ausschreibungen im deutschsprachigen Raum setzen wir einen etwas anderen Akzent als verwandte Projekte wie etwa: Mapping the Digital Humanities (Christof Schöch, Mapping the Digital Humanities, v0.1.0, March 2024. Digital Humanities Trier. URL: https://dhtrier.quarto.pub/dhmap/; Zugriff: 08.07.2024) oder Till Grallerts Vorstöße mit Daten aus Wikidata (vgl. https://digitalcourage.social/@tillgrallert/112575546388768661; Zugriff: 08.07.2024).
Methode und Beispiele
Im Folgenden erläutern wir die methodischen Entscheidungen, die unserer Visualisierung zugrunde liegen. Prinzipiell erbt unsere Darstellung freilich die Data-capture-Entscheidungen, die bereits die Liste im Blogbeitrag Patrick Sahles bestimmen (und dort erläutert sind). Der Blog dient als Verzeichnis der seit 2008 im deutschsprachigen Raum erfolgten Ausschreibungen für DH-Professuren, ein Anspruch auf Vollständigkeit wird dabei nicht erhoben. DH-Professuren, die besetzt, aber nicht ausgeschrieben wurden, werden nicht aufgeführt. Ein Listeneintrag besteht aus einer fortlaufenden Nummerierung sowie Jahr der Ausschreibung, Ort, Stufe, Denomination, Zuordnung und Ergebnis der Ausschreibung, zum Beispiel:
33, 2015, Wien, A1, Digital Humanities, Historisch-kulturwissenschaftliche Fakultät, Andrews
Dies lässt sich lesen als: 2015 wurde an der Historisch-kulturwissenschaftlichen Fakultät der Universität Wien eine unbefristete A1-Professur für „Digital Humanities“ ausgeschrieben und (nach Durchlaufen des Verfahrens, also in der Regel deutlich später) durch Tara Andrews besetzt.
Zwei Angaben sind für die raum-zeitliche Visualisierung über das Jahr der Ausschreibung hinaus besonders wichtig und sollen aus diesem Grund hier noch einmal kontextualisiert werden: Die Kategorie „Ort“ bezeichnet den Sitz der Hochschule, an dem die jeweilige Stelle ausgeschrieben wurde. Handelt es sich um eine Universität, wird auf den Eigennamen verzichtet (z.B.: „Düsseldorf“ statt „Heinrich-Heine-Universität Düsseldorf“). Vorteil davon ist, dass der Eintrag im Falle einer Umbenennung wie zuletzt etwa in Münster („Westfälische Wilhelms-Universität Münster“ zu „Universität Münster“) nicht angepasst werden muss. Fachhochschulen werden durch „FH“ gekennzeichnet. Bei Orten mit mehreren Universitäten erfolgt eine Präzisierung (z.B.: „Berlin (TU)“ für Technische Universität Berlin, „Berlin (HU)“ für Humboldt-Universität zu Berlin und „Berlin (FU)“ für Freie Universität Berlin). In unserer Visualisierung werden die Institutionen unterschieden, aber nicht an unterschiedlichen Orte innerhalb der jeweiligen Stadt visualisiert. In der Kategorie „Stufe“ wird durch „*“ auf eine befristete oder durch „°“ auf eine nebenberufliche Professur verwiesen. Bei dem Element Ergebnis wird durch „offen“ auf eine noch unbesetzte Stelle, durch „-„ auf ein abgebrochenes Verfahren und durch graue Unterlegung auf das Wiederverlassen der Stelle verwiesen. Zeitpunkte und -abläufe beziehen sich demnach auf den Zeitpunkt der Ausschreibung (mit dem Jahr als kleinste verwendete Zeiteinheit) sowie eine mögliche Befristung. Soweit ermittelbar, sind die Informationen zur Dauer der Besetzung einer Professur durch eine Person in den Datensatz aufgenommen worden.
Der DARIAH-DE Geo-Browser ermöglicht die dynamische und statische Darstellung von Daten und deren Visualisierung in einer Korrelation von geografischen Raumverhältnissen zu Zeitpunkten und -abläufen. Mittels der Visualisierung können räumliche Konzentrationen und Trends ersichtlich werden. Zur Visualisierung mittels des Geo-Browsers müssen die Datenstrukturen den Anforderungen des Geo-Browsers angepasst werden. Ein Eintrag des Geo-Browsers besteht aus neun Elementen: Name, Address, Description, Longitude, Latitude, Time Stamp, Time Stamp:begin, Time Stamp:end und GettyID.
Name besteht aus der Kombination „Universität Ort“ oder „Fachhochschule Ort“. Eine Präzisierung erfolgt nur, wenn sie durch mehrere Universitäten notwendig wird.
Address besteht aus dem Ortsnamen der Universität oder Hochschule. Für Universitäten oder Hochschulen, die an mehreren Orten lokalisiert sind, verwenden wir den erstgenannten Ort (z.B. Universität Erlangen-Nürnberg hat als Address „Erlangen“). Eine Zuordnung zu mehreren Orten ist im Geo-Browser nicht möglich.
Description umfasst Stufe, Denomination, Zuordnung und Ergebnis der Ausschreibung nach folgendem Schema: Ergebnis: Denomination (Stufe), Zuordnung.
Longitude, Latitude und GettyID wurden mit dem „Getty Thesaurus of Geographic Names (TGN)“ (https://www.getty.edu/research/tools/vocabularies/tgn/; Zugriff: 08.07.2024) ermittelt. Mit TGN kann jedem Ort genau ein Längen- und Breitengrad sowie eine eindeutige GettyID (eine Identifikationsnummer) zugeordnet werden. Eine exaktere Lokalisierung ist dem Sinn des Blogs entsprechend nicht vonnöten.
Timestamp wird freigelassen, da keine exakten Zeitpunkte bestimmt werden müssen.
Time Stamp:begin erhält als Eintrag das Jahr der Ausschreibung in der Form 20xx-01-01.
Time Stamp:end haben wir bei unbefristeten Stellen beispielhaft generell auf 2039 gesetzt, damit die Zeitleiste in einem überschaubaren Rahmen bleibt. Bei befristeten Juniorprofessuren verwenden wir das Fristende der jeweiligen Professur. Bei abgebrochenen Ausschreibeverfahren sind time stamp:begin und time stamp:end identisch, wodurch der entsprechende Eintrag in der dynamischen Visualisierung unberücksichtigt bleibt. Im statischen Modus wird der entsprechende Eintrag dargestellt.
Einige konkrete Beispiele aus unserem in dieser Art modifizierten Datensatz vermögen die Details zu verdeutlichen:
Universität München, München, Schröter: Digitale Literaturwissenschaften (W2* mit TT W2), Department Germanistik, 13.466667, 48.7, 2022-01-01, 2028, 7134068
Dieses Datenelement wird gelesen als: Am Department Germanistik der Ludwig-Maximilians-Universität München wurde 2022 eine (zum Zeitpunkt der Ausschreibung) bis 2028 befristete W2-Professur (mit Tenure Track) für Digitale Literaturwissenschaften ausgeschrieben und durch Julian Schröter besetzt. München besitzt die GettyID 7134068 und (das Stadtzentrum) befindet sich nach TGN bei Längengrad 13.466667 und Breitengrad 48.7.
Universität Heidelberg, Heidelberg, offen: Papyrologie und Digitale Erforschung antiker Schriftzeugnisse (W3), Heidelberg Center for Digital Humanities (HCDH), 8.916667, 48.316667, 2024-01-01, 2039-12-31, 7166144
Dieses Datenelement wird gelesen als: Am Heidelberg Center for Digital Humanities (HCDH) der Universität Heidelberg wurde 2024 eine unbefristete W3-Professur für Papyrologie und Digitale Erforschung antiker Schriftzeugnisse ausgeschrieben. Die Stelle ist noch unbesetzt. Heidelberg besitzt die GettyID 7166144 und (das Stadtzentrum) befindet sich nach TGN bei Längengrad 8.916667 und Breitengrad 48.3166667.
Abschluss
Zusammenfassend lässt sich festhalten, dass unsere raumzeitliche Visualisierung der DH-Professuren im deutschsprachigen Raum eindrucksvoll die dynamische Entwicklung und die wachsende Bedeutung der Digital Humanities in der akademischen Landschaft aufzeigt. Diese kartografische Darstellung ermöglicht es, nicht nur die Verteilung und Häufigkeit der Professuren zu analysieren, sondern auch Hotspots oder ‘einsame Helden’ der DH-Entwicklung zu identifizieren. Durch die Integration in den DARIAH-DE Geo-Browser bieten wir Forscherinnen und Forschern, DH-Strukturverantwortlichen, Infrastruktureinrichtungen sowie der interessierten Öffentlichkeit eine neue Perspektive auf die Daten aus dem Blogpost von Patrick Sahle an. Die zunehmende Verbreitung und Etablierung von DH-Professuren zeigt jedenfalls, dass die Digital Humanities eine zentrale Rolle in der Zukunft der Geisteswissenschaften spielen werden.
[1] Wir danken herzlich Vincent Anker (studentische Hilfskraft im Service Center for Digital Humanities (SCDH) der Universität Münster) für seine tatkräftige Unterstützung bei der Aufbereitung der Daten.
An automatically translated English version of the blog post is available on the IDE website.
***
Genau vor 10 Jahren, am 20. Juni 2014, erschien die erste Ausgabe der Rezensionszeitschrift RIDE – A Review Journal for Digital Editions and Resources, herausgegeben vom Institut für Dokumentologie und Editorik (IDE). Während wir den 10ten Geburtstag auf Mastodon im Fediverse von unserem IDE-Account unter dem Hashtag #10YearsRIDE feieren, wurde der Launch der digitalen Zeitschrift damals u. a. auf Twitter mit einem eher unscheinbaren Post (siehe Abb. 1) beworben. So manch einer fragte sich schon damals, wie man RIDE eigentlich ausspricht: /ri:de/ (Deutsch) oder /raɪd/ (Englisch)? Für die aufmerksamen Leser:innen werden wir das Geheimnis am Ende dieses Posts lüften.
RIDE wurde vom IDE ins Leben gerufen, um ein Forum zur Besprechung digitaler Editionen zu schaffen, einen Beitrag zur Qualitätssicherung zu leisten sowie die gängige Praxis zu verbessern und die zukünftige Entwicklung voranzutreiben.[1] Digitale Editionen wurden und werden[2] von traditionellen Rezensionsorganen meist übergangen und damit in den Fachwissenschaften kaum wahrgenommen. Dies wiederum führt dazu, dass den Ersteller:innen digitaler Editionen – von Editor:innen über Datenmodellierer:innen bis hin zu Softwareentwickler:innen – die Anerkennung ihrer Leistungen seitens der Fachwissenschaften oftmals verwehrt bleibt. Um dem entgegenzuwirken, sollte mit RIDE ein interdisziplinäres Austauschforum entstehen, in dem digitale Forschungsressourcen in ihrer Gesamtheit rezensiert werden, d. h. sowohl aus fachlich-inhaltlicher als auch und vor allem aus methodisch-technischer Perspektive.
Stand heute (Juni 2024) wurden in RIDE insgesamt 97 digitale Ressourcen in 18 Issues rezensiert. Ein Großteil der Rezensionen, 65 an der Zahl, ist digitalen Editionen gewidmet. Weitere 20 Rezensionen besprechen Textsammlungen (seit 2017) und bislang 12 Rezensionen nehmen »Tools und Arbeitsumgebungen für digitale Editionen« (seit 2022) in den Blick (Abb. 2). In der Sparte »Editionen« gibt es mittlerweile außerdem Themenausgaben: zwei Issues zu Briefeditionen und zwei Issues mit dem Schwerpunkt auf der Umsetzung der FAIR-Prinzipien. Derzeit liegen etwa zwei Drittel der Rezensionen auf Englisch und ein Drittel auf Deutsch vor, außerdem sind zwei Rezensionen in Französisch und eine in Italienisch verfasst (Abb. 3). Für alle drei Rezensionssparten – digitale Editionen, Textsammlungen und Tools – gibt es vom IDE erstellte Kriterienkataloge[3] zur Besprechung der jeweiligen Ressourcen, die die Rezensent:innen bei der Begutachtung unterstützen und als Leitfaden dienen sollen. Durch verschiedene Rückmeldungen aus der Community wissen wir, dass die Kriterienkataloge mittlerweile nicht nur zur Begutachtung in RIDE, sondern auch bei der Planung und Entwicklung neuer Ressourcen als best-practice-Leitfaden zum Einsatz kommen.[4]
Abb. 2 / 3: Anzahl der Artikel pro Rezensionssparte (li.); Sprachen der Rezensionen (re.).
Durch die zunehmende Etablierung von RIDE hat sich der Aufwand des Betriebs und der Weiterentwicklung der Zeitschrift über die Jahre vervielfacht. Initial von einem Managing Editor geführt und zwischenzeitlich von einem Zweier-Team übernommen, umfasst das Management Team aus dem IDE-Kreis derzeit drei Personen.[5] Während die Herausgeber:innen der Issues in den ersten Jahren ausschließlich IDE-Mitglieder waren, planen und publizieren mittlerweile auch Gastherausgeber:innen ganze Issues.[6] Für bestimmte redaktionelle (u. a. Proof Reading) und technische Tasks, packt außerdem das ganze IDE regelmäßig mit an.
In RIDE besteht jede Rezension aus dem eigentlichen Rezensionstext und einem Factsheet. Letzteres ist ein Fragebogen mit weitgehend formalisierten Antwortmöglichkeiten, damit die rezensierten Ressourcen einfacher miteinander vergleichbar sind.[7] Gleichzeitig ermöglichen die erhobenen Daten einen Überblick, was bereits in RIDE rezensiert wurde, beispielsweise aus welchen Epochen und Disziplinen die begutachteten Editionsprojekte stammen (Abb. 4 und 5). Das Fächerspektrum in RIDE umfasst nahezu alle geisteswissenschaftlichen (textbezogenen) Disziplinen. Allerdings wird auch deutlich, dass trotz der interdisziplinären Anlage der Zeitschrift ein Großteil der rezensierten Editionen und Textsammlungen fachlich in den Literaturwissenschaften und zeitlich in der Moderne zu verorten ist.[8]
Abb. 4 / 5: Epochenzugehörigkeit (li.) und Disziplinzugehörigkeit (re.) [9] der rezensierten Ressourcen.
Die Daten der Factsheets sind auch jenseits ihrer Rolle für die Rezensionen interessant, zum Beispiel als Grundlage, um (spartenübergreifend) Unterschiede und allgemeine Tendenzen hinsichtlich der Rezensionsobjekte zu ermitteln.[10] So bilden etwa Editionen, was die Offenheit der Daten bzw. des Quellcodes angeht, unter den drei Ressourcentypen das Schlusslicht, während die rezensierten Textsammlungen anteilig häufiger auf offene Daten und die rezensierten Tools sogar überwiegend auf offenen Source Code setzen (Abb. 6). Eine mögliche Erklärung hierfür ist, dass Editionen vor allem ›klassisch‹ über das Graphical User Interface rezipiert werden, während Textsammlungen stärker den Charakter eines Datensets haben. Editionstools hingegen funktionieren selten nach dem Prinzip Plug-and-Play, sondern müssen meist projektspezifisch angepasst werden, wofür offener Quellcode die Voraussetzung ist.
Abb. 6 / 7: Offenheit der Daten bzw. des Quellcodes (li.) und Vorhandensein von Zitationsvorschlägen (re.) (jeweils anteilig pro Sparte).
Ein umgekehrtes Bild zeigt sich bei der Frage nach der Zitierbarkeit der Ressourcentypen (Abb. 7): In den rezensierten Editionen haben sich Zitierempfehlungen weitestgehend durchgesetzt, denn Referenzierbarkeit von Text ist schließlich ein Kernanliegen von Editionen. Das Schlusslicht bilden hier die Tools. Dort scheinen sich Zitationsstandards oder Zitierhilfen noch nicht durchgesetzt oder etabliert zu haben.
In anderen Kontexten haben wir bereits ausführlich über Ziele und Methoden von RIDE berichtet und geschrieben,[11] daher möchten wir anlässlich des zehnjährigen Jubiläums hier einen Einblick in die Arbeit geben, die täglich hinter den Kulissen passiert und die viel zu selten sichtbar wird. Dazu zählt u.a.: Autor:innen suchen, Artikel intern begutachten und mit hilfreichen Kommentaren zur Überarbeitung versehen, Peer Reviewer:innen suchen, die Rezensionen für die Publikation formatieren und konvertieren, verschiedene Publikationsformate generieren (XML/TEI, HTML, PDF), die Verfügbarkeit und Archivierung der Artikel sichern (u. a. über DOI, APIs), die Zeitschriftenbände bewerben. Zu den langfristigen Aufgaben zählen u. a. die Pflege und Weiterentwicklung des XML-Schemas für die Reviews und die Weiterentwicklung von Skripten und Routinen zur Verarbeitung der Daten für die Publikation. Auch der Server, auf dem die WordPress-Instanz von RIDE läuft, muss regelmäßig gewartet werden und die eXist-db-Instanz, die wir für einige Funktionen nutzen, braucht regelmäßig ein Upgrade auf eine neuere Version.
Abb. 8: Das RIDE-Management-Team gewinnt den dritten Platz beim Posterwettbewerb der DHd2022 (Tweet).
Abgesehen von den herausgeberischen und den redaktionellen-technischen Tasks kümmern wir uns um die wissenschaftliche Etablierung und Sichtbarkeit der Zeitschrift. Beispielsweise hat RIDE erst kürzlich das Open Access-Seal der Directory of Open Access Journals (DOAJ) erhalten und wird demnächst in die Scopus-Datenbank aufgenommen. Schließlich ist auch die Dissemination unserer Arbeit im nationalen und internationalen Kontext ein wichtiger Teil unserer Mission, um das Thema »Qualitätssicherung digitaler Forschungsressourcen« in der Community präsent zu halten. Gleichzeitig steigern wir so die Bekanntheit von RIDE und können neue Rezensent:innen gewinnen. Fast alles, was wir für RIDE leisten, passiert ehrenamtlich und jenseits unserer Lohnarbeit, oft in den Abendstunden oder am Wochenende. Würdigungen unserer Arbeit, wie etwa der dritte Platz für unseren Beitrag beim Posterwettbewerb der DHd2022, freuen uns daher natürlich besonders (Abb. 8).
Abb. 9: Internes Issue-Board des Herausgeber:innenteams.
Alle anfallenden Arbeiten für RIDE koordinieren und organisieren wir seit einiger Zeit in internen GitHub-Repositorien und nutzen dafür Issues, Project Board und Wiki (Abb. 9). Da wir RIDE möglichst offen gestalten möchten, stehen nicht nur die Rezensionsdaten, sondern auch einige Skripte, die im Publikationsprozess zum Einsatz kommen, über öffentliche GitHub-Repositorien und über Zenodo zur Verfügung.[12] Auch wenn es heutzutage digitale Arbeitsmittel braucht, um die Herausgabe einer Zeitschrift zu koordinieren, sollte nicht unerwähnt bleiben, dass wir eigentlich am liebsten in schummrigen Kneipen über Rezensionen und Digital Humanities diskutieren und Zukunftspläne für RIDE schmieden (Abb. 10 und 11).
Abb. 10: Launch von RIDE 2014 in der legendären Bar Celentano, Köln (Tweet).
Abb. 11: Vorbereitung des Launches der Sparte »Text Collections«, Elektra Bar, Köln (Tweet).
Die kontinuierliche Produktion von Bänden, die Weiterentwicklung der Zeitschrift auf verschiedenen Ebenen und der Betrieb der technischen Infrastruktur erfordern erhebliche (Wo|Man)-Power. RIDE ist ein Gemeinschaftsprojekt des IDEs und ohne die vielen Schultern seiner Mitglieder nicht zu stemmen. Daneben sind wir auf die Mitarbeit der Community angewiesen: auf die Autor:innen, die sich die Zeit nehmen, digitale Ressourcen genauestens unter die Lupe zu nehmen und teilweise auch mehrmalige Überarbeitungen ihrer Beiträge in Kauf nehmen; auf die Gast-Herausgeber:innen, die unsere Arbeit mit eigenen Bänden gewissenhaft fortführen und gleichzeitig neue Impulse setzen, und auf unser Editorial Board, das uns bei jedweden Problemen spontan unterstützt. Last but not least können wir auf ein Netzwerk an Peer-Reviewer:innen zählen, dank derer wir nach höchsten wissenschaftlichen Qualitätsstandards ein ›international peer-reviewed journal‹ publizieren können und die wertvolles Feedback zu den Rezensionen liefern. Ihnen allen möchten wir an dieser Stelle unseren herzlichsten Dank aussprechen!
Schließlich möchten wir aber auch den Leser:innen danken. Wir haben im Laufe der Jahre immer wieder wertvolles Feedback erhalten, was zur Entwicklung und Verbesserung von RIDE beigetragen hat. Deshalb lösen wir nun auch endlich das Rätsel um die Aussprache: RIDE ist natürlich Lateinisch /ri:de/: »ridere« = »lachen«. Und damit verabschieden wir uns fröhlich lachend, freuen uns auf weitere 10 Jahre RIDE und switchen zum Schluss doch noch mal ins Englische für das allseits bekannte und beliebte:
Enjoy the ride!
Die Mitglieder des Instituts für Dokumentologie und Editorik
***
[1] Siehe Philipp Steinkrüger, Ulrike Henny-Krahmer, Frederike Neuber und die Mitglieder der IDE, Editorial, März 2021, https://ride.i-d-e.de/about/editorial/. [2] Siehe beispielsweise für Stichproben zur Rezension digitaler Forschungsressourcen in geschichtswissenschaftlichen Rezensionsorganen, Frederike Neuber und Patrick Sahle, Nach den Büchern: Rezensionen digitaler Forschungsressourcen, H-Soz&Kult 2022, https://www.hsozkult.de/debate/id/fddebate-132457; für eine fachlich engere Untersuchung Colleen Seidel, Digitale Forschung und Wissenschaftskommunikation – der Fall der mediävistischen Zeitschriften, DH@BUW 2022, https://dhbuw.hypotheses.org/319. Bezeichnend ist außerdem, dass selbst digitale Rezensionsplattformen wie Sehepunkte fast nur gedruckten Beiträgen ein Forum geben. [3] Patrick Sahle; in Zusammenarbeit mit Georg Vogeler und den Mitgliedern des IDE; Version 1.1, Juni 2014, http://www.i-d-e.de/publikationen/weitereschriften/kriterien-version-1-1/; Ulrike Henny-Krahmer und Frederike Neuber, in Zusammenarbeit mit den Mitgliedern des IDE; Version 1.0, Februar 2017, https://www.i-d-e.de/publikationen/weitereschriften/criteria-text-collections-version-1-0/; Anna-Maria Sichani und Elena Spadini, in Zusammenarbeit mit den Mitgliedern des IDE; Version 1.0, Dezember 2018, https://www.i-d-e.de/publikationen/weitereschriften/criteria-tools-version-1/. [4]So heißt es etwa in Bezug auf den Kriterienkatalog zur Besprechung von Textsammlungen bei José Calvo Tello, The Novel in the Spanish Silver Age (3. Data: Texts and Metadata), https://doi.org/10.14361/9783839459256-005, 3.1.2: „Its usefulness is beyond the specific frame of this journal, constituting a remarkable check‐list for any new literary corpus.“ [5] 2014-19 Philipp Steinkrüger, 2019-22 Ulrike Henny-Krahmer und Frederike Neuber, ab 2022 zusammen mit Martina Scholger. [6] Auf Initiative von Anna-Maria Sichani und Elena Spadini wurde die Sparte „Tools and Environments“ eröffnet, die FAIR-Bände erscheinen in Kooperation mit dem NFDI-Konsortium Text+ und unter Beteiligung von dessen Mitarbeiter:innen (bisher Tessa Gegnagel und Daniela Schulz).. [7] Zur rezensionsübergreifenden Vergleichbarkeit der Ressourcen bietet RIDE verschiedene Visualisierungen der Fragebögen für Editionen (https://ride.i-d-e.de/data/charts-scholarly-editions/) und Textsammlungen (https://ride.i-d-e.de/data/charts-text-collections/). [8] Die rezensionsübergreifende Auswertung kann dabei hilfreich sein, solche ‚Ballungen‘ zu identifizieren und ihnen ggf. entgegenzuwirken, indem man gezielt Rezensent:innen für Ressourcen aus anderen Disziplinen und mit anderen epochalen Schwerpunkt zu gewinnen versucht. [9] Die Antwortmöglichkeiten der Fragebögen zu Editionen und zu Textsammlungen unterscheiden sich leicht und wurden aufeinander gemappt. „Literary Studies / Philology“ im Editionenfragebogen entspricht „Literary Studies“ bei den Textsammlungen, die Kategorie „Musicology“ taucht nur im Editionenfragebogen auf, „Linguistics“ und „Archeology“ nur im Fragebogen der Textsammlungen. [10] Siehe Claudia Resch, Digitale Editionen aus der Perspektive von Expert:innen und User:innen — Rezensionen der Zeitschrift RIDE im Meta-Review, in: Digitale Edition in Österreich / Digital Scholarly Edition in Austria, 2023, S. 37-54 (urn:nbn:de:hbz:38-704476). [11] Siehe u. a. Neuber / Sahle 2022 (Anm. 2); Henny Ulrike, Reviewing von digitalen Editionen im Kontext der Evaluation digitaler Forschungsergebnisse, in: Digitale Metamorphose: Digital Humanities und Editionswissenschaft (hrsg. v. Roland S. Kamzelak and Timo Steyer), 2018. DOI: 10.17175/sb002_006;Markus Schnöpf, Evaluationskriterien für digitale Editionen und die reale Welt, in: HiN – Alexander Von Humboldt Im Netz 14(27), 69-76, DOI: 10.18443/182. [12] Zur technischen Infrastruktur von RIDE siehe Henny-Krahmer, Ulrike; Frederike Neuber; Martina Scholger (2022): „Informationstechnologische Gedächtnisarbeit in der Rezensionszeitschrift RIDE“ [Poster]. In DHd 2022. Kulturen des digitalen Gedächtnisses. 8. Tagung des Verbands „Digital Humanities im deutschsprachigen Raum“, Potsdam. Zenodo. DOI: 10.5281/zenodo.6322571