普通视图

Received before yesterday

SSH Open Marketplace & FAIR Practices Training Series 2026

2025年12月4日 00:04

Das SSH Open Marketplace Editorial Board startet 2026 eine achtteilige praxisorientierte Online-Workshopreihe, um digitale Kompetenzen und FAIR-Praktiken in den Sozial- und Geisteswissenschaften zu stärken. Jeden dritten Freitag im Monat von 13:00 bis 14:30 Uhr (CET), geht es online um offene Wissenschaft, gute Datenpraxis und den smarten Einsatz des SSH Open Marketplace im Forschungsalltag. Die Termine reichen von Feburar bis November 2026 – mit einer Pause im Juli und August.

Worum geht es?

Die SSH Open Marketplace & FAIR Practices Training Series 2026 verbindet Schlüsselfragen von FAIR, CARE und Open Science mit praktischen Hands-on-Sessions rund um den SSH Open Marketplace als Discovery-Portal für Tools, Services, Trainingsmaterialien, Daten und Workflows. Der Adressatenkreis sind allgemein Interessierte mit Bezug zu den Social Sciences and Humanities, aber insbesondere Forschende, Datenmanager:innen und Forschungsservices in den SSH, die ihre Daten und Workflows besser auffindbar, nachnutzbar und anschlussfähig machen wollen – ohne sich allein durch die Vielzahl an Angeboten kämpfen zu müssen.

Weitere Hintergrundinformationen rund um den SSH Open Marketplace sowie das Editorial Team gibt es hier.

Save the dates

– 20. Februar: FAIR, CARE & Open Science Principles

– 20. März: Introduction to SSH Open Marketplace

– 17. April: Making the most of the SSH Open Marketplace

– 15. Mai: Contributing to SSH Open Marketplace

–  19. Juni: Thematic Arts and Humanities

– 18. September: Thematic GLAM institutions

– 16. Oktober: Thematic language data

– 20. November: Thematic Social sciences

Die Teilnahme ist online, kostenfrei und auf Interaktion ausgelegt: In allen Sessions sind Fragen, Use Cases aus laufenden Forschungsprojekten wie auch der Blick in eigene Datenbestände gerne gesehen. Wer sich nun den Vorsatz gesetzt hat, im kommenden Jahr die eigenen digitalen Forschungspraktiken weiter auszubauen, kann sich hier registrieren, um auf dem Laufenden zu bleiben.

Download

SSHOMP_2026 Online Training Series (PDF)

DiHMA.Lab mit MaRDI und NFDI4Objects am 14. und 15. Oktober an der FU Berlin

2025年9月7日 18:08

Am 14. und 15. Oktober 2025 lädt das DiHMa.Lab der Freien Universität Berlin in Kooperation mit dem ZIB zu einem gemeinsamen Workshop der Konsortien MaRDI und NFDI4Objects an die Freie Universität Berlin ein. Rund um das Thema „Objekte und Methoden“ wird der interdisziplinäre Workshop verschiedene Perspektiven aus der Mathematik und objektbasierten Geisteswissenschaften zusammenführen. Ziel ist es, Ansätze, Werkzeuge und Fragestellungen beider Disziplinen in den Dialog zu bringen, Schnittstellen sichtbar zu machen und gemeinsame methodische Herausforderungen zu diskutieren.

Das vorläufige Programm wird noch aktualisiert:

Tag 1

14.10.2025, 10:00-12:00 Uhr

Im Vorfeld des Workshops findet ein Ediathon: “Object meets Maths: Wikidata als Knowledge Hub” statt. Kommt sehr gern mit Daten und Notebooks vorbei.

12 Uhr Mittag auf Selbstzahlerbasis in der Mensa

14.10.2025 (13:00-16:45 Uhr)  

  • Icebreaker und Vorstellungsrunde (13:00-13:45)
  • Vorstellung der NFDI-Konsortien (14:00-14:45)
  • Statistische Methoden (15:00-15:45)
  • Datenintegration Wissensgraph (16:00-16:45)
  • Ab 17 Uhr gemeinsamer Ausklang auf Selbstzahlerbasis in der Eierschale

Tag 2

15.10.2025 (09:00 – 13:00 Uhr)

  • Wissenschaftliche Objektsammlungen und multimodale Forschungsdaten (9:00-9:45)
  • Use Case Datenanalyse “Windows on Data” (10:00-10:45) 
  • Interdisziplinäres Arbeiten (Challenges / Schwierige Fälle / was ist nicht operationalisierbar? / was ist bereits gut operationalisiert?) / MARDI als Methodendatenbank (11:00-11:45) 
  • Fishbowl: Zusammenarbeit mathematische Methoden in kulturhistorischen Fragestellungen (12:00-13:00)
  • Ab 13 Uhr gemeinsames Mittagessen auf Selbstzahlerbasis in der Mensa

Veranstaltungsort: Villa Engler, Altensteinstraße 2-4, 14195 Berlin (am Haupteingang des Botanischen Gartens)

Alle Informationen finden sich hier: https://www.ada.fu-berlin.de/ada-labs/dihma-lab/DiHMa-MARDI-N4O/index.html

Zur Anmeldung: https://www.ada.fu-berlin.de/ada-labs/dihma-lab/Modulbeschreibungen_DIHMa/PM-Anmeldung_DHIMA_LAB/index.html 

Mit freundlichen Grüßen Eure Local Organizers
Anja Gerber, Christin Keller, Dennis Mischke, Fabian Fricke, Marco Reidelbach, Marcus Weber

Neues Online-Portal: Digitaler Zeichenkatalog der Mayaschrift

2025年9月5日 18:50

Mit dem digitalen Zeichenkatalog der Mayahieroglyphen (A Digital Catalog of Maya Hieroglyphs) steht seit Kurzem eine neue Open-Access-Forschungsressource online, die epigraphische Grundlagenforschung mit digitalen Methoden verbindet. Ein deutsch– und ein englischsprachiger Einführungstext bieten sowohl eine inhaltliche Orientierung als auch ein Handbuch zur Nutzung der Such- und Filterfunktionen des Onlineportals. Entwickelt wurde die Plattform im Rahmen des Langzeitprojekts Textdatenbank und Wörterbuch des Klassischen Maya an der Universität Bonn. Gefördert wird das Projekt seit 2014 von der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste sowie von der Union der deutschen Akademien der Wissenschaften, geleitet von Prof. Dr. Nikolai Grube und koordiniert von Dr. Christian Prager. Arbeitsstelle des Projekts ist die Abteilung für Altamerikanistik, Universität Bonn, während die SUB Göttingen und das Cologne Center for eHumanities (CCeH) die Digital-Humanities-Komponenten umgesetzt haben.

Der Katalog knüpft an eine lange Tradition von Zeichenkatalogen der Mayaschrift an, die seit 1931 publiziert wurden, insbesondere an Eric Thompsons Standardwerk von 1962. Im Unterschied zu diesen gedruckten Vorläufern ist die neue Ressource vollständig digital angelegt, dynamisch erweiterbar und als Open Access verfügbar. In den vergangenen Jahren wurden Fehlklassifikationen korrigiert, hunderte bisher nicht erfasste Zeichen ergänzt und neue epigraphische Funde integriert. Für alle dokumentierten Zeichen wurden neue, einheitliche Zeichnungen mit Fontcharakter erstellt, die eine konsistente visuelle Vergleichbarkeit ermöglichen und auch für weiterführende digitale Anwendungen für Unicode usw. nutzbar sind.

Ein zentrales Merkmal des Katalogs ist seine Transparenz: Verschiedene Lesungen werden nach klar definierten Kriterien bewertet, der Grad wissenschaftlicher Sicherheit wird eindeutig gekennzeichnet, und unterschiedliche Hypothesen sind nachvollziehbar dokumentiert. Damit bildet die Datenbank nicht nur den aktuellen Forschungsstand ab, sondern macht zugleich sichtbar, in welchen Bereichen Konsens besteht und wo Unsicherheit herrscht. Technisch liegen die Informationen im Zeichenkatalog als RDF-Tripel vor, während die Texte in XML/TEI kodiert sind und in der virtuellen Forschungsumgebung TextGrid gehostet werden.

Die digitale Umsetzung eröffnet Funktionen, die in gedruckten Katalogen nicht realisierbar waren. Mit leistungsfähigen Filter- und Suchwerkzeugen lassen sich Zeichenlisten nach Kriterien wie Fundort, Artefaktgattung, Materialität oder den Auftraggebern der Monumente generieren. So können spezifische Forschungsfragen – etwa zu einem einzelnen Monument, einer Stätte oder einem Herrscher – direkt in digitale Abfragen übersetzt werden.

Der Zeichenkatalog ist als dynamische Plattform angelegt und wird kontinuierlich erweitert. Feedback aus der Fachgemeinschaft ist ausdrücklich erwünscht, um fehlende Varianten, zusätzliche Literatur oder neue Funde zu integrieren. Auf diese Weise wächst die Datenbank als offene und kollaborative Ressource weiter.

Im Kontext der Digital Humanities zeigt das Portal, wie sich philologische und archäologische Quellen mit digitalen Verfahren modellieren, vernetzen und nachhaltig verfügbar machen lassen. Neben dem Zeichenkatalog bietet die Plattform weitere Module: ein Text- und Bildarchiv, ein Bildarchiv mit rund 20.000 historischen und aktuellen Aufnahmen, eine umfassende Bibliografie, Werkzeuge für Kalenderberechnungen und interaktive 3D-Modelle von Artefakten. Die enge Integration dieser Datenbanken eröffnet neue Möglichkeiten der Analyse und Kontextualisierung. 

Ansprechpartner:
Dr. Christian Prager (Koordination) / Prof. Dr. Nikolai Grube (Leitung)
Projekt Textdatenbank und Wörterbuch des Klassischen Maya
https://classicmayan.org
Universität Bonn

Werkstattreihe Standardisierung: DeReKo

2025年9月3日 16:37

Wir möchten Sie herzlich zur nächsten Veranstaltung unserer Werkstattreihe Standardisierung einladen: Jennifer Ecker, Pia Schwarz und Rebecca Wilm werden DeReKo vorstellen und freuen sich auf die Diskussion mit uns: https://events.gwdg.de/event/1024/.

DeReKo

Das IDS beheimatet viele Daten und Tools für die Forschung mit insbesondere deutschsprachige Daten. Unter anderem besteht die Möglichkeit, große, annotierte Korpora zu durchsuchen, ein sehr prominentes Beispiel ist das Deutsche Referenzkorpus DeReKo, das mithilfe der Korpus-Analyseplatform KorAP genutzt, durchsucht und “beforscht” werden kann. Im Hintergrund müssen die Sprachdaten dafür in einem bestimmten TEI-Format vorliegen: In diesem Beitrag gehen wir auf TEI I5 ein, erläutern wie man mit welchen Tools eine Sprachdatensammlung in das notwendige Format umwandelt und so aufbereitet, dass sie am IDS als Korpus archiviert und in einem weiteren Schritt auch mit KorAP aufgerufen werden könnte.

Wir freuen uns auf den Vortrag durch unsere Kolleginnen Jennifer Ecker, Pia Schwarz und Rebecca Wilm. Bitte verteilt die Einladung gerne innerhalb eurer Kreise weiter.

Alle Termine der Werkstattreihe und die Anmeldungsmöglichkeiten finden Sie hier: https://events.gwdg.de/category/284/.

Und leiten Sie diese Einladung auch gern an andere Interessierte weiter.

Worum geht es in der Werkstattreihe Standardisierung?

Anhand konkreter Anwendungsbeispiele (https://text-plus.org/themen-dokumentation/standardisierung/anwendungsbeispiele/) erhalten die Teilnehmenden Einblicke in die Verwendung von Standards und standardisierten Tools und können an den Erfahrungen der Vortragenden in ihren jeweiligen Projekten teilhaben. Ziel ist es, ihnen so die Planung und Umsetzung ihrer Vorhaben zu erleichtern.

Darüber hinaus soll die Werkstattreihe Weichen für die zukünftige Datenintegrationen in die Text+ Infrastruktur stellen, die interne Reflektion über Angebotsentwicklung, Infrastruktur und Schnittstellen voranbringen sowie Partizipationsmöglichkeiten für Datengebende beleuchten. Die Reihe ist eine gemeinsame Aktivität aller Task Areas in Text+ in Zusammenarbeit mit Kolleginnen und Kollegen aus der Community. 

Die Anwendungsbeispiele:

• 20. März: DTABf, Marius Hug, Frank Wiegand

• 11. April: correspSearch, Stefan Dumont

• 22. Mai: edition humboldt digital, Christian Thomas, Stefan Dumont

• 5. Juni: INSeRT, Felix Helfer, N.N.

• 17. Juli: PROPYLÄEN. Goethes Biographica, Martin Prell

• 18. September: DeReKo, Jennifer Ecker, Pia Schwarz, Rebecca Wilm

• 16. Oktober: Klaus Mollenhauer Ausgabe, Max Zeterberg

• 20. November: BERIA Collection, Isabel Compes, Felix Rau

Zielgruppe:

Die Reihe spricht ein breites Publikum mit Bezug zu Sprach- und Textwissenschaften an. Sie ist sowohl für Neulinge, die einen ersten Einstieg in das Thema finden möchten (z. B. Promovierende, Forschende ohne Infrastrukturanbindung), aber auch für im Einsatz von Standards und Tools Versierte, die von Erfahrungen aus ähnlichen Vorhaben profitieren möchten bzw. ebenfalls ihre Erfahrungen mitteilen möchten, gleichermaßen geeignet. Gerne darf diese Einladung also breit weiterverteilt werden. 

Anmeldung:

Zur Anmeldung für die nächste Veranstaltung bitte hier entlang: https://events.gwdg.de/event/1024/

 

Die Einladungen für die weiteren Veranstaltungen folgen. Es ist aber bereits auch jetzt möglich, sich für alle Veranstaltungen individuell anzumelden: https://events.gwdg.de/category/284/

10.07.2025: Vortrag zu „Wossidlo-Teuchert online. Digitale Erschließung, Vernetzung und Publikation des Mecklenburgischen Wörterbuchs” im Rahmen des TCDH-Forschungskolloquiums

2025年7月9日 16:47

Am 10.07.2025 findet ab 16 Uhr der letzte Vortrag im Rahmen des TCDH-Forschungskolloquiums im Sommersemester 2025 statt:

Thomas Burch (Universität Trier / TCDH), Andreas Görres (Universität Rostock), Karsten Labahn (Universitätsbibliothek Rostock), Holger Meyer (Universität Rostock), Alf-Christian Schering (Universität Rostock), Christoph Schmitt (Universität Rostock), Nico Urbach (Universität Rostock):

„Wossidlo-Teuchert online. Digitale Erschließung, Vernetzung und Publikation des Mecklenburgischen Wörterbuchs”

Im Sommersemester 2025 setzen wir unsere Vortragsreihe im Rahmen des TCDH-Forschungskolloquiums wieder fort. Studierende und Mitarbeitende des TCDH geben ebenso wie externe Kolleg:innen und Kooperationspartner spannende Einblicke in ihre Arbeit aus ganz unterschiedlichen Feldern der Digital Humanities: der Computational Literary Studies, der digitalen Literatur- und Kulturwissenschaft und der digitalen Wörterbücher. 

Sie sind herzlich eingeladen, teilzunehmen und mitzudiskutieren!

Alle Infos und Zoomlink unter: 

https://tcdh.uni-trier.de/de/event/vortrag-zu-wossidlo-teuchert-online-digitale-erschliessung-vernetzung-und-publikation-des

 

03.07.2025: Vortrag von Joëlle Weis & Svenja Wagner (Universität Trier / TCDH): „Fürstinnenbibliotheken des 18. Jahrhunderts als Linked Open Data – Ein Werkstattbericht”

2025年7月3日 02:11

Am 03.07.2025 findet ab 16 Uhr im Rahmen des TCDH-Forschungskolloquiums ein weiterer Vortrag statt:

Joëlle Weis & Svenja Wagner (Universität Trier / TCDH): „Fürstinnenbibliotheken des 18. Jahrhunderts als Linked Open Data– Ein Werkstattbericht”

Im Sommersemester 2025 setzen wir unsere Vortragsreihe im Rahmen des TCDH-Forschungskolloquiums wieder fort. Studierende und Mitarbeitende des TCDH geben ebenso wie externe Kolleg:innen und Kooperationspartner spannende Einblicke in ihre Arbeit aus ganz unterschiedlichen Feldern der Digital Humanities: der Computational Literary Studies, der digitalen Literatur- und Kulturwissenschaft und der digitalen Wörterbücher. 

Sie sind herzlich eingeladen, teilzunehmen und mitzudiskutieren!

https://tcdh.uni-trier.de/de/event/vortrag-von-joelle-weis-svenja-wagner-universitaet-trier-tcdh-fuerstinnenbibliotheken-des-18

RIDE 20 ist erschienen!

作者Erik Renz
2025年6月28日 03:06

Wir freuen uns, Ihnen die 20. Ausgabe der Rezensionszeitschrift RIDE anzukündigen, die seit 2014 vom Institut für Dokumentologie und Editorik (IDE) herausgegeben wird.

Die aktuelle Ausgabe wird von Ulrike Henny-Krahmer und Martina Scholger herausgegeben und widmet sich digitalen wissenschaftlichen Editionen. Sie enthält fünf Rezensionen (drei auf Englisch, zwei auf Deutsch):

Alle Rezensionen sind abrufbar unter https://www.doi.org/10.18716/ride.a.20.

Enjoy the RIDE!

26.06.25: Vortrag von Julia Röttgermann (Universität Trier / TCDH): „Literaturgeschichte als Wissensgraph” im Rahmen des TCDH-Forschungskolloquiums

2025年6月20日 15:21

Am 26.06.2025 findet im Rahmen des TCDH-Forschungskolloquiums ein Vortrag statt:

Julia Röttgermann (Universität Trier / TCDH): „Literaturgeschichte als Wissensgraph. Automatische Erhebung literaturhistorisch relevanter Informationen aus Volltexten am Beispiel von französischen Romanen des XVIII. Jahrhunderts”.

Im Sommersemester 2025 setzen wir unsere Vortragsreihe im Rahmen des TCDH-Forschungskolloquiums wieder fort. Studierende und Mitarbeitende des TCDH geben ebenso wie externe Kolleg:innen und Kooperationspartner spannende Einblicke in ihre Arbeit aus ganz unterschiedlichen Feldern der Digital Humanities: der Computational Literary Studies, der digitalen Literatur- und Kulturwissenschaft und der digitalen Wörterbücher. 

Sie sind herzlich eingeladen, teilzunehmen und mitzudiskutieren!

Alle Infos und Zoomlink unter: https://tcdh.uni-trier.de/de/event/vortrag-von-julia-roettgermann-universitaet-trier-tcdh-literaturgeschichte-als-wissensgraph

Werkstattreihe Standardisierung: edition humboldt digital

2025年6月4日 15:05

 

Christian Thomas und Stefan Dumont von der Berlin-Brandenburgischen Akademie der Wissenschaften stellten am 22. Mai 2025 die edition humboldt digital im Rahmen der „Werkstattreihe Standardisierung“ des NFDI-Konsortiums Text+ vor und gaben einen Einblick in ihre Arbeit. Sie reflektierten ihren Umgang mit Standards und deren Bedeutung für die Entwicklung der Edition. Der Werkstattbericht des Editionsprojekts kann nun hier nachgeschaut werden: https://youtu.be/ZydyHbQ_6Uo

Die Abbildung visualisiert graphisch die Vernetzung der edition humboldt digital mit internen und externen Ressourcen
Übersicht der Vernetzung der edition humboldt digital (Poster, Detail)
CC-BY-4.0 / https://zenodo.org/records/8228540

Werkstattreihe Standardisierung: INSeRT

2025年5月28日 15:36

Wir möchten Sie herzlich zur nächsten Veranstaltung unserer Werkstattreihe Standardisierung einladen: Felix Helfer (SAW) wird INSeRT vorstellen und freut sich auf die Diskussion mit Ihnen: https://events.gwdg.de/event/1022/.

Eine Übersicht über alle weiteren Termine der Werkstattreihe und die Anmeldemöglichkeiten finden Sie hier.

Und leiten Sie diese Einladung auch gern an andere Interessierte weiter!

Worum geht es in der Werkstattreihe Standardisierung? Anhand konkreter Anwendungsbeispiele erhalten die Teilnehmenden Einblicke in die Verwendung von Standards und standardbasierten Tools und können an den Erfahrungen der Vortragenden in ihren jeweiligen Projekten teilhaben. Ziel ist es, ihnen so die Planung und Umsetzung ihrer Vorhaben zu erleichtern.

Darüber hinaus soll die Werkstattreihe Weichen für zukünftige Datenintegrationen in die Text+ Infrastruktur stellen, die interne Reflektion über Angebotsentwicklung, Infrastruktur und Schnittstellen voranbringen sowie Partizipationsmöglichkeiten für Datengebende beleuchten. Die Reihe ist eine gemeinsame Aktivität aller Task Areas in Text+ in Zusammenarbeit mit Kolleginnen und Kollegen aus der Community.

Die Anwendungsbeispiele:

• 20. März: DTABf, Marius Hug, Frank Wiegand

• 11. April: correspSearch, Stefan Dumont

• 22. Mai: edition humboldt digital, Christian Thomas, Stefan Dumont

• 5. Juni: INSeRT, Felix Helfer

• 17. Juli: PROPYLÄEN. Goethes Biographica, Martin Prell

• 18. September: DeReKo, Jennifer Ecker, Pia Schwarz, Rebecca Wilm

• 16. Oktober: Klaus Mollenhauer Ausgabe, Max Zeterberg

• 20. November: BERIA Collection, Isabel Compes, Felix Rau

Zielgruppe

Die Reihe spricht ein breites Publikum mit Bezug zu Sprach- und Textwissenschaften an. Sie ist sowohl für Neulinge, die einen ersten Einstieg in das Thema finden möchten (z.B. Promovierende, Forschende ohne Infrastrukturanbindung), aber auch für im Einsatz von Standards und Tools Versierte, die von Erfahrungen aus ähnlichen Vorhaben profitieren möchten bzw. ebenfalls ihre Erfahrungen mitteilen möchten, gleichermaßen geeignet. Gerne darf diese Einladung also breit weiter verteilt werden.

Anmeldung

Zur Anmeldung für die nächste Veranstaltung bitte hier entlang.

Die Einladungen für die weiteren Veranstaltungen folgen. Es ist aber bereits auch jetzt möglich, sich für alle Veranstaltungen individuell anzumelden.

Programm des TCDH-Forschungskolloquiums „Perspektiven der Digital Humanities“

2025年5月19日 15:58

Vorträge des TCDH-Forschungskolloquiums im Sommersemester 2025

Im Sommersemester 2025 setzen wir unsere Vortragsreihe im Rahmen des TCDH-Forschungskolloquiums wieder fort. Studierende und Mitarbeitende des TCDH geben ebenso wie externe Kolleg:innen und Kooperationspartner spannende Einblicke in ihre Arbeit aus ganz unterschiedlichen Feldern der Digital Humanities: der Computational Literary Studies, der digitalen Literatur- und Kulturwissenschaft und der digitalen Wörterbücher.
 
Sie sind herzlich eingeladen, teilzunehmen und mitzudiskutieren!

 

Programm:

05.06.2025

  • Svenja Wagner (Universität Trier / TCDH): „In Medias Res – Semantische Informationsextraktion in Immanuel Kants Gesamtwerk mithilfe von Transformer Modellen”
  • Marina Spielberg (Universität Trier / TCDH): „Literary Metaphor Detection with LLM Fine-Tuning and Few-Shot Learning”

26.06.2025

  • Julia Röttgermann (Universität Trier / TCDH): „Literaturgeschichte als Wissensgraph. Automatische Erhebung literaturhistorisch relevanter Informationen aus Volltexten am Beispiel von französischen Romanen des XVIII. Jahrhunderts.”

03.07.2025

  • Joëlle Weis & Svenja Wagner (Universität Trier / TCDH): „Fürstinnenbibliotheken des 18. Jahrhunderts als Linked Open Data– Ein Werkstattbericht

10.07.2025

  • Thomas Burch (Universität Trier / TCDH), Andreas Görres (Universität Rostock), Karsten Labahn (Universitätsbibliothek Rostock), Holger Meyer (Universität Rostock), Alf-Christian Schering (Universität Rostock), Christoph Schmitt (Universität Rostock), Nico Urbach (Universität Rostock): „Wossidlo-Teuchert online. Digitale Erschließung, Vernetzung und Publikation des Mecklenburgischen Wörterbuchs”

Alle Informationen und Zoomlink unter: https://tcdh.uni-trier.de/de/event/programm-des-tcdh-forschungskolloquiums-perspektiven-der-digital-humanities-0

Trends in den Computational Literary Studies bei den DHd-Jahrestagungen

2025年5月13日 22:15

Die Computational Literary Studies (CLS) haben sich im vergangenen Jahrzehnt als ein dynamisches und zunehmend eigenständiges Forschungsfeld innerhalb der Digital Humanities etabliert. Die DHd-Jahrestagungen fungieren dabei nicht nur als Forum für aktuelle Diskussionen, sondern auch als Schaufenster für langfristige Entwicklungen, methodische Innovationen und disziplinäre Herausforderungen.

Etablierung der CLS in den Digital Humanities

Wie Hatzel et al. (2023, 1-2) in ihrem Übersichtsartikel „Machine Learning in Computational Literary Studies“ betonen, verstehen sich die CLS als ein Teilbereich der Digital Humanities, der sich durch die Anwendung computerbasierter Verfahren auf literaturwissenschaftliche Fragestellungen auszeichnet. Einen wichtigen Schub erhielten die CLS durch die Einrichtung des von der DFG geförderten Schwerpunktprogramms „Computational Literary Studies“ (SPP 2207) sowie durch die Gründung des Journal of Computational Literary Studies (JCLS) in der ersten Hälfte der 2020er Jahre.

In der deutschsprachigen DH-Community ist die wachsende Bedeutung der CLS auch an der Entwicklung der Tagungsformate der DHd ablesbar: Während CLS-relevante Beiträge in den frühen Jahrestagungen noch unter allgemeineren Titeln wie „Texte und Strukturen“ (2019) oder „Komplexe Textphänomene“ (2020) verhandelt wurden, tragen die Sessions seit 2023 explizit den Titel „Computational Literary Studies“. 2025 genügten bereits die Kürzel „CLS Analyse“, „CLS Methoden I“ und „CLS Methoden II“ – ein deutliches Signal für die gewachsene disziplinäre Eigenständigkeit und Sichtbarkeit des Feldes.

Angesichts dieser zunehmenden Etablierung stellte sich mir die Frage, welche methodischen Trends und inhaltlichen Entwicklungslinien sich in den Abstracts der DHd-Jahrestagungen von 2014 bis 2025 abzeichnen. Um relevante Beiträge zu identifizieren, habe ich basierend auf der Definition des Schwerpunktprogramms1 und einem Listenabgleich von Keywords, Topics und most distinctive Words (siehe Abb. 1) pro Beitrag CLS-relevante Abstracts automatisch aus den XML-Dateien extrahiert. Das so zusammengestellte Untersuchungskorpus wurde anschließend tabellarisch aufbereitet und mit den Metadaten aus den XMLs und manuellen Ergänzungen angereichert. Der Dataframe bildete sodann die Grundlage für interaktive Visualisierungen, die eine Exploration der CLS-Entwicklungen im Kontext der vergangenen DHd-Jahrestagungen ermöglichen.2

Most distinctive words der Beiträge der DHd-Jahrestagung 2020
Abb. 1: Der Screenshot zeigt die zehn most distinctive words inklusive ihrer berechneten TF-IDF Scores für alle Beiträge der DHd-Jahrestagung 2020. In der interaktiven Visualisierung der Daten mit einem Drop-Down-Menü können die Beiträge nach Jahr, Autor:in oder durch die Auswahl eines spezifischen Abstracts gefiltert werden. Die interaktive Visualisierung zum Ausprobieren finden Sie hier.

Welche CLS-Forschungstrends zeigen sich in den Abstracts der DHd-Jahrestagungen?

Ein zentrales Ergebnis der Analyse ist die methodische Breite der CLS, die von der Anwendung gängiger DH-Verfahren wie Netzwerkanalyse, Topic Modeling und Sentimentanalyse bis hin zu klassischem maschinellem Lernen und dem Einsatz generativer Sprachmodelle reicht. Die differenzierte Behandlung von Subkategorien des maschinellen Lernens stellte sich dabei als besondere Herausforderung heraus. Schließlich wollte ich die Entwicklungen und Höhepunkte traditioneller, feature-basierter Klassifikationsalgorithmen, multi-layered neuronaler Netze im Deep Learning sowie statistisch-kontextbasierter und generativer Sprachmodelle jeweils separat visualisieren. Ein Histogramm der verwendeten Methoden als Keyword-Cluster pro Abstract zeigt, welche Verfahren wann zum ersten Mal behandelt wurden, an Bedeutung gewinnen oder verlieren (siehe Abb. 2).

Liniendiagramm mit dem relativen Anteil der verwendeten Methoden als Keyword-Cluster pro Abstract geclustert pro Konferenzjahr.
Abb. 2: Diese Visualisierung der verwendeten Methoden als Keyword-Cluster pro Abstract zeigt den relativen Anteil (%) der Methodengruppen pro Jahr. Eine interaktive Version dieser Graphik finden Sie hier.

Das dargestellte Liniendiagramm (Abb. 2) zeigt die relative Nennung der 15 häufigsten Methodengruppen in den Abstracts (siehe Code). Die Y-Achse gibt den prozentualen Anteil an, den jede Methodengruppe im jeweiligen Jahr an der Gesamtzahl aller Abstracts hat und ermöglicht eine zeitlich normalisierte Betrachtung, bei der Schwankungen in der Gesamtanzahl der Abstracts pro Jahr berücksichtigt werden. Jeder Linienverlauf repräsentiert eine Methodengruppe und zeigt, wie oft sie im Verhältnis zur Gesamtzahl der Abstracts eines Jahres erwähnt wurde.

Die Abbildung verdeutlicht die konstruktive Weiterentwicklung der CLS: Zunächst müssen Textdaten aufbereitet und in geeigneter Qualität zur Verfügung gestellt werden, bevor sie analysiert und schließlich als Grundlage für das Finetuning von Sprachmodellen verwendet werden können. Nicht überraschend ist also der Peak an Abstracts zur Aufbereitung digitaler Editionen und Textkorpora in der Anfangszeit der DHd-Jahrestagungen sowie ihre andauernde Relevanz. In den Abstracts werden die digitale Bereitstellung von Texten, der Digitalisierungsprozess sowie die Entwicklung von Qualitätsstandards in OCR, XML/TEI und Normdatenanreicherung behandelt. War auch das Preprocessing in den Anfangsjahren noch ein zentraler Diskussionspunkt, wird es in den letzten Jahren bereits nicht mehr explizit in den Abstracts aufgeführt. Dieses Nichtaufführen im Fließtext weist auf die Etablierung von anerkannten Standards in der Datenvorbereitung hin und spricht für die Qualität von Preprocessinglibraries, Pipelines und ihren Ergebnissen.

Während auch Distinktivitäts- und Netzwerkanalysen zu den Verfahren gehören, die seit der ersten Jahrestagung vertreten sind, werden Topic Modeling und Sentimentanalyse erstmals 2015 erwähnt, sind seitdem aber nicht mehr wegzudenken, auch wenn sie seit ihren Höhepunkten (2020 Topic Modeling, 2023 Sentimentanalyse) tendenziell rückläufig sind. Die Blütezeit der CLS hat hingegen gerade erst begonnen: Nach einem ersten Peak 2022 (Zeitpunkt der Abstracteinreichung (Juli 2021) parallel zum Ende des ersten Jahres des DFG-SPP CLS) erzielt das Keyword-Cluster3 einen beeindruckenden Aufschwung mit kontinuierlich steigender Tendenz.
Ein klarer Aufwärtstrend zeigt sich auch bei „deep learning & neural nets“, die ab 2015 deutlich zulegen und sich als zunehmend wichtige Methode etablieren. Gemeinsam mit den differenzierten Keyword-Clustern „general machine learning“ und „generative language models (LLMS)“ bilden sie ein omnipräsentes Methodenrepertoire in den CLS.
Besonders auffällig ist, dass Annotationen über den gesamten Zeitraum hinweg ein zentrales Element bleiben, sei es als Grundlage manueller Analysen oder als Trainings- und Testdaten für maschinelles Lernen.

Und was ging bei der DHd2025?

Auf der Jahrestagung 2025 war die Präsenz der Computational Literary Studies unübersehbar. Ich besuchte die explizit als CLS ausgewiesenen Sessions „CLS Analyse“, „CLS Methoden I“ und „CLS Methoden II“, in denen zentrale Fragen der computergestützten Literaturwissenschaft diskutiert wurden. Darüber hinaus fanden sich CLS-relevante Vorträge auch in angrenzenden Formaten wie der Session „Large Language Models I“ und dem Doctoral Consortium. Besonders bemerkenswert ist auch, dass es dieses Jahr gleich zwei Panels zur digitalen Untersuchung von Literatur gab, was die zunehmende Sichtbarkeit und Relevanz des Feldes nochmals unterstreicht: interdisziplinär unter dem Titel „Gender (under) construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft“ (Mende et al. 2025) und mit stärkerem Fokus auf das Computationale unter dem Titel „Literaturgeschichte ‚under construction‘ – was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur“.

Die Beiträge des Jahres 2025 spiegeln aktuelle Forschungstrends wider, die sich thematisch zwischen methodischer Validierung und dem produktiven Umgang mit Vagheit bewegen. Ein immer wiederkehrendes Thema ist dabei die Frage, wie literaturwissenschaftliche Konzepte so operationalisiert werden können, dass sie mit den Methoden der NLP analysierbar werden. Auch die Diskussion um Referenzkorpora und Qualitätsstandards für Annotationen war präsent: Während viele Projekte auf spezifisch zusammengestellte Korpora zurückgreifen, fehlt es nach wie vor an breit akzeptierten und annotierten Referenzkorpora. Hinsichtlich der Qualität von Annotationen schlug Janina Jacke (2025) einen „Platinstandard“ für kollaborativ erstellte, argumentativ begründete Annotationen mit Entscheidungsbäumen vor.
Ein innovativer methodischer Vorschlag kam von Julia Dudar und Christof Schöch (2025), die synthetische Texte als Kontrollgruppe verwendeten, um Analyseeffekte besser einordnen zu können. In diesem Zusammenhang wurden Stichprobenstrategien und Validierungsverfahren als offene Forschungsfragen thematisiert. Auch das Distinktivitätsmaß Zeta wurde wieder intensiv diskutiert und seine Leistungsfähigkeit erneut unter Beweis gestellt werden. Christof Schöch wies jedoch darauf hin, dass es nicht das eine perfekte Maß gebe, sondern es immer auf die zugrundeliegenden Fragestellungen und Korpora ankomme.

Ein weiteres Thema war die Segmentierung von Erzähltexten, etwa in Szenen oder andere narrative Einheiten – eine Herausforderung an der Schnittstelle von Linguistik und Narratologie, zu der Nora Ketschik (2025) treffend anmerkte, dass Prosatexte eben keine Dramen seien, die in der Regel schon von ihrer Textstruktur her eine sinnvolle Segmentierung mitbringen. Auch die Modellierung von Figuren und Perspektiven rückte stärker in den Fokus: Hier wurde betont, wie wichtig eine präzise Koreferenzauflösung ist, um zwischen handelnden und nur erwähnten Figuren zu unterscheiden, wenn Figurenbeziehungen in Netzwerken visualisiert werden sollen. Auch der Modellierung von Vagheit wurde in diesem Jahr wieder Aufmerksamkeit geschenkt: Julian Schröter (2025) stellte den c@1-Score vor, der es Modellen erlaubt, sich im Falle von Unsicherheiten zu enthalten – ein Verfahren, das er als besonders geeignet für vage literarische Kategorien vorstellte. Neu in der methodischen Diskussion war die Analyse gesprochener Literatur: Haimo Stiemer et al. (2025) untersuchten Pausen, Intonation und Prosodie in Hörbuchprosa mit Hilfe des Tools WhisperX, um Korrelationen zwischen Sprechpausen und narrativen Einschnitten zu identifizieren, die für einen neuen Ansatz der Textsegmentierung genutzt werden können.

Ein über einzelne Vorträge hinausgehendes immer wiederkehrendes Thema ist die Evaluierung (u.a. spezifisch behandelt in Pichler et al. (2025)), da sich mit zunehmender Anwendung generativer Modelle auch deren Fokus verschiebt: Neue Evaluationsmetriken und speziell kuratierte Testdatensätze gewinnen an Bedeutung, da herkömmliche, öffentlich verfügbare Daten aufgrund möglicher Pre-Training-Überschneidungen an Aussagekraft verlieren. Gerade im Hinblick auf generative KI in Annotationsprozessen stellt sich die Frage nach der Validität der Ergebnisse: Wie können wir sicher sein, dass, wenn die Annotation der 50 Beispiele aus unseren Testdaten erfolgreich war, die Annotationen auch darüber hinaus valide und nicht womöglich halluziniert sind?

Nicht zuletzt rückte auch die Rolle der CLS für die Literaturgeschichtsschreibung ins Zentrum der Diskussion (Panel von Herrmann et al. (2025)). Die Analyse größerer literarischer Korpora ermöglicht es, neue literaturgeschichtliche Narrative zu formulieren und kanonübergreifende Entwicklungen sichtbar zu machen. Dabei geht es nicht nur um die Datenmenge, sondern vor allem um die Verknüpfung von Textanalysen mit Kontextinformationen und Metadaten. Als neues Ideal der Literaturgeschichtsschreibung gilt die Einbeziehung der literarischen Kommunikation, so dass nicht nur eine Literaturgeschichte, sondern verschiedene Literaturgeschichten gleichzeitig geschrieben werden, ohne dabei das Einzelphänomen aus dem Blick zu verlieren.

Insgesamt zeigt die DHd2025 eindrucksvoll, wie weit die CLS innerhalb der Digital Humanities gekommen sind: Methodisch vielfältig, institutionell verankert und thematisch anschlussfähig erweisen sie sich als ein zentraler Baustein der digitalen Literaturwissenschaft, der nicht vor den schnelllebigen und sich ständig wandelnden Sprachmodellen zurückschreckt, sondern innovative Wege findet, neue Methoden produktiv in den Werkzeugkasten der CLS zu integrieren.

1 CLS „is dedicated to developi[n]g and establishing innovative computational methods in the field of literary studies. In this emerging rese[]a[r]ch field, literary scholars are working together with computer linguists and computer scientists to discover new perspectives on literary history, narratology and style analysis“ (SPP 2207 CLS, 2020).

2 Der verwendete Code befindet sich im GitHub Repositorium. Die XML-Versionen der DHd-Abstracts sind über die DHd GitHub Repositorien abrufbar. Mein besonderer Dank gilt Patrick Helling für die schnelle Bereitstellung der XML-Versionen der Jahrestagung 2025.

3 „computational literary studies (CLS)“: [„computational literary studies“, „CLS“, „computationelle literaturwissenschaft“, „komputationale literaturwissenschaft“, „literary computing“, „digitale literaturwissenschaft“, „digital literary studies“, „algorithmische literaturwissenschaft“]

Acknowledgements

Mein Dank gilt dem DHd-Verband, der mir durch ein Reisekostenstipendium die Teilnahme an der DHd2025 zum Thema „Under Construction“ in Bielefeld ermöglichte.

Referenzen

DHd-Verband (2025): DHd-Abstracts 2014 bis 2025 [GitHub Repositories], https://github.com/DHd-Verband.

Dudar, Julia and Christof Schöch (2025): “Exploring Measures of Distinctiveness: An Evaluation Using Synthetic Texts”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943110.

Guhr, Svenja (2025): CLS-Trends at DHd [GitHub Repository], https://github.com/SvenjaGuhr/CLS-Trends_at_DHd.

Hatzel, Hans Ole, Haimo Stiemer, Chris Biemann, and Evelyn Gius (2023): “Machine Learning in Computational Literary Studies”, it-Information Technology. DOI: 10.1515/itit-2023-0041.

Herrmann, Berenike, Daniel Kababgi, Marc Lemke, Nils Kellner, Ulrike Henny-Krahmer, Fotis Jannidis, Katrin Dennerlein, and Matthias Buschmeier (2025): „Literaturgeschichte ‚under Construction‘ – Was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943254.

Jacke, Janina (2025): “Platinstandard-Annotation in der digitalen Literaturwissenschaft: Definition, Funktionen und diskursive Argumentvisualisierung als Best-Practice-Beispiel”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943180.

Ketschik, Nora (2025): “Netzwerkanalysen Narrativer Texte – Ein Vorgehensmodell”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.15124132.

Mende, Jana-Katharina, Claudia Resch, Mareike Schumacher, Laura Untner, Imelda Rohrbacher, Elena Suarez Cronauer, Andrea Gruber und Frederike Neuber (2025): “Gender (under) Construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943036.

Pichler, Axel, Dominik Gerstorfer, Jonas Kuhn und Janis Pagel (2025): “Empirische Evaluation des Verhaltens von LLMs auf Basis sprachphilosophischer Theorien: Methode und Pilotannotationen”. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943146.

Schröter, Julian (2025): „Zur Modellierung von Unsicherheit: Machine Learning und begriffliche Vagheit Am Beispiel der Novellen im 19. Jahrhundert“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943086.

SPP 2207 CLS (2020): Computational Literary Studies [Website], https://dfg-spp-cls.github.io.

Stiemer, Haimo, Hans Ole Hatzel, Chris Biemann und Evelyn Gius (2025): „Pause im Text. Zur Exploration semantisch konditionierter Sprechpausen in Hörbüchern“. Book of Abstracts of DHd 2025, Zenodo. DOI: 10.5281/zenodo.14943032.

Werkstattreihe Standardisierung: edition humboldt digital

2025年5月7日 16:15

Wir möchten Sie herzlich zur nächsten Veranstaltung unserer Werkstattreihe Standardisierung einladen: Christian Thomas (BBAW) und Stefan Dumont (BBAW) werden edition humboldt digital vorstellen und freuen sich auf die Diskussion mit Ihnen: https://events.gwdg.de/event/1021/

Eine Übersicht über alle weiteren Termine der Werkstattreihe und die Anmeldemöglichkeiten finden Sie hier.

Und leiten Sie diese Einladung auch gern an andere Interessierte weiter!

Worum geht es in der Werkstattreihe Standardisierung? Anhand konkreter Anwendungsbeispiele erhalten die Teilnehmenden Einblicke in die Verwendung von Standards und standardbasierten Tools und können an den Erfahrungen der Vortragenden in ihren jeweiligen Projekten teilhaben. Ziel ist es, ihnen so die Planung und Umsetzung ihrer Vorhaben zu erleichtern.

Darüber hinaus soll die Werkstattreihe Weichen für zukünftige Datenintegrationen in die Text+ Infrastruktur stellen, die interne Reflektion über Angebotsentwicklung, Infrastruktur und Schnittstellen voranbringen sowie Partizipationsmöglichkeiten für Datengebende beleuchten. Die Reihe ist eine gemeinsame Aktivität aller Task Areas in Text+ in Zusammenarbeit mit Kolleginnen und Kollegen aus der Community.

Die Anwendungsbeispiele:

• 20. März: DTABf, Marius Hug, Frank Wiegand

• 11. April: correspSearch, Stefan Dumont

• 22. Mai: edition humboldt digital, Christian Thomas, Stefan Dumont

• 5. Juni: INSeRT, Felix Helfer

• 17. Juli: PROPYLÄEN. Goethes Biographica, Martin Prell

• 18. September: DeReKo, Jennifer Ecker, Pia Schwarz, Rebecca Wilm

• 16. Oktober: Klaus Mollenhauer Ausgabe, Max Zeterberg

• 20. November: BERIA Collection, Isabel Compes, Felix Rau

Zielgruppe

Die Reihe spricht ein breites Publikum mit Bezug zu Sprach- und Textwissenschaften an. Sie ist sowohl für Neulinge, die einen ersten Einstieg in das Thema finden möchten (z.B. Promovierende, Forschende ohne Infrastrukturanbindung), aber auch für im Einsatz von Standards und Tools Versierte, die von Erfahrungen aus ähnlichen Vorhaben profitieren möchten bzw. ebenfalls ihre Erfahrungen mitteilen möchten, gleichermaßen geeignet. Gerne darf diese Einladung also breit weiter verteilt werden.

Anmeldung

Zur Anmeldung für die nächste Veranstaltung bitte hier entlang.

Die Einladungen für die weiteren Veranstaltungen folgen. Es ist aber bereits auch jetzt möglich, sich für alle Veranstaltungen individuell anzumelden.

Werkstattreihe Standardisierung: correspSearch

2025年4月2日 20:56

Wir möchten Sie herzlich zur nächsten Veranstaltung unserer Werkstattreihe Standardisierung einladen: Stefan Dumont (BBAW) wird correspSearch vorstellen und freut sich auf die Diskussion mit uns: https://events.gwdg.de/event/1020/

Alle Termine der Werkstattreihe und die Anmeldungsmöglichkeiten finden sich hier: https://events.gwdg.de/category/284/

Und leiten Sie diese Einladung auch gern an andere Interessierte weiter.

Worum geht es in der Werkstattreihe Standardisierung? Anhand konkreter Anwendungsbeispiele (https://text-plus.org/themen-dokumentation/standardisierung/anwendungsbeispiele/) erhalten die Teilnehmenden Einblicke in die Verwendung von Standards und standardbasierten Tools und können an den Erfahrungen der Vortragenden in ihren jeweiligen Projekten teilhaben. Ziel ist es, ihnen so die Planung und Umsetzung ihrer Vorhaben zu erleichtern.

Darüber hinaus soll die Werkstattreihe Weichen für zukünftige Datenintegrationen in die Text+ Infrastruktur stellen, die interne Reflektion über Angebotsentwicklung, Infrastruktur und Schnittstellen voranbringen sowie Partizipationsmöglichkeiten für Datengebende beleuchten. Die Reihe ist eine gemeinsame Aktivität aller Task Areas in Text+ in Zusammenarbeit mit Kolleginnen und Kollegen aus der Community.

Die Anwendungsbeispiele:

• 20. März: DTABf, Marius Hug, Frank Wiegand

• 11. April: correspSearch, Stefan Dumont

• 22. Mai: edition humboldt digital, Christian Thomas, Stefan Dumont

• 5. Juni: INSeRT, Felix Helfer, N.N. • 17. Juli: PROPYLÄEN. Goethes Biographica, Martin Prell

• 18. September: DeReKo, Jennifer Ecker, Pia Schwarz, Rebekka Wilm

• 16. Oktober: Klaus Mollenhauer Ausgabe, Max Zeterberg

• 20. November: BERIA Collection, Isabel Compes, Felix Rau

Zielgruppe:

Die Reihe spricht ein breites Publikum mit Bezug zu Sprach- und Textwissenschaften an. Sie ist sowohl für Neulinge, die einen ersten Einstieg in das Thema finden möchten (z.B. Promovierende, Forschende ohne Infrastrukturanbindung), aber auch für im Einsatz von Standards und Tools Versierte, die von Erfahrungen aus ähnlichen Vorhaben profitieren möchten bzw. ebenfalls ihre Erfahrungen mitteilen möchten, gleichermaßen geeignet. Gerne darf diese Einladung also breit weitervereilt werden.

Anmeldung:

Zur Anmeldung für die nächste Veranstaltung bitte hier entlang: https://events.gwdg.de/event/1020/


Die Einladungen für die weiteren Veranstaltungen folgen. Es ist aber bereits auch jetzt möglich, sich für alle Veranstaltungen individuell anzumelden: https://events.gwdg.de/category/284/

Virtuelles DH-Kolloquium an der BBAW, 24.02.2025: Hannes Bajohr über „Distanzierte Autorschaft“

2025年2月12日 16:56

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 24. Februar 2025, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Hannes Bajohr (University of California, Berkeley)
über
Distanzierte Autorschaft

***

Der Vortrag gibt einen Überblick über den Begriff der Autorschaft in KI und in Systemen zur Verarbeitung natürlicher Sprache und erörtert frühere und aktuelle Debatten über Computer als literarische Autoren. Er schlägt das Konzept der kausalen Autorenschaft vor, um die Arten der Distanz zwischen menschlichen und maschinellen Agenten zu messen, wobei er die anthropozentrische Ausrichtung dieser Idee anerkennt. Als Gegengewicht dazu wird der Begriff der verteilten Autorschaft diskutiert, der das Netzwerk der an der Entstehung eines Textes beteiligten Akteure berücksichtigt und seine eigenen Grenzen hat. Beide Konzepte sind Elemente einer zukünftigen Theorie der Autorschaft im Zeitalter des maschinellen Lernens.

***

Befragung zum FID Lateinamerika, Karibik und Latino Studies

2025年2月10日 21:48

Schenken Sie uns 5 Minunten Ihrer Zeit, damit wir besser werden können!

Ihr Feedback ist wichtig, damit wir Ihre Interessen und Bedarfe berücksichtigen können, um den Fachinformationsdienst Lateinamerika, Karibik und Latino Studies (FID) weiterzuentwickeln. Der FID ist ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Angebot, welches sich an den speziellen Bedarfen von Wissenschaftler*innen orientiert. Auch wenn Sie den FID bisher nicht genutzt haben, sind wir sehr an Ihren Antworten interessiert.

Für Ihre Teilnahme ist keine Registrierung beim FID erforderlich. Die Teilnahme ist anonym. Wir erheben und speichern keine personenbezogenen Daten.

Informationen zum FID finden Sie unter https://lacarinfo.de/

Hier geht es zur Umfrage:

Herzlichen Dank für Ihre Beteiligung!

Fachinformationsdienst Lateinamerika, Karibik und Latino Studies / Ibero-Amerikanisches Institut Preußischer Kulturbesitz

OCR-Sprechstunde meets Law: Love Data Week Special am 13. Februar 2025

2025年1月27日 17:09

Im Rahmen der Love Data Week 2025 lädt Sie das Kompetenzzentrum OCR der Universitätsbibliotheken Tübingen und Mannheim zu einer speziellen Veranstaltung unserer OCR-Sprechstunde ein! Am Donnerstag, den 13. Februar 2025 stehen wir Ihnen diesmal etwas länger von 15:00 bis 16:30 Uhr über Zoom zur Verfügung.

Neben Ihren Fragen zur automatischen Texterkennung von Handschriften und Druckschriften werden Ihnen spannende Einblicke und Hinweise zu rechtlichen Aspekten von der Digitalisierung über die Volltexterkennung bis hin zur Bereitstellung und Nachnutzung der Volltexte durch die Juristin Vasilka Stoilova (UB Mannheim & BERD@NFDI) geboten. Nutzen Sie die Gelegenheit, Ihre rechtlichen Fragen zum Thema OCR an eine Expertin zu richten.

Seien Sie dabei und nehmen Sie ohne Anmeldung über folgenden Link teil:
🔗https://ocr-bw.bib.uni-mannheim.de/sprechstunde
(Meeting-ID: 682 8185 1819, Kenncode: 443071)

Haben Sie Fragen? Kontaktieren Sie gerne Larissa Will unter:
📧 larissa.will(at)uni-mannheim.de

Wir sind gespannt, welche Fragen und Themen uns dieses Mal erwarten!

Virtuelles DH-Kolloquium an der BBAW, 27.01.2025: „Wissen im Netzwerk. Praxisrelevante Ansätze zur Überführung von Forschungsdaten digitaler Editionen in Knowledge-Graphen“

2025年1月15日 20:51

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich ein zum ersten Termin im neuen Jahr am Montag, den 27. Januar 2025, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Simone Franz
über
Wissen im Netzwerk. Praxisrelevante Ansätze zur Überführung von Forschungsdaten digitaler Editionen in Knowledge-Graphen

***

Der Vortrag beleuchtet das Zusammenspiel digitaler Editionen, Knowledge-Graphen und bibliothekarischer Wissensorganisation. Dabei nehmen Terminologien wie kontrollierte Vokabulare, Normdaten und Ontologien als vermittelnde Elemente für die disziplinübergreifende semantische Vernetzung von Forschungsdaten und die Wissenskodierung eine zentrale Rolle ein.

Ausgehend von einer Kombination semi-strukturierter Leitfadeninterviews sowie einer Datenmodellierung stellt der Vortrag ausgewählte empirische Befunde zur Analyse des Potentials von Knowledge-Graphen für digitale Editionen vor. Vor dem Hintergrund des Aufbaus von Knowledge-Graphen in den geistes- und kulturwissenschaftlichen Konsortien der Nationalen Forschungsdateninfrastruktur (NFDI) geht er der Frage nach, wie Forschungsdaten digitaler Editionen (bspw. XML/TEI-Registerdateien) semantisch angereichert, geöffnet und nachnutzbar gemacht werden können, um sie in Knowledge-Graphen zu überführen. Dabei werden unter anderem Gender Biases in Wissensbasen, Datenqualität und -herkunft sowie die Bedeutung wissenschaftlicher Bibliotheken und Informationsinfrastrukturen diskutiert.

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.

Vacancy Postdoctoral Researcher (DFG-AHRC)

2024年12月1日 19:55

The Professorship of Digital History at the Otto Friedrich University of Bamberg has a vacancy for a

Postdoctoral Research Fellow in Digital History (m/f/d)

(24-month fixed-term contract, 100% of regular working hours, pay group 13 TV-L)

This is a two-year temporary position starting March 2025 or as soon as possible thereafter.

We are seeking a highly qualified Postdoctoral Research Fellow to join our international research team. The postdoc will contribute to the „data upcycling“ process and its documentation as well as the digital analysis and enhancement of the London Customs Accounts (LCA).

The position is part of the DFG-AHRC-funded project „Unlocking Upcycled Medieval Data: North Sea Networks, People, and Commodities in the London Customs Accounts 1380-1560“, which is carried out in collaboration with the School of Advanced Study at the University of London. The London Customs Accounts (LCA) represent one of Europe’s largest surviving collections of medieval trade documents, comprising thousands of records with details about ships and commodities arriving from across Europe.

Our project aims to transform the recent transcriptions of these vital historical records into a FAIR (findable, accessible, interoperable and reusable) digital dataset while preserving their rich complexity. The project develops the methodological concept of „data upcycling“ to bridge the gap between traditional historical source editing and digital humanities approaches. Through this work, we will advance our understanding of late medieval trade, economy, and material culture, moving beyond monetary analysis to examine networks of people and commodities across national boundaries.

Your area of responsibility and application:

  • You will be responsible for producing comprehensive documentation of the historical and contemporary processes of data genesis and information creation that occurred when the LCA were created, when the transcriptions were made, and during data upcycling.
  • You will coordinate and contribute to the enrichment of the LCA, focussing on the linking of commodities, weights, and measures to external Linked Open Data resources and thesauri.
  • Starting from the upcycled LCA, you will conduct independent research on pre-modern consumer economy in the fourteenth to sixteenth centuries
  • You will contribute to creating a FAIR digital dataset from the transcribed LCA, to a source guide and tutorial for using the upcycled LCA
  • You will disseminate your research results in peer-reviewed publications

Your profile:

  • PhD in History or related field
  • Demonstrated experience with Digital Humanities tools and methodologies
  • Strong capability for self-organized research
  • Excellent project management and documentation skills
  • Strong academic track-record, evidenced by research publications, grants, awards, and scholarly recognition beyond PhD completion
  • Knowledge of medieval or early modern economic history is desired
  • Experience with historical data standardization and enrichment is an asset
  • Familiarity with FAIR data principles is a plus
  • Experience with collaborative research projects

We offer:

  • Integration into an international research team
  • Opportunity to contribute to a ground-breaking digital history project
  • An international work environment with excellent career development opportunities

More information:

https://www.history.ac.uk/research/unlocking-upcycled-medieval-data

https://www.uni-bamberg.de/digihist/

General information

Where candidates are otherwise equally qualified, preference will be given to candidates with disabilities. We particularly welcome applications from under-represented communities and first-generation academics.

The University of Bamberg has been certified by the Hertie Foundation as a family-friendly university and is particularly committed to helping reconcile work and family life. The university promotes gender equality in the workplace and endeavours to increase the proportion of women in research and teaching. In the case of equal aptitude, qualifications and expertise, preference is given to women. The faculty aims to increase the proportion of women in research and teaching and therefore welcomes applications from female scientists.

All appointments will be made based on merit, according to the criteria outlined in this job description.

Application

Please send your application documents (cover letter, CV, copies of degrees) as one PDF document to digihist@uni-bamberg.de.

The application deadline is 07.01.2025.

If you have any questions, please contact Prof. Dr. Werner Scheltjens by e-mail: werner.scheltjens@uni-bamberg.de.

 

Teilnehmende gesucht für Umfrage zu Herausforderungen und Hindernissen beim Open-Access-Publizieren

2024年11月30日 00:01

via Christian Hauschke, TIB – Leibniz Information Centre For Science And Technology

Das IDAHO-Projekt der TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften lädt Forschende ein, an einer weltweiten Umfrage des IDAHO-Projekts zur Identifizierung von Hindernissen für das Open-Access-Publizieren teilzunehmen. 

IDAHO steht für „Identifikation von Barrieren für Open-Access-Veröffentlichungen für Forschende mit schwachen institutionellen Anbindungen – epistemische Ungerechtigkeit im wissenschaftlichen Publikationswesen“. Das Projekt möchte zu einer inklusiven, fairen und vielfältigen Open-Access-Publikationskultur beizutragen. Dazu gehört die Identifikation spezifischer Barrieren, denen Autor*innen mit schwacher institutioneller Anbindung gegenüberstehen, worauf evidenzbasierte Empfehlungen entwickelt, um diese Barrieren zu beseitigen oder zumindest abzumildern. 

Eingeladen sind unter anderem Bürgerwissenschaftler:innen (Citizen Scientists), Forschende aus der Zivilgesellschaft und gemeinnützigen Organisationen, Forschende im Ruhestand sowie solche, die in kleinen und mittleren Unternehmen, Kliniken, Krankenhäusern und anderen Organisationen mit unabhängiger Forschung weltweit tätig sind.

Die Umfrage ist anonym, erfordert keine persönlichen oder identifizierenden Informationen und kann in etwa 15 Minuten ausgefüllt werden. Sie ist ist bis zum 6. Januar 2025 geöffnet.

Um an der Umfrage teilzunehmen, klicken Sie bitte https://tib.eu/umfragen/index.php/895232?lang=en

Kontakt: Nataliia Kaliuzhna nataliia.kaliuzhna@tib.eu und Zeynep Aydin Zeynep.Aydin@tib.eu

Weitere Informationen über das Projekt IDAHO: https://projects.tib.eu/idaho/ueber-idaho/

❌