阅读视图
Virtuelles DH-Kolloquium an der BBAW, 27.10.2025: „Vom Gelehrten zum Problem – Maschinelle Datierung von Leibniz-Handschriften: Die Anwendung von Deep-Learning-Verfahren zur Unterstützung der historisch-kritischen Editionsarbeit“
Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 27. Oktober 2025, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):
Tim Westphal (BBAW, TELOTA), Marco Santi (BBAW), Mario Tormo Romero (Hasso-Plattner-Institut, Potsdam)
Seit Beginn der Arbeit an einer historisch-kritischen Edition Gottfried Wilhelm Leibniz im Jahr 1901 bildet die Datierung des umfangreichen handschriftlichen Nachlasses eine große editorische Hürde. Rund 100.000 Blätter aus der Hand des letzten Universalgelehrten dokumentieren eine über fünf Jahrzehnte reichende intellektuelle Entwicklung, wobei einem Großteil der Schriftstücke eine zeitgenössische Datierung fehlt. Traditionelle Methoden der Datierung sind für einen Korpus dieser Dimension unzureichend: Die manuelle Bestimmung durch Expertinnen ist angesichts der Materialmenge praktisch nicht zu bewältigen, und auch die Wasserzeichenanalyse erlaubt nur grobe Annäherungen im Bereich von Jahrzehnten.
Der Beitrag erprobt, inwieweit bildgestützte Deep-Learning-Modelle diese Lücke schließen können und ob diese dabei eine editorisch nutzbare Genauigkeit erreichen. Wünschenswert ist eine maximale Abweichung von ±1 Jahr. Im Mittelpunkt steht die Frage, ob Deep-Learning-Modelle die feinen intra-personalen Schreibdrifts eines einzelnen Autors über fast fünf Jahrzehnte abbilden können. Anders als bestehende Arbeiten, die meist das Alter verschiedener Schreiber klassifizieren, zielt der Ansatz auf die Detektion des schreibereigenen Stilwandels innerhalb Leibniz‘ Werk. Der weitläufige Nachlass von Leibniz bietet hierfür eine geeignete Grundlage.
Es wird bewusst auf Transkription oder OCR verzichtet, so werden die besonderen Herausforderungen von Leibniz‘ Schriftbild (Überarbeitungen, Streichungen, wechselnde Sprachen) umgangen. Um sicherzustellen, dass die Modelle schriftbezogene und nicht materialbedingte Merkmale lernen, werden verschiedene Normalisierungsschritte durchgeführt: Zeilenweise Segmentierung und Binarisierung eliminieren Papierstruktur und Tintenintensität als Faktoren.
Als Datenbasis dienen ca. 600 Seiten aus dem Zeitraum 1669-1716: 400 datierte Briefe sowie 200 Seiten wissenschaftlicher Ausarbeitungen. Das Material wurde so gewählt, dass für jedes Jahr Vorlagen verfügbar sind. Es werden verschiedene Deep-Learning-Architekturen entwickelt und evaluiert, die relevante Merkmale direkt aus den Bilddaten lernen. Anders als klassische Ansätze der digitalen Paläographie mit manueller Merkmalsextraktion wird auf ein Ende-zu-Ende-Lernverfahren gesetzt. Ziel des Projekts ist die Entwicklung von Ansätzen zur hochauflösenden Datierung frühneuzeitlicher Gelehrtenhandschriften für den Einsatz in der alltäglichen editorischen Praxis. Die entwickelte modulare Pipeline ermöglicht flexibel konfigurierbare Experimente und legt besonderen Wert auf Visualisierung und Erklärbarkeit der Ergebnisse.
Das Projekt positioniert sich an der Schnittstelle von Digital Humanities und Computer Vision und zeigt, wie klassisches maschinelles Lernen die traditionelle editorische Arbeit ergänzen kann. Es entsteht in Kooperation zwischen der Leibniz-Arbeitsstelle der BBAW, dem DH-Referat TELOTA und dem KI-Servicezentrum des Hasso-Plattner-Instituts in Potsdam.
***
Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzrraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.
Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.
“AI in Application”: AI teamwork – Achieving more together
Impact Day 2025: HCDH and CAEDHET present their projects
CAEDHET-Hackathon report (04/2025)
‘Chronorhetorics’ – short report about a new research project
KI in Anwendung: Steering Trustworthy AI Systems in the Public Interest
KI Showcase: Der Chatbot „ParzivAI“
[Aktuelles] Ringvorlesung Dazzling Data (online/Salzburg, 2. Oktober 23 – 29. Januar 24)
Virtuelles DH-Kolloquium an der BBAW, 30.10.2023: „Capture and Preserve Memoirs using AI and Web 3 Technology“
Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 30. Oktober 2023, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):
Dr. Andreas Vogel (Founding Director Legacy Page Ltd.)
While many have the desire to create a personal or professional legacy in form of memoirs, few follow through with it. According to our research, the obstacles include lack of writing, production and other technical skills for capturing memoirs and the lack of a suitable platform for storing and connecting memoirs.
LEGACY is a project dedicated to capturing, semantically connecting and preserving memoirs forever by means of digital technology and business model and governance innovations. Digital technology, specifically Web 3 technology and Artificial Intelligence (AI) offer new means for capturing and preserving memoirs.
Generative A.I. –
providing an interactive AI solution to interview people and auto-generate high-quality memoirs, just like what a ghostwriter would do, but with infinite customizability and scalability.
Web 3 –
providing access control and secure encryption of memoirs, minting ownership certificates (in the form of NFTs) with appropriate licensing terms, and linking them to an author’s decentralized self-sovereign identity.
Business Model Innovation-
striving to preserve memoirs “forever” based on an easy to understand pay-once-store-forever pricing model, and long-term perpetual, self-renewing decentralized storage contracts.
Machine Learning –
using machine learning to semantically connect memoirs in a weighted graph, creating a unique collaborative history from individual memoirs.
Governance –
LEGACY requires a governance model which allows it to operate for a very long time while reserving its mission and culture. We have combined the learnings from long lasting foundations, academies and religious organizations with the Web 3 concept of Decentralized Autonomous Organisations (DAO) for creating a digital governance model for LEGACY.