普通视图

Received before yesterday

Eindrücke der Digital Humanities Benelux 2025 in Amsterdam

2026年1月1日 01:00

Die Digital Humanities Benelux 2025 fand in diesem Jahr vom 4.-6. Juni in den Niederlanden, genauer gesagt in Amsterdam, statt und wurde dort an der Freien Universität (Vrije Universiteit) ausgerichtet. Der gesamte Universitätskomplex ist neu und umfangreich ausgestattet. So gab es eine größere Outdoor-Anlage mit Möglichkeiten für Calisthenics sowie drei Beachvolleyballcourts mitten auf dem Unicampus. Das machte gleich zu Beginn Eindruck.

Anlage auf dem Campus der Universität in Amsterdam (Vrije Universiteit) mit Trainingsmöglichkeiten.
Anlage auf dem Campus der Universität (Bild: Vivian Rätzke).

Aber der Grund für meine Reise war ein anderer – gerne wollte ich die Digital Humanities Benelux besuchen und durfte eine ereignisreiche Tagung miterleben. Ich bin sehr dankbar, dass ich die Möglichkeit dazu hatte und möchte mich an dieser Stelle sehr herzlich bei dem Verband Digital Humanities im deutschsprachigen Raum (DHd e.V.) für die großzügige Unterstützung in Form eines Reisekostenstipendiums bedanken, das mir die Konferenzteilnahme ermöglichte.

Im Vorfeld zur Tagung gab es eine Vielzahl an Pre-Workshops, die am Tag vor dem offiziellen Beginn stattfanden. In meinem Fall fiel die Wahl auf Working with colonial Digital Cultural Heritage, Approaches, Tools, and Transnational Insights. Es handelte sich dabei um einen Workshop zum Umgang mit kritischen Metadaten bei Museumsobjekten aus dem Kolonialkontext. Dieser Workshop beleuchtete unterschiedliche Perspektiven und machte bewusst, was nicht auf Anhieb offensichtlich war, zum Beispiel den Verlust an Informationen bei Objekten aus dem rituellen Kontext. In diesem Rahmen konnten Beispielobjekte aufgezeigt werden, für die weitere Metadaten in Gruppenarbeiten von uns hinzugefügt wurden. Dies geschah unter dem Gesichtspunkt, welche Metadaten fehlen, aber auch welche Metadaten verändert werden müssten. Einer der aufgeworfenen Punkte, war, inwiefern Personen der betreffenden kulturellen Einflüsse in die Erstellung von Metadaten des jeweiligen Objekts einbezogen wurden oder werden sollten, um die Informationen weiterzugeben und darüber hinaus die Suche zu erleichtern. Es wäre ein wichtiger Beitrag, dass essentielle Informationen zu den Objekten und dem Kontext nicht verloren gingen, sondern für die Nachwelt erhalten blieben. Dies wäre auch ein Zeichen des Respekts im Rahmen der Aufarbeitung.

Da der Workshop nur einen halben Tag gehen sollte, buchte ich mir für den restlichen Tag einen Slot im Museum und hatte die Gelegenheit, das Kulturangebot der Stadt Amsterdam genießen zu dürfen.

Fußweg zur Tagung durch die Natur mit einem Gewässer.

Fußweg zur Tagung (Bild: Vivian Rätzke).

Am nächsten Tag ging es weiter mit der offiziellen Eröffnung der Tagung, die insgesamt zweieinhalb Tage gehen sollte. Jedoch ahnten wir zu diesem Zeitpunkt noch nicht, wie sie zum Wochenende hin enden würde, aber dazu später mehr.

Insgesamt gab es während sämtlicher Präsentationen, Vorträge zu drei parallel stattfindenden Sessions. Dies bot ein überaus umfangreiches und vielseitiges Programm für jeden Geschmack und unterschiedliche fachliche Hintergründe. Darunter fielen zum Beispiel Vorträge zur 3D-Modellierung in der Archäologie und X-Analysen anhand von Daten der Geschichtswissenschaften.

Das Reisestipendium eignete sich ideal für die Reise nach Amsterdam, denn die Tagung war international gut besucht und dementsprechend anregend im Austausch über aktuelle Themen der Digital Humanities (DH). Eröffnet wurde die Vortragsreihe mit einer Keynote von Barbara McGillivray vom King’s College London mit Tracing meaning across time: computational and human-centred approaches to semantic change. Noch eine Keynote gab es von Lise Jaillant mit AI to Unlock Archives: Revolutionising Access to our Digital Past. Beide Vorträge waren über die Maße interessant und stark besucht. Mit großem Interesse wurden zum Schluss Diskussionen mit den Tagungsteilnehmenden geführt.

Während der Tagung konnte ein dynamisches Miteinander unter den Tagungsteilnehmenden beobachtet werden. Nicht nur spannende Vorträge gab es, sondern auch eine Poster-Session sowie eine Demonstrationssitzung. Diese sowie das Rahmenprogramm förderten die Möglichkeiten der Vernetzung innerhalb der Digital Humanities Community.

Ein interessanter Punkt des angebotenen Zusatzprogramms war die Möglichkeit, an der Bibliotheksführung der ausrichtenden Universität teilzunehmen. Bei dieser Gelegenheit wurde nicht nur ein Einblick in historische Objekte wie einen Globus oder eine Karte von Japan gegeben, sondern auch ein Projekt vorgestellt, bei dem es darum ging, assyrische Tontafeln für Unterrichtszwecke zu scannen, als 3D-Modelle zu erstellen sowie mit dem 3D-Drucker zu drucken. Diese Kopien der Tontafeln wurden herumgereicht und konnten angefasst sowie ausführlich begutachtet und untersucht werden.

Wann bekommt man schon einmal die Gelegenheit, die Struktur eines antiken Objektes ausgiebig abtasten und die Keilschrift erfühlen zu dürfen? Alles natürlich unter dem Gesichtspunkt, dass das Original unberührt, unversehrt und geschützt blieb. Nicht zu vergessen, dass sogleich eine Expertin unter uns Teilnehmerinnen und Teilnehmern anfing zu erklären, worum es sich dabei genau handelte. Frau Dr. Anouk Nuijten, die auch Ansprechpartnerin für das Projekt ist, berichtete uns zusammen mit ihrem Kollegen Aidan Houtkamp mehr über die Eindrücke von den 3D-Modellen und den angefertigten Repliken im Rahmen von Digital Impressions: Creating 3D Models of Clay Tablets. Weiterhin können die Objekte hier gefunden werden.

Eine Tontafel wird gescannt.
Eine Tontafel wird gescannt (Bild: Vivian Rätzke).
Ausschnitt aus einem Projekt der Universität in Amsterdam.
Ausschnitt des Modells (Bild: Vivian Rätzke).

Der Austausch während der Tagung war produktiv und förderte die internationale Vernetzung zwischen den mehr als 200 Tagungsteilnehmenden sehr. Die anschließenden Diskussionen waren anregend und ermöglichten neue Ideen für Herangehensweisen zukünftiger Forschungsprojekte. Aber auch die Poster- und Demo-Sessions gaben Aufschluss über vielversprechende Möglichkeiten, die in DH genutzt werden können.

Das Organisationsteam vollbrachte eine reife Leistung. Wie schon erwähnt, bot das Ende der Tagung eine überraschende Herausforderung. Bereits zu Beginn stießen die Raumkapazitäten an ihre Grenzen und es mussten kurzerhand größere Räumlichkeiten der Universität zur Verfügung gestellt werden. Zwischenzeitlich gab es ein hohes Aufkommen, dass zuvor sogar auf dem Fußboden Platz genommen worden war, da sich niemand die spannenden Präsentationen entgehen lassen konnte. Womit zu guter Letzt jedoch kaum jemand gerechnet hatte, war der landesweite Bahnstreik der niederländischen Bahn, der dafür sorgte, dass spontan umdisponiert werden musste. So kam es, dass einige bereits einen Tag früher abreisten und andere wiederum ihren Aufenthalt um einen Tag verlängerten. Gleichzeitig wurde das Programm von einem auf den anderen Tag von einem Präsenzmodell zur Hybridtagung am letzten Veranstaltungstag umgewandelt. Der Plan ging auf und alle Vorträge konnten stattfinden. Organisatorisch wurde dies flexibel gehandhabt, jedoch waren am letzten Tagungstag keine Fahrten innerhalb der Niederlande möglich. Ich hatte ohnehin geplant, eine Nacht länger zu bleiben und konnte erfreulicherweise ohne Probleme am nächsten Tag weiterfahren.

Die Digital Humanities Benelux 2025 war ein Erlebnis, das ich nicht vergessen werde. Der Besuch der Tagung hat mich fachlich weitergebracht, dazu geführt, dass ich mich intensiver mit bestimmten DH-Themen auseinandergesetzt habe und mir durch die Vorträge und den Austausch dabei geholfen, neue Ideen im Rahmen meiner Masterarbeit zu entwickeln. Sogar die Aussicht auf ein Ministipendium im Rahmen meiner Abschlussarbeit für die Nutzung eines KI-Tools habe ich dadurch bekommen. Die Möglichkeit und die besondere Erfahrung möchte ich nicht missen und werde mit Freude daran zurückdenken.

Unterwegs zur Tagung durch die Natur mit Blick auf einen Fluss.
Unterwegs zur Tagung durch die Natur (Bild: Vivian Rätzke).

Die Digital Humanities Benelux wird im kommenden Jahr 2026 erneut in den Niederlanden, aber dieses Mal in Maastricht, stattfinden. Wir können gespannt sein, was uns beim nächsten Mal erwartet.

Abschluss der Konferenz am letzten Tag im Hörsaal.
Abschlussbild der Tagung (Foto: Vivian Rätzke).

Bericht zum Workshop „APIs for text-based digital editions“ am 25.09.2025

2025年11月17日 19:13

Wird es sie bald geben, die eine API, sie alle zu finden und auf ewig zu binden? Im Workshop „APIs for text-based digital editions“, der in Kooperation der Universitätsbibliothek Heidelberg und Text+ am 25.09.2025 online stattfand, wurde unter anderem auch das diskutiert. Mehr Informationen dazu gibt es im folgenden Beitrag, der den Workshop und dessen zentrale Ergebnisse zusammenfasst.

Einleitung

Was sind APIs?​

Programmierschnittstellen („API“ von Application Programming Interface) stellen Funktionen bereit, mit denen Informationen aus einem System abgerufen oder gesendet werden können. Da die zulässigen Abfragen, möglichen Parameter und Rückgaben einer API genau definiert sind, können verschiedene Systeme und Anwendungen so einheitlich und effizient auf die Daten zugreifen, ohne die genaue Struktur des zugrundeliegenden Systems kennen zu müssen. 

Beispielsweise bietet das Hochschulbibliothekszentrum des Landes NRW die API lobid-gnd an, durch die der Zugriff auf die Bestände der Gemeinsamen Normdatei (GND) der Deutschen Nationalbibliothek verhältnismäßig aufwandsarm in andere Anwendungen integriert werden kann. In dem Webportal einer digitalen Edition könnten zum Beispiel weitere Informationen zu einer Named Entity angezeigt werden, indem beim Klick auf diese im Hintergrund eine Anfrage an einen Endpunkt der lobid-gnd-API gesendet wird (z.B.: https://lobid.org/gnd/search?q=Heidelberg&format=json). Diese liefert die in der GND gespeicherten Informationen in einem einheitlichen – und in der Dokumentation der API beschriebenen – Format aus, das so seitens des Webportals für die Anzeige aufbereitet werden kann und die gewünschte Information angezeigt wird (z.B.: „Heidelberg – Stadt am Neckar, Regierungsbezirk Karlsruhe, 1196 urkundl. erwähnt“).

Die Zugänglichmachung der Datenschicht einer Edition über eine API kann damit die Recherche, Vernetzung und Nachnutzung der Editionsdaten bedeutend erleichtern; sie trägt also auch zur Umsetzung der FAIR-Prinzipien bei. Nicht ohne Grund fragt der Kriterienkatalog der Rezensionszeitschrift für digitale Editionen RIDE explizit nach dem Vorhandensein von technischen Schnittstellen.1

Idee eines Workshops zum Thema APIs

APIs finden jedoch trotz der vielen Möglichkeiten, die sie mit sich bringen, bisher noch keine breite Anwendung im Bereich der digitalen Editionen und der auf ihnen aufbauenden Forschung. Deshalb wurde in Kooperation der Universitätsbibliothek Heidelberg mit Text+ ein gemeinsamer Workshop zum Thema „APIs for text-based digital editions“ veranstaltet.

Ziel des Workshops war es, mögliche API-Nutzer:innen (z.B. Editionswissenschaftler:innen, Digital Humanists, Sprachwissenschaftler:innen) mit den Dienstanbieter:innen und Entwickler:innen zusammenzubringen, um gemeinsam Grenzen und Möglichkeiten der Schnittstellen zu erkunden, Bedarfe, Wünsche und Weiterentwicklungsmöglichkeiten zu sammeln sowie eventuelle Hürden bei der Verwendung und Implementierung zu minimieren.

Der Workshop

Teilnehmer:innen

Am 25.09. trafen über 60 Personen für den Online-Workshop zusammen. Neben Forscher:innen aus Deutschland, Österreich und der Schweiz waren auch Teilnehmende aus u.a. Polen, der Türkei, Italien und den USA dabei, womit sich die Entscheidung, Englisch als Workshop-Sprache zu verwenden, direkt als richtig erwies. Vertreten waren u.a. Bibliotheken, Forschungsinstitute, dedizierte DH-Zentren und Data Science Labs sowie auch konkrete Forschungsprojekte.

Programm

Das etwa sechsstündige Programm gliederte sich dabei in drei Teile:

  • Vortragsteil: Vier Präsentationen à 20 Minuten zu konkreten Schnittstellen(-spezifikationen) mit jeweils unmittelbar anschließender, kurzer Fragerunde
  • Diskussionsteil: Zwei Breakouträume (einmal mit technischem Fokus und einmal mit Fokus auf Nutzung und Bereitstellung) mit anschließender gemeinsamer Zusammenfassung
  • Anwendungsteil: Vortrag zur Implementierung der DTS-Spezifikation im TEI Publisher als praktisches Beispiel für die Schnittstellenintegration; ebenfalls mit anschließender Diskussionsrunde.

Vorgestellte APIs

Die vier vorgestellten Schnittstellen(-spezifikationen) werden nachfolgend zum besseren Überblick kurz erläutert.

Distributed Text Services

Diese API-Spezifikation wird seit 2015 unter ständigem Input der Community gemeinschaftlich entwickelt und liegt aktuell als Release Candidate vor; die Veröffentlichung von Version 1.0 soll dieses Jahr erfolgen. Die Spezifikation sieht neben dem Einstiegspunkt drei Endpunkte (d.h. Orte, an die Anfragen gesendet werden können) vor:

Citable units können dabei grundsätzlich jeder Art sein; denkbar wären z.B. Kapitel, Paragraphen, Seiten oder auch Verszeilen. Durch einen oder mehrere sogenannte citationTrees wird für jede Ressource hinterlegt, welche Strukturen für sie als mögliche Zugriffsform bereitstehen, sodass beispielsweise vom selben Text (sofern implementiert) sowohl die ersten 20 Seiten als auch semantisch-logische Einheiten wie z.B. 3 Kapitel abgerufen werden könnten. Das primäre Format, das über den document-Endpoint bereitgestellt wird, ist TEI-XML; über den mediaType-Parameter können jedoch auch andere verfügbare Serialisierungen der Daten abgerufen werden, z.B. plain text, HTML oder ganz andere. Die übrigen DTS-Endpunkte nutzen JSON-LD zur Auslieferung der Informationen.

SHINE API

Die SHINE API-Spezifikation wurde im Kontext des RISE-Projektes vom Max-Planck-Institut für Wissenschaftsgeschichte in Berlin sowie der Staatsbibliothek zu Berlin entwickelt und liegt in Version 1 vor. Ähnlich wie bei DTS werden Texte hier als Hierarchie von content units und sections verstanden, die in resources enthalten sind, wobei die Ressourcen wiederum in collections gesammelt werden. Über insgesamt 7 Endpunkte ist dabei u.a. Folgendes möglich, wobei die Antwort stets im JSON-Format erfolgt:

  • collections, resources, sections und content units sowie deren zugehörige Metadaten  einsehen
  • eigene Korpora aus resources zusammenstellen und diese abrufen
  • verfügbare Forschungswerkzeuge für collections abrufen/hinterlegen

Zum letzten Punkt: Ressourcen, die über eine SHINE API zugreifbar sind, können die RISE-Infrastruktur nachnutzen; darunter den Import in Textanalyse- oder Annotationsplattformen wie MARKUS und Recogito oder die Einbindung in den RISE Catalog. Über die RISE-Middleware kann zudem beim Zugriff auf ausgewählte Ressourcen ein Authentifizierungsschritt ergänzt werden, wenn gewünscht.

UDT-ITF API

Dieser API-Spezifikationsvorschlag orientiert sich am IIIF-Standard und wurde in dem 2-Jahres-Projekt „Unlocking Digital Texts: Towards an Interoperable Text Framework“ erarbeitet. Er liegt aktuell in Version 0.1.0-beta vor und wird weiter ausgebaut. 

Der Zugriff auf Textfragmente erfolgt hier mittels der Text Fragment API, während die Text Information API Metadaten zu den Textressourcen und eventuellen Versionen ausliefert. Anders als die bisher vorgestellten API-Spezifikationen ist die Versionierung damit explizit in der Spezifikation enthalten – während bei DTS z.B. indirekt mittels Dublin Core-Metadateneinträgen angegeben werden könnte, dass eine Ressource eine andere ersetzt, ist die Version hier Teil der Fragment-Anfrage: http://{server}{/prefix}/{identifier}/{version}/{mode}/{fragment}/{quality}{.format}

Die Fragmente werden dabei durch sogenannte modes spezifiziert. Vordefiniert sind u.a. char, token und book – bei char würden Fragmente z.B. anhand von character offsets zugreifbar sein, während book eine weitere Untergliederung in Seiten, Zeilen und Zeichen zulässt, sodass book-Fragmente mittels Koordinaten aus Seite–Zeile–Zeichen gebildet werden können. Diese Fragmente werden stets anhand der plaintext-Version einer Ressource berechnet, d.h. ein Server, der diese API-Spezifikation implementiert, muss sicherstellen, dass eventuelles Tagging ignoriert wird. Weitere, selbst definierte modes auf Basis der vordefinierten Möglichkeiten sind ebenso zulässig wie das Zugreifen auf die gesamte Textressource mittels der mode “full”. Als auslieferbare Formate sind dabei txt, TEI-XML, HTML und Markdown im Entwurf vorgesehen. 

Auf die weitere Gliederung der Textressourcen in übergreifende Sammlungen wird hier verzichtet, d.h. das Konzept der collections gibt es hier nicht.

TextAPI

Die TextAPI-Spezifikation ist ebenfalls von IIIF inspiriert und wird von der SUB Göttingen entwickelt. Die Spezifikation liegt in Version 1.4.2 vor, wobei das Release der Version 2.0.0 aktuell in Planung ist. 

Mittels der TextAPI können collections, manifests (physische Expression eines Werks) sowie items oder jeweils zugehörige Metadaten abgerufen, erstellt, gelöscht und ersetzt werden. Im JSON-Inhaltsobjekt können beliebige Serialisierungen der Ressourcen per URL verlinkt werden; worum genau es sich bei einem item handelt, wird dabei durch den Typ-Eintrag im JSON-Objekt klar, der frei gewählt werden kann. Ebenfalls enthalten ist dort auch ein data integrity object, in welchem die Prüfsumme der referenzierten Ressource sowie der zur Generierung verwendete Algorithmus hinterlegt werden. Diese Möglichkeit zur Sicherstellung der Datenintegrität ist in den anderen Spezifikationen nicht integriert oder zumindest nicht pflichtmäßig enthalten.

Das hier entwickelte Ökosystem umfasst neben der TextAPI auch eine AnnotationAPI, SearchAPI und IndexAPI sowie insbesondere den Text Viewer for Digital Objects (TIDO), der TextAPI-JSON konsumiert und als Frontend einer darauf aufbauenden Web Application verwendet werden kann. Ein Beispiel dafür findet sich hier: https://ahiqar.uni-goettingen.de/arabic-karshuni.html?tido=m5_i0_p0.0-1.0-2.1-3.0

Zentrale Ergebnisse der gemeinsamen Diskussion

#OneAPIToRuleThemAll?

Ausgehend von der Feststellung, dass die diskutierten API-Spezifikationen ein ähnliches Textverständnis zugrundelegen und REST-basiert sind, stellte sich gleich zu Beginn der Diskussionsrunde die Frage, ob die vier verschiedenen Spezifikationen in einen gemeinsamen Standard zusammengeführt werden könnten. 

Dagegen spricht, dass die präsentierten APIs natürlich nicht die Gesamtheit aller Schnittstellen in diesem Bereich darstellen und schon die vier genannten durch die unterschiedlichen Entwicklungs- und Anwendungskontexte verschiedene Fokusse und damit auch unterschiedliche Features mitbringen. Zudem sind manche der Schnittstellen bereits Teil eines größeren Ökosystems, sodass Änderungen hin zu einer gemeinsamen Spezifikation für Inkompatibilitäten und damit nachträglichen Anpassungsaufwand sorgen würden.

Allerdings brächte ein gemeinsamer Standard enorme Vorteile sowohl für Forschende als auch Infrastrukturanbietende mit sich: Durch ein abstraktes und flexibles Textmodell (wie es die bisher betrachteten APIs verwenden) wäre es möglich, einheitlich auf Texte und zugehörige Metadaten unterschiedlichster Editionsprojekte zuzugreifen. Die einmalige Einarbeitung in diesen Standard und die API-Verwendung würde also den Zugang zu einer Fülle von mit viel Mühe und Zeit aufbereitetem Forschungsmaterial erlauben. Mit Sicherheit würde das auch die Nachnutzung dieser Daten fördern. Infrastrukturanbieter:innen müssten gleichzeitig lediglich einen einzigen Standard implementieren und zugehörige Skripte pflegen, was die Etablierung und Verfügbarhaltung dieser Services deutlich erleichtert. Gleiches gilt für Entwickler:innen von Forschungssoftware, die so leichter überblicken könnten, welche Schnittstellen ihr Produkt vielleicht anbieten sollte.

Für die Zusammenführung der verschiedenen Spezifikationen wären dabei natürlich viele Abstimmungen nötig – idealerweise nicht nur zwischen den Entwickler:innen, sondern auch innerhalb der Community. Vielleicht kann die zur Vorbereitung des Workshops erstellte Übersicht der vier Spezifikationen neben der Überblicksfunktion hierfür auch als Diskussionsgrundlage dienen: https://doi.org/10.11588/DATA/4EKAGI (falls Interesse besteht, dort weitere APIs aufzunehmen, gerne melden!). 

Use Cases sammeln

Während der Diskussionsrunden stelle sich mehrmals die Frage, wer genau APIs nutzt und zu welchem Zweck – dies sowohl von Seiten der Wissenschaftler:innen aus, die mögliche Einsatzzwecke und damit Mehrwerte der Schnittstellen kennenlernen wollen, als auch von den Entwickler:innen, die konkrete Fallbeispiele nutzen können, um die API-Spezifikation weiterzuentwickeln und an die Bedarfe der Community anzupassen. Beispielsweise bat Hugh Cayless um Textzeugen mit komplexeren Strukturen aus Editionsprojekten, um sicherstellen zu können, dass das Design des DTSnavigation-Endpunktes die API-Implementierung in einem Projekt nicht behindert. 

Im ersten Schritt könnten die (geplanten oder bereits umgesetzten) Anwendungsfälle über die jeweiligen GitHub-/GitLab-Repositorien oder mittels der auf den API-Webseiten angegebenen Kontaktmöglichkeiten übermittelt werden. Die auf den Webseiten oft schon enthaltenen Informationen zur API-Nutzung in bestimmten Projekten könnten dann noch weiter ausgebaut werden und so vielleicht auch weitere Nachnutzungen inspirieren.

Implementierung einer API-Spezifikation: DTS im TEI Publisher

Der Vortrag von Magdalena Turska und Wolfgang Meier zur Implementierung der DTS-Spezifikation im TEI Publisher stellte den letzten Teil des Workshops dar. In der aktuellen Version 9 des TEI Publishers sind die beiden DTS-Endpunkte collection und document – jeweils zur Einsicht in Dokumentensammlungen und zum Herunterladen von Ressourcen – bereits integriert; in Version 10 soll der fehlende navigation-Endpunkt folgen. Den Nutzenden des TEI Publishers soll es dabei möglich sein, die DTS-Komponente mit wenigen Klicks zu ihrer Editionsapp hinzuzufügen oder abzuwählen, ohne selbst etwas implementieren zu müssen. 

Dies stellt jedoch besondere Herausforderungen an die Entwicklung seitens TEI Publisher, da der navigation-Endpunkt Wissen zur Textstruktur fordert, die je nach Ressource sehr unterschiedlich ausfallen kann. Das aktuell dafür herangezogene TEI-Element citeStructure ist jedoch für die Abbildung sehr komplexer Strukturen nur bedingt geeignet. Magdalena Turska schlug deshalb nach der Darlegung der Schwierigkeiten als eine mögliche Lösung vor, die ODDs (One Document Does it All – das TEI-eigene Schemaformat) derart anzupassen, dass über sie Aussagen zur Textstruktur gewonnen werden können. Damit einher ging die Idee, eine Registry dieser ODD-Dateien und DTS-nutzenden Projekte zu nutzen, da die dafür nötigen Informationen dann ohnehin im TEI Publisher vorlägen. 

Persönliches Fazit

Insgesamt sind meine Kollegen und ich mit vielen Fragen in den Workshop gestartet und mit mindestens so vielen Anregungen auch wieder davon zurückgekommen. Die allgemeine Bereitschaft, Erfahrungen zu teilen, Entwicklungsentscheidungen zu diskutieren und erneut zu durchdenken sowie das große Interesse an einem gemeinsamen Standard haben mich dabei besonders gefreut. Letzteres haben wir zusammen mit dem Wunsch nach mehr Orientierung und Nutzungsbeispielen auch klar als Bedarfe festgestellt. Gelegentlich hatten wir in den Diskussionsrunden den Eindruck, dass sich die Nicht-API-Entwickler:innen noch etwas zurückhielten – vielleicht, weil das Thema neu ist und man sich erst einmal einen Eindruck davon machen wollte. Dass wir dies mit der Kombination aus Vorträgen und Fragerunden unterstützen konnten, ist gut; zukünftige Angebote könnten hier aber vielleicht noch expliziter auf API-Neulinge eingehen. Vielleicht gibt es ja sogar bald Schulungen zu einem gemeinsamen API-Standard… In jedem Fall hoffen wir als Veranstalter, dass alle Teilnehmenden etwas aus dem Workshop für sich mitnehmen konnten, und bedanken uns noch einmal herzlich für die gemeinsame Zeit.

 

Verfasst von Katharina Brückmann, mit freundlicher Unterstützung von Philipp Hegel, Jakub Šimek und Leonhard Maylein.

  1. Siehe Punkt 4.9 in: Sahle, Patrick et al.: „Criteria for Reviewing Scholarly Digital Editions, version 1.1“, abgerufen unter https://www.i-d-e.de/publikationen/weitereschriften/criteria-version-1-1/ am 17.11.2025. ↩

DiHMA.Lab mit MaRDI und NFDI4Objects am 14. und 15. Oktober an der FU Berlin

2025年9月7日 18:08

Am 14. und 15. Oktober 2025 lädt das DiHMa.Lab der Freien Universität Berlin in Kooperation mit dem ZIB zu einem gemeinsamen Workshop der Konsortien MaRDI und NFDI4Objects an die Freie Universität Berlin ein. Rund um das Thema „Objekte und Methoden“ wird der interdisziplinäre Workshop verschiedene Perspektiven aus der Mathematik und objektbasierten Geisteswissenschaften zusammenführen. Ziel ist es, Ansätze, Werkzeuge und Fragestellungen beider Disziplinen in den Dialog zu bringen, Schnittstellen sichtbar zu machen und gemeinsame methodische Herausforderungen zu diskutieren.

Das vorläufige Programm wird noch aktualisiert:

Tag 1

14.10.2025, 10:00-12:00 Uhr

Im Vorfeld des Workshops findet ein Ediathon: “Object meets Maths: Wikidata als Knowledge Hub” statt. Kommt sehr gern mit Daten und Notebooks vorbei.

12 Uhr Mittag auf Selbstzahlerbasis in der Mensa

14.10.2025 (13:00-16:45 Uhr)  

  • Icebreaker und Vorstellungsrunde (13:00-13:45)
  • Vorstellung der NFDI-Konsortien (14:00-14:45)
  • Statistische Methoden (15:00-15:45)
  • Datenintegration Wissensgraph (16:00-16:45)
  • Ab 17 Uhr gemeinsamer Ausklang auf Selbstzahlerbasis in der Eierschale

Tag 2

15.10.2025 (09:00 – 13:00 Uhr)

  • Wissenschaftliche Objektsammlungen und multimodale Forschungsdaten (9:00-9:45)
  • Use Case Datenanalyse “Windows on Data” (10:00-10:45) 
  • Interdisziplinäres Arbeiten (Challenges / Schwierige Fälle / was ist nicht operationalisierbar? / was ist bereits gut operationalisiert?) / MARDI als Methodendatenbank (11:00-11:45) 
  • Fishbowl: Zusammenarbeit mathematische Methoden in kulturhistorischen Fragestellungen (12:00-13:00)
  • Ab 13 Uhr gemeinsames Mittagessen auf Selbstzahlerbasis in der Mensa

Veranstaltungsort: Villa Engler, Altensteinstraße 2-4, 14195 Berlin (am Haupteingang des Botanischen Gartens)

Alle Informationen finden sich hier: https://www.ada.fu-berlin.de/ada-labs/dihma-lab/DiHMa-MARDI-N4O/index.html

Zur Anmeldung: https://www.ada.fu-berlin.de/ada-labs/dihma-lab/Modulbeschreibungen_DIHMa/PM-Anmeldung_DHIMA_LAB/index.html 

Mit freundlichen Grüßen Eure Local Organizers
Anja Gerber, Christin Keller, Dennis Mischke, Fabian Fricke, Marco Reidelbach, Marcus Weber

Olá, Lisboa: DH2025 – Building Access and Accessibility, open science to all citizens

2025年8月28日 22:51

Die diesjährige Digital Humanities Konferenz fand im schönen (wenn auch ziemlich heißen!) portugiesischen Sommer in Lissabon statt. Als Brasilianerin war ich besonders froh, die DH-Community in einem portugiesischsprachigen Umfeld zu erleben, und bin mit Unterstützung eines Reisestipendiums des Verbands Digital Humanities im deutschsprachigen Raum (DHd) nach Lissabon gegangen. Ich bin daher dem Dhd für die Unterstützung sehr dankbar, welche mir die Teilnahme an der Konferenz ermöglicht hat. Ohne diese Unterstützung hätte ich diese Erfahrung nicht erleben können.

Unter anderem hatte ich vor, Ergebnisse aus dem Projekt „digitale Edition von Fernando Pessoa – Projekte und Publikationen” zu präsentieren, einem Text+ Kooperationsprojekt mit Prof. Ulrike Henny-Krahmer (Universität Rostock), mit der ich 2023 zusammengearbeitet habe. Das Projekt sollte die Infrastruktur der digitalen Edition auf den neuesten Stand bringen. Da Fernando Pessoa einer der wichtigsten Autoren der Literatur in portugiesischer Sprache und ein echter Lisboeta ist, war Lissabon der perfekte Ort, um die Ergebnisse des Projekts zu teilen.

In diesem Blogbeitrag teile ich ein paar Eindrücke von der DH2025 und während wir auf das Abstract-Buch warten, möchte ich auch ein paar Eindrücke vom Programm zeigen.

DH in Lissabon

Ein gelber Straßenbahnwagen fährt durch eine sonnige Stadtstraße, umgeben von Gebäuden, Bäumen und Oberleitungen.

Unter dem Motto „Accessibility & Citizenship“ ging es bei der Konferenz darum, den Zugang zu Wissen demokratischer zu machen, das Engagement der Community zu fördern und aktuelle gesellschaftliche Probleme auf sinnvolle Weise anzugehen. Barrierefreiheit war nicht nur ein Thema, sondern hat auch die Organisation beeinflusst. Bei der Eröffnungsfeier gab es sowohl im Saal als auch beim Zoom-Livestream Gebärdensprachdolmetscher. Das hybride Format, das an sich schon ein Zeichen für Barrierefreiheit ist, baut auf den letzten Konferenzen in Graz (2023) und Washington, DC (2024) auf und versucht, die Online-Teilnahme zu verbessern. Obwohl ich vor Ort in Lissabon war, finde ich es sehr wichtig, dass unsere Community weiterhin den Möglichkeiten für DHler:innen und Interessierte, die nicht reisen können, Priorität einräumt.

Auch die Multilingualität stand im Mittelpunkt. Präsentationen in anderen Sprachen als Englisch sind auf DH-Konferenzen nichts Neues, aber in Lissabon gab es mehrere Vorträge auf Italienisch, Portugiesisch und Spanisch. Da die ADHO neue Mitglieder wie die Associazione per l’Informatica Umanistica e la Cultura Digitale (AIUCD) aufnimmt, sollten wir den wissenschaftlichen Austausch über Sprach- und Landesgrenzen hinweg weiter fördern. Englisch ist vielleicht die Lingua franca der Wissenschaft, aber als Geisteswissenschaftler:innen sollten wir die damit verbundenen Auswirkungen kritisch hinterfragen.

Aus einer brasilianischen akademischen Perspektive ist diese Diskussion bekannt: Englisch ist oft die gemeinsame Sprache in der Wissenschaft, aber es kann auch eine Barriere darstellen, die Leute von der Teilnahme ausschließt, und zwar selbst wenn es, z.B., auf Portugiesisch fundierte wissenschaftliche Arbeiten gibt. Für uns, bei einem Vortrag über einen portugiesischen Autor im Herzen Portugals durch eine brasilianische Forscherin, haben wir (das Team: Ulrike Henny-Krahmer, Erik Renz und ich) uns dafür entschieden, auf Portugiesisch zu präsentieren. Es war wie eine Heimkehr für Pessoas Ausgabe in seine Heimatstadt.

Ich werde hier nicht versuchen, das Problem zu lösen, aber die Anzahl der mehrsprachigen Vorträge auf der Konferenz unter dem Motto „Accessibility“ hat mich wieder an diese Fragen erinnert. Das ist es meiner Meinung nach, was ein Konferenzmotto bewirken sollte. Gut gemacht, Organisationskomitee!

Die DH-Konferenz in Lissabon war nicht nur mehrsprachig, sondern auch echt international. Die Referenten kamen aus Institutionen von 45 Ländern. Die Karte unten zeigt die Teilnahme nach Ländern, basierend auf dem Konferenzprogramm und den Angaben der Teilnehmer zu ihrer jeweiligen institutionellen Zugehörigkeit. (Die Karte zeigt das Land der Institution der Referenten, nicht ihre Staatsangehörigkeit.)

Die Grafik zeigt eine Weltkarte mit der Anzahl der Präsentationen pro Land, dargestellt durch verschiedene Farbabstufungen von hellviolett bis dunkelviolett. Je dunkler die Farbe, desto mehr Präsentationen fanden in diesem Land statt.

Bei der Eröffnung hat ADHO sein 20-jähriges Jubiläum in Erinnerung gerufen (gegründet 2005) und Italien über AIUCD als neues Mitglied begrüßt. Der Antonio Zampolli Preis 2026 wurde für das Stylo Tool und die Computational Stylistics Group verliehen, deren R-Library für stilometrische Analysen und ihr Engagement für den Aufbau einer Community gewürdigt wurden. Michael Sperberg-McQueen (1954–2024) wurde außerdem in Erinnerung gerufen und der Michael Sperberg-McQueen Digital Nachlass vorgestellt (https://dh.phil-fak.uni-koeln.de/en/research/cmsmcq), eine Initiative des Departments für Digital Humanities der Universität zu Köln zur Bewahrung seines digitalen Nachlasses unter der Leitung von Elisa Cugliana und Øyvind Eide. Das Programmkomitee unter der Leitung von Gimena del rio Riande (IIBICRIT- CONICET/ USAL) und Manuel Portela (Fachbereich für Sprachen, Literatur und Kulturen, UCoimbra) folgte mit einem lustigen Sketch über KI-„Halluzinationen” und die Schwierigkeiten des akademischen Lebens, der die Stimmung auflockerte und uns gleichzeitig auf die Themen des Jahres zurückführte: Mehrsprachigkeit, Politik, Barrierefreiheit und Wissenschaft als citizenship.

Javier Cha steht vor dem Publikum im Konferenzraum und präsentiert Folien mit Schriftzeichen, während ein Dolmetscher daneben steht.

Dann kam die Keynote von Javier Cha. Cha erzählte von seiner Karriere und seiner Sicht auf (digitale) Geschichte, von seinen ersten netzwerkbasierten Rereadings historischer Quellen bis hin zu aktuellen Anwendungen von KI, die uns helfen, Archive besser im Kontext zu lesen. Der Fokus liegt nicht darauf, mit KI das Rad neu zu erfinden, sondern anders zu lesen: mithilfe von Computern Verbindungen, Nuancen und Kontexte zu erkennen, die durch Schlüsselwörter und Häufigkeit nicht erfasst (oder erkennt) werden, während der Historiker:in die Kontrolle behält. Er bezeichnete dies als „fine-tuning the historian’s macroscope”: die Fähigkeit, das Ganze zu überblicken und die richtigen Stellen zu finden, um näher hinzuschauen und genauer zu lesen.

Überblick: Poster, Präsentationen und Panels

Ein Balkendiagramm zeigt die Anzahl der Präsentationen nach Typ. "Short paper" hat mit 218 die meisten Beiträge, gefolgt von "Poster" mit 133 und "Long paper" mit 118. Weitere Kategorien sind "Workshop" (17), "Panel" (10), "Mini conference" (8) und "SIG workshop/event" (7).

Das Programmheft ist noch nicht da, aber während wir warten, können wir uns schon mal das Programm anschauen und, um einen Begriff von Cha zu verwenden, mit unserem Makroskop die Konferenz aus der Ferne betrachten und versuchen, einen Eindruck davon zu bekommen, was unsere DH Community so treibt. Ein Überblick über die Arten der eingereichten Beiträge zeigt uns die Verteilung des diesjährigen Programms (siehe oben). Die Daten für diesen Überblick stammen aus dem Programm auf Conftool (https://dh2025.adho.org/browse-the-program-agenda/), wurden maschinell erfasst und anschließend mit Python bereinigt und analysiert.

Ein Balkendiagramm zeigt die häufigsten n-Grams. "Large language models" und "cultural heritage" sind am häufigsten, gefolgt von "machine learning" und "open source".

Wenn man sich die Abstracts der Vorträge im Programm anschaut (Workshops und Panels nicht mitgerechnet), zeigt das Balkendiagramm die häufigsten N-Grams, also wie oft ein Begriff in den Abstracts vorkommt. Das Thema, das ganz klar dominiert, sind „Large Language Models” (LLMs). Das zeigt, dass der Einsatz von LLMs in den Digital Humanities weiterhin ein Trend ist, der sich durchsetzt. Gleich danach kommt „cultural heritage”, was zeigt, dass GLAM und die Arbeit mit Kulturgütern nach wie vor ein zentraler Anwendungsbereich für DH sind. Methoden sind sehr präsent, vor allem KI („machine learning” und „large language models” stehen ganz oben), während „“computational Methods” und „text analysis” den methodischen Fokus verstärken. Der Fokus auf KI und LLMs ist nicht überraschend und war auch schon in der letzten DH zu sehen. Offenheit zieht sich durch das ganze Programm, wobei „open source”, „open science”, „open data” und „FAIR principles ” häufig auftauchen. Auch Wissensrepräsentation ist ein lebhaftes Thema, wobei „knowledge graphs” und „linked open data” auf Interoperabilität und semantische Anreicherung hinweisen.

Eine zweite Visualisierung zeigt, wie Themen in den Abstracts der Vorträge zusammen auftreten. In dieser Co-Occurrence-Heatmap zählt jede Zelle die Abstracts, die ein Paar der Top N-Grams im selben Text erwähnen (die Diagonale ist ausgegraut, weil Selbstpaare raus sind). Die Matrix ist ziemlich sparsam, was darauf hindeutet, dass sich viele Beiträge auf ein einziges Hauptthema konzentrieren, aber es gibt auch klare Überschneidungen. Begriffe rund um Offenheit wie “open science”, „open source”, „open data” und „FAIR principles” tauchen zusammen auf, oft in Kombination mit „research data“ und oft in Kombination mit „cultural heritage“. Methodische Themen bilden ein weiteres Cluster, insbesondere „large language models“, „machine learning“ und „computational methods“, die gelegentlich gemeinsam mit „text analysis“ erscheinen. „Cultural heritage“ zeigt Verbindungen zu mehreren dieser Bereiche, was darauf hindeutet, dass Kulturgüter häufig durch offene Praktiken, datengetriebene Ansätze und KI-gestützte Methoden in Fallstudien integriert werden.

Ein Heatmap zeigt die Co-Occurrence der häufigsten n-Grams. Dunkle Felder markieren häufige gemeinsame Vorkommen von Begriffen wie "large language models", "cultural heritage" und "open science".

Was ich mitnehme…

Die Teilnahme an der DH ist immer eine Chance, Freunde zu treffen, neue Leute kennenzulernen und viel zu lernen. Als ich Lissabon verlassen habe, hatte ich frische Ideen für LLM-basierte Methoden zum Erfassen und Analysieren von Daten im Gepäck. Wie Cha uns betonte, müssen wir uns nicht zwischen dem Überblick und den Details entscheiden; wir können zwischen beiden hin- und herwechseln und LLMs kritisch einsetzen, während wir selbst entscheiden, wann wir den Fokus auf Nuancen legen wollen. Außerdem wurde mir wieder bewusst, wie wichtig Dokumentation und Wiederverwendbarkeit sind: Unsere beste Arbeit ist für andere nur dann nützlich, wenn sie gut dokumentiert und frei verfügbar ist. Die DH2025 hat meine Neugier geweckt und mein Notizbuch mit Ideen gefüllt. Vielleicht werden wir uns 2026 in Wien zur DHd wieder treffen.

Tchau, Lisboa, até a próxima! Bis dahin hat Lissabon uns allen beigebracht, was Saudade bedeutet.

Ein Flugzeug fliegt über Lissabon bei Sonnenuntergang, die Skyline ist im Schatten sichtbar.

DH2025: Building Access and Accessibility, open science to all citizens – Meine ersten Schritte in die Forschungswelt

2025年8月15日 23:22
Vom 14. bis 18. Juli 2025 fand in Lissabon die Digital Humanities Konferenz unter dem Motto „Building access and accessibility, open science to all citizens“ statt. Gemeinsam mit meiner Kommilitonin und Dozentin durfte ich unser Projekt als „Long Presentation“ vorstellen. Was als Kursprojekt begann, wurde zu meiner ersten internationalen Konferenzteilnahme und einer wichtigen Erfahrung für meine berufliche Zukunft. Besonders dankbar bin ich dem Verband „Digital Humanities im deutschsprachigen Raum e.V.“, der mir über das DHd-Reisestipendium die Teilnahme ermöglicht hat. Ohne diese großzügige Unterstützung wäre es mir nicht möglich gewesen, diese wertvolle Erfahrung zu sammeln.

 

Von der Studienarbeit zur internationalen Konferenz

Ich befinde mich gerade in der finalen Phase meines Masterstudiums und arbeite parallel am Institut für Digital Humanities der Universität zu Köln. Dort bekomme ich viel von den Abläufen hinter den Kulissen mit, besonders wie Promotionen und Forschungsprojekte vonstattengehen. Ursprünglich hatte ich nie vor, zu promovieren. Der Master sollte mein letzter Meilenstein sein, danach wollte ich direkt ins Berufsleben einsteigen. Die Pandemie und einige Umwege verlängerten mein Studium, wodurch ich mich unter Zeitdruck fühlte.

Doch wie so vieles in meinem Studium entwickelte sich auch diese Perspektive ganz natürlich. Dass ich überhaupt im Bereich Digital Humanities studieren würde, hätte ich mir früher nie vorstellen können. Inzwischen bin ich für neue Möglichkeiten offen. Die Konferenzerfahrung hat mein Interesse an einer Promotion geweckt.

Den Grundstein legte ein Kurs namens „Digital Humanities – Theorie und Praxis“, in dem wir als Gruppe ein Virtual-Reality-Projekt in der Spiel-Engine Unreal Engine 5 entwickelten. Mit Unterstützung unserer Dozentin wählten wir das Thema und erstellten eine Anwendung über mittelalterliche Losbücher, speziell das „Prenostica Socratis Basilei” in seinen mittelalterlichen deutschen Versionen. Diese historischen Wahrsagetexte haben ihre Wurzeln in der Spätantike und wurden vor allem vom 14. bis 16. Jahrhundert zur Zukunftsvorhersage verwendet. Typisch war dabei der Einsatz von interaktiven Ritualen wie Würfeln, um durch den nicht linearen Text zu navigieren. Als konkrete Grundlage diente uns das Losbuch Konrad Bollstatters, eine Handschrift aus dem 15. Jahrhundert, die charakteristische Merkmale dieser Textgattung zeigt.

Wir platzierten dieses Losbuch in drei virtuellen Umgebungen: einer Klosterbibliothek, einem Astrologenlabor und einer Taverne. Damit wollten wir die unterschiedlichen Nutzungskontexte der Zeit nachbilden, von spirituellen über wissenschaftliche bis hin zu unterhaltenden Zwecken.

Die von uns entwickelte VR Anwendung ermöglicht es Nutzern, das Losbuch in seinen historischen Zusammenhängen zu erleben. Dabei können sie die typischen multisensorischen Interaktionen nachempfinden, etwa das Blättern in den Pergamentseiten oder das ritualisierte Würfeln, die für die mittelalterliche Nutzung dieser Texte entscheidend waren. Schon während der Entwicklung war klar, dass wir das Projekt weiterführen und einem größeren Publikum zeigen wollten. Wir schrieben ein Paper darüber, das tatsächlich für die DH Conference akzeptiert wurde!

Die Reise nach Lissabon

Da alles sehr schnell ging, konnte nicht das gesamte Team teilnehmen. Als Studierende fehlten uns schlichtweg die finanziellen Mittel, und die Flüge und Unterkünfte waren während der Sommerzeit besonders teuer. Auch zeitliche Konflikte verhinderten, dass wir von Anfang an dabei sein konnten. Unsere Teammitglieder waren in unseren Gedanken dabei. Wir stellten sicher, dass ihre Arbeit gewürdigt wurde. Am Abend des 17. Juli landeten wir in Lissabon. Nach der Ankunft freuten wir uns sehr über das tolle Wetter. Wir nahmen die Bahn zu unserem Airbnb, das glücklicherweise nicht weit vom Flughafen entfernt lag. Unser Host war eine nette portugiesische Familie, die uns Zugang zu den meisten Räumlichkeiten gewährte.

Erste Eindrücke auf der Konferenz

Bei der Ankunft zur Konferenz war ich überwältigt von der Menschenvielfalt aus aller Welt. Nach der Anmeldung erhielten wir unsere Namensschilder mit Affiliationen. Unsere Präsentation war für Donnerstag um 14 Uhr geplant, die Slots dauerten jeweils 1,5 Stunden und begannen um 10 Uhr. Über die Whova-App konnte man sich vernetzen und für interessante Sessions eintragen. Zusätzlich gab es eine komplette Teilnehmer:innenliste und eine Messaging-Funktion für die Vernetzung. Zwei Personen mit DH2025 Konferenz-Namensschildern (Pascale Boisvert und Nadjim Noori, University of Cologne) unter einem Baum

Wir waren sehr aufgeregt, da wir uns noch nicht vollständig vorbereitet fühlten. Neue Ängste kamen auf: Was, wenn niemand oder zu wenige zu unserem Panel kommen? Was, wenn Fragen gestellt werden, die wir nicht beantworten können? Wir hatten uns zwar auf spezifische Fragen vorbereitet, aber unser Projekt würde sicherlich komplexe Fragen aufwerfen.

Ich fühlte mich etwas eingeschüchtert, denn die meisten Teilnehmenden waren Postdocs oder Promovierende. Genau deshalb wollte ich herausfinden, ob ich mir eine Karriere in diesem Bereich vorstellen kann, und suchte aktiv Gespräche in den Pausen.

Die Präsentation

Am Abend zuvor übten wir unsere Passagen und nahmen das VR-Headset für eine mögliche Live-Demo mit. Letztlich zeigten wir jedoch nur ein Video, um das Risiko technischer Probleme oder von Zeitverzögerungen zu vermeiden. Unsere Präsentationszeit war auf 20 Minuten begrenzt.

Während der Präsentation betonte unsere Dozentin, dass wir Masterstudierende seien, die zum ersten Mal in dieser Form präsentieren. Die Präsentation verlief sehr gut. Wir hielten die Zeit ein, stotterten kaum, das Englisch funktionierte, und die Diskussionsrunde war lebendig. Es gab viele Fragen, was uns freute. Kritische Stimmen gab es auch: Jemand hinterfragte unsere Methodik, doch eine andere Person wies die Kritik zurück und bezeichnete unseren Ansatz als intuitiv.

Die Konferenztage

Wir gingen relativ spät schlafen und mussten früh aufstehen. Am ersten Tag ging ich in den Pausen zu unserer Dozentin, die unsere Präsentation unterstützte und die Session moderierte. Unser Institut war schön auf der DH-Konferenz vertreten. Ich sah viele Dozent:innen und Kommiliton:innen, die ebenfalls präsentierten.

Die Mittagspause am Donnerstag war hektisch, doch ich nutzte die kurze Zeit, um etwas von Lissabon zu sehen und zu essen. Nach der Präsentation besuchten wir bis tief in den Abend weitere Sessions.

Der Freitag war viel entspannter, da der Druck weg war. Wir suchten in Ruhe interessante Sessions aus und aßen entspannt zu Mittag. Ich erlebte viele spannende Präsentationen, besonders gefielen mir die mit viel Programmierung.

Die abschließende Keynote

Am Ende des Freitags gab es die Final Keynote, bei der wir unbedingt dabei sein wollten. Roopika Risam vom Dartmouth College hielt einen Vortrag über „Digital Humanities for a World Unmade“. Sie forderte die DH-Community heraus, nicht nur technische Expert:innen, sondern auch politische Akteur:innen zu sein. Besonders hängen geblieben ist mir ihr Aufruf, digitale Forschung als Mittel für soziale Gerechtigkeit zu nutzen und marginalisierte Stimmen sichtbar zu machen.

Fachliche Einblicke und neue Horizonte

Die Sessions, die ich besuchte, zeigten die Vielfalt der Digital Humanities: von Machine-Learning-Ansätzen für Gothic Novels über Netzwerkanalysen antiker griechischer Texte bis hin zu automatisierten Text-Processing-Tools. Besonders beeindruckt hat mich der Session-Slot „Automating Text Processing with LLMs & Data Visualization Tools“. Die Präsentation zu CodeFlow” zeigte mir, wie weit wir bereits in der Automatisierung gekommen sind. Tools wie diese können digitale Geisteswissenschaften zugänglicher machen, indem sie auch weniger technisch versierten Forschenden den Zugang zu komplexen Analysemethoden erleichtern. Konferenzraum mit Teilnehmern während eines Vortrags, Blick von hinten auf das Publikum und die Präsentation vorne

Eine andere Präsentation, die mich besonders fesselte, war „Comparing Human and AI Performance in Visual Storytelling through Creation of Comic Strips“. Der Präsentierende war trotz seiner Online-Teilnahme so unterhaltsam, und die Erkenntnisse reflektierten die Vielseitigkeit und Kreativität der DH-Forschung. In der Präsentation wurde eine Studie vorgestellt, in der Menschen und KI darin verglichen wurden, einen dreiteiligen Nancy-Comic nachzustellen. Menschen mit grundlegender künstlerischer Ausbildung überzeugten durch zusammenhängende visuelle Erzählungen, während die KI trotz beeindruckender künstlerischer Replikation Schwierigkeiten hatte, eine stimmige Geschichte zu erzeugen. Die Ergebnisse zeigen, dass Menschen nach wie vor überlegen sind, Anweisungen in sinnvolle Geschichten umzusetzen.

Überraschende Erkenntnisse und Vernetzung

Was mich am meisten überrascht hat, war die Selbstverständlichkeit, mit der hier Geisteswissenschaftler:innen, Informatiker:innen, Bibliothekar:innen und Künstler:innen zusammenarbeiten. Die Bandbreite reichte von technischen Ansätzen bis zu konzeptuellen Reflexionen über digitale Kultur. Es war faszinierend zu beobachten, wie schnell sich Trends und Technologien im Feld entwickeln. 

Die Vernetzung war ein Höhepunkt der Konferenz. Ich konnte mich mit Forschenden aus Polen, den Niederlanden und den USA austauschen. Eine US-amerikanische Professorin zeigte großes Interesse an unserer Präsentation und wollte Einblicke für ihre Kurse, um ähnliche Projekte mit ihren Studierenden zu realisieren. Solche direkten Angebote für Kollaborationen hätte ich nicht erwartet.

Ein neuer Blick auf die Promotion

Eine meiner Hauptemotionen während der Konferenz war die Angst vor dem Ungewissen, vielleicht auch ein bisschen Imposter-Syndrom. Noch vor einem Jahr hätte ich gesagt, dass ein PhD für mich keine Option ist. Mir fehlte einfach der Anknüpfungspunkt. In meinem Umfeld kannte ich kaum jemanden, der eine Promotion anstrebte.

Die Konferenz ermöglichte mir einen Einblick in die weltweite DH-Forschung. Es gab sogar ein Online-Board mit Job- und PhD-Angeboten, und ich sprach mit vielen Gleichaltrigen über ihre Erfahrungen und ob sie eine Promotion empfehlen würden.

Die positive Resonanz auf unser Projekt gibt mir Mut, tiefer in dieses Forschungsfeld einzutauchen, und ich werde mich demnächst von meiner Dozentin beraten lassen.

Ausblick und Ratschläge

Nach der Masterarbeit stehen die PhD-Pläne im Raum. Vielleicht führt mich das sogar ins Ausland. Für unser VR-Projekt hoffen wir auf Funding. Diese Antwort musste ich während der Diskussionsrunde nach unserer Präsentation häufig geben, wenn gefragt wurde, warum wir bestimmte Aspekte nicht anders umgesetzt haben. Mit zusätzlichen Ressourcen könnten wir das Projekt für noch mehr Menschen zugänglich machen.

Anderen Masterstudierenden, die ihre erste Konferenz besuchen, würde ich raten: Lasst euch von eurer Unsicherheit nicht blockieren. Viele Menschen auf der Konferenz durchlaufen genau dasselbe wie ihr. Und nach der ersten Konferenz werden die nächsten viel leichter. Für zukünftige Präsentationen würde ich mein Zeitmanagement verbessern, um alles noch einmal in Ruhe durchzugehen, auch wenn mir bewusst ist, dass diese Konferenz für mich sehr plötzlich kam.

Fazit

Diese erste Konferenzerfahrung hat nicht nur meinen Blick auf eine mögliche Promotion verändert, sondern mir auch gezeigt, wie lebendig, vielfältig und zukunftsweisend die Digital Humanities sind. Die Begegnungen mit internationalen Forschenden und der Austausch über innovative Projekte haben mich bestärkt, meinen Weg in diesem Feld weiterzugehen.



RIDE 20 ist erschienen!

作者Erik Renz
2025年6月28日 03:06

Wir freuen uns, Ihnen die 20. Ausgabe der Rezensionszeitschrift RIDE anzukündigen, die seit 2014 vom Institut für Dokumentologie und Editorik (IDE) herausgegeben wird.

Die aktuelle Ausgabe wird von Ulrike Henny-Krahmer und Martina Scholger herausgegeben und widmet sich digitalen wissenschaftlichen Editionen. Sie enthält fünf Rezensionen (drei auf Englisch, zwei auf Deutsch):

Alle Rezensionen sind abrufbar unter https://www.doi.org/10.18716/ride.a.20.

Enjoy the RIDE!

Als feministische Medienwissenschaftlerin auf der DHd2025 – Reflexionen von den disziplinären Rändern

2025年6月4日 15:18

In diesem Beitrag gebe ich Einblick in meine Konferenzerfahrung auf der DHd2025 und lege hierbei den Fokus auf Aspekte, die mit meiner Perspektive als einer Doktorandin verbunden sind, die sich thematisch und disziplinär in einem Feld bewegt, das auf DH-Konferenzen deutlich unterrepräsentiert ist. Dieses Feld zeichnet sich durch eine Verbindung aus medienwissenschaftlichem Hintergrund mit starkem DH-Bezug, feministischem Ansatz, filmhistorischem Forschungsgegenstand und der Anwendung digitaler Methoden aus. Mit dieser im Kern interdisziplinären Verortung ergaben sich auf der DHd2025 zahlreiche Anknüpfungspunkte, gleichzeitig stellte sich jedoch ein gewisses Gefühl der fachlich-thematischen Vereinzelung ein, das ich im Folgenden diskutieren möchte.

Computational Literary Studies und LLMs als Schwerpunkte im Programm

Ein Blick in das Programm der DHd2025 macht deutlich, dass von insgesamt 27 Panels ganze 10 einen vornehmlich literaturwissenschaftlichen Fokus hatten (hierunter habe ich alle Panels gefasst, die unter den Titeln „CLS Methoden“ und „Editionen“ stattfanden oder den literaturwissenschaftlichen Fokus anderweitig im Titel des gesamten Panels oder den einzelnen Vorträgen erkennen ließen, wobei anzumerken ist, dass in den Editionen-Panels auch ein einzelner musikwissenschaftlicher Vortrag stattfand). Darüber hinaus gab es drei Panels im Rahmen des Doctoral Consortiums und jeweils zwei Panels zu „Digital History“, „Distant Viewing“ und allgemein zu „Large Language Models“ (ein drittes LLM-bezogenes Panel habe ich aufgrund der Schwerpunkte der Vorträge der digitalen Literaturwissenschaft zugeordnet). Außerdem gab es jeweils noch einzelne Panels zu „Forschungsdatenmanagement“, „3D-Daten“, „Modellierung“, „Projektarbeit“, „Normdaten“, „Metareflexion“ und „Wissenschaftsforschung“. Beschäftigt man sich genauer mit den Titeln der einzelnen Vorträge in diesen Panels, wird die disziplinäre und thematische Vielfalt der Digital Humanities jenseits literaturwissenschaftlicher Fragestellungen deutlich und es lassen sich Vorträge zu digitaler Kunstgeschichte, automatisierter Videoanalyse, dem Kulturerbe Tanz oder Datenvisualisierungen und -physikalisierungen finden, um hier nur einige wenige Themen herauszugreifen.

Würde ich außerdem noch die Posterbeiträge in meine Analyse einbeziehen, ließe sich sicherlich eine noch größere thematische Diversität feststellen. Da es mir an dieser Stelle jedoch um die Beschreibung von Tendenzen geht und Panels und Vorträge insgesamt einen höheren Stellenwert auf der Konferenz einnehmen, klammere ich die Posterbeiträge aus. Eine weitere Einschränkung meiner Analyse ist, dass ich mich lediglich auf das Programm der DHd2025 beziehe. Für eine umfassende Bewertung der DHd-Konferenzen im Hinblick auf die vertretenen Disziplinen wäre es jedoch notwendig, die Programme aller bisherigen Konferenzen zu berücksichtigen und miteinander zu vergleichen. Nur so ließen sich wirklich allgemeine Tendenzen herausarbeiten.

Diese Überlegungen gehen in Richtung der Frage nach einer Disziplingeschichte der Digital Humanities, wie sie im Rahmen des Panels Gemeinsame Baustellenbegehung – Digital Humanities und Wissenschaftsforschung auf der DHd2025 diskutiert wurde. Darin betonte Christof Schöch, dass sich die Computational Literary Studies, im Unterschied zu anderen Disziplinen, immer als Kern der Digital Humanities verstanden hätten. Entsprechend ist die Dominanz literaturwissenschaftlicher Fragestellungen auf der DHd2025 nicht sonderlich überraschend, auch wenn sie für die vorangehenden DHd-Konferenzen nicht in dieser Form zutreffen muss und diesbezüglich erst eine Analyse der bisherigen Konferenzprogramme konkretere Aussagen erlauben würde.

Medienwissenschaftliche Perspektiven im DH-Kontext

Als digitalaffine Medienwissenschaftlerin (oder medienwissenschaftlich situierte digitale Geisteswissenschaftlerin), die im Rahmen der von Sarah-Mai Dang geleiteten DAVIF-Forschungsgruppe untersucht, wie Metadaten zu Filmpionierinnen so aufbereitet werden können, dass sie langfristig nachnutzbar sind und zu einer höheren Sichtbarkeit der Forschung zu Frauen* im Frühen Kino beitragen, fühle ich mich mit meinem interdisziplinären Ansatz prinzipiell sehr gut verortet in den Digital Humanities. Die von mir besuchten DHd-, und DH-Konferenzen, sowie weitere disziplinrelevante Veranstaltungen lieferten insbesondere im Hinblick auf die digital-methodische Gestaltung meiner Dissertation wichtige Impulse. Gleichzeitig stellte ich fest, dass ich mich im Zuge der Datenmodellierung nicht ohne weiteres auf eine bereits existierende „Geschichte von Versuchen“ (Flanders und Jannidis 2015, 16) des Modellierens beziehen konnte, wie dies sicherlich in den Computational Literary Studies und anderen, eher im Zentrum der DH stehenden, Disziplinen der Fall ist. Stattdessen habe ich zu Beginn meiner Dissertation zunächst überlegt, an welche „Datenmodellierungsgeschichten“ anderer Sub-Disziplinen der DH ich anknüpfen könnte. Erst im Projektverlauf habe ich schließlich Filmografien als ein sinnvolles Objekt der Modellierung identifiziert, da sich hierdurch Anschlussmöglichkeiten an bereits existierende Modellierungsansätze in Filmarchiven und in der digitalen Filmgeschichtsschreibung ergeben.

Feministische Ansätze auf der DHd2025

Auf der DHd2025 erlebte ich viele interessante Gespräche und fand hilfreiche Bezugspunkte, insbesondere was die Modellierung von Unsicherheit, die Umsetzung der FAIR Prinzipien oder die Arbeit mit Wikidata betrifft, im Kern war ich mit einem Thema, das sich auf Forschung innerhalb der feministischen Filmgeschichtsschreibung bezieht, jedoch ein Stück weit eine Außenseiterin. Dieser Eindruck wurde zusätzlich dadurch verstärkt, dass neben meinem eigenen Vortrag, nur noch das Panel Gender (under) construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft einen explizit feministischen Fokus hatte. Dies steht in starkem Gegensatz zu meiner Erfahrung auf der DHd2023, auf der die DHd-AG Empower nicht nur einen Workshop zu Data Feminism in DH angeboten, sondern darüber hinaus noch das Panel Open DH? Mapping Blind Spots durchgeführt hat.

Abschließende Überlegungen

Ich gehe davon aus, dass mein Eindruck angesichts einiger sehr präsenter Disziplinen (Computational Literary Studies und Digital History) und Themen (LLMs) eher eine thematische Außenseiterin auf der DHd2025 gewesen zu sein, kein Alleinstellungsmerkmal ist, sondern auch von anderen geteilt wird. Dafür spricht beispielsweise die Umfrage Is there a Digital Art Historian at the DHd? von Julia Neubauer, deren Titel suggeriert, dass auch Vertreter*innen der Kunstgeschichte das von mir beschriebene Gefühl der Vereinzelung auf DHd-Konferenzen teilen.

Es bleibt zu überlegen, welche Schlüsse aus diesen Beobachtungen gezogen werden können. Mit Blick auf die Annahmequoten der diesjährigen DHd habe ich mich etwa gefragt, welche weiteren vielfältigen disziplinären Verortungen und Bezüge in den abgelehnten Beiträgen zu finden wären. Womöglich (und durchaus wahrscheinlich) würde sich ein diversifiziertes Bild der Community zeichnen lassen, als dies im finalen Programm abgebildet ist. Dieser Kommentar ist dabei keineswegs als Kritik am Programmkomitee der DHd2025 gemeint, das die herausfordernde Aufgabe zu bewältigen hatte, aus einer sehr großen Anzahl an Einreichungen auszuwählen. Stattdessen finde ich es im Sinne einer Disziplingeschichte wichtig, danach zu fragen, wie die eher wenig präsenten Disziplinen in den Digital Humanities stärker sichtbar gemacht werden können. Im Zusammenhang mit den in den letzten Jahren entstandenen Angeboten für Promovierende in den DH1 erscheint es mir außerdem relevant, dass dabei versucht wird, auch die Bedarfe derjenigen abzudecken, die sich im Hinblick auf ihren disziplinären Hintergrund und den thematischen Fokus nicht im Kern der DH bewegen.

Im Sinne der produktiven Unfertigkeit, die Mareike König in ihrer Keynote beschrieben hat, schließe ich hiermit und freue mich auf die DHd2026 in Wien!

1Dazu zählen unter anderem das Mentoringprogramm des DHd-Verbands, das Promotionsnetzwerk des Datenkompetenzzentrums HERMES und das Promovierendennetzwerk Digital History von NFDI4Memory, das zuletzt ein Whitepaper zum digital-historischen Promovieren veröffentlicht hat.

Acknowledgements

Diesen Beitrag habe ich als Teil meiner Konferenzbegleitung für die DHd2025 verfasst, an der ich Dank eines von NFDI4Culture finanzierten Reisekostenstipendiums teilnehmen konnte. Für die Förderung bedanke ich mich sehr herzlich.

Referenzen

Baumann, Noah, Nicole Dresselhaus, Lilia Gaivan, Pia Geißel, Nina Günther, Annika Häberlein, Inga Lange, Holle Meding, Wienke I. Meyer, Alina Ostrowski, Nina C. Rastinger, Jascha Schmitz, Philipp Schneider, Roman Smirnov, Sophie Spliethoff, Elisabeth Tangerner (2025): White Paper „Digital-historisch Promovieren“ (1.0). Zenodo. https://doi.org/10.5281/zenodo.14969027

Eggert, Lisa und Sandra König (2025): „Gemeinsame Baustellenbegehung – Digital Humanities und Wissenschaftsforschung“. Book of Abstracts of DHd 2025, Zenodo. https://doi.org/10.5281/zenodo.14943182

Flanders, Julia und Fotis Jannidis (2015): „Knowledge Organization and Data Modeling in the Humanities“, URL: https://opus.bibliothek.uni-wuerzburg.de/opus4-wuerzburg/ frontdoor/deliver/index/docId/11127/file/flanders_jannidis_datamodeling.pdf (zugegriffen: 07.04.2025)

Gengnagel, Tessa, Sarah Lang, Nora Probst, Anja Gerber, Sarah-Mai Dang, Tinghui Duan, Till Grallert, Jana Keck und Julianne Nyhan (2023): „Open DH? Mapping Blind Spots“. Book of Abstracts of DHd 2025, Zenodo. https://doi.org/10.5281/zenodo.7715329

Junginger, Pauline (2025): „Kontext, Unsicherheit und Geschlecht im Fokus der Modellierung: Datenprinzipien für die feministische Filmgeschichte“. Book of Abstracts of DHd 2025, Zenodo. https://doi.org/10.5281/zenodo.14943222

Mende, Jana-Katharina, Claudia Resch, Mareike Schumacher, Laura Untner, Imelda Rohrbacher, Elena Suarez Cronauer, Andrea Gruber und Frederike Neuber (2025): “Gender (under) Construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft”. Book of Abstracts of DHd 2025, Zenodo. https://doi.org/10.5281/zenodo.14943036

Werkstattreihe Standardisierung: edition humboldt digital

2025年6月4日 15:05

 

Christian Thomas und Stefan Dumont von der Berlin-Brandenburgischen Akademie der Wissenschaften stellten am 22. Mai 2025 die edition humboldt digital im Rahmen der „Werkstattreihe Standardisierung“ des NFDI-Konsortiums Text+ vor und gaben einen Einblick in ihre Arbeit. Sie reflektierten ihren Umgang mit Standards und deren Bedeutung für die Entwicklung der Edition. Der Werkstattbericht des Editionsprojekts kann nun hier nachgeschaut werden: https://youtu.be/ZydyHbQ_6Uo

Die Abbildung visualisiert graphisch die Vernetzung der edition humboldt digital mit internen und externen Ressourcen
Übersicht der Vernetzung der edition humboldt digital (Poster, Detail)
CC-BY-4.0 / https://zenodo.org/records/8228540

Recap: DHd-Tagung 2025 in Bielefeld – Auf dem Weg zur digital „entfesselten“ Literaturgeschichte?

2025年4月26日 21:36

In der ersten Märzwoche 2025 wurde in Bielefeld unter dem Motto „Under Construction“ die 11. Tagung des Fachverbandes „Digital Humanities im deutschsprachigen Raum“ (DHd) abgehalten. Am letzten Tagungstag fand ein Panel zum Beitrag der Computational Literary Studies (CLS) zur Literaturgeschichtsschreibung statt, bei der der Autor dieser Zeilen nicht nur als studentisches Mitglied des Organisationsteams, sondern auch aus ureigenem Interesse teilnahm. Denn vom pragmatischen Nutzen für die (schulische) Lehre einmal abgesehen, begegnet uns Literaturgeschichte als die generationenübergreifende Arbeit an einem Werk. Sie erscheint damit sowohl als Produkt, als die Essenz eines kulturellen Bestandes, als auch als Prozess, dessen Genese. Trotz der wissenschaftslogischen Randständigkeit (Daniel Fulda[1]) der Literaturgeschichtsschreibung haben ihre Kontextualisierungen immer Einfluss auf uns, und deshalb war es für mich wie wohl auch für die anderen Besucher[2] des Panels von Interesse zu hören, wie die noch relativ jungen CLS unseren Blick auf Literaturgeschichte verändern mögen.

Unter der Moderation von Nils Kellner (Rostock) diskutierten die Panellisten PD Dr. Katrin Dennerlein (Würzburg), Prof. Dr. Berenike Herrmann (Bielefeld), Prof. Dr. Fotis Jannidis (Würzburg), Marc Lemke (Rostock) und Dr. Jana-Katharina Mende (Halle/Saale) über Nutzen und Nutzbarmachung sowie Reichweite und Grenzen der computergestützten Literaturwissenschaft für die Literaturgeschichte. Als Anwendungsfall diente die (computationelle) Untersuchung literarischer Räume im Zuge des „spatial turns“ innerhalb der Literaturwissenschaft.

Bei seiner Anmoderation stellte Kellner bereits zwei in der Folge gesprächsbestimmende, klassische Problemstellungen der Literaturgeschichtsschreibung heraus: Literaturgeschichte weist erstens einen erheblichen Konstruktionscharakter aus, ist kontextabhängig und einer Auswahl von Autoren und Werken (Stichwort Kanonizität) und damit teilweise auch artifiziellen Grenzziehungen unterworfen. Zweitens soll Literaturgeschichte gleichsam einer Bildungsintention gerecht werden – als common ground für Wissenschaftler wie auch der allgemeinen Schulbildung dienen –, womit Ansprüche an ihre Plausibilität, ihre relative Überschaubarkeit und ihre intersubjektive Verständlichkeit gestellt werden. Darüber hinaus – so schien auf dem Podium in der Folge Konsens zu herrschen – besteht bei der CLS, wie bei jeder anderen Literaturgeschichtsschreibung auch, die wohl größte Herausforderung darin, nach der objektiven Datenerhebung zu entscheiden, in welche historischen Kontexte ein spezifischer Befund eingebunden werden sollte.[3]

Wohl wenig überraschend bestand auf einem Panel auf der DHd-Tagung zunächst Konsens über den großen Vorteil der CLS im Hinblick auf diese Probleme: Große Textmengen, eingeschlossen des „great unread“ (Kellner; Formulierung von Margaret Cohen[4]), können mit vergleichsweise wenig Aufwand durchgesehen und auf Muster untersucht werden. Daraus ergeben sich Möglichkeiten der Rekontextualisierung von Literaturgeschichte. Ästhetisch hochwertige und/oder viel gelesene, aber heute vergessene Autoren könnten wiederbelebt, der Beitrag weiblicher Autoren angemessen beleuchtet werden. Nationalstaatlich motivierte Konstruktionen könnten – im neutralen Wortsinne – revidiert, ebenso erweitert wie aufgelöst werden, und so weiter. Der Reihe nach stellten die Redner mögliche Ansätze vor.

Mit Hilfe der computergestützten Vergrößerung von Daten und deren statistischer Modellierung sei es möglich, die diachrone Vereinfachung der Literaturgeschichtsschreibung durch eine Erweiterung des synchronen Blickfelds zu durchbrechen, kanonische neben nichtkanonischen Werken oder mehrere Editionen desselben Werks gleichzeitig zu betrachten (Dennerlein). In der klassischen Literaturwissenschaft unbeachtete Texteigenschaften könnten jetzt untersucht und Begriffe, bspw. von ‚Raum‘, über die diegetische Ebene erweitert werden (Lemke), u.a. auch um transnationale Literaturgeschichten zu erzählen und selbst die Räume einzuschließen, in denen bzw. von denen aus Autoren ihre Werke geschrieben haben (Mende). Schließlich könnten in der CLS auch ganz neue Fragen an die Literaturgeschichte gestellt werden, um zum Beispiel systematische Perspektiven zu Raum und Affekt diachron zu untersuchen; „der Kreativität sind kaum Grenzen gesetzt“ (Herrmann).

Einen Einwand warf allerdings Prof. Jannidis in die Runde. Mit Rekontextualisierungen und lediglich neuen, anderen Literaturgeschichten blieben die CLS letzten Endes den Gedankenmodellen der klassischen Literaturwissenschaft verhaftet. Die soeben wiedergegebenen Überlegungen dürften nur als „Zwischenschritt“ betrachtet werden; Ziel der CLS müsse eine „prospektive Entfesselung“ sein. Die computergestützten Methoden machten immerhin das vormals Unmögliche möglich, und so sollten wir in voraussehbarer Zeit bspw. fähig sein, für die Literaturgeschichte alle Ereignisse rund um Literatur – jedes vorhandene Manuskript, jede Anstreichung, Verkaufszahlen, etc. – einbeziehen und interpretieren können. Gleichsam weist Jannidis eindringlich auf den hohen Ressourcenaufwand einer solchen Entfesselung hin; in seinen Worten: „Kein Manöver ohne Kosten“.

So anregend und notwendig diese Debatte auch ist, stellen sich insbesondere in Hinblick auf den zweiten Problempunkt, der Bildungsintention von Literaturgeschichte, unmittelbar pragmatische Fragen zum Nutzen der CLS für die Literaturgeschichtsschreibung hier und heute. Denn wie Prof. Herrmann betont und auch ich aus Erfahrung als Tutor bestätigen kann: Die Nachfrage nach grundlegendem Literaturgeschichts- und Kontextwissen ist gerade bei Studenten in der Lehramtsausbildung hoch. Was der Zugang der CLS hier leisten kann – so vielleicht die Kernerkenntnis aus Podiumsgespräch und Fragerunde – ist, die teilweise extreme diachrone Vereinfachung der klassischen Literaturgeschichte zu durchbrechen und das Überblickswissen um neue daten- und evidenzbasierte Ergebnisse zu erweitern.

Wie zum Abschluss gleich zwei Fragen aus dem Auditorium klarmachten, darf in diesem Kontext die „Entfesselung“ der CLS aber nicht zu einer Überforderung führen. Der einhellige Lösungsvorschlag aus dem Podium, um den Zugang auch für das Grundstudium und das außerwissenschaftliche Umfeld zu ermöglichen: Kondensierte, für den Anwendungskontext geeignete Visualisierungen, z.B. in Form narrativierter Daten in sogenannten Data Stories. Literaturwissenschaftler könnten aus der Datenwissenschaft lernen, wie sie das Bedeutende klar und übersichtlich visuell vermitteln können (und dabei an eigene Praktiken anschließen), wobei sie jedoch zweierlei zu bedenken hätten: Dass das Nadelöhr des Einzeltextes aus der Leserperspektive nie verschwinden wird (und zum Zwecke der ästhetischen Erfahrung wohl auch kaum verschwinden soll), und dass sich Wissenschaftler immer über die Pluralität von Perspektiven und die Wirkmächtigkeit vermeintlich repräsentativer Datenvisualisierungen bewusst sein müssen.

 

Zum Autor: Pierre-Michel Weiße studiert Germanistik und Anglistik im Master an der Universität Bielefeld und hat seine Bachelorarbeit über eine computerunterstützte Raumuntersuchung zu Thomas Manns Doktor Faustus geschrieben. Er ist Tutor im Germanistik-Basismodul Literaturgeschichte und wissenschaftliche Hilfskraft am Lehrstuhl von Prof. Dr. Berenike Herrmann.

 

Anmerkungen

[1] Vgl. Fulda, Daniel: Starke und schwache Historisierung im wissenschaftlichen Umgang mit Literatur. Zur Frage, was heute noch möglich ist – mit einer disziplingeschichtlichen Rückblende. In: Matthias Buschmeier, Walter Erhart, Kai Kauffmann (Hgg.): Literaturgeschichte. Theorien – Modelle – Praktiken. De Gruyter 2014, S. 101–121, https://doi.org/10.1515/9783110287295.101, hier S. 104.

[2] In diesem Beitrag wird für Personenbezeichnungen das generische Maskulinum verwendet.

[3] Vgl. Herrmann, Berenike, Daniel Kababgi, Marc Lemke, Nils Kellner, Ulrike Henny-Krahmer, Fotis Jannidis, Katrin Dennerlein und Matthias Buschmeier: Literaturgeschichte „under Construction“ – Was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur. Zenodo 2025, https://doi.org/10.5281/zenodo.14943254, S. 117.

[4] Cohen, Margaret: The Sentimental Education of the Novel. Princeton: Princeton University Press 1999, https://doi.org/10.1515/9780691188249, S. 23.

#WissPodPotsdam2024: Nachbericht zum Workshop zu Formaten und Etablierung von Wissenschaftspodcasts (Fachhochschule Potsdam, 18.-19.07.2024)

2025年1月7日 15:12

Autorin: Ulrike Wuttke (Professorin für Bibliothekswissenschaft – Strategien, Serviceentwicklung, Wissenschaftskommunikation an der Fachhochschule Potsdam

Der Fachbereich Informationswissenschaften der Fachhochschule Potsdam hatte vom 18.-19.07.2024 die Ehre mehr als zwanzig Vertreter*innen der Wissenschaftspodcast-Community zu einem inspirierenden Workshop willkommen zu heißen. Der Nachbericht fasst die Höhepunkte und Ziele des Workshops zusammen und würdigt die Teilnahme und Mitwirkung der Akteure.

In den letzten Jahren haben sich Podcasts als dynamisches Medium für die Wissenschaftskommunikation erwiesen. Sie ermöglichen Wissenschaftler*innen, Projekten und Forschungsinstitutionen, komplexe Themen auf eine direkte, flexible und persönliche Weise einem breiten Publikum sowie der eigenen Fachcommunity zugänglich zu machen. Der von Ulrike Wuttke (Fachhochschule Potsdam) und Jacqueline Klusik-Eckert (arthistocast) organisierte und konzipierte Workshop Wissenschaft auf die Ohren – Workshop zu Formaten und Etablierung von Wissenschaftspodcasts bot aktiven Podcaster*innen sowie Vertreter*innen wissenschaftlicher Institutionen wie Forschungseinrichtungen und Bibliotheken eine einzigartige Gelegenheit für den Austausch. Die Teilnehmenden waren dem CFP gefolgt bzw. als Impulsgeber für Kreativsessions (Jacqueline Klusik-Eckert) bzw. für ein Kamingespräch (Tessa Gengnagel) eingeladen. 

Workshop-Teilnehmende in Aktion während der Kreativsession (20240718_164021-CCBY_4_Nussbaum.jpg)

Im Mittelpunkt des Workshops stand der fokussierte Austausch zu den Themen Formate und die Etablierung von Podcasts als Medium der Wissenschaftskommunikation im Mittelpunkt. Die Themenbreite reichte von der Vorstellung von Podcast-Konzepten, wie z. B. durch eine Studierende des Studiengangs Archiv der Fachhochschule Potsdam für einen Archiv-Podcast, bis zu Evaluation und Impact wissenschaftlicher Podcasts durch eine Vertreterin von Wissen im Dialog.

Die Teilnehmer*innen betonten die Bedeutung von Podcasts als Open Science-Praktik der Wissenschaftskommunikation und die Potenziale zur Förderung des Zugangs zu Wissen. In einer Welt, in der die Zugänglichkeit von Wissenschaft und Forschung immer wichtiger wird, haben Podcasts ein großes Potenzial für die Demokratisierung von Wissen und dazu, die Diskussion über wissenschaftliche Themen über akademische Kreise hinauszutragen. Um dies zu erreichen, müssen jedoch Herausforderungen gelöst werden, wie z. B. nachhaltige, offene Infrastrukturen für Nachweis und Langzeitverfügbarkeit. Das gesamte Programm findet sich tabellarisch hier. Im Folgenden sind einige Programm-Punkte mit verfügbaren Materialien verlinkt. 

Den Einstieg in den ersten Workshoptag (Fokus Formate) boten Jonathan D. Geiger (Akademie der Wissenschaften und Literatur, Mainz), Lisa Kolodzie, Jascha Schmitz (HU Berlin), Mareike Schumacher (Universität Stuttgart) von RaDiHum20 mit “Erfahrungen eines Community-Podcast” (Google-Slides), ein Bericht zu praktischen Erfahrungen als Hosts sowie Impulsen für theoretische Reflexionen. Danach stellte Sharon Hundehege (Fachhochschule Potsdam) ihr Konzept “Podcast aus dem Archiv” und Ulrike Wuttke (Fachhochschule Potsdam) und Anne Baillot (DARIAH EU) ihre Überlegungen “From Global to Local? Perspektiven und Herausforderungen für eine Podcastreihe im Rahmen eines multimedialen Sammelbands” vor. Eine Metaranalyse boten anschließend Mareike Schumacher (Universität Stuttgart), Melanie Seltmann (Humboldt-Universität zu Berlin), Ulrike Wuttke (Fachhochschule Potsdam) mit “Potenziale von Podcasts für die Dissemination von Digital Humanities” (Google-Slides). Im Fokus dieses Beitrags standen Podcasts als Forschungsobjekt, z. B. für Formalanalyse oder Netzwerkanalyse, sowie Kompetenzen für die digitale Wissenschaftskommunikation (zu letzterem siehe Frick und Seltmann 2024). Danach war es Zeit für die Kreativsession “Formate für Wissenschaftspodcasts” mit Jacqueline Klusik-Eckert. Den Abschluss des ersten Tages bildete ein “Kamingespräch” mit Tessa Gengnagel (Universität Köln) (moderiert von Jacqueline Klusik-Eckert) zu ihren reichhaltigen Erfahrungen insbesondere aus dem Kontext von Coding Codices, dem Podcast des Digital Medievalist Postgraduate Committee. Dazu gab es Pizza und ein laues Sommerlüftchen, denn anders als der Name vielleicht vermuten ließe, fand dieser Programmpunkt mitten im Grünen auf dem Campusgelände der Fachhochschule Potsdam statt.

T. Gengnagel beim Kamingespräch auf dem Campus der Fachhochschule Potsdam (Gengnagel_WissPod_CCBY_4_Wuttke.JPG)

Der zweite Tag (Fokus Etablierung als Medium der Wissenschaftskommunikation) setzte mit Impulsen zu Infrastrukturen und wissenschaftlichen Datenbanken ein. Den Kick-Off machten Jakob Reuster (Bayerische Staatsbibliothek München, Fachinformationsdienst Ost-, Ostmittel- und Südosteuropa) mit “Nachweis von wissenschaftlichen Podcasts mit Osteuropabezug im Forschungsportal osmikon”; Stella Philipp (Sächsische Landesbibliothek – Staats- und Universitätsbibliothek Dresden): Infrastrukturen für Produktion und Nachweis von Wissenschaftspodcasts an der SLUB Dresden; Jens Kösters, Carolin Eisentraut, Matti Stöhr (TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften: und Universitätsbibliothek): SciPAI: Zur Idee eines KI-gestützten Infrastrukturframeworks für Wissenschaftspodcasts. Weiter ging es denn in der zweiten Session mit Alexander Winkler (digiS, dem Forschungs- und Kompetenzzentrum Digitalisierung Berlin): Podrot? Die Langzeitverfügbarkeit von Podcasts als Herausforderung, Jacqueline Klusik-Eckert (HHU Düsseldorf): “Der Traum von einer All-in-One-Lösung?”, Julia Panzer (Wissenschaft im Dialog): “Wissen, was wirkt – Evaluation und Impact wissenschaftlicher Podcasts”. Den Abschluss des zweiten Tags machte die Schreibsession mit Jacqueline Klusik-Eckert “Nachhaltiges Wissenschaftspodcasting und die FAIR-Prinzipien”.

Entwicklung eines Podcaststeckbriefs, Kreativsession mit J. Klusik-Eckert (20240718_163420-CCBY_4_Nussbaum.jpg)

Ein zentrales Ziel des Workshops war es, eine Plattform für den interdisziplinären Austausch und das Community Building rund um Wissenschaftspodcasts zu bieten. Die Teilnehmenden konnten wertvolle Erfahrungen teilen und  neue Ideen entwickeln. 

Ein großer Dank gilt allen Teilnehmenden für ihre aktive Mitwirkung und ihre wertvollen Beiträge zum Erfolg des Workshops, sowie dem studentischen Team und der Unterstützung des Fachbereichs Informationswissenschaften der Fachhochschule Potsdam. Nun gilt es, die gewonnenen Erkenntnisse und Ideen in zukünftige Projekte einfließen zu lassen und die Rolle von Wissenschaftspodcasts weiter zu stärken.

Gruppenfoto #Wisspodpotsdam2024 (Gruppenfoto_WIssPod_CCBY_4_Wuttke.JPG)

Weitere Chancen zum Vernetzen und Reinhören bieten u.a.  

  • die Wissenschaftspodcast.de-Community u.a. mit WissPod Kaminabenden (mit Bernd Rupp) und den Ganzohr-Barcamps, 
  • der Podcastfeed „Wissenschaft auf die Ohren“ (https://resonator-podcast.de/wissenschaft-auf-die-ohren/) (Kurator Henning Krause) 
  • die Fyyd-Sammlung der Teilnehmer:innen-Podcasts dieses Workshops (bei denen Henning Krause einen frei zugänglichen Podcastfeed gefunden hat, Ergänzungen, Kommentare gerne an @hnnng@chaos.social), 
  • die Konferenz und Workshopreihe für Podcasting “Subscribe”. 

Als Ausrichterinnen wünschen sich Ulrike Wuttke und Jacqueline Klusik-Eckert, dass dies nicht der letzte Workshop zu diesem Thema gewesen ist, vielleicht mag ja jemand den Staffelstab übernehmen?

Auf jeden Fall haben Ulrike Wuttke und Alexander Winkler eine Hands-On-Session zum Thema Podcasting für den 9. Bibliothekskongress/ 113. BiblioCon in Bremen 2025 eingereicht, drückt uns die Daumen!

RIDE 19 erschienen

2024年12月20日 19:08

Wir freuen uns, die 19. Ausgabe des Rezensionsjournals RIDE, das seit 2014 vom Institut für Dokumentologie und Editorik (IDE) herausgegeben wird, anzukündigen. Die aktuelle, von Roman Bleier und Stefan Dumont herausgegebene Ausgabe der Sparte „Tools and Environments“ enthält bisher zwei Rezensionen (eins auf Englisch, eins auf Deutsch):

Die Ausgabe 19 erscheint als „rolling release“, d.h. die Ausgabe ist noch nicht abgeschlossen und demächst erscheinen noch weitere Rezensionen.

Alle Rezensionen sind abrufbar unter https://ride.i-d-e.de/issues/issue-19.

DH-Professuren im deutschsprachigen Raum visualisiert

2024年7月9日 16:18

Jan Horstmann (Universität Münster), Christof Schöch (Universität Trier)

Die Etablierung der Digital Humanities lässt sich anhand mehrerer Merkmale beobachten und analysieren, z.B. der Publikation DH-bezogener Forschungsbeiträge, der Bewilligung und Förderung von DH-Projekten, der Etablierung von Studiengängen mit Anteilen von oder explizitem Fokus auf DH, der Gründung von DH-Forschungszentren und – last but not least – der Ausschreibung und Besetzung von DH-Professuren. Für den deutschsprachigen Raum hat sich Patrick Sahles laufend aktualisierter Blogbeitrag „Professuren für Digital Humanities“ (https://dhd-blog.org/?p=11018; Zugriff: 08.07.2024) als eine zentrale Anlaufstelle herauskristallisiert: Er verzeichnet die seit 2008 ausgeschriebenen DH- (oder DH-bezogenen) Professuren im deutschsprachigen Raum, derzeit 139 an der Zahl. In quantitativer Hinsicht lässt sich dort ein guter Überblick gewinnen, etwa wie viele DH-Professuren pro Jahr ausgeschrieben wurden (bislang ist das Jahr 2021 mit 16 Ausschreibungen der Titelverteidiger).

Was dort fehlt, ist die Möglichkeit, die DH-Professuren im deutschsprachigen Raum auch in örtlicher und zeitlicher Indizierung in den Blick zu nehmen und dadurch verschiedene Fragen leichter zu beantworten, darunter: Welche Orte haben sich wann als DH-Standorte etabliert, indem sie eine oder mehrere DH-Professuren ausgeschrieben haben? Wo sind wann mehrere Professuren entstanden? Wo sind befristete Professuren nicht dauerhaft eingerichtet worden? Und vieles mehr. All dies kann eine interaktive, dynamische Kartenvisualisierung übersichtlich darstellen. Die dafür nötige Art der Zeit-Raum-Visualisierung ist im DARIAH-DE Geo-Browser (https://de.dariah.eu/geobrowser; Zugriff: 08.07.2024) anders möglich als etwa in Wikidata, weshalb wir die Sahle’schen Daten für die Anzeige in diesem Tool aufbereitet haben – und versuchen werden, sie zukünftig regelmäßig zu aktualisieren.1

Link zum Datensatz: https://geobrowser.de.dariah.eu/edit/index.html?id=EAEA0-B2E1-D8CE-AA03-0

Link zur Visualisierung: https://geobrowser.de.dariah.eu/index.html?csv1=https://cdstar.de.dariah.eu/dariah/EAEA0-B2E1-D8CE-AA03-0

Mit dem Fokus auf die raumzeitliche Verortung von DH-Professur-Ausschreibungen im deutschsprachigen Raum setzen wir einen etwas anderen Akzent als verwandte Projekte wie etwa: Mapping the Digital Humanities (Christof Schöch, Mapping the Digital Humanities, v0.1.0, March 2024. Digital Humanities Trier. URL: https://dhtrier.quarto.pub/dhmap/; Zugriff: 08.07.2024) oder Till Grallerts Vorstöße mit Daten aus Wikidata (vgl. https://digitalcourage.social/@tillgrallert/112575546388768661; Zugriff: 08.07.2024).

Methode und Beispiele

Im Folgenden erläutern wir die methodischen Entscheidungen, die unserer Visualisierung zugrunde liegen. Prinzipiell erbt unsere Darstellung freilich die Data-capture-Entscheidungen, die bereits die Liste im Blogbeitrag Patrick Sahles bestimmen (und dort erläutert sind). Der Blog dient als Verzeichnis der seit 2008 im deutschsprachigen Raum erfolgten Ausschreibungen für DH-Professuren, ein Anspruch auf Vollständigkeit wird dabei nicht erhoben. DH-Professuren, die besetzt, aber nicht ausgeschrieben wurden, werden nicht aufgeführt. Ein Listeneintrag besteht aus einer fortlaufenden Nummerierung sowie Jahr der Ausschreibung, Ort, Stufe, Denomination, Zuordnung und Ergebnis der Ausschreibung, zum Beispiel:

  • 33, 2015, Wien, A1, Digital Humanities, Historisch-kulturwissenschaftliche Fakultät, Andrews

Dies lässt sich lesen als: 2015 wurde an der Historisch-kulturwissenschaftlichen Fakultät der Universität Wien eine unbefristete A1-Professur für „Digital Humanities“ ausgeschrieben und (nach Durchlaufen des Verfahrens, also in der Regel deutlich später) durch Tara Andrews besetzt.

Zwei Angaben sind für die raum-zeitliche Visualisierung über das Jahr der Ausschreibung hinaus besonders wichtig und sollen aus diesem Grund hier noch einmal kontextualisiert werden: Die Kategorie „Ort“ bezeichnet den Sitz der Hochschule, an dem die jeweilige Stelle ausgeschrieben wurde. Handelt es sich um eine Universität, wird auf den Eigennamen verzichtet (z.B.: „Düsseldorf“ statt „Heinrich-Heine-Universität Düsseldorf“). Vorteil davon ist, dass der Eintrag im Falle einer Umbenennung wie zuletzt etwa in Münster („Westfälische Wilhelms-Universität Münster“ zu „Universität Münster“) nicht angepasst werden muss. Fachhochschulen werden durch „FH“ gekennzeichnet. Bei Orten mit mehreren Universitäten erfolgt eine Präzisierung (z.B.: „Berlin (TU)“ für Technische Universität Berlin, „Berlin (HU)“ für Humboldt-Universität zu Berlin und „Berlin (FU)“ für Freie Universität Berlin). In unserer Visualisierung werden die Institutionen unterschieden, aber nicht an unterschiedlichen Orte innerhalb der jeweiligen Stadt visualisiert. In der Kategorie „Stufe“ wird durch „*“ auf eine befristete oder durch „°“ auf eine nebenberufliche Professur verwiesen. Bei dem Element Ergebnis wird durch „offen“ auf eine noch unbesetzte Stelle, durch „-„ auf ein abgebrochenes Verfahren und durch graue Unterlegung auf das Wiederverlassen der Stelle verwiesen. Zeitpunkte und -abläufe beziehen sich demnach auf den Zeitpunkt der Ausschreibung (mit dem Jahr als kleinste verwendete Zeiteinheit) sowie eine mögliche Befristung. Soweit ermittelbar, sind die Informationen zur Dauer der Besetzung einer Professur durch eine Person in den Datensatz aufgenommen worden.

Der DARIAH-DE Geo-Browser ermöglicht die dynamische und statische Darstellung von Daten und deren Visualisierung in einer Korrelation von geografischen Raumverhältnissen zu Zeitpunkten und -abläufen. Mittels der Visualisierung können räumliche Konzentrationen und Trends ersichtlich werden. Zur Visualisierung mittels des Geo-Browsers müssen die Datenstrukturen den Anforderungen des Geo-Browsers angepasst werden. Ein Eintrag des Geo-Browsers besteht aus neun Elementen: Name, Address, Description, Longitude, Latitude, Time Stamp, Time Stamp:begin, Time Stamp:end und GettyID.

  • Name besteht aus der Kombination „Universität Ort“ oder „Fachhochschule Ort“. Eine Präzisierung erfolgt nur, wenn sie durch mehrere Universitäten notwendig wird.
  • Address besteht aus dem Ortsnamen der Universität oder Hochschule. Für Universitäten oder Hochschulen, die an mehreren Orten lokalisiert sind, verwenden wir den  erstgenannten Ort (z.B. Universität Erlangen-Nürnberg hat als Address „Erlangen“). Eine Zuordnung zu mehreren Orten ist im Geo-Browser nicht möglich.
  • Description umfasst Stufe, Denomination, Zuordnung und Ergebnis der Ausschreibung nach folgendem Schema: Ergebnis: Denomination (Stufe), Zuordnung.
  • Longitude, Latitude und GettyID wurden mit dem „Getty Thesaurus of Geographic Names (TGN)“ (https://www.getty.edu/research/tools/vocabularies/tgn/; Zugriff: 08.07.2024) ermittelt. Mit TGN kann jedem Ort genau ein Längen- und Breitengrad sowie eine eindeutige GettyID (eine Identifikationsnummer) zugeordnet werden. Eine exaktere Lokalisierung ist dem Sinn des Blogs entsprechend nicht vonnöten.
  • Timestamp wird freigelassen, da keine exakten Zeitpunkte bestimmt werden müssen.
  • Time Stamp:begin erhält als Eintrag das Jahr der Ausschreibung in der Form 20xx-01-01.
  • Time Stamp:end haben wir bei unbefristeten Stellen beispielhaft generell auf 2039 gesetzt, damit die Zeitleiste in einem überschaubaren Rahmen bleibt. Bei befristeten Juniorprofessuren verwenden wir das Fristende der jeweiligen Professur. Bei abgebrochenen Ausschreibeverfahren sind time stamp:begin und time stamp:end identisch, wodurch der entsprechende Eintrag in der dynamischen Visualisierung unberücksichtigt bleibt. Im statischen Modus wird der entsprechende Eintrag dargestellt.

Einige konkrete Beispiele aus unserem in dieser Art modifizierten Datensatz vermögen die Details zu verdeutlichen:

  • Universität München, München, Schröter: Digitale Literaturwissenschaften (W2* mit TT W2), Department Germanistik, 13.466667, 48.7, 2022-01-01, 2028, 7134068

Dieses Datenelement wird gelesen als: Am Department Germanistik der Ludwig-Maximilians-Universität München wurde 2022 eine (zum Zeitpunkt der Ausschreibung) bis 2028 befristete W2-Professur (mit Tenure Track) für Digitale Literaturwissenschaften ausgeschrieben und durch Julian Schröter besetzt. München besitzt die GettyID 7134068 und (das Stadtzentrum) befindet sich nach TGN bei Längengrad 13.466667 und Breitengrad 48.7.

  • Universität Heidelberg, Heidelberg, offen: Papyrologie und Digitale Erforschung antiker Schriftzeugnisse (W3), Heidelberg Center for Digital Humanities (HCDH), 8.916667, 48.316667, 2024-01-01, 2039-12-31, 7166144

Dieses Datenelement wird gelesen als: Am Heidelberg Center for Digital Humanities (HCDH) der Universität Heidelberg wurde 2024 eine unbefristete W3-Professur für Papyrologie und Digitale Erforschung antiker Schriftzeugnisse ausgeschrieben. Die Stelle ist noch unbesetzt. Heidelberg besitzt die GettyID 7166144 und (das Stadtzentrum) befindet sich nach TGN bei Längengrad 8.916667 und Breitengrad 48.3166667.

Abschluss

Zusammenfassend lässt sich festhalten, dass unsere raumzeitliche Visualisierung der DH-Professuren im deutschsprachigen Raum eindrucksvoll die dynamische Entwicklung und die wachsende Bedeutung der Digital Humanities in der akademischen Landschaft aufzeigt. Diese kartografische Darstellung ermöglicht es, nicht nur die Verteilung und Häufigkeit der Professuren zu analysieren, sondern auch Hotspots oder ‘einsame Helden’ der DH-Entwicklung zu identifizieren. Durch die Integration in den DARIAH-DE Geo-Browser bieten wir Forscherinnen und Forschern, DH-Strukturverantwortlichen, Infrastruktureinrichtungen sowie der interessierten Öffentlichkeit eine neue Perspektive auf die Daten aus dem Blogpost von Patrick Sahle an. Die zunehmende Verbreitung und Etablierung von DH-Professuren zeigt jedenfalls, dass die Digital Humanities eine zentrale Rolle in der Zukunft der Geisteswissenschaften spielen werden.


[1] Wir danken herzlich Vincent Anker (studentische Hilfskraft im Service Center for Digital Humanities (SCDH) der Universität Münster) für seine tatkräftige Unterstützung bei der Aufbereitung der Daten.

Reminder: Einladung zum DHd Community Forum am 05.07.2024

2024年7月2日 16:18

Liebe Mitglieder des DHd-Verbandes und Interessierte,

für unsere interdisziplinäre Community ist ein offener Austausch von großer Bedeutung. Während die jährliche Mitgliederversammlung bereits eine wichtige Rolle für unsere communityinterne Verständigung übernimmt, unterstützen wir als Vorstand weitere partizipative Angebote. Alle Mitglieder und Interessierte sind herzlich eingeladen, sich an den Diskussionen zu beteiligen sowie Themenvorschläge (info@dig-hum.de) einzureichen.

Das nächste virtuelle Community Forum findet am Freitag, dem 5. Juli 2024 von 14–15 Uhr statt.

Gegenstand des Community Forums ist zum einen der im Dezember 2023 veröffentlichte Code of Conduct der  Alliance of Digital Humanities Organizations (ADHO). Wir möchten das Community Forum nutzen, um mit Ihnen über mögliche Änderungsbedarfe für den DHd-Verband zu sprechen. Zum anderen bietet das Community Forum Gelegenheit, das Thema „Angreifbarkeit & Selbstschutz von Wissenschaftler*innen im DHd-Verband“ zu diskutieren. Weitere Themen können wie immer zu Beginn des Community Forums vorgeschlagen werden. 

Für das Community Forum werden wir das Videokonferenztool BigBlueButton nutzen. Wir möchten Sie bitten, sich mit vollständigem Namen anzumelden.

https://webroom.hrz.tu-chemnitz.de/gl/rab-rg7-psq-qcn

Wir freuen uns auf den Austausch mit Ihnen!

Mit freundlichen Grüßen

Rabea Kleymann (als Koordinatorin des Community Forums)

Einladung zum DHd Community Forum am 3.5.2024 – „Nachlese der DHd2024”

2024年4月16日 19:04

Liebe Mitglieder des DHd-Verbandes und Interessierte,

für unsere interdisziplinäre Community ist ein offener Austausch von großer Bedeutung. Während die jährliche Mitgliederversammlung bereits eine wichtige Rolle für unsere communityinterne Verständigung übernimmt, unterstützen wir als Vorstand weitere partizipative Angebote. Alle Mitglieder und Interessierte sind herzlich eingeladen, sich an den Diskussionen zu beteiligen sowie Themenvorschläge (info@dig-hum.de) einzureichen.

Das nächste virtuelle Community Forum findet am Freitag, dem 3. Mai 2024 von 14–15 Uhr statt. Das von uns vorgeschlagene Thema lautet “Nachlese der DHd2024”. Außerdem bietet das Treffen auch die Gelegenheit, über mögliche weitere Themen zu sprechen.

Für das Community Forum werden wir das Videokonferenztool Zoom nutzen. Wir möchten Sie bitten, sich mit vollständigem Namen anzumelden.

Zoom-Meeting: https://fh-potsdam.zoom-x.de/j/64807825701?pwd=aXJhSE1nRWNzRWYxOGtyTUVrR2hXdz09
Meeting-ID: 648 0782 5701
Kenncode: 41149737

Wir freuen uns auf den Austausch mit Ihnen!

Mit freundlichen Grüßen

Ulrike Wuttke (als Koordinatorin des Community Forums)

Konversationen im digitalen Raum: Eine Analyse der DHd 2024 auf Mastodon

2024年4月2日 19:25

Dieser Beitrag ist im Rahmen meines Reisestipendiums für die DHd 2024 vom 26. Februar bis 1. März 2024 entstanden. Ich möchte mich an dieser Stelle noch einmal bei NFDI4Culture und den Organisatoren bedanken, die mir durch dieses Stipendium die Teilnahme an der Konferenz ermöglicht haben.

DALL·E 3: „A detailed panorama of a workspace dedicated to digital humanities data analysis, in landscape mode. The desk is cluttered with notes, charts, graphs, and digital devices. A Jupyter Notebook is open, displaying code and statistical data. Symbols of digital communication, including social media icons related to Mastodon, are scattered around. A large digital screen in the background shows a complex network of connections with the hashtag #dhd2024, symbolizing the digital humanities ecosystem. The scene conveys an immersive research environment, focusing on discovering patterns and insights within digital humanities.“

In diesem Konferenzbericht wenden wir uns einem eher unkonventionellen Untersuchungsgegenstand zu: den Diskussionen innerhalb der Digital Humanities auf Mastodon, markiert durch den Hashtag #dhd2024. Die Analyse zielt darauf ab, die digitale Resonanz auf die DHd 2024 zu kartografieren, indem die Dynamik der Konversationen, die führenden Stimmen, die zeitlichen Muster der Interaktion und die vorherrschenden Themen untersucht werden. Ein Jupyter Notebook, das als Teil dieses Berichts erstellt wurde, sucht nach Mustern und Einblicken in die Art und Weise, wie die Community kommuniziert, welche Themen besondere Aufmerksamkeit erregen und wie sich die Diskussionskultur innerhalb eines digitalen Ökosystems wie Mastodon entwickelt. Vier Fragen sind von Interesse: Wie gut wurde diskutiert? Wer hat am meisten diskutiert? Wann wurde am meisten diskutiert? Und vor allem: Worüber wurde am meisten diskutiert?

Dazu werden unter anderem die Informationen aus dem Programm der DHd 2024 verwendet, um sogenannte Prompts zu generieren, die an das LLM weitergeleitet werden. Für jeden Beitrag wird geprüft, welche Sessions zeitlich mit dem Veröffentlichungsdatum des Toots übereinstimmen. Ziel ist es, nur die Sessions zu berücksichtigen, die zum Zeitpunkt des jeweiligen Toots stattgefunden haben (und damit das Context Window des LLMs nicht zu überschreiten).

Das Jupyter Notebook ist auf GitHub verfügbar. Alle Statistiken der Mastodon-Toots können dort eingesehen und zur eigenen Analyse geklont werden.

Call for Abstracts: From Global to Local? Digitale Methoden in den Geisteswissenschaften im deutschsprachigen Raum: ein Triptychon (Deadline 14.05.2024)

2024年4月2日 14:00

In den letzten Jahrzehnten hat sich der Computereinsatz im Methodenspektrum der Geistes- und Kulturwissenschaften etabliert. Parallel dazu haben sich die { Digital Humanities / digitalen Geisteswissenschaften } zu einem eigenen Forschungsbereich mit entsprechenden akademischen Strukturen entwickelt – es gibt einen Dachverband, Fachzeitschriften, -konferenzen, -professuren und -studiengänge, auch spezielle Förderprogramme und Drittmittellinien. Daneben existieren Begriffe und Selbstverortungen wie Computational Humanities, eHumanities, digitale Methoden in den Geisteswissenschaften oder fachspezifische Ausprägungen wie Digital History oder Computerlinguistik, um nur einige zu nennen. Über Unterschiede und Gemeinsamkeiten sowohl mit den traditionellen Fächern als auch untereinander wird lebendig und ambivalent diskutiert; die Frage nach der Verortung in Fakultäten, im Studienkanon und Fächerspektrum ist bei sehr unterschiedlichen Antworten offen. Ebenso kann man festhalten, dass es weder eine über alle Fächergrenzen hinweg gleichförmig ablaufende oder global einheitliche Entwicklung mit nur wenigen Traditionssträngen gab, sondern vielfältige Ansätze und Versuche an sehr unterschiedlichen Orten.   

Diese wechselvollen Entwicklungsgänge sollen im geplanten Sammelband nachvollzogen und weitergeschrieben werden. Sie beginnen in den 1940er Jahren, laufen über die wichtige – mit der eigentlichen Prägung des Begriffs Digital Humanities (DH) – verbundene Konsolidierung in den frühen 2000er Jahren und über mehrere shifts und turns bis zur unmittelbaren Gegenwart mit einem facettenreichen, inzwischen institutionell fest verankerten interdisziplinären Spektrum. Es soll kritisch hinterfragt werden, welche Implikationen diese Entwicklungen für das disziplinäre Selbstverständnis der Geistes- und Kulturwissenschaften mit sich gebracht haben und welche epistemischen Versprechen digitale Methoden zeitigen. Ebenfalls wird gefragt, inwieweit die transformativen Potenziale des Computereinsatzes in den Geisteswissenschaften für die aktuelle Forschungslandschaft, aber auch die breite Öffentlichkeit, bereits ausgeschöpft werden. Über allem schwebt die Frage nach der Zukunft und Einheit der DH, die eng verwoben ist mit Herausforderungen der Curriculargestaltung und der akademischen Selbstorganisation. 

Geleitet wird die geplante Publikation insbesondere von der Frage, inwieweit die Praxis der DH durch die Zeit und Struktur, in der sie stattfindet, verändert wird. Der Fokus der Betrachtung soll auf dem deutschsprachigen Raum liegen und der Nachzeichnung lokal verorteter wie internationaler Geschichte(n) und Ausprägungen der digitalen Geisteswissenschaften im deutschsprachigen Raum multiperspektivisch und multimodal Raum geben. Dies geschieht angesichts des Bewusstseins, dass Digital Humanists, obwohl sie einer globalen Gemeinschaft angehören, in nationalen und lokalen Kontexten arbeiten. Gibt es lokale, föderale oder nationale Eigenheiten, die eine besondere Tradition prägen oder anschlussfähig sind, die sich erst im internationalen Vergleich aufzeigen lassen – sei es mit Blick auf die besondere Rolle der “Kleinen Fächer”, sei es in Hinblick auf Universitätsstrukturen, sei es auf eine eigenständige “kontinentale” Traditionslinie? Die geplante Publikation bietet daher Raum für eine kritische Betrachtung der hochgradig spezifischen und zeitlich wie örtlich geprägten Vielzahl der technologischen Manipulationen und Eingriffe in die Materialien, mit denen Digital Humanists arbeiten, und der  Ausprägungen der Digital Humanities in regional und sprachlich bedingten Kontexten. 

Die geplante Publikation hat folgende Ziele: 

1) Anregungen zu geben, die DH in ihrer Vielfalt historisch zu erforschen; 

2) aktuelle Aktivitäten und Initiativen der DH vor ihrem historischen Hintergrund kritisch zu analysieren und weiterzudenken;  

3) kreative Überlegungen dazu zu fördern, wie zukünftig sichergestellt werden kann, dass die DH zum Wissen und Verständnis von menschlichen Äußerungen, Handlungen und kulturellen Akten beitragen.

Die Herausgeber*innen des Sammelbandes verfolgen dabei einen offenen und inklusiven Ansatz: Die lineare, chronologische Geschichte (grand narrative) soll durch die Anlage als Triptychon “aufgebrochen” werden, um einer Vielzahl von Perspektiven und Stimmen Raum zu geben. Dabei geht es nicht nur um die kritische Betrachtung von Gründungsmythen oder das Aufzeigen von Pionierleistungen, Trends und Brüchen. Es geht auch darum, kritisch zu hinterfragen, wer mit im Big Tent der DH sitzen darf, welche Stimmen bislang ungehört oder unterrepräsentiert sind. Des Weiteren sollen auch traditionelle Formen des wissenschaftlichen Publizierens in den Geisteswissenschaften aufgebrochen werden. Dies ist auch deshalb spannend, weil die DH selbst bereits eine beträchtliche Menge an Varianten und Ephemera sichtbar gemacht oder erzeugt haben: eine Vielzahl an „born-digital“, „digitized“ sowie “traditionelle” Forschungsdaten – von beruflichen E-Mails bis hin zu persönlichen Tweets.

Die multiperspektivische, ein monolithisches Verständnis der DH ablehnende Herangehensweise soll die unterschiedliche disziplinären und interdisziplinären Kontexte der Wissensproduktionen der DH am Schnittpunkt von Geistes- und Kulturwissenschaften, Informatik, Informationsverarbeitung und Informationswissenschaft sowie changierende internationale, nationale und lokale Strukturen und Kontexte aufzeigen.

Die Herausgeber*innen planen in Teilkoordination folgende Bestandteile des Triptychons:  

  1. Melanie Seltmann + Christopher Nunn: BE-FORSCHEN: “klassische” Artikel 
  2. Ulrike Wuttke + Anne Baillot IN EIGENEN WORTEN: audio(visuelle) Formate (TBA)
  3. Christian Schröter (geb. Vater) + Christian Wachter: ARTEFAKTE: Artefaktbiografien zu Fallbeispielen des Computereinsatzes in den Geisteswissenschaften

Wir bitten um Abstracts von 1200 Zeichen (mit Leerzeichen) auf Deutsch oder Englisch bis zum 14.05.2024 für die Kategorien BE-FORSCHEN oder ARTEFAKTE. Bitte beachten Sie: Für das Format In eigenen Worten ist eine individuelle Ansprache geplant und sind momentan keine Abstracts einreichbar. 

Wir laden potenzielle Beitragende dazu ein, diverse Themen und Perspektiven als Vorschlag einzubringen, z. B. aus den Bereichen:

  • Wissenschaftsgeschichte,
  • Organisationsgeschichte,
  • Technikgeschichte,
  • fachliche Verortungen in Kontinuität und Wandel,
  • Perspektiven von Einzelfächern,
  • beachtenswerte lokale Initiativen,
  • objektorientierte Betrachtungen,
  • Gender, Diversity, Empowerment,
  • Kritik,
  • Mehrsprachigkeit, Repräsentativität,
  • (Irr- und Holz-)Wege
  • … 

Bitte senden Sie Ihre Vorschläge an die Herausgeber*innen: global-local-dh@listserv.dfn.de 

Für Fragen können Sie sich an die korrespondierende Hauptherausgeberin Ulrike Wuttke unter der gleichen E-Mail-Adresse wenden: global-local-dh@listserv.dfn.de

Auch die Nominierung Dritter ist möglich: Haben Sie einen interessanten thematischen Vorschlag, bringen Sie uns in Kontakt oder geben Sie uns einen Hinweis. 

Die Publikation ist als Open-Access-Publikation mit externem Review unter der Lizenz CC-BY 4.0 bei Melusina Press geplant (Erscheinungsdatum voraussichtlich Ende 2025). 

Wir freuen uns auf Ihre Einreichungen! 

Mit freundlichen Grüßen

Ulrike Wuttke, Melanie Seltmann, Christian Schröter (geb. Vater), Anne Baillot, Christian Wachter und Christopher Nunn

Zum Stand der Forschungsdaten in den digitalen Geisteswissenschaften

2024年3月30日 23:11

Dieser Beitrag über die DHd2024 entstand mit Unterstützung eines Reisekostenstipendiums von NFDI4Culture. Hiermit möchte ich mich herzlich bei NFDI4Culture für die Finanzierung der Reise bedanken.

Netzwerk mit Büchern, Computermonitor, Kugeln, Glühbirnen und anderen Symbolen, die auf Wissenschaft referieren
CC-BY 4.0 Melanie Seltmann, erstellt mit recraft.ai

Forschungsdaten sind nicht zuletzt durch die Konsortien der Nationalen Forschungsdateninfrastruktur (NFDI) in (fast) aller Munde. In den Geisteswissenschaften besteht das Bild, dass viele gar nicht realisieren, dass es sich bei ihrem Forschungsgegenstand um Forschungsdaten handelt. Betrachtet man allerdings die mannigfaltigen Definitionen von Forschungsdaten – etwa von Kindling und Schirmbacher (2013) “Forschungsdaten bezeichnen (digitale) Daten, die je nach Fachkontext Gegenstand eines Forschungsprozesses sind, während eines Forschungsprozesses entstehen oder sein Ergebnis sind” – so wird schnell klar, dass wohl die meisten, wenn nicht gar alle, Wissenschaffenden es mit Forschungsdaten zu tun haben. Innerhalb der digitalen Geisteswissenschaften sollte das Verständnis hierfür wesentlich weiter ausgebaut sein. Auch wenn die NFDI allgemein mit Weiterbildungen, Vorträgen und sonstiger Wissenschaftskommunikation für immer mehr Bewusstsein in den gesamten Geisteswissenschaften sorgt. 

Das Vorgehen

Um den aktuellen Stand des Umgangs mit Forschungsdaten in den digitalen Geisteswissenschaften zu untersuchen – oder zumindest das Schreiben über diesen Umgang – habe ich mir die Einreichungen der diesjährigen DHd-Konferenz angesehen. Meine Datengrundlage sind die Abstracts, die als Schlagwort Forschungsdaten, Daten, Metadaten, FAIR, virtuelle Forschungsumgebung(en) oder Infrastruktur vergeben haben. Die Abstracts wurden in einer Zotero-Bibliographie gespeichert und als CSV-Datei exportiert. Innerhalb der daraus erstellten Excel Tabelle wurden verschiedene Kategorien annotiert. Diese Kategorien orientieren sich an den Phasen des Datenlebenszyklus (Datenbeschreibung, Datenerhebung, Datenaufbereitung, Datenhaltung/-speicherung, Datenarchivierung sowie Datennachnutzung). Hier wurde jeweils erfasst, ob die entsprechende Kategorie im Abstract beschrieben wurde. Zudem wurde die entsprechende Disziplin, aus der das Abstract stammt, erfasst und, ob die Wissenschaffenden selbst von Forschungsdaten schreiben. Ausgewertet wird hieraus nun, welche Abstracts überhaupt von Forschungsdaten sprechen und in welcher Form. Zudem wird untersucht, ob es disziplinäre Auffälligkeiten gibt.

Das Korpus

Auf die eben beschriebene Methode ließen sich 42 Abstracts von insgesamt 144 Abstracts herausfiltern, die in das Korpus einflossen (29%). Hierunter fallen 2 Panels, 25 Poster, 8 Vorträge und 7 Workshops. Die disziplinäre Zuordnung wurde anhand der Beschreibungen im Text vorgenommen und war teilweise etwas uneindeutig. Zudem wurden nicht nur Fächer vergeben, sondern auch breitere Felder wie Editionswissenschaft oder eine Kategorie interdisziplinär. Pro Abstract wurde genau eine Kategorie vergeben. Die meisten Abstracts waren interdisziplinär (n=14). Jeweils 6 Abstracts gehörten zur Geschichtswissenschaft oder zur Editionswissenschaft. 4 Abstracts kamen aus der Germanistik. Jeweils 2 Abstracts stammten aus der Kulturwissenschaft, Kunstgeschichte, den Regionalstudien oder der Romanistik und mit jeweils 1 Abstract waren die Klassische Philologie, die Musikwissenschaft, die Theaterwissenschaft sowie die Theologie vertreten.

Der Begriff der Forschungsdaten

In insgesamt 12 Abstracts wurde der Begriff Forschungsdaten explizit verwendet, auch wenn weitere Abstracts Daten durchaus in einem Forschungsdatenverständnis aufgeführt haben. Diese 12 Abstracts verteilen sich zum einen auf 71% aller Workshops (n=5), 50% aller Panel (n=1), 20% der Poster (n=5) sowie 13% aller Vorträge (n=1). Disziplinär verteilen sich die entsprechenden Abstracts zu jeweils 50% auf die Kulturwissenschaft (n=1) und die interdisziplinären Abstracts (n=7) sowie zu jeweils 33% auf die Geschichtswissenschaft (n=2) sowie die Editionswissenschaft (n=2). In der Hälfte der Abstracts geht es um das Thema Forschungsdatenmanagement oder einen Teilbereich daraus (n=6). Lediglich 2 Abstracts behandeln eine disziplin-originäre Forschungsfrage (Pultar et al. 2024; Gödel et al. 2024).

Diskussion der Ergebnisse

Insgesamt kann man feststellen, dass das Thema Forschungsdaten durchaus präsent in der DH-Community ist. Auch in den Beiträgen, die nicht explizit von Forschungsdaten reden, sind insbesondere die Bereiche Datenbeschreibung, Datenaufbereitung sowie Datenhaltung/-speicherung beschrieben. Und keines der Abstracts lässt die Vermutung aufkommen, dass die behandelten Daten nicht als Forschungsdaten aufgefasst würden. Durchaus besonders ist auch die Beschäftigung mit dem Forschungsdatenmanagement als solchem. In nur wenigen disziplinspezifischen Tagungen wird dem eine ganze Reihe von eigenen Beiträgen gewidmet, von der Informationswissenschaft einmal abgesehen. Die hier behandelten Themen reichten etwa vom grünen Forschungsdatenmanagementplan (Gerber und Rosendahl 2024) über barrierefreien Umgang mit Forschungsdaten (Wunsch et al. 2024) bis hin zu konkreten Hilfestellungen zu Datenmanagementplänen in den Computational Literary Studies (Jung et al. 2024). Neben den betrachteten Abstracts gab es zudem noch einen Stand von der Memorandumsgruppe der vier geisteswissenschaftlichen NFDI-Konsortien NFDI4Culture, Text+, NFDI4Memory undNFDI4Objects sowie Base4NFDI, an dem man sich beraten lassen konnte, Gespräche (nicht nur) über Forschungsdaten führen konnte sowie das ein oder andere schicke Merch bekommen hat.

Bibliographie

Gerber, Anja und Lisa Rosendahl. 2024. Der Weg zum grünen Forschungsdatenmanagementplan. doi: 10.5281/zenodo.10698392.

Gödel, Martina, Lou Klappenbach, Ruth Sander und Markus Schnöpf. 2024. Wer sind die Herausgeber:innen Digitaler Editionen? Eine Untersuchung zur Repräsentation von Digital Humanities-Wissenschaftler:innen. doi: 10.5281/zenodo.10698446.

Jung, Kerstin, Patrick Helling und Steffen Pielström. 2024. Vom DMP zum DDP – Erstellen fachspezifischer Datenmanagementpläne für die Computational Literary Studies im Research Data Management Organizer (RDMO). doi: 10.5281/zenodo.10698436.

Kindling, Maxi und Peter Schirmbacher. 2013. „Die digitale Forschungswelt“ als Gegenstand der Forschung / Research on Digital Research / Recherche dans la domaine de la recherche numérique: Lehrstuhl Informationsmanagement / The informationmanagement department / La section gestion de l’information à l’IBI. Information – Wissenschaft & Praxis 64, Nr. 2–3: 127–136. doi: 10.1515/iwp-2013-0017.

Pultar, Yannick, Christina Abel, Matthias Weber, Dominik Kasper und Andreas Kuczera. 2024. Vernetzte Forschungsdaten – wer kennt wen im Mittelalter? doi: 10.5281/zenodo.10698303.

Wunsch, Samuel, Katrin Anna Lehnen, Katrin Henzel und Andreas Christ. 2024. Offen – frei zugänglich – für alle? Partizipative Ansätze zum barrierefreien Umgang mit Forschungsdaten. doi: 10.5281/zenodo.10698481.

Reminder: Einladung zum DHd Community Forum am 12.01.24

2024年1月5日 20:32

Liebe Mitglieder des DHd-Verbandes und Interessierte,

für unsere interdisziplinäre Community ist ein offener Austausch von großer Bedeutung. Während die jährliche Mitgliederversammlung bereits eine wichtige Rolle für unsere communityinterne Verständigung übernimmt, unterstützen wir als Vorstand weitere partizipative Angebote. Alle Mitglieder und Interessierte sind herzlich eingeladen, sich an den Diskussionen zu beteiligen sowie Themenvorschläge (info@dig-hum.de) einzureichen.

Das nächste virtuelle Community Forum findet am Freitag, dem 12. Januar 2024 von 14–15 Uhr statt. Das von uns vorgeschlagene Thema lautet “Reviewverfahren von DHd-Konferenzbeiträgen”. Wir möchten das Community Forum dieses Mal nutzen, um uns über Erfahrungen und Herausforderungen des Reviewing auszutauschen. 

Für das Community Forum werden wir das Videokonferenztool BigBlueButton nutzen. Wir möchten Sie bitten, sich mit vollständigem Namen anzumelden.

https://webroom.hrz.tu-chemnitz.de/gl/rab-rg7-psq-qcn

Wir freuen uns auf den Austausch mit Ihnen!

Mit freundlichen Grüßen

Rabea Kleymann (als Koordinatorin des Community Forums)

RIDE 18 ist erschienen

2024年1月2日 22:17

Wir freuen uns, die achtzehnte Ausgabe des Rezensionsjournals RIDE, das seit 2014 vom Institut für Dokumentologie und Editorik (IDE) herausgegeben wird, anzukündigen. Die aktuelle Ausgabe ist digitalen wissenschaftlichen Editionen gewidmet und wurde von Ulrike Henny-Krahmer und Martina Scholger herausgegeben. 

Der Band enthält fünf Rezensionen, eine in deutscher und vier in englischer Sprache, von folgenden Autor:innen und zu den folgenden digitalen Editionen:

Alle Rezensionen sind abrufbar unter https://ride.i-d-e.de/issues/issue-18/.

Enjoy the RIDE!

DH2023 ADHO Conference Bursary Award

2023年10月28日 16:09

As one ADHO’s constituent organizations and sponsor of DH2023 the Association for Digital Humanities in the German Speaking Areas (DHd) congratulates all recipients of ADHO-Travel bursaries  for DH2023 at Graz (Austria). To promote these bursaries and to encourage applications in coming years DHd has asked recipients from the German speaking areas to write individually short blog posts about their experiences. This post is part of the series. 

The Alliance of Digital Humanities Organizations Annual Conference (ADHO) in Graz was an enlightening experience for me. I had the privilege of presenting our collaborative project, „Magnetic Margins: A Census and Reader Annotations Database,“ alongside my colleagues, Alessandro Adamou (Digital Humanities Lab at the Bibliotheca Hertziana, Rome) and Hassan el Hajj (Research IT at the Max Planck Institute for the History of Science, Berlin). Our panel was thoughtfully curated and expertly moderated, making our participation all the more rewarding.

While Alessandro was present in Graz, Hassan and I participated online as I was located in the US at the time and traveling all the way to Graz seemed somewhat over the top. I nevertheless applied for one of the ADHO’s travel grants, but  in order to be reimbursed only for the conference fees – EUR 165 instead of up to EUR 850, being the regular lump sum for travel costs. At the time of the conference, I myself had a fellowship with the Linda Hall Library at Kansas City that could not cover participation fees. To my great delight, it was no problem for ADHO to be flexible and pragmatic in this respect. 

The virtual format of the conference proved to be highly effective. Despite being in a North American time zone, I could seamlessly join the sessions via webinars. The ease of accessing live streams and recorded sessions meant I never missed any critical discussions or intriguing talks. Our presentation on “Magnetic Margins” was a culmination of collaborative efforts and research. Alessandro, Hassan, and I had worked diligently to develop a comprehensive census and reader annotations database, making use of cutting-edge digital humanities methodologies. Alessandro’s presence in Graz allowed for a smooth and seamless delivery of the presentation. Hassan and I were able to contribute effectively through the virtual medium, which was testament to the ADHO’s seamless integration of online participants.

Although I missed the opportunity for in-person networking, the virtual setting offered a range of networking tools. ADHO’s digital platforms facilitated communication among participants, allowing us to engage in meaningful conversations and connect with fellow researchers. The ADHO Annual Conference 2023 in Graz was a resounding success, leaving a lasting impression on me. I look forward to future opportunities to participate in ADHO conferences and continue contributing to the thriving community of digital humanities scholars.

❌