27.04.2026 Prof. Dr. Franz Fischer (Università Ca’ Foscari di Venezia) Unreadable, Unstable, Uneditable – Critical, Genetic, and Constellational Editions of Difficult Texts and Their Transmission
18.05.2026 Dr. Bart Holterman und Dr. Angela Huang (beide FGHO) Ein NER-Schema für die Hanseforschung: Überlegungen und Herausforderungen
01.06.2026 Hellmut Braun (Universität Rostock), Dr. Anne Gessing (Universität Bonn), Karsten Labahn und Robert Stephan (beide UB Rostock) Künstlike Werltspröke und Eyn schön rimbökelin. Digitale Edition mittelniederdeutscher Spruchsammlungen des 16. Jahrhunderts
06.07.2026 Dr. Frederike Neuber und Tim Westphal (beide BBAW) Wer hat hier ediert? Autorschaft, Transparenz und Dokumentation in maschinell unterstützten Editionsprozessen
Veranstaltungszeit
Immer montags an den ausgewiesenen Terminen, ab 17:15 Uhr.
Kontakt
Bei Fragen zur Ringvorlesung wenden Sie sich gerne an das Team der DH-Juniorprofessur: phf.dh@uni-rostock.de.
Im Februar 2026 hatte ich die Gelegenheit, mithilfe des Early Career Reisestipendiums an der DHd 2026 teilzunehmen. Mein herzlicher Dank gilt CLARIAH-AT, ohne deren Unterstützung meine Teilnahme nicht möglich gewesen wäre. Ebenso danke ich den Organisator*innen für diese beeindruckende Konferenz.
—————————————————————————————–
Was passiert, wenn man als „Super Early Career Researcher“ mitten im Masterarbeitsstress zum ersten Mal eine mehrtägige wissenschaftliche Konferenz besucht? Man lernt eine Menge. Über das Fach, über die Community – und über sich selbst. Vor allem aber lernt man, dass man noch nicht so recht weiß, wie der Hase läuft. Oder wann er in welchem Raum sitzt.
Die DHd 2026 stand unter dem Titel „Nicht nur Text, nicht nur Daten“ und war meine erste mehrtägige wissenschaftliche Konferenz. Eine Teilnahme an vorherigen Konferenzen war aufgrund mangelnder Finanzierung bisher nicht möglich gewesen. Nun war die Freude umso größer, nicht nur dabei zu sein, sondern auch ein Poster zu präsentieren, das im Rahmen des Projekts „AlgorithMIX#DDR“ gemeinsam mit Jannis Klähn, Pauline Graf und Anja Neubert entstanden ist.
Was ich zu diesem Zeitpunkt noch nicht wusste: Eine erste Konferenzteilnahme ist weniger ein einzelnes Event als vielmehr eine Mischung aus geballtem Input, Abenteuerreise, sozialem Experiment, und Improvisationstheater. Vor dieser Erkenntnis war ich erst mal eins: aufgeregt.
Um herauszufinden, ob es nur mir so ging oder ob es zum akademischen Initiationsritus dazugehört, habe ich auf der Konferenz mit Kolleg*innen gesprochen, die an ganz unterschiedlichen Punkten ihrer akademischen Laufbahn stehen: Philipp Sauer, Katja Liebing, Franziska Naether und Uwe Kretschmer. Ihre Stimmen begleiten diesen Text.
Phase 1: Bevor es losging
Lange war unklar, ob ich die Konferenz organisatorisch überhaupt bewältigen würde. Deadlines, Datenauswertung, Textproduktion im Rahmen der Masterarbeit – und dazwischen die Frage: Wien? Hinzu kam die finanzielle Unsicherheit. Ich war nur für zwei Monate im Projekt angestellt und hatte während der Konferenz keine feste Stelle, über die Reisekosten hätten abgerechnet werden können. Also stand die ganz praktische Frage im Raum: Wenn ich das Stipendium nicht bekomme, zahle ich das alles privat?
Mit der Bestätigung des Erhalts des Reisekostenstipendiums hatte sich letztere Frage erfreulicherweise erübrigt. Allerdings hatte ich naiverweise vermutet, ein angenommener Beitrag bedeute automatisch eine Teilnahme. Turns out: dem ist nicht so. Dass man auch mit eigenem Poster eine Teilnahmegebühr entrichten muss, war meine erste kleine Konferenzerkenntnis. Als ich später den enormen Aufwand auf der Konferenz gesehen habe, habe ich sofort verstanden, weshalb das so ist. Die zweite: Workshops sind schneller ausgebucht, als man „Anmeldeportal“ sagen kann.
Und dann die sozialen Fragen: Wie läuft das mit der Verpflegung? Mit wem verbringe ich die Pausen? Wird man alleine mit der Kaffeetasse in der Ecke stehen? Was macht man abends nach den inhaltlichen Parts?
Glücklicherweise wurde mir von Weggefährt*innen der Computational Humanities Gruppe der Uni Leipzig sowie von der Sächsischen Akademie der Wissenschaften zu Leipzig früh signalisiert, dass ich mich an die Leipziger Gruppe „dranhängen“ könne. Dass solche Angebote kein Zufall sind, wurde mir erst im Gespräch mit Franziska klar: Sie sieht es mittlerweile als Teil ihrer Rolle als Hochschullehrerin, jüngere Kolleg*innen mitzuziehen, zu vernetzen und in die Community einzuführen. Es gibt also auf der anderen Seite Leute, die genau das bewusst ermöglichen – auch wenn man das als Neuling erst mal gar nicht so mitbekommt.
Trotzdem blieb das Grundgefühl: Ich bin hier neu. Und ich habe keine Ahnung, wie das hier funktioniert.
Phase 2: Lost in Wien
Das Zurechtfinden in den pompösen Hallen der Universität Wien gestaltete sich als eine Art interaktive Schnitzeljagd. So war ich mehr als einmal zur falschen Zeit am falschen Ort – was, wie ich mir sagen ließ, auch erfahreneren Personen passiert.
Aber nicht nur räumlich musste ich mich orientieren. Zwischen Panels, Tracks, Präsentationen und Kaffeepausen versuchte ich parallel, Interviewpartner*innen für diesen Bericht zu gewinnen – immer mal wieder mit Aufnahmegerät und der leisen Frage: „Entschuldigung, hätten Sie vielleicht kurz Zeit?“ Das hat dank der offenen Community eigentlich recht gut funktioniert. Und in genau diesen Gesprächen wurde mir schnell klar: Das Gefühl des Lost-Seins ist nicht unbedingt individuelles Scheitern (auch wenn ich sicherlich an manchen Punkten besonders lost war und mir die ein oder andere Information vorher hätte einholen können), sondern gehört als Super Early Career Researcher quasi dazu.
Philipp erinnerte sich an seine erste DHd und beschrieb genau das, was auch mich beschäftigte: „Wo stelle ich mich in den Pausen hin? Mit wem rede ich jetzt? Wen spreche ich nach einem Vortrag an?“ Inzwischen sei es für ihn entspannter – man kenne Gesichter, werde selbst erkannt und fühle sich weniger verloren unter mehreren hundert Wissenschaftler*innen.
Was nicht gänzlich neu war, aber mir positiv auffiel: die lockere Stimmung. Ich hatte mehr akademische Stiffness erwartet wie Titel-Overkill und formelle Distanz. Stattdessen erlebte ich eine offene, wertschätzende Atmosphäre. Auch Katja erzählte, dass sie das Duzen und die Lockerheit anfangs überrascht hätten. Sie kommt aus der Geschichtswissenschaft und konnte durch den direkten Vergleich mit nicht-DH-Konferenzen bestätigen: Der Ton bei den DH sei deutlich entspannter. Uwe brachte es auf den Punkt: Die DH-Community sei einfach eine „Wohlfühl-Community“. Vielleicht liegt das an dem, was diese Community auszeichnet: Interdisziplinarität, eine gewisse Offenheit für Neues und das Bewusstsein, dass hier vieles noch im Wandel ist.
Und so wurde aus dem anfänglichen Lost-Sein nach und nach ein Zurechtfinden. Was mich allerdings nicht davon abhielt, beim Poster in leichte Panik zu geraten. Während ich mich am Mittwoch in der Kaffeepause noch mit Raumplänen arrangierte und versuchte, mich für einen der kommenden Inputs zu entscheiden, merkte ich, dass einige ihre Poster bereits aufhingen. Ich hatte bis zu diesem Zeitpunkt keine Ahnung, dass die Position des Posters strategische Relevanz besitzen könnte – aber es leuchtete mir schnell ein. Also lief ich in schnellem Schritt kurzerhand zurück zur Unterkunft, holte mein Poster und hing es auf. Leicht außer Atem und etwas zu spät zum nächsten Vortrag, aber das Poster hing.
Dann kam die nächste Überraschung. Im Laufe der Konferenz wurde ich mehrmals gefragt: „Machst du auch beim Poster-Pitch mit?“ Ich beantwortete die Frage recht selbstverständlich mit „Ja“, denn ich dachte, das gehört halt dazu. Daraufhin wurde mehrfach hinterhergeworfen: „Wow, mutig! Weißt du, was da auf dich zukommt?“ Ich hatte an eine kurze Vorstellung des Posters und des Projekts gedacht. Dann wurde mir erklärt, dass einige Teilnehmende aufwändige Performances planten. Kostüme wurden angedeutet. Dramaturgische Elemente. Große Gesten. Ich hatte mich für einen kurzen, pointierten Input entschieden – und begann kurz zu zweifeln, ob „ruhig sprechen und hoffen“ als Strategie ausreichen würde.
Was ich ebenfalls nicht realisiert hatte: Die Pitches fanden in einem vollen Audimax statt.
Nachdem ich meinen Pitch mit wackligen Beinen und leicht zittriger Stimme über die Bühne gebracht hatte, und den teils wirklich beeindruckenden Performances zusehen durfte, stand noch die Poster-Session an. In unserem Poster haben wir versucht, darzustellen, wie die DDR auf TikTok verhandelt wird – unter Bedingungen algorithmischer Kuratierung und eingeschränkter Sichtbarkeit. Im Zentrum stand ein hybrider Zugang, der qualitative Videoanalyse mit API-basierten Metadaten-Auswertungen kombinierte. Ziel war es, erinnerungskulturelle Diskursstrukturen unter plattformspezifischen Bedingungen sichtbar zu machen und zugleich die methodischen Grenzen datenbasierter Forschung auf TikTok für die Geschichtswissenschaften kritisch zu reflektieren. In der Session hatte ich das Gefühl, viele bereichernde Gespräche mit interessierten Personen zu führen. So gab es immer wieder spannende Anmerkungen und Diskussionen rund um die wissenschaftliche Zugänglichkeit von TikTok und anderen Social Media Plattformen, Menschen konnten mit eigenen (oder elterlichen) DDR-Erfahrungen inhaltlich anknüpfen oder es gab Nachfragen zur konkreten Umsetzung des Mixed-Methods-Ansatzes. So ging die 1,5-stündige Session vorbei wie im Flug.
Phase 3: Surrealismus im Rathaus
Abends habe ich es dann doch noch ins Rathaus geschafft – den feierlichen Empfang, für den ich mich fast nicht angemeldet hätte. Bei den Räumlichkeiten fragte ich mich: „Ist das bei diesen DH-Tagungen eigentlich immer so, dass die Decken ungefähr 500 Meter hoch sind und überall Kronleuchter hängen?“
Katja, die schon mehrere DHd-Konferenzen erlebt hat, äußerte sich genau zu dieser Faszination für die unterschiedlichen Austragungsorte: In Bielefeld sei die Tagungsparty in einem alternativen Club gewesen, in Wien gebe es Empfang im Rathaus. Diesen unterschiedlichen Vibe je nach Organisation und die unterschiedlichen Regeln und Erwartungen, die im Hintergrund mitschwingen – das finde sie mit das Spannendste an den Konferenzen.
Noch in Gedanken bei den Kronleuchtern, begann auf einmal die Preisverleihung. Und plötzlich erschien mein Name auf der Leinwand: 3. Platz für den besten Poster-Pitch. Noch voller Begeisterung wurde ich ein zweites Mal auf die Bühne gebeten – einer der zwei 1. Plätze für das beste Poster.
Das stand auf keiner meiner inneren Bingo-Karten für 2026. Auf dieser Bühne zu stehen, vor all diesen Menschen – das war einer dieser Momente, die sich leicht zeitversetzt anfühlen. Kurz hatte ich Angst, spontan ins Mikrofon sprechen zu müssen. Glücklicherweise blieb mir das erspart.
Da wenige Wochen zuvor noch überhaupt nicht klar war, ob ich an dieser Reise überhaupt teilnehmen kann, war ich diesem Moment vor allem dankbar, dass mir die Erfahrung im Rahmen des Stipendiums ermöglicht wurde.
Was bleibt?
Franziska erzählte mir von einem augenzwinkernden Drei-Phasen-Modell wissenschaftlicher Konferenzen eines erfahrenen Kollegen: Phase 1 – man kennt niemanden und ist begeistert. Phase 2 – man kennt viele und freut sich aufs Wiedersehen. Phase 3 – man kennt zu viele und möchte manche gar nicht mehr wiedersehen.
Ich befinde mich wohl in Phase 1. Mit vorsichtiger Hoffnung auf Phase 2 – und dass ich darin einfach für immer verweilen kann. Uwe, der seit 2016 auf jeder DHd war, beschrieb das Wiedersehen so: Man treffe Leute einmal im Jahr nur auf dieser Konferenz, und trotzdem fühle es sich an, als hätte man sich gestern erst gesehen. Man komme sofort wieder ins Gespräch. Darauf freue ich mich.
Auch wenn meine Fokusrichtung – die Computational Social Sciences – auf der Konferenz weniger vertreten war, habe ich inhaltlich viel mitgenommen. Gerade das Eintauchen in benachbarte oder weniger vertraute Themenfelder erwies sich als erkenntnisreich. Uwe beschrieb Konferenzen als konzentrierte Zusammenstellung der aktuellen DH-Forschungslandschaft – als jährliches Update.
Und meine Sorge, häufig lost irgendwo herumzustehen? Sie hat sich erstaunlich selten bestätigt.
Vielleicht gehört ein gewisses Maß an Orientierungslosigkeit zur ersten Konferenz dazu. Vielleicht ist dieses Gefühl kein Zeichen dafür, dass man nicht dazugehört – sondern ein Zeichen dafür, dass man gerade beginnt, Teil dieser Community zu werden.
Ich bin immer noch Super Early Career Researcher. Und ich werde vermutlich auch auf den nächsten Konferenzen in einigen Situationen nicht genau wissen, wann ich wo hin muss und mit wem ich reden soll.
Aber ich weiß jetzt: Das ist okay. Und ich komme damit klar.
Fast 600 Menschen kamen zur DHd 2026 unter dem Motto „Not only text, not only data“ an einer der ältesten Universitäten des deutschsprachigen Raums zusammen – und damit zugleich in einer Stadt, in der Kaffeehäuser seit 2011 zum immateriellen UNESCO-Kulturerbe zählen. In fünf Tagen bot die Konferenz eine Mischung aus Workshops, Panels und Postern – einige davon sind mir besonders in Erinnerung geblieben und stehen in diesem Blog-Post noch einmal kurz im Mittelpunkt.
Wie für die DHd üblich, fanden an den ersten beiden Tagen Workshops statt – insgesamt 18 an der Zahl. Am Montag entschied ich mich für den Workshop „Beyond the Cloud: Democratizing GPU Access for the Digital Humanities with DHInfra.at“, der von Forschenden der Universität Graz und der Universität für Weiterbildung Krems ausgerichtet wurde. Vorgestellt wurde mit DHInfra ein Forschungsinfrastrukturprojekt, das GPU-Ressourcen bereitstellt, um lokale Hardwaregrenzen und Abhängigkeiten von kommerziellen Cloudlösungen zu überbrücken.
Im Workshop erhielten die Teams Zugriff auf DHInfra und arbeiteten mithilfe von Jupyter Notebooks und Large Language Models an der Bereinigung eines historischen Datensatzes mit fehlerhafter OCR. Das Vorgehen war dreistufig angelegt: Zunächst ging es um reines Prompt Engineering, anschließend um das Feinjustieren der Modellparameter, und in einem dritten Schritt wurden synthetische Beispiele erzeugt, um die Genauigkeit weiter zu steigern. Ein gewisser Gamification-Aspekt durfte dabei nicht fehlen: Eine fortlaufend aktualisierte Bestenliste wurde an die Wand projiziert, auf der sich insbesondere Team Fish, Death to AI und Team 1234 ein enges Rennen lieferten.
Am Dienstag nahm ich am Workshop „Film- und Videoanalyse mit VIAN & TIB-AV-A – Grundlagen, Anwendungen und Schnittstellen“ teil. Dabei wurden mit VIAN und TIB-AV-A zwei Tools vorgestellt und praktisch angewendet, die unterschiedliche Möglichkeitsräume in der Arbeit mit Video als Daten eröffnen. Während VIAN als manuelles Annotationstool stärker an klassische filmwissenschaftliche Arbeitsweisen anknüpft und „Annotation als Schule des Sehens“ greifbar macht, eröffnen automatisierte Verfahren wie TIB-AV-A ganz andere analytische Potenziale.
Der zweite Teil des Workshops widmete sich genau diesen Verfahren: Die Teilnehmenden konnten unterschiedliche Methoden der automatisierten Filmanalyse selbst erproben. TIB-AV-A bietet dabei ein breites Spektrum an Funktionen – von Emotionserkennung über Farbanalyse bis hin zur Objektklassifikation. Insgesamt war der Workshop so aufgebaut, dass auch Einsteiger:innen den Weg von der manuellen Annotation hin zur automatisierten Analyse nachvollziehen konnten und ein Gefühl dafür entwickelten, wann ein minimalistisches Tool wie VIAN und wann ein eher umfassendes System wie TIB-AV-A sinnvoll eingesetzt werden kann.
Von Data Selfies, Data Jewellery zu Data Ghosts – Opening Keynote von Miriah Meyer
Eröffnet wurde die Konferenz mit einer Keynote von Miriah Meyer. Sie ist Professorin am Fachbereich Wissenschaft und Technologie der Universität Linköping. Ihre Keynote trug den Titel Data As ___: Exploring the Plurality of Data in Visualization und bot einen Überblick über Konzepte, die Visualisierung und Daten zusammendenken.
Der Begriff „Data“ stand dabei als roter Faden im Vordergrund und wurde unterschiedlich gefasst: Data as Input, Data as Ground Truth, Data as Entangled und Data as Design Material. Sie machte zudem deutlich, dass Daten auch persönlich sind, und stellte eine Reihe von Projekten vor, an denen sie selbst beteiligt war – unter anderem mit Jugendlichen als Zielgruppe. Mit ihnen erprobte sie Methoden des Data Crafting bzw. der Data Physicalization, die von Data Selfies über Data Jewellery bis hin zu Data Ghosts reichten. Besonders spannend für mich war dabei, wie Miriah Meyer mit diesen Ansätzen das Prozesshafte von Daten hervorhob.
Dabei ging sie auch auf unerwartete Nebenprodukte ein: Auf einer physischen Karte sollten Besuchende mithilfe von Stickerpunkten emotionale Orte markieren. Dabei entstanden u. a., wie sie es bezeichnete, Data Graffiti – also Punkte, die sich (absichtlich) zu Wörtern oder Symbolen formten und auf die Miriah Meyer humorvoll verwies. Nach dieser spannenden Perspektive aus der Data-Vis-Community folgte die Eröffnungsfeier mit Schnittchen und Wein, die den Abend stimmungsvoll ausklingen ließ.
Zwischen Klang, Kritik und Virtualität: Der Konferenzmittwoch
Am Konferenzmittwoch begannen die Panels, die das Motto „Not only text, not only data“ auf unterschiedliche Weise einlösten. Den Auftakt meines Tages bildeten Beiträge aus der Digital Musicology, die ein breites methodisches Spektrum abdeckten. Besonders in Erinnerung blieb mir der Vortrag „Soundful Dickens – Sound in Literary Fiction“, in dem Svenja Guhr und Michaela Mahlberg zeigten, wie sich Klangereignisse in literarischen Texten computergestützt erfassen lassen. Ausgangspunkt war dabei die Idee, Klang systematisch zu modellieren, indem lauttragende sprachliche Einheiten identifiziert und hinsichtlich ihrer Intensität beschrieben werden, um so neue Perspektiven auf Dickens’ Romane zu eröffnen.
Gleichzeitig wurde in anderen Vorträgen deutlich, wie produktiv sich die digitale Musikwissenschaft mit Fragen der Datenmodellierung und -infrastruktur auseinandersetzt: So zielte ein Beitrag darauf ab, das XML-basierte MEI-Datenmodell in eine semantisch anschlussfähige RDF-Ontologie zu überführen, während ein anderer zeigte, wie sich mithilfe von Large Language Models quellenbezogene Daten aus der neuen Schubert-Ausgabe automatisiert extrahieren und weiterverarbeiten lassen.
Nach der Mittagspause verschob sich der Fokus hin zur Wissenschaftsgeschichte der DH. Florian Windhager eröffnete das Panel mit Überlegungen zur Rolle und insbesondere zur Verantwortung der Digital Humanities im Kontext einer „zweiten Säkularisierung“ (nach Simon During) und entwarf mit Komplizenschaft, Widerstand, Migration und Nachfolgearbeit vier mögliche Reaktionsweisen. Damit verband er die Frage nach den Digital Humanities mit einem breiteren Nachdenken über Kultur nach der Hochkultur, etwa im Kontext von Konzepten wie „Dopamine Culture“.
Auch die folgenden Beiträge knüpften an diese Perspektivverschiebung an: Anna Maria Neubert analysierte 714 Drittmittelprojekte (1996–2021) aus einer feministischen Perspektive und machte dabei strukturelle Unterschiede in Forschungsnetzwerken sichtbar. Sie schloss mit der Betonung der Notwendigkeit intersektionaler Perspektiven in den Digital Humanities. Das letzte Projekt widmete sich der Landschaft von 866 Wissenschaftsblogs in Deutschland und stellte Fragen nach Open Science und Open Access, etwa im Hinblick auf Standardisierungen wie DOI, ISSN oder Creative-Commons-Lizenzen.
Zum Abschluss des Tages wechselte ich in ein Panel unter dem thematischen Dach „Virtualität“, das sich zwischen Architektur, VR und Eye-Tracking bewegte. Den Auftakt bildeten Überlegungen zur Dokumentationspraxis in der Architekturforschung, vorgestellt anhand von IDOVIR (Infrastructure for Documentation of Virtual Reconstructions), einem Taxonomieprojekt, das sich der Integration vielfältiger Quellen – von physischen und digitalen 3D-Modellen über naturwissenschaftliche Analysen bis hin zu Oral History und Inschriften – widmet.
Vom Physischen ging es anschließend in den virtuellen Raum: Mit ExPresS XR wurde ein No-Code-Tool für die Entwicklung von XR-Ausstellungen vorgestellt, das einen niederschwelligen Zugang zur Gestaltung immersiver VR-Erlebnisse eröffnet. Der Fokus liegt dabei auf Anwendungen im musealen und wissenschaftlichen Kontext – von der Vermittlung über die Forschung bis hin zur kuratorischen Praxis.
Unter der Leitfrage „Was bestimmt die Zeit?“ zeigte der abschließende Vortrag anhand einer Eye-Tracking-Studie, dass sich Aufmerksamkeit im Museum entlang klarer Muster verteilt: Kunstwerke werden länger betrachtet als Texte, Größe und Gattung beeinflussen die Verweildauer signifikant, und Sehen und Lesen stehen in einem engen Zusammenhang.
Ein sehr gelungener Start, der noch einmal deutlich machte, welche Debatten in den Digital Humanities – fernab der Literatur, an ihren Rändern oder im Zusammenspiel mit GLAM – geführt werden.
Doctoral Consortium und Poster-Slam: Mein Konferenzdonnerstag
Meinen Donnerstag begann ich mit dem Doctoral Consortium: Die vorgestellten Projekte reichten von der computergestützten Modellierung literarischer Aufmerksamkeit am Beispiel von Sherlock-Holmes-Erzählungen (Jan Angermeier) über die digitale Kartierung von Akteur:innen der Stonewall-Bewegung und damit verbundene Fragen nach Sichtbarkeit und Gewichtung innerhalb queerer Geschichtsschreibung (Robin Luger) bis hin zur Analyse von 54 sowjetischen Theaterstücken der Jahre 1945 bis 1964, in der Ekaterina Kolevatora familiäre Modelle im Spannungsfeld von Spätstalinismus und Tauwetter-Periode untersuchte.
Ein Highlight des Tages war die Postersession, insbesondere der Poster-Slam, der mit viel Poesie, Star-Wars-Referenzen und sogar aus dem Grab auferstandenen Protagonist:innen überzeugte. Insgesamt wurden auf der DHd2026 fast 100 Poster präsentiert. Der Empfang und die Preisverleihung des Slams fanden am Abend im Rathaus statt und bildeten mit Buffet, Musik und anschließender Party einen gelungenen Abschluss des Tages – in einer besonders schönen Atmosphäre.
Zum Abschluss: Panels und Keynote am Freitag
Der Freitag begann für mich mit Präsentationen aus dem Bereich der Digital Art History, in denen unterschiedliche Zugänge zur computergestützten Bildanalyse zusammenkamen. Ein Vortrag widmete sich der Frage, wie sich Vision-Language-Modelle wie CLIP für kunsthistorische Analysen nutzen lassen und wie ihre Entscheidungen mithilfe von Explainable Artificial Intelligence nachvollziehbar werden können. Dabei zeigte sich, dass die Modelle bei konkreten Objekten überzeugend arbeiten, bei abstrakteren Konzepten jedoch an ihre Grenzen stoßen.
Diese Spannbreite zwischen methodischer Reflexion und praktischer Anwendung setzte sich in den folgenden Beiträgen fort: Mit PortApp wurde eine App zur Analyse und Durchsuchung frühneuzeitlicher Porträts vorgestellt, die sowohl Ähnlichkeitssuchen als auch die Suche mit eigenem Bildmaterial ermöglicht. Gleichzeitig zeigte das Tool „Suchkind“, wie sich multimodale Modelle mit domänenspezifischer Annotation kombinieren lassen, um visuelle Vorstellungen von Kindheit in historischen Kinder- und Jugendbüchern systematisch analysierbar zu machen.
Die Closing Keynote von Katharina Kinder-Kurlanda (Universität Klagenfurt) führte diese Perspektiven auf einer Metaebene zusammen. In ihrem Vortrag „Digital Humanities Unpacked: The Politics and Practices of Data Work“ machte sie deutlich, dass digitale Daten stets in komplexe Machtverhältnisse, Infrastrukturen und gesellschaftliche Kontexte eingebettet sind, und plädierte dafür, die Digital Humanities als kritische Disziplin zu verstehen, die nicht nur Methoden anwendet, sondern auch deren politische und epistemologische Implikationen reflektiert.
Dies bildete den Abschluss der sehr erfolgreichen #DHd2026 in Wien. Ich freue mich schon jetzt auf die DHd2027 in Marburg unter dem Titel „Mind the Gap! – Wissen, Unsicherheit und Verantwortung“ (1.–5. März 2027 am MCDCI).
Und möchte mich an dieser Stelle herzlich bei NFDI4Culture und dem DHd bedanken, die mir durch das Reisestipendium die Teilnahme an dieser inspirierenden Konferenzwoche in Wien ermöglicht haben. Neben zahlreichen inhaltlichen Impulsen, die genau an die Schnittstellen anknüpfen, an denen ich mich künftig verorten möchte, nehme ich vor allem die Begegnungen mit – eine wachsende Kontaktliste und einige neue WhatsApp-Gruppen, die die DH-Community einmal mehr als offen, lebendig und vernetzt zeigen.
*Der Titel bezieht sich übrigens auf einen Satz, den ein Konferenzteilnehmer auf seinem LED-Badge hatte – ein Goodie aus dem Konferenzbeutel, das selbst programmiert werden konnte und auf dem die vergnüglichsten Aussagen angezeigt wurden, u. a. selbstverständlich „I love DHd“.
Die Berlin-Brandenburgische Akademie der Wissenschaften sucht zwei wissenschaftliche Mitarbeiter:innen im Bereich Digital Humanities und Forschungssoftwareentwicklung für digitale Editionen (Standort Berlin).
Vollzeit (teilbar), befristet auf 24 Monate
Vergütung: E13 TV-L
Bewerbungsfrist: 07.04.2026
Aufgaben & Profil: Gesucht werden Bewerber:innen mit u.a. abgeschlossenem Hochschulstudium und Erfahrung in Digital Humanities, insbesondere in der Entwicklung von Forschungssoftware und APIs. Erwartet werden außerdem technisches Interesse (z. B. Machine Learning), Teamfähigkeit sowie gute Kommunikations- und Organisationsskills.
Diesen Beitrag schreibe ich nach meinem Besuch der DHd2026-Konferenz, die für mich eine wertvolle Quelle für Wissen, Inspiration und neue Perspektiven in meinem Fachgebiet war. Sie hat mir geholfen, besser zu verstehen, in welche Richtungen ich mich in diesem Bereich weiterentwickeln kann. Diese Möglichkeit verdanke ich der Förderung durch NFDI4Culture, für die ich sehr dankbar bin.
Eine anklickbare Version der Präsentation über meine Teilnahme an der Konferenz finden Sie unter folgendem Link .
Alle Fotos in der Präsentation wurden von mir, der Autorin des Beitrags Anastasiia Shkliarenko, während meiner Teilnahme an der Konferenz in Wien aufgenommen.
Dieser Beitrag entstand im Rahmen eines Early Career Reisestipendiums von CLARIAH-AT für die DHd2026 in Wien. Herzlichen Dank für die Ermöglichung dieser Teilnahme.
Was macht eine wissenschaftliche Community aus? Und gehöre ich dazu? Diese Frage hatte ich im Gepäck, als ich als Masterstudierende der Digital Humanities an der Universität Regensburg zum ersten Mal zur DHd fuhr. Die DHd2026 war meine erste große DH-Konferenz und eine Einladung, die Community nun endlich live zu erleben. Das Ziel: Wien.Eine prachtvolle Stadt, eine beeindruckende Universität und ein Tagungsthema, das neugierig macht: Not just text, not just data. Was steckt in den Digital Humanities jenseits von Textkorpora und Datentabellen? Die Konferenz hat darauf viele spannende Antworten geliefert.
GPU für die GW – aber bitte DSGVO-konform
Der erste Konferenztag führte mich in den Halbtagsworkshop „Beyond the Cloud: Democratizing GPU Access for the Digital Humanities“ des DHInfra-Teams der Universität Graz und der Universität für Weiterbildung Krems. Der Bedarf an rechenintensiven Methoden wächst in der DH rasant, während kommerzielle Anbieter wie AWS oder Google Colab ernsthafte Fragen zu Datenschutz und Datensouvränität aufwerfen. DHInfra setzt hier mit einer föderierten, DSGVO-konformen GPU-Infrastruktur an. Der Workshop war dabei mehr als eine Demonstration, er diente als finale Testphase vor dem offiziellen Launch, in der die Teilnehmenden LLMs feintunen und API-basierte Workflows entwickeln konnten und gleichzeitig direktes Feedback zur Plattform gaben.
Data as…
Den Auftakt der Konferenz bildete am Abend die Eröffnungskeynote von Miriah Meyer mit dem Titel „Data as…: Exploring the Plurality of Data in Visualization“. Mit einer scheinbar simplen Frage: „Was sind eigentlich Daten?“ eröffnete sie ein breites Panorama: Daten als Input, als Ground Truth, als Design Material, als etwas Verflochtenes. Wer diese Rahmungen explizit benennt und hinterfragt, gewinnt neue Perspektiven auf Visualisierungen und die eigene Forschungspraxis. Beim anschließenden Empfang wurden diese Gedanken in Gesprächen weitergeführt. Ein schöner Beweis dafür, wie eine gute Keynote eine Konferenz inhaltlich in Gang setzt.
Annotieren: Mensch, Maschine oder beides?
Am zweiten Tag folgte der ganztägige Workshop „Film- und Videoanalyse mit VIAN & TIB-AV-A“. Die zentrale methodologische Frage: Wann annotieren wir manuell, wann die Maschine? VIAN Light macht diese Spannung produktiv, indem es manuelle Annotation mit automatischer Einstellungserkennung kombiniert und damit Raum lässt für das, was Eva Hielscher „Doing ELAN“ nennt: den Annotationsprozess selbst als erkenntnisleitenden Akt. Das Fazit des Tages: Automatisierung ersetzt die manuelle Annotation nicht. Hybride Workflows, die beides kombinieren, sind der Schlüssel.
Die Politik der Daten
Besonders nachhaltig haben mich zwei Panels beschäftigt. Im Panel „KI als Belastungsprobe für das offene Internet“ diskutierten Klaus Rettinghaus, Sarah Oberbichler, David Maus und Grischka Petri, was der Boom generativer KI bedeutet: Bot-Traffic, der sich als menschlich tarnt, blockierte Archive, ignorierte Lizenzen. Die Kernfrage: Welche Infrastrukturen bauen wir auf, welche Daten legen wir unter welchen Bedingungen offen? Das sind im Kern politische Entscheidungen und Geisteswissenschaftler:innen können mit ihrer kritischen Datenperspektive aktiv mitgestalten.
Das Panel „The Dark Sides of DH revised: From Utopia to Reality“ richtete den Blick nach innen: auf sprachliche Vielfalt, feministische Datenpraktiken, Repräsentation und ein erweitertes Verständnis von Nachhaltigkeit jenseits von Effizienz. Was mich überzeugte, war der konstruktive Grundton: Es ging nicht nur darum, Probleme zu benennen, sondern gemeinsam darüber nachzudenken, was die DH werden könnte, wenn wir diese Lücken ernst nehmen.
Research Software, Posterslam und Empfang im Wiener Rathaus
Ein weiteres Panel widmete sich Research Software Engineering. Sabina Mollenhauer plädierte für eine Richtungsumkehr: Ethnografische Methoden könnten aktiv zur Gestaltung nachhaltiger Research Software beitragen statt Wissen nur von STEM zu übernehmen. Kevin Kuck und Kevin Wunsch zeigten, wie automatisierte Workflows in Editionsprojekten Raum für inhaltliche Forschung schaffen. Kristin Herold, Hizkiel Alemayehu und Daniel Jettka diskutierten am Beispiel Edirom Online, wie Software nach Projektende überlebt: durch Modularisierung, Community-Building und gezielte Kleinstförderungen.
Ein Highlight der Konferenz war der Posterslam: In kürzester Zeit überzeugten die Slamenden das Publikum von ihrer Forschung, gemessen per Lautstärkemessgerät, Kostüme und popkulturelle Referenzen inklusive. Eine mitreißende Einleitung zu zwei Postersessions, bei denen Zeit für viele spannende Gespräche war.
Daten sind nie neutral
Den krönenden Abschluss des letzten Abends bildete der Empfang im Wiener Rathaus, ein sehr imposanter und beeindruckender Rahmen für eine Konferenz, die inhaltlich als auch atmosphärisch viel zu bieten hatte. Und passend zum Gastgeber durfte musikalisch natürlich auch Falco und der Wiener Walzer nicht fehlen.
Was bleibt
Was mich überrascht hat, war die Atmosphäre: offen, vielfältig, von echtem gegenseitigem Interesse geprägt. Gespräche entstanden schnell und unkompliziert, über Fachgrenzen und Karrierestufen hinweg. Als jemand, die gerade mitten im Studium steckt, war es besonders wertvoll, das Gefühl zu haben, wirklich Teil einer Community zu sein, nicht nur Beobachterin.
Das Stipendium von CLARIAH-AT hat mir nicht nur die Reise nach Wien ermöglicht, sondern einen Einblick gegeben, worum es in den Digital Humanities im besten Sinne geht: das gemeinsame Nachdenken über Methoden, Infrastrukturen und Verantwortung, mit Menschen, die das wirklich ernst nehmen.
Sophia Babl, Masterstudium Digital Humanities, Universität Regensburg
Am Institut für Digital Humanities ist eine Postdoc-Stelle in Vollzeit zu besetzen, und zwar bis zu 5 Jahre im Bereich der „Sprachlichen Informationsverarbeitung“. Die Gruppe “Sprachliche Informationsverarbeitung” forscht zur Anwendung von Methoden der Sprachverarbeitung (z.B. Annotation, Maschinelles Lernen, Künstliche Intelligenz) in den Geistes-, Human- und Sozialwissenschaften.
Unser Fokus liegt dabei auf der Operationalisierung von theoretischen Konzepten, z.B. zu Figurenwissen, diskriminierender Sprache oder biopolitischen Themen, mit dem Ziel diese dann quantitativ untersuchen zu können. Die Gruppe besteht aus 5-10 Personen in unterschiedlichen Karrierestufen.
Die Deadline für Bewerbungen ist der 19. März. Alle weiteren Details finden sich hier. Bei Fragen gerne an nils.reiter@uni-koeln.de schreiben.
Ich freue mich Ihnen mitzuteilen, dass zum 3. Digital Independence Day die 2. Folge meines neuen Podcasts „Die Wissensarchitekt*innen“ online gegangen ist.
Der Wissenschaftspodcast “Die Wissensarchitekt*innen” erkundet die Welt hinter den Daten und was Bibliotheken, Forschung und Algorithmen miteinander verbindet. In Gesprächen über das Wissen von morgen werden kritische Aspekte der Informationsgesellschaft und ihre politischen und gesellschaftlichen Folgen diskutiert.
In jeder Folge sind Gäst*innen aus unterschiedlichen Bereichen der Informations- und Wissenslandschaft zu Gast, um über ihre Arbeit und Themen zu sprechen. In der ersten Staffel von “Die Wissensarchitekt*innen” steht das Thema Datentracking mit Fokus Science Tracking (d.h. das nicht datenschutzgerechte Erheben und Nachnutzen von Nutzungsdaten auf kommerziellen wissenschaftlichen Webseiten) zentral.
Der Podcast wird von mir, Ulrike Wuttke, im Rahmen meiner Transferprofessur an der FH Potsdam mit dem Projekt T.R.A.C.K.S. “Training on Analytics, Compliance, Knowledge, and Security” produziert.
Mit freundlichen Grüßen und viel Spaß beim Reinhören!
Ulrike Wuttke
Prof. Dr. Ulrike Wuttke
Bibliothekswissenschaft – Strategien, Serviceentwicklung und Wissenschaftskommunikation | Library Science – Strategies,Service Development and Scholarly Communication
Are you a Digital Humanities student or early career researcher in Belgium who would like to discuss DH with other early career researchers in the Belgian DH community? If so, you might be interested in joining the DH Virtual Discussion Group for ECRs!
The DH Virtual Discussion Group is a joint initiative organized by individuals at multiple Belgian institutions. We strive to involve speakers from all Belgian institutions and encourage participation from all those who are interested in DH and are located at any Belgian institution. This series, the core organizers are Leah Budke (KU Leuven), Tom Gheldof (KU Leuven, CLARIAH-VL+), Paavo van der Eecken (University of Antwerp), and Loren Verreyen (University of Antwerp). Over the past years, the series has become a regular event. The spring 2026 edition proudly marks our twelfth term.
Our first two sessions this spring will continue the “under-the-hood” format, which entails a volunteer from our community providing a thirty-minute overview of a digital project implementing a given tool, approach, or platform. This is not meant to be a polished research presentation, or to present findings or results, but rather to give our community a behind-the-scenes look at how decisions were made and why specific tools were chosen or developed. The hope is also that this presenter will give attendees some ideas about how to get started implementing a specific tool or workflow, and that they can also answer questions or contribute to a discussion on other projects in our community that might be using similar methodologies or addressing similar issues. This “under-the-hood” session format allows us to have focused discussions around a specific project where we can learn from each other in an informal way. In addition, by implementing this format we can maintain the low threshold for contributing and engaging in the conversations.
Our final session will be a special in person session during which members of our community can give an elevator pitch of their DH Benelux contribution.
The spring 2026 schedule will be updated as details about upcoming talks are confirmed. Please check back here or on the website (linked above) for full details. Information about each session will also be circulated via the mailing list.
Session 1 Date: Monday 30 March, 15h-16h30 CEST via Teams Speaker(s): Julie Van Ongeval, VUB Title: The Fall of Antwerp (1585) as a linguistic turning point? Language change from macro- and micro-perspectives. Abstract: The Spanish recapture of Antwerp (1585) during the Eighty Years’ War, known as the Fall of Antwerp, marks a crucial turning point, not only from a historical but also from a linguistic perspective. Historically, the Fall triggered profound social, economic, and demographic transformations. Prior to 1585, Antwerp had flourished as one of Europe’s largest and most prosperous cities, characterized by substantial immigration. In the aftermath of the Fall, however, the city experienced severe socio-economic decline and large-scale emigration, causing its population to decrease by more than half (from 100,000 inhabitants in 1580 to 42,000 in 1589) (De Meester 2011, Lesger 2007). From a linguistic standpoint, the Fall has traditionally been associated with what De Vooys (1970) termed “the decline of the Southern Netherlands”. The event is believed to have shifted the linguistic center of gravity to the Northern Netherlands, slowing down or even halting the ongoing processes of language standardization in the Southern Netherlands and, by extension, in Early Modern Antwerp (Van der Sijs 2020). Yet, these linguistic claims have primarily been based on printed, literary, or explicitly normative texts. Considerably less is known about language use in more informal and everyday contexts (Elspaß 2020).
This study addresses that gap by analyzing informal, handwritten letters preserved in the newly developed Early Modern Antwerp Corpus (1564-1653). Drawing on Dixon’s punctuated equilibrium model (1997), which proposes that significant historical events can accelerate linguistic change, we test an alternative hypothesis: rather than causing stagnation, the Fall of Antwerp may have triggered intensified linguistic variation and change. To assess this hypothesis, we examine six linguistic features that were undergoing change and were relevant to the process of Dutch standardization (clause negation, verbal cluster order variation, schwa apocope, the prefix ge- in past participles, word-final /k/, spelling of /ɣ/ in onset). First, we analyze developments at the community level to identify broader patterns of change. We then adopt a more microscopic perspective, investigating how individual writers respond to the shifting sociohistorical context. This includes both inter-individual variation (e.g. social categories and networks) and intra-individual change across the lifespan. By investigating the linguistic consequences of the Fall of Antwerp from both macro- and micro-level perspectives, this study aims to bridge the three waves of sociolinguistic research, integrating community-level patterns with individual-level variation and change.
Session 2 Date: Monday 20 April, 15h-16h30 CET via Teams Speaker(s): Léa Hermenault, UA Title: The Belgian Historical Gazetteer: (historical) toponyms in a digital era Abstract:My presentation will introduce the Belgian Historical Gazetteer, a project founded by CLARIAH-VL+ and hosted at the University of Antwerp. This project aims to set up a historical gazetteer of toponyms for the whole present-day territory of Belgium, in order to provide researchers with a collection of data that does not stop at Belgian provincial borders and which goes beyond the level of municipalities.
First, I will explain how the gazetteer is constructed using both automatic extraction of text from old maps and manual corrections/additions. Then, I will show how this gazetteer will help researchers deal with place names that appear in their sources. Finally, I will demonstrate the potential of digitized lists of historical place names for both toponymic and landscape studies which make digital gazetteers, aside from their classic function, innovative exploring tools.
Session 3– Special In-Person DH Benelux Session Date: Monday 18 May, 13h30-16h CEST, Location: room 1.01 Gogotte, Hoek 38, Leuvenseweg 38, Brussels (location is within walking distance from the central station) Speaker(s): various members of our community Format: elevator pitches of DH Benelux contributions
There are an increasing number of conferences, workshops, and funding opportunities in DH, and we would like to ensure that you are aware of them. We will start every session with a moment for individuals to share news about upcoming lectures, workshops, seminars, and conferences. We have a corresponding Slack group where we also share these opportunities both during the discussion group meetings and in between. The link to join the Slack group is included in every email sent out to the mailing list, so watch for it there or send us an email to request access.
If you would like to register or invite other colleagues to join, please complete the registration form for the mailing list here. Please note, if you have received emails from us about the Discussion Group in the past, it means you are already on our mailing list. In that case, there is no need to register again—you will receive the emails with the MS Teams link and any additional information on the day of the session. Additionally, you will also receive updates on upcoming sessions including further details about speakers and the “under-the-hood” presentation topics.
Are you a frequent attendee of the DH Virtual Discussion Group and would like a low-threshold way to become more involved in the organization? We are looking for ambassadors to promote the group within their university networks. If this might be a role you would like to take on, get in touch and we can tell you more!
These events are only open to KU Leuven researchers and staff
To support researchers in their use of relational data, CLARIAH-VL+ & Artes Research (partners in DH@rts) are hosting 2 Nodegoat workshops.
Nodegoat is a web-based research environment designed for the Humanities. The platform enables researchers to manage and visualize complex historical data, including vague dates and historical regions, as well as to generate diachronic geographical and social network visualizations.
During the workshop, participants will learn how to use this flexible digital environment for their own projects.
Program
The workshops will be given by Geert Kessels & Pim van Bree (the developers of LAB1100).
The morning session (09:30-12:30) will cover a general introduction to Nodegoat
During the afternoon session (14:00-17:00) the developers will present more advanced Nodegoat features.
You may sign up for just the morning session, just the afternoon session, or both workshops. Just make sure to register for each session individually.
Practicalities
When: April 24, 2026 from 09:30 to 12:30 and from 14:00-17:00
Where: Colloquium (05.28) in the University Library. These are in-person workshops and will not be recorded.
For who: This event is open to KU Leuven researchers working in the Humanities. No prior experience is required. Participants are encouraged to bring their own research questions or datasets to explore within Nodegoat
Price and registration: Free but mandatory. You can register here. You may sign up for just the morning session, just the afternoon session, or both workshops. Just make sure to register for each session individually. Registration deadline is 10 April 2026.
Am 10. März 2026 findet 14:30 bis 16:00 Uhr das Clustertreffen des N4O CC Data Capture and Creation mit Sophie Döring (Institut für Historische Landesforschung der Universität Göttingen, vormals Institut für Sächsische Geschichte und Volkskunde) zum Thema Ortsdaten statt.
Historische Ortslexika sind sowohl Grundlagenwerke (landes)geschichtlicher Forschung als auch zentrale Hilfsmittel zur Kuration von Datenobjekten in Museen oder Bibliotheken sowie ein wichtiges Recherchewerkzeug einer breiten interessierten Öffentlichkeit und Citizen-Science-Projekten. Während es in Sachsen, Hessen, Baden-Württemberg und Bayern bereits eigene öffentlich finanzierte digitale Datenbanken zur Erfassung und Verwaltung historischer Ortsdaten gibt, fehlen im restlichen Bundesgebiet bislang entsprechende Repositorien. Dieser Umstand erschwert nicht nur die historische Recherchearbeit in Archiven, sondern auch die präzise Zuordnung von historischen Dokumenten, Objekten und Entwicklungen sowie die Nachnutzbarkeit bereits vorhandener Daten. Unter anderem liegt die Problematik auch in einer bis heute kaum standardisierten Aufnahme, Verarbeitung und Systematisierung historischer Ortsdaten begründet, welche besonders kleinere Projekte ohne eigentlichen Schwerpunkt auf historische Ortsdaten vor enorme Schwierigkeiten stellen.
Dieser Fehlstelle nimmt sich der Minimaldatensatz Historische Ortsdaten an, welcher derzeit von der AG Historische Ortsdaten konzipiert und erprobt wird. Er benennt und erläutert Informationen und Datenfelder, die zwingend notwendig sind, um historische Daten zu Siedlungsplätzen in einer nachhaltigen, eindeutigen, leicht auffindbaren und austauschfähigen Art und Weise zu kuratieren und zu publizieren. Damit wird in einfacher Form das minimal notwendige Maß an Datenqualität, welches in der Verwaltung von Ortsdaten erfüllt sein sollte, sowohl für größere als auch kleinere Projektkontexte strukturiert.
Es ist keine Anmeldung erforderlich, wir freuen uns über Ihre / Eure Teilnahme und auf den gemeinsamen Austausch.
Every academic year, the HDYDI (How Do You Do (It)?) event on research data workflows signals the start of the Digital Scholarship Module. Through a series of sessions and (mini-)workshops, Artes Research aims to guide students through the complexities of scholarship in the digital age, from Open Science to Research Data Management and beyond.
At the HDYDI kick-off event, we invite three researchers from the Faculty of Arts to open the black box of their research workflows. By sharing the practical tools, decisions, and challenges that shape their day‑to‑day work, they aim to offer the first-year PhD researchers a realistic insight into what digital scholarship can look like across disciplines. We hope these behind‑the‑scenes glimpses help you discover approaches that can inform your own research journey!
Tim Debroyer: From Paper to Digital Source
The first speaker, Tim Debroyer, is a third-year PhD candidate at the Cultural History since 1750 research group. Under the supervision of Joris Vandendriessche and Kaat Wils, Tim is studying the evolution of 20th-century Belgian patient organisations as an overlooked link in the development of the modern welfare state. This involves examining their oral history as well as archival and published sources.
The focus of Tim’s talk is on the latter – periodicals specifically form one of the most important sources of information for his project. Faced with thousands of pages early on in his research project, he had to make strategic decisions: what to photograph, how to photograph it, and which digital methods were worth the investment.
Taking BVS Nieuws, the periodical of a diabetes association founded in the 1940s, as an example, Tim explains that he ended up manually photographing the entire series of journals so as to allow for a more thorough discourse analysis. This experience taught him some “tricks” which might be useful to others looking to photograph large amounts of text. Firstly, he used a classic camera in order to avoid the post-processing which smartphones tend to apply, and which can harm OCR quality. Secondly, he made sure to always photograph beyond the edges of the page to make it easier for the OCR software to recognize the boundaries. Thirdly, since taking pictures in the library was quite hectic, Tim always made notes of what he was doing: for instance, what stood out in the issues and what was missing – this made it much easier to return to the sources later on in his trajectory.
Once he properly organized the resulting pictures in folders per issue or volume with short, meaningful names, Tim set to extract the text using OCR (Optical Text Recognition) tools in order to enable keyword searches and quantitative analysis. (This is a labor-intensive step, he cautions, so make sure that it makes sense for your methodology before adopting it yourself.) Numerous scanning apps and online tools exist – Tesseract, Google Cloud Vision and Transkribus (for handwritten text) are great options for the more technically minded – but Tim made use of ABBYY FineReader, a commonly used OCR tool that is very performant and user-friendly. It is a commercial tool, but computers with ABBYY licenses are available at the Maurits Sabbe Library and Agora, so researchers looking to digitize a limited number of sources are free to go there without having to purchase their own license. ABBYY FineReader allows for image pre-processing (e.g. fixing lighting, straightening and cropping pictures), supports various languages, recognizes images in sources as well, and offers various formats for exporting (including .txt files). Tim was quite satisfied with the quality of the OCR’d texts: take good pictures, he says, and ABBYY will deliver good results!
To conclude, Tim shows how he processed the resulting text files in AntConc, a free concordance tool that’s often used for text mining. It allows for large-scale word searching and analysis, can provide keyword frequencies and information about relations to other words, and can easily compare different corpora. (Tim provides a small tip for those looking to explore AntConc: keep a stopword list of high-frequency words with little thematic content that the tool can filter out of its analysis.)
Of course, every researcher has to figure out what workflow suits them, but Tim importantly highlights that you should think about what you want to achieve before investing in digital methods. Consider the nature of your research project, the characteristics of your source corpus, the methodologies you use (discourse analysis, quantitative analysis, network & visual analysis) and let these things decide how you will process and study your sources. At the same time, don’t be afraid to try out new tools that might work well for you!
Of course, the quality of ABBYY FineReader’s OCR results depends on the quality of the input images.
Lauren Ottaviani: Mapping and Analyzing Women’s Magazine Archives
Our second speaker is Lauren Ottaviani, fourth-year PhD candidate in English Literature. Lauren’s project, supervised by Elke D’hoker, focuses on the representation of the women’s suffrage movement in two conservative, middlebrow periodicals dating to the late 19th and early 20th centuries: The Woman at Home and Lady of the House. In doing so, the research seeks to consider the interaction between suffrage and domestic ideals at the turn of the twentieth century.
Similarly to Tim, then, Lauren also works with a large corpus of periodicals; and just as we saw with Tim, many of the magazines’ issues – which tend to be quite lengthy – remained as yet undigitized. The complexity of her materials meant that Lauren had to decide early on how to approach data management efficiently. In the end, a combination of three tools informed her research workflow.
Firstly, early on, she shifted from using Word for note-taking to using the free open-source tool Obsidian instead. As Lauren says, Obsidian (which was covered in last year’s HDYDI session as well) has the same ease of use that a program like Word offers, but you’ll actually be able to find your note again! With its added functionality, Obsidian allowed her to create a relational database of notes categorized by date, theme, or type, so as to keep track of any stories worth revisiting. Through tags and linked notes, Lauren could keep track of authorship, include direct links to the digitized magazine pages, and even uncover recurring anonymous authors. It’s also just a great tool for conference notes and miscellaneous admin.
Secondly, Lauren made use of the storage that’s provided by KU Leuven on OneDrive for Business. Currently, OneDrive is no longer recommended as a primary storage solution for research data at the university,1 but it does have some useful features – and it proved particularly handy for Lauren’s use case. Using the OneDrive smartphone app, she took pictures of interesting articles in the periodicals she was studying and placed those in her pre-organized folder structure. In contrast to Tim, Lauren did not think full OCR of her corpus was worth the time investment or really relevant to her research questions, but this smaller-scale scanning process (which resulted in perfectly legible captures) worked great for her methodology.
Thirdly and finally, Lauren also adopted Nodegoat as part of her workflow, mainly for its “mapping” potential. That is, Nodegoat is a database tool, but it also offers built-in network visualization capabilities, which Lauren used to map out different entries – i.e. letters from the magazines’ correspondence columns – tagged with geolocations. The resulting visualization allowed her to track where readers lived, what the magazines’ geographical reach was, and how their readership expanded over time – elements that were central to her analysis of the periodicals’ circulation.
Using a combination of these three tools, Lauren was able to create a structured, well-organized database out of a vast, undigitized corpus; and even though her approach differed quite substantially from that of Tim, both illustrate how the right tools, used well, help make large-scale periodical research manageable.
Using Nodegoat, Lauren was able to map out the readership of the periodicals she’s studying.
Sinem Bilican: Managing Multimodal Data in Healthcare Research
Sinem Bilican is the last speaker: as a PhD candidate at the Research Unit Translation & Interpreting Studies, she is part of the interdisciplinary research project Managing Language Barriers in Unplanned Care (MaLBUC). With the help of her supervisor Heidi Salaets, Sinem studies linguistic diversity and multilingual communication in healthcare practices with the goal of laying bare overlooked communication barriers. As such, her project involves collaboration with the Faculty of Medicine, and we can reasonably expect very different data types from what we saw in Tim’s and Lauren’s presentations.
Indeed, the interdisciplinary and collaborative nature of the research project – which encompasses ethnographic observations as well as a large-scale survey and interviews – necessitates the implementation of clear research data management practices. Sinem works with extensive field notes, images, video and audio recordings, questionnaires, and other survey data: a lot of materials to manage, to be sure!
Sinem begins by outlining the tools involved in her daily research workflow. Zotero is a usual suspect here, and one which we see in many researchers’ workflows as a handy reference manager as well as a note-taking and annotation tool. OneDrive, meanwhile, enables Sinem to exchange data, drafts and other documents transparently between team members; whereas for a related larger-scale project, the team opted for the ease of use of Teams and SharePoint (which is a recommended storage solution at the Faculty of Arts). Finally, Obsidian is mentioned again, and Sinem stresses its convenience for taking both academic and miscellaneous notes.
Next, Sinem presents some of the tools she used during the data collection phase of her research project. Interestingly, the first tool she talks about is an actual physical tool: a Livescribe pen. This smart pen with a built-in recorder synchronizes handwritten notes with audio, allowing Sinem to easily reconstruct interviews and medical consultations she attended2 – after a day of fieldwork, you can just plug it into your laptop and have everything appear in the Livescribe app. For the surveys, Sinem uses REDCap, which is commonly used in the Biomedical Sciences: it is a highly secure, KU Leuven-authenticated tool that can automatically generate full survey reports. It is, as Sinem points out, also quite a technical tool, but the university provides comprehensive support for users.
The last tool Sinem considers takes us from data collection to research dissemination – namely, Canva. Canva is a user-friendly, web-based design platform that’s great for making posters, visuals, and any other materials you might need to present your research. It allows for image upscaling, QR-code generation, and even themed PowerPoint slide decks. Sinem’s enthusiasm for Canva is infectious – and fittingly, she used it to create her HDYDI presentation as well!
By combining these tools, Sinem is able to navigate a complex, interdisciplinary project that involves varied datasets with clarity and structure; and while her workflow differs markedly from those of Tim and Lauren, it likewise shows how thoughtful tool choices can make even the most challenging research environments manageable.
REDCap proved a useful tool for Sinem’s research data workflow.
Across all three presentations, the workflows we saw revealed both overlaps and differences, but the shared message was clear: the best workflow is the one that genuinely works for your project. Let these examples inspire you, try out the tools that seem useful, and keep what supports your work. With a bit of exploration, you may find a data workflow that not only suits your project, but strengthens it!
As explained in the university’s storage solution FAQ, there are a number of reasons why OneDrive is no longer recommended as a primary solution for long-term research data storage; most significantly the fact that data stored on OneDrive servers is inaccessible to KU Leuven, which goes against RDM policy (principle II). This means that any data that you’ve kept on OneDrive is erased as soon as you leave the university for any reason, and recovering files is a difficult and costly procedure. ︎
Of course, these recordings were made with informed consent of all involved. ︎
Wir freuen uns, die erfolgte Veröffentlichung des Bandes From Global to Local? Digitale Methoden in den Geisteswissenschaften im deutschsprachigen Raum: Ein Triptychon bei Melusina Press in Diamond Open Access bekanntgeben zu können.
Aus dem Klappentext:
“Der Sammelband “From Global to Local? Digitale Methoden in den Geisteswissenschaften im deutschsprachigen Raum: Ein Triptychon” lädt dazu ein, lokale und globale Geschichte(n) des Einsatzes von digitalen Methoden in den Geisteswissenschaften im deutschsprachigen Raum zu entdecken und über ihre Zukunft nachzudenken. Er bietet Standortbestimmung genauso wie Experimente in der Gegenwart und Gedankenspiele für die Zukunft. Er ergründet Entwicklungslinien und stößt kritische Diskussionen an.
Der Teilband „Be-Forschen“ sammelt diskursive Aufsätze und eine Vielfalt der Themen, der Teilband „In eigenen Worten“ Audio-Essays mit einer Vielfalt der Stimmen und der Teilband „Artefaktbiographien“ Portraits (digitaler) Objekte und eine Vielfalt der Medialität. Der Aufbau als Triptychon führt die (neuen) Formate fruchtbar zusammen, spiegelt den Medienwandel und zeigt dabei überraschende Perspektiven auf. Dies spiegelt die Vielfalt der methodischen Ansätze der Digital Humanities, ganz unabhängig davon, ob man sie als Big Tent oder als globales (Zelt-)Dorf begreift.”
Sie finden die Publikation unter https://doi.org/10.26298/1981-5722. Wenn Sie eine Druckoption wünschen, so finden Sie dort ebenfalls die Möglichkeit der direkten Bestellung.
Zur Zitation des Bandes orientieren Sie sich gerne an folgendem Beispiel (Chicago 18. Edition): Wuttke, Ulrike, Christopher Nunn, Christian Schröter, Melanie Seltmann und Christian Wachter. From Global to Local: Digitale Methoden in den Geisteswissenschaften im deutschsprachigen Raum: Ein Triptychon. Melusina Press, 2026. https://doi.org/10.26298/1981-5722.
Nähere Informationen zur Publikation finden Sie im Fußbereich der Publikationswebsite oder im Impressum der Publikation.
Wir wünschen Ihnen viel Vergnügen und Lese- und Hörgenuss bei der Lektüre aller Beiträge!
Was euch erwartet: Hands-on-Sessions: Praktisches Arbeiten mit Euren eigenen Datensätzen Vertiefung spezifischer LLM-Themen und Anwendungsfälle Kollegialer Austausch, Peer-Feedback und gezielte fachliche Unterstützung
Expertinnen: Sarah Oberbichler (C²DH), Johanna Mauermann (IEG DH Lab | HERMES), Lauren Coetzee (C²DH)
In verschiedenen Impulsvorträgen und Hands-on-Sessions lernen Teilnehmende, wie sie offene, auf die geisteswissenschaftliche Forschung spezialisierte und lokale Modelle mit ihren eigenen Daten verwenden können und wie sie Prompts an geisteswissenschaftliche Fragen anpassen können. Ebenfalls reflektieren wir, wie Daten für ein Fine-Tuning oder Post-Training eines kleinen Sprachmodells aufbereitet werden können.
Voraussetzungen:
Der Workshop richtet sich an Forschende der Geisteswissenschaften, die mit Textdaten arbeiten. Vorausgesetzt werden grundlegende Kenntnisse im Bereich generativer KI. Die mitgebrachten Daten sollten maschinenlesbar vorliegen.
Wir werden in manchen Hands-on-Sessions mit Jupyter Notebooks und Python sowie mit Hugging Face arbeiten. Die Teilnahme ist auch ohne vertiefte Kenntnisse in diesen Bereich möglich. Selbstlernmaterial zur Vorbereitung wird angeboten.
My wife and I are expecting our second child in just a few weeks, which means that I am gearing up for a new and chaotic phase of life. As a part of the preparation, I’m doing everything I can to keep things running smoothly for student programs in the Scholars’ Lab while I’m out. I set up a process for doing so when I took leave two years ago for our first child, so I’m not exactly working from scratch. Here’s how I’m preparing for my leave this time around to make things easier for my coworkers who will be keeping things going in my absence.
Give notice early
Everyone has different interlocking reasons for when they give notice to their team. Those reasons might be medical, personal, or professional. Given my own particular circumstances, I let my immediate collaborators in the Scholars’ Lab know fairly early, several months before I would be out. With this knowledge well in advance of the due date, my collaborators knew that I was taking steps to accommodate my absence. I also notified students who would be impacted. The dates I chose to take these steps were selected carefully in conversation with my supervisor, who helped me decide who needed to know and when.
Identify areas of responsibility
One of the first tasks in preparing to unplug for two months was to list my tasks, differentiating between major ongoing initiatives and smaller one-off items. This process helped me to create a to-do list such that I can make progress on my leave in a controlled manner. Otherwise, one can get lost in an anxiety spiral feeling like there is already more to do. I identified the Praxis Program, the DH Fellowship Committee, and our summer programs as primary initiatives in need of continuity.
Wrap up what I can
For smaller projects, I sprinted over the past two months to finalize whatever I could. Rather than working with a particular student on a weekly basis, for example, I set a date for a multi-hour meeting where we could make significant progress on their project. I set early writing goals for myself to meet deadlines in advance. And I took advantage of the slow down between semesters as space in which I could get ahead.
Establish points of contact for what I can’t
Some projects and initiatives will inevitably roll over through my leave. Working through my list, I worked with my supervisor and coworkers to identify people whom might be willing to take on specific pieces of my work. This process always involved asking my collaborators a series of questions: what do they need to feel comfortable? What can they do? What do they feel uncomfortable with? Who else might make sense for particular tasks?
Document everything
So much of the work I do exists in my head. Workflows, points of contact, procedures, norms. I tried to write as much of this down as possible so that someone stepping in would know exactly what to do and when. Winnie E. Pérez Martínez has been exceptional at working on this with me as a student worker, especially in regard to clarity and formatting. Winnie has a special talent for taking an enormous brain dump from me and assembling it into a coherent, less intimidating guide. I have learned a lot from her!
Put guardrails on future commitments
If possible, I tried to stop planning major commitments that would take place a couple weeks before the due date. At the very least, when I agreed to something, I made it clear that I might unexpectedly withdraw with little notice. I am also giving a couple weeks buffer before scheduling new commitments after I return in April. After all, babies have their own schedules in mind, and postpartum life is enormously challenging and complex. It’s impossible to know what our lives will be like for the next several months, and I tried to be honest about these facts with everyone involved.
Caveats
Everyone deserves the time and energy that parental leave allows to refocus on their personal life and meet the needs of a difficult transition. Everyone deserves coworkers kind enough to help them make space for their family. But I also know this is not the norm. I am enormously fortunate and privileged to have such support. That being said, I hope that what I’ve outlined above can be helpful even for those who do not possess such a robust support system. In those cases, this post might offer a rough guide for how to advocate, push back, and find small space for what you need in infrastructure that might not otherwise allow it.
Alle zwei Jahre findet die Tagung „Digital History 20XX“ der AG Digitale Geschichtswissenschaft im Verband der Historiker und Historikerinnen Deutschlands (VHD) statt. An wechselnden Standorten fungiert die Konferenz als zentrale Plattform für den wissenschaftlichen Austausch der deutschen digital arbeitenden Geschichtswissenschaft. Bisherige Stationen und Tagungsmottos waren:
2021: Universität Göttingen (virtuell durchgeführt), „Digital History. Konzepte, Methoden und Kritiken digitaler Geschichtswissenschaft“;
2023: HU Berlin, „Digitale Methoden in der geschichtswissenschaftlichen Praxis. Fachliche Transformationen und ihre epistemologischen Konsequenzen“;
2024: Universität Halle-Wittenberg, „Digital History & Citizen Science. Digitale Methoden und neue Erkenntnisse zwischen digitaler Quellenerschließung, Forschung und Bürgerwissenschaften“.
Von 28 September bis zum 1. Oktober 2026 findet die Digital-History-Tagung unter dem Motto „Doing Cultural Heritage“ an der Paris-Lodron-Universität Salzburg statt.
Die AG Digitale Geschichtswissenschaft strebt grundsätzlich an, die Konferenz in den Jahren stattfinden zu lassen, in denen kein Historikertag stattfindet, idealerweise im September. Daher bittet die AG nun um Bewerbungen um die Ausrichtung der fünften Tagung im Jahr 2028.
Die bisherigen Auflagen konnten bis zu 300 Teilnehmer:innen (davon 120 in Präsenz und 180 online) verzeichnen. Dabei verteilten sich auf bis zu vier Tagen das Hauptprogramm mit wissenschaftlichen Vorträgen, Paneldiskussionen, Posterpräsentationen und Keynotes sowie das Begleitprogramm mit (Pre-Conference) Workshops und Social Events. Die Einführung neuer Formate ist in Abstimmung mit dem Komitee der AG möglich.
Das Programm der Tagung wird eigenverantwortlich durch das Ortskomitee der ausrichtenden Institution sowie dem einzurichtenden Programmkomitee auf Grundlage eines Call for Papers und eines anschließenden Review-Verfahrens erstellt. Die Ausrichter:innen sind verantwortlich für die Bereitstellung der Tagungsräume und der notwendigen Infrastruktur, für die Organisation und Sicherstellung des reibungslosen Ablaufs der Tagung, die Planung von Social Events, die Einrichtung und Pflege einer Tagungswebsite sowie für die Öffentlichkeitsarbeit während der Veranstaltung. Die Veröffentlichung von Konferenzbeiträgen kann unterschiedlich umgesetzt werden, etwa in Form eines Tagungsbandes oder durch Bereitstellung von Abstracts auf einem Textrepositorium. Publikationen sollten in jedem Fall Open Access erfolgen.
Da die AG Digitale Geschichtswissenschaften leider nicht über eigene Mittel verfügt, ist die Tagung über Mittel zu finanzieren, die von der ausrichtenden Institution eingeworben oder bereitgestellt werden. Wird eine Tagungsgebühr erhoben, sollte diese möglichst gering gehalten werden.
Eine Bewerbung um die Ausrichtung der Konferenz für 2028 muss beinhalten:
einen Vorschlag für ein Tagungsmotto, der überzeugend begründet, welches für die Forschungscommunity relevante übergreifende Themenfeld im Mittelpunkt stehen soll. Mit Blick auf eine erfolgreiche Umsetzung des Tagungsmottos können die Arbeitsschwerpunkte am Ausrichtungsort, Vorschläge für mögliche Keynotereferent:innen, inhaltliche Überlegungen zum Workshopprogramm und weitere Gestaltungspunkte für die Veranstaltung angeführt werden;
einen Terminvorschlag (bevorzugt im September). Dabei ist auf potenziell konkurrierende Konferenzen zu achten. Der Termin ist frühzeitig auf der Website bekanntzugeben;
eine Aussage über die Verwendung aller für die Organisation und Abwicklung der Tagung notwendigen Systeme (z.B. Conftool, Easychair, etc.);
eine Einschätzung zu den Möglichkeiten einer teilweisen virtuellen Partizipation (z.B. zur Übertragung von Keynotes);
Ideen für Social Events;
Vorschläge zur Erreichung einer hohen Sichtbarkeit der Tagung;
Maßnahmen zur Förderung von Early Career Researchers / Studierende;
Have you been meaning to set up an appointment to ask about research data management for your project, an aspect of your research workflow, or a specific DH tool or method? Visit one of our drop-in sessions and we will help you on the spot! No need to make an appointment!
The sessions are designed to support researchers, students, and staff members in all areas of digital scholarship. The initiative is a collaboration between Artes Research, DH-support staff and researchers at the Faculty of Arts, and ICTS at the Faculty of Arts.
Some areas we can help you with:
Providing resources for various DH and RDM tools
Advice on DMPs and Research Data Management in general
Suggesting DH tools or methods for your specific research questions
Relational databases in FileMaker
Social Network Analysis and network visualizations
Computational tools for working with texts
…
Getting started with Zotero or optimizing Zotero use with an existing Zotero library
Advice on scholarly communication
Advice on Lirias
… and much more!
Don’t have a question about any of the above but want to learn more about DH? No problem! Come and use our space for co-working! It’s a great moment to develop digital skills by starting a Programming Historian tutorial, for instance!
Everyone is welcome to attend, you do not need to register!
Stop by on one of the following dates and we will be glad to help you:
29/01/2026: 14:00h -16:00h, Het Salon LETT 00.24, Erasmushuis
19/02/2026: 14:00h -16:00h, Het Salon LETT 00.24, Erasmushuis
19/03/2026: 14:00h -16:00h, Het Salon LETT 00.24, Erasmushuis
28/04/2026: 14:00h -16:00h, Het Salon LETT 00.24, Erasmushuis
26/05/2026: 14:00h -16:00h, Het Salon LETT 00.24, Erasmushuis
25/06/2026: 14:00h -16:00h, Het Salon LETT 00.24, Erasmushuis
Framing the Workshop: Vision, Interpretation, and Context
In recent years, digital tools have quietly transformed how we experience and interpret images in museums, classrooms, and research settings. As an art historian working at the intersection of art history, digital media, and visual culture, I am drawn to examining how people translate visual experience into words, and how that process compares with machine analysis of the same images. I am especially interested in creating spaces that invite us to pause, pay closer attention, and make the act of interpretation visible, rather than treating images or technologies as self-evident.
Seeing, Describing, and Imagining originated from a simple, low-stakes classroom exercise I first encountered while serving as a teaching assistant in a course on formal and visual analysis taught by my advisor. Watching students work through the challenge of turning what they were seeing into words made it clear how tentative and negotiable description can be. That experience stayed with me and prompted me to rethink the exercise beyond the classroom, adapting it into a workshop format.
The workshop aims to create a shared, practice-based method for visual analysis that can be applied in various settings, from visual analysis courses to digital humanities labs, while staying rooted in art-historical approaches to looking.
From Looking to Language: Description and Interpretation
The workshop is conceived as a hands-on, collaborative way of exploring how images move between seeing, describing, and imagining. It is designed to begin with a simple exercise. Participants would look closely at an artwork and translate what they see into words. Working in pairs, one person would study the artwork and describe it in detail, while the other would create a quick line sketch using only that description, without ever seeing the image itself.
This phase aims to slow the process in a constructive way. Participants are encouraged to reflect on the act of describing itself: What do you choose to mention first, and why? Which parts of the artwork are hardest to put into words? These questions are designed to show that description is never neutral. Emphasis, order, and omission all influence how an image is understood.
When sketches and original artworks are placed side by side, the workshop is designed to shift from creating to comparing. Instead of viewing differences as mistakes, participants are encouraged to explore what moments of similarity and difference may reveal about the connection between image and text. The aim is not to fix these gaps but to use them as a way to think about how seeing, knowing, and describing are linked in art history practice.
Human–Machine Translation: AI, Images, and Visual Convention
Starting from this analog foundation, the workshop is structured to move into a digital phase by introducing AI text-to-image systems. Participants would revisit and refine their descriptions before entering them into an AI model such as DALL·E or Adobe Firefly. The resulting AI-generated image would then be placed alongside the original artwork and the participant-created sketch as a third object for comparison.
Rather than evaluating which image is better or more accurate, this stage emphasizes observation. Participants are encouraged to ask what kinds of visual patterns might emerge across AI-generated images. Which elements seem emphasized, simplified, or made more uniform across different outputs? Looking across multiple results is meant to create space for noticing patterns without assuming in advance what those patterns will be.
Existing scholarship by authors such as Kate Crawford, Safiya Umoja Noble, Ruha Benjamin, and Johanna Drucker suggests that AI systems are shaped by the datasets they are trained on, the ways information is classified, and the cultural assumptions embedded in those systems. Drawing on these works, the workshop is designed to create conditions where such influences could become visible through hands-on engagement rather than explanation. As participants compare images, the process opens up the possibility of exploring whether familiar visual conventions emerge, particularly when prompts involve artworks or visual traditions that are not widely represented in large image datasets. What becomes noticeable is deliberately left open and expected to take shape through comparison rather than as a predetermined outcome.
The workshop also introduces a reverse process, moving from image to text. Participants would upload an artwork into an AI vision tool and examine how the system translates the image into language. Reading these AI-generated descriptions alongside participants’ own interpretive accounts is intended to prompt reflection on differences in tone, emphasis, and confidence, and to raise questions about how uncertainty functions in human versus machine descriptions.
Staying with the Process: Open-Ended Inquiry and Reflection
Taken together, Seeing, Describing, and Imagining is framed as an open-ended inquiry rather than a demonstration. Prompt writing and refinement are approached not as purely technical tasks but as interpretive acts, similar to the analytical frameworks art historians use when working with images. While elements of the workshop align with existing practices in art history education, digital humanities, and critical AI studies, Seeing, Describing, and Imagining brings these approaches together in a distinctive sequence that foregrounds interpretation as an active, negotiated process involving both human and machine systems of vision.
The workshop is designed to foster attentiveness, curiosity, and careful comparison. It encourages participants to stay with the process and to observe what may emerge as images move between eyes, words, algorithms, and back again. In this way, both human and machine vision are presented not as stable endpoints, but as ongoing, context-dependent practices shaped by history, culture, and interpretation.
–
Works Cited
Benjamin, Ruha. Race After Technology: Abolitionist Tools for the New Jim Code. Cambridge, UK: Polity Press, 2019.
Crawford, Kate. Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. New Haven, CT: Yale University Press, 2021.
Drucker, Johanna. Graphesis: Visual Forms of Knowledge Production. Cambridge, MA: Harvard University Press, 2014.
Noble, Safiya Umoja. Algorithms of Oppression: How Search Engines Reinforce Racism. New York: New York University Press, 2018.
Hackathon: AI Between Research, Education, and Analysis On October 13, 2025, the Heidelberg Center for Digital Humanities (HCDH) hosted a hackathon that brought together researchers from a variety of disciplines to explore innovative applications of...
The OpenAI API docs are very bad. In my experience as a coder, I’ve come across my share of bad documentation. Typically, this is because the documentation is poorly organized, too spare, or missing coverage. Or it’s because the design of the API itself is badly conceived, inconsistent, or contains the accumulated cruft of years (or decades!) of bloat and abandoned features.
But I can’t recall ever seeing documentation that contains code samples that are both wrong and also syntactically wrong. It’s bad enough that it comes across as documentation written by GPT–and not even a recent model.
Take this example, part of an entry under the “Core Concepts” section:
context=[{"role":"role","content":"What is the capital of France?"}]res1=client.responses.create(model="gpt-5",input=context,)//Appendthefirstresponse’soutputtocontextcontext+=res1.output//Addthenextusermessagecontext+=[{"role":"role","content":"And it's population?"}]res2=client.responses.create(model="gpt-5",input=context,)
The Python code sample here is not syntactically correct. The comments use the ‘//’ convention of C/Java/Javascript in-line comments, rather than Python’s ‘#’. Additionally, OpenAI has the concept of a role, which indicates who (e.g. the system, the user, the model’s responder) is “speaking.” The string “role” is not a valid value for this and making an API call with it results in an error:
So, there are a total of 7 code statements in this sample, including the comments, and 4 of them have errors. The thing is, GPT-5 is actually pretty good at writing code. It’s even capable of executing Python code in an internal environment. We can see this facility in action by simply asking ChatGPT to debug the code from the OpenAI documentation.
This is a mode of LLM use that I haven’t had a lot of luck with, but here it pinpoints the two errors perfectly.
When documentation is bad in a common fashion, it typically creates a frustrating programming experience. And, to be clear, the OpenAI docs are bad in some of those ways too. But the sheer lack of care it demonstrates is both shocking for all the ways that Tech has integrated AI into our world and, frankly, majestic. Like making a horse consul or completely blowing up the system of global trade.