普通视图

Received before yesterday

Workshop: LLMs für die Geisteswissenschaften (Mainz, 19./20.03.)

2026年2月2日 19:54

Arbeitet ihr mit Textdaten und wollt herausfinden, wie ihr diese mit Large Language Models verarbeiten, anreichern und analysieren könnt? Habt ihr Lust, mit euren Daten praktisch zu arbeiten und dabei Unterstützung zu bekommen? Dann kommt zum nächsten Bring Your Own Data Lab (BYODL) des HERMES | Humanities Education in Research, Data, and Methods Datenkompetenzzentrums am DH Lab des Leibniz-Instituts für Europäische Geschichte in Mainz! In dem Workshop geht es um spezialisierte Large Language Models und spezialisiertes Prompting für die Geisteswissenschaften.

Das Wichtigste in Kürze:

📅 19.–20. März 2026 (Do, 10:00 bis Fr, 16:00)
📍 Präsenz-Workshop: Leibniz-Institut für Europäische Geschichte, Mainz

Was euch erwartet:
🛠 Hands-on-Sessions: Praktisches Arbeiten mit Euren eigenen Datensätzen
🔎 Vertiefung spezifischer LLM-Themen und Anwendungsfälle
🤝 Kollegialer Austausch, Peer-Feedback und gezielte fachliche Unterstützung

Expertinnen:
Sarah Oberbichler (C²DH), Johanna Mauermann (IEG DH LabHERMES), Lauren Coetzee (C²DH)

Alle aktuellen Informationen findet Ihr auf der HERMES-Veranstaltungsseite.

Ziele und Inhalt:

In verschiedenen Impulsvorträgen und Hands-on-Sessions lernen Teilnehmende, wie sie offene, auf die geisteswissenschaftliche Forschung spezialisierte und lokale Modelle mit ihren eigenen Daten verwenden können und wie sie Prompts an geisteswissenschaftliche Fragen anpassen können. Ebenfalls reflektieren wir, wie Daten für ein Fine-Tuning oder Post-Training eines kleinen Sprachmodells aufbereitet werden können.

Voraussetzungen:

Der Workshop richtet sich an Forschende der Geisteswissenschaften, die mit Textdaten arbeiten. Vorausgesetzt werden grundlegende Kenntnisse im Bereich generativer KI. Die mitgebrachten Daten sollten maschinenlesbar vorliegen.

Wir werden in manchen Hands-on-Sessions mit Jupyter Notebooks und Python sowie mit Hugging Face arbeiten. Die Teilnahme ist auch ohne vertiefte Kenntnisse in diesen Bereich möglich. Selbstlernmaterial zur Vorbereitung wird angeboten.

Kontakt und Anmeldung:

Zur Registrierung und bei Fragen: Johanna Mauermann, hermes@ieg-mainz.de

Bitte gebt bei der Anmeldung folgende Informationen an:

  • Fachgebiet
  • Welche Erfahrung habt ihr mit generativer KI?
  • Welche Art von Daten bringen ihr mit?

Hinweis: Die Teilnehmerzahl ist auf maximal 15 Personen begrenzt.

Die Anmeldung ist bis zum 09. März 2026 geöffnet.

Der Workshop findet überwiegend auf Deutsch statt, einzelne Impulse werden auf Englisch sein.

Workshop: Digitale Editionen der Zeitgeschichte zwischen KI und Linked Open Data

2025年11月7日 20:43
Das aktuelle Bild hat keinen Alternativtext. Der Dateiname ist: KGParl_titel_L.png

Datum: 4.–5. Dezember 2025
Ort: Kommission für Geschichte des Parlamentarismus und der politischen Parteien (KGParl), Schiffbauerdamm 40, Berlin
Veranstalter: Kommission für Geschichte des Parlamentarismus und der politischen Parteien (KGParl)

Beschreibung

Am 4. und 5. Dezember 2025 findet in den Räumen der Kommission für Geschichte des Parlamentarismus und der politischen Parteien (KGParl) in Berlin der Workshop „Digitale Editionen der Zeitgeschichte zwischen KI und Linked Open Data“ statt.

Der Workshop widmet sich den aktuellen Herausforderungen und Chancen, die der Einsatz von Künstlicher Intelligenz (KI), Großen Sprachmodellen (LLMs) und Linked Open Data (LOD) für digitale Editionen historischer Quellen mit sich bringt. Im Fokus stehen insbesondere zeitgeschichtliche Materialien mit politischem, verwaltungsbezogenem und diplomatischem Charakter – etwa parlamentarische Quellen, Kabinettsakten und Verordnungen.

Ziel der Veranstaltung ist es, Potenziale und Grenzen neuer Technologien in der digitalen Editorik zu beleuchten und zu diskutieren, wie sich diese auf editorische Standards, Workflows und die wissenschaftliche Nutzung auswirken. Dabei wird die Frage in den Mittelpunkt gerückt, welche methodischen und technischen Innovationen geeignet sind, um digitale Editionen langfristig nachhaltig, interoperabel und anschlussfähig an wissenschaftliche Infrastrukturen zu gestalten.

Der Workshop bringt internationale Expertinnen und Experten aus Editionswissenschaft, Digital Humanities und Informatik zusammen, um Perspektiven für die Zukunft editorischer Arbeit im Kontext KI-gestützter Analyse und semantisch vernetzter Daten zu entwickeln.


Programm

Donnerstag, 4. Dezember 2025

13:00–13:30 Uhr – Begrüßung (KGParl): Grußworte und Einführung

13:30–14:30 Uhr – Max-Ferdinand Zeterberg (SUB Göttingen): Eine digitale Edition auf Basis von Labeled-Property-Graph

14:30–15:30 Uhr – Stephan Kurz (Österreichische Akademie der Wissenschaften, Wien): Wir fangen die Kalender ein! Datenmodellierung zum Austausch von (Protokoll-)Editionen

15:30–16:00 Uhr – Pause

16:00–17:00 Uhr – Michael Schonhardt (Technische Universität Darmstadt): „Diese Anfrage verstößt gegen die Inhaltsrichtlinien“: LLMs und RAG in der editorischen Praxis

17:00–18:00 Uhr – Daniela Schulz (Herzog August Bibliothek Wolfenbüttel): KI und die „Edition der fränkischen Herrschererlasse“ – Warum (noch) nicht!

Freitag, 5. Dezember 2025

09:00–10:00 Uhr – Hennie Brugman (KNAW Humanities Center, Amsterdam): Publication of historical parliamentary resolutions using automatic text recognition and modern web standards

10:00–11:00 Uhr – Dimitra Grigoriou (Österreichische Akademie der Wissenschaften, Wien): Overcoming Historical NER Challenges: A Case Study of the Austrian Ministerial Council Protocols

11:00–11:30 Uhr – Pause

11:30–12:30 Uhr – Monika Jantsch, Peter Land (Deutscher Bundestag): Das Dokumentations- und Informationssystem für Parlamentsmaterialien und seine API

12:30–13:30 Uhr – Maximilian Kruse (KGParl): Open by Default? Warum viele digitale Editionen nicht so offen sind, wie sie scheinen


Kontakt:
Kommission für Geschichte des Parlamentarismus und der politischen Parteien (KGParl)
E-Mail: kruse@kgparl.de, juengerkes@kgparl.de

Hinweis:
Der Workshop wird zusätzlich über Zoom übertragen. Eine digitale Teilnahme ist möglich.
Eine Anmeldung wird per E-Mail an kruse@kgparl.de erbeten.

________________

Virtuelles DH-Kolloquium an der BBAW, 27.10.2025: „Vom Gelehrten zum Problem – Maschinelle Datierung von Leibniz-Handschriften: Die Anwendung von Deep-Learning-Verfahren zur Unterstützung der historisch-kritischen Editionsarbeit“

2025年10月13日 21:28

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 27. Oktober 2025, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Tim Westphal (BBAW, TELOTA), Marco Santi (BBAW), Mario Tormo Romero (Hasso-Plattner-Institut, Potsdam)

Seit Beginn der Arbeit an einer historisch-kritischen Edition Gottfried Wilhelm Leibniz im Jahr 1901 bildet die Datierung des umfangreichen handschriftlichen Nachlasses eine große editorische Hürde. Rund 100.000 Blätter aus der Hand des letzten Universalgelehrten dokumentieren eine über fünf Jahrzehnte reichende intellektuelle Entwicklung, wobei einem Großteil der Schriftstücke eine zeitgenössische Datierung fehlt. Traditionelle Methoden der Datierung sind für einen Korpus dieser Dimension unzureichend: Die manuelle Bestimmung durch Expertinnen ist angesichts der Materialmenge praktisch nicht zu bewältigen, und auch die Wasserzeichenanalyse erlaubt nur grobe Annäherungen im Bereich von Jahrzehnten.

Der Beitrag erprobt, inwieweit bildgestützte Deep-Learning-Modelle diese Lücke schließen können und ob diese dabei eine editorisch nutzbare Genauigkeit erreichen. Wünschenswert ist eine maximale Abweichung von ±1 Jahr. Im Mittelpunkt steht die Frage, ob Deep-Learning-Modelle die feinen intra-personalen Schreibdrifts eines einzelnen Autors über fast fünf Jahrzehnte abbilden können. Anders als bestehende Arbeiten, die meist das Alter verschiedener Schreiber klassifizieren, zielt der Ansatz auf die Detektion des schreibereigenen Stilwandels innerhalb Leibniz‘ Werk. Der weitläufige Nachlass von Leibniz bietet hierfür eine geeignete Grundlage.

Es wird bewusst auf Transkription oder OCR verzichtet, so werden die besonderen Herausforderungen von Leibniz‘ Schriftbild (Überarbeitungen, Streichungen, wechselnde Sprachen) umgangen. Um sicherzustellen, dass die Modelle schriftbezogene und nicht materialbedingte Merkmale lernen, werden verschiedene Normalisierungsschritte durchgeführt: Zeilenweise Segmentierung und Binarisierung eliminieren Papierstruktur und Tintenintensität als Faktoren.

Als Datenbasis dienen ca. 600 Seiten aus dem Zeitraum 1669-1716: 400 datierte Briefe sowie 200 Seiten wissenschaftlicher Ausarbeitungen. Das Material wurde so gewählt, dass für jedes Jahr Vorlagen verfügbar sind. Es werden verschiedene Deep-Learning-Architekturen entwickelt und evaluiert, die relevante Merkmale direkt aus den Bilddaten lernen. Anders als klassische Ansätze der digitalen Paläographie mit manueller Merkmalsextraktion wird auf ein Ende-zu-Ende-Lernverfahren gesetzt. Ziel des Projekts ist die Entwicklung von Ansätzen zur hochauflösenden Datierung frühneuzeitlicher Gelehrtenhandschriften für den Einsatz in der alltäglichen editorischen Praxis. Die entwickelte modulare Pipeline ermöglicht flexibel konfigurierbare Experimente und legt besonderen Wert auf Visualisierung und Erklärbarkeit der Ergebnisse.

Das Projekt positioniert sich an der Schnittstelle von Digital Humanities und Computer Vision und zeigt, wie klassisches maschinelles Lernen die traditionelle editorische Arbeit ergänzen kann. Es entsteht in Kooperation zwischen der Leibniz-Arbeitsstelle der BBAW, dem DH-Referat TELOTA und dem KI-Servicezentrum des Hasso-Plattner-Instituts in Potsdam.

 

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzrraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.

“AI in Application”: AI teamwork – Achieving more together

2025年6月13日 20:49
What does productive collaboration with AI actually look like in everyday university life? In the latest workshop of the “AI in Application” series, hosted by Dr. Florian Nieser and Dr. Thomas Renkert (HSE), participants...

CAEDHET-Hackathon report (04/2025)

2025年5月5日 21:40
On April 11, 2025, the CAEDHET research group held its first hackathon, where participants split into three small groups to further develop current and future projects in an intensive working atmosphere. The goal was...

KI in Anwendung: Steering Trustworthy AI Systems in the Public Interest

2025年2月24日 20:51
Am 14. Februar 2025 fand im Rahmen der Veranstaltungs-Reihe “KI in Anwendung” vom HCDH und HSE, sowie dieses Mal auch in Kooperation mit dem IWR, in Heidelberg ein Workshop mit Sarah Schwettmann, der Mitgründerin...

Call for Contributions: »Digitale Editionen der Zeitgeschichte zwischen KI und Linked Open Data: Herausforderungen und Perspektiven«

2025年2月21日 17:19

Zum 5-jährigen Bestehen der digitalen TEI-Edition »Fraktionen im Deutschen Bundestag. Sitzungsprotokolle 1949 bis 2005« (fraktionsprotokolle.de) lädt die KGParl ExpertInnen aus den Digital Humanities, der Editionswissenschaft und angrenzenden Disziplinen am 4./5. Dezember 2025 zum Workshop »Digitale Editionen der Zeitgeschichte zwischen KI und Linked Open Data: Herausforderungen und Perspektiven« in Berlin ein.

Ziel des Workshops ist es, die Auswirkungen von Künstlicher Intelligenz, Großen Sprachmodellen und Linked Open Data auf digitale Editionen zu diskutieren – mit besonderem Fokus auf politischen, verwaltungsbezogenen und diplomatischen Quellen wie Parlaments- und Fraktionsprotokollen, Verordnungen oder Kabinettsakten.

Im Mittelpunkt steht die Frage, welche methodischen und technischen Innovationen erforderlich sind, um digitale Editionen parlamentarisch-administrativer Quellen langfristig nachhaltig, interoperabel und wissenschaftlich nutzbar zu machen.

Zum Call for Contributions

Beiträge für den Workshop sollen als kurzes Abstract (nicht mehr als 200–300 Wörter) eingereicht werden. Das Abstract sollte die Fragestellung, Methodik und erwarteten Ergebnisse klar skizzieren.

Bitte senden Sie Ihr Abstract bis zum 31. März 2025 an juengerkes@kgparl.de.

Einladung zum 18. Philtag an der Uni Würzburg

2025年1月22日 17:37

via Dag Nikolaus Hasse, Zentrum für Philologie und Digitalität, Universität Würzburg

hiermit lade ich Sie im Namen der Organisatoren Torsten Roeder und Christof Weiß herzlich zum 18. Philtag ein, der in Raum 00.001 des ZPD stattfindet:

Donnerstag, 6.2.2025, 14:00-19:00 Uhr: KI und digitale Edition

mit Vorträgen von Jonatan Steller, Martina Scholger, Michael Schonhardt, Leonard Konle und Anne Baillot (keynote 18:00)

Freitag, 7.2.2025, 09:30-13:00 Uhr: Computational Analysis of Multimodal Data

mit Vorträgen von Stephanie Döpper, Vincent Christlein, Christof Weiß und Uwe Kühhirt


Das volle Programm finden Sie hier:

https://www.uni-wuerzburg.de/zpd/veranstaltungen/philtag/

Bitte leiten Sie die Einladung gern an interessierte Kolleginnen und Kollegen, Studentinnen und Studenten weiter.


Herzliche Grüße
Ihr Dag Nikolaus Hasse


“We’ve got the data – what now?”: Text Annotation

2024年12月21日 19:44
In der heutigen digitalen Landschaft sind Textannotation unter anderem für die Visualisierung, die Informationsbeschaffung, die linguistische Analyse und das maschinelle Lernen unerlässlich. Jonathan Gaede und David Schatz befassen sich im zweiten Workshop der Reihe...

Bericht zum Workshop „(Generative) KI für Kultur- und Textdaten“, 4. und 5. November 2024, Goethe- und Schiller-Archiv, Weimar

2024年12月19日 04:48

Autor: Gerrit Brüning

Der Einsatz Künstlicher Intelligenz in den digitalen Geisteswissenschaften hat durch die Fortschritte im Bereich großer Sprachmodelle (LLMs) und insbesondere die Veröffentlichung von GPT-3.5 im November 2022 eine neue Stufe erreicht. Seither hat sich das methodische Feld durch multimodale Modelle, Retrieval Augmented Generation (RAG) und Integration graphbasierter Ansätze nochmals weiterentwickelt und ausdifferenziert. Die perspektivischen Einsatzszenarien reichen damit weit über Sprachverarbeitung und Textgenerierung hinaus. Die damit verbundenen innovativen und experimentellen Ansätze sind Teil eines größeren Spektrums etablierterer Formen maschinellen Lernens zur Lösung spezifischer Aufgaben (z.B. Bildanalyse, Handschriftenerkennung, Topic Modeling, Named Entity Recognition und andere NLP-Tasks). Sie regen aber auch zu ethischen Diskussionen, zur erneuten Betrachtung von hergebrachten Problemen der Philosophie des Geistes an und halten in Lehr-Lern-Situationen Einzug.

Vor diesem Hintergrund fand am 4. und 5. November 2024 der interdisziplinäre Workshop „(Generative) KI für Kultur- und Textdaten“ am Goethe- und Schiller-Archiv in Weimar statt. Der Workshop wurde finanziell vom NFDI-Konsortium NFDI4Culture unter Einsatz der Community-Mittel des DHd-Verbands getragen. Der DHd-Vorstand hielt zudem AG-Mittel des Verbands bereit. Ausgerichtet wurde der Workshop in Kooperation vom DHd-Vorstand sowie der DHd-AG Angewandte Generative KI in den Digitalen Geisteswissenschaften (AGKI-DH).

Konzeption und Planung lagen bei Gerrit Brüning und Christopher Pollin, Organisation und Leitung bei Gerrit Brüning. An der Kommunikation im Vorfeld nahm zudem die neue Co-Convenorin der AG, Sarah Oberbichler, teil.

Mit den Themen Ontologieentwicklung, Named Entity Recognition und Linking, Extraktion von historischen Informationen, Explainable Artificial Intelligence in der Kunstgeschichte, Provenienzforschung, Wissensgraph, die Begriffe Interpretation, Bedeutung und Modell sowie Rechtsfragen, Verantwortung, Ethik und Bildungsprozesse schritt der Workshop ein vielfältiges Spektrum geisteswissenschaftlicher Disziplinen und Perspektiven auf das Themenfeld ab, inkl. Literatur-, und Sprachwissenschaft, Kunstgeschichte, Geschichte, Philosophie, Kulturwissenschaft. Die Abstracts der einzelnen Beiträge stehen auf der GitHub-Page der AG zur Verfügung. Insgesamt zeichnete der Workshop ein facettenreiches Bild der zahlreichen Herausforderungen und Schwierigkeiten, denen Forschende an der Schnittstelle von Geisteswissenschaften und KI gegenüberstehen.

An der Hybrid-Veranstaltung im Goethe- und Schiller-Archiv nahmen ca. 40 Personen in Präsenz und mehr als 50 Personen online teil.

Ansicht vom Goethe- und Schiller-Archiv

KI Showcase: Der Chatbot „ParzivAI“

2024年9月24日 17:02
Am 22.07.24 stellten Dr. Florian Nieser und Dr. Thomas Renkert die Alpha-Version des von ihnen entwickelten Chatbots ParzivAI vor. ParzivAI ist auf die Vermittlung der mittelhochdeutschen Sprache und Geschichtsdidaktik des Mittelalters spezialisiert und besteht...

💾

[Aktuelles] KI in Anwendung (Mai): Die Geschichte der KI in der Bundesrepublik Deutschland

2024年6月1日 00:09
Im Rahmen der Veranstaltung „KI in Anwendung” präsentierten Dr. Helen Piel und Dr. Rudolf Seising die Ergebnisse des Forschungsprojekts zur Geschichte der Künstlichen Intelligenz in der Bundesrepublik Deutschland am Deutschen Museum. Das IGGI-Projekt (Ingenieur-Geist...

Kurzbericht zum Hackathon ‘KI und Mittelalter’

2024年2月16日 15:25
Der Hackathon zum Thema ‚Mittelalter und KI‘ fand am 05.02.24 in den Räumlichkeiten der Pädagogischen Hochschule (PH) Heidelberg und der Heidelberg School of Education (HSE) statt. Dieses Zusammenkommen einiger Expert*innen aus verschiedenen Fachbereichen wurde...

Virtuelles DH-Kolloquium an der BBAW, 29.01.2024: Large Language Models, künstliche Intelligenz. Veränderungen des wissenschaftlichen Schreibens und Forschens – ein (korpus-)linguistischer Blick

2024年1月17日 21:00

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 29. Januar 2024, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Noah Bubenhofer (Universität Zürich)
über
Large Language Models, künstliche Intelligenz. Veränderungen des wissenschaftlichen Schreibens und Forschens – ein (korpus-)linguistischer Blick

***

Seit der Lancierung von ChatGPT befasst sich die breite Öffentlichkeit mit sog. Large Language Models (Sprachmodellen) und streitet über die Chancen und Gefahren dieser Technologie. In meinem Vortrag möchte ich einen linguistischen Blick auf diese Technologie werfen und fragen: Wie verändert sich der Umgang mit Text in der Wissenschaft und welche neuen Möglichkeiten ergeben sich in der Forschung? In der Korpus- und Computerlinguistik ist uns die Arbeit mit Sprachmodellen seit einiger Zeit vertraut, da sie dazu dienen, Sprachgebrauch zu modellieren und zu untersuchen. In ihrer heutigen, interaktiven Form, sind Sprachmodelle jedoch mehr als eine Repräsentation von Sprachgebrauch. Dies soll im Vortrag ebenfalls thematisiert werden.

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.

Call for Experiments: Generative KI, LLMs und GPT bei digitalen Editionen (DHd2024)

作者ZIM-IG
2023年12月19日 04:04

Im Zuge unseres bevorstehenden Workshops “Generative KI, LLMs und GPT bei digitalen Editionen” auf der Dhd24, lädt das Institut für Dokumentologie und Editorik (IDE) zur Einreichung experimenteller Beiträge ein, die sich mit den Anwendungsmöglichkeiten und Herausforderungen KI-basierter Tools wie GPT und Large Language Models (LLMs) in digitalen Editionen auseinandersetzen. In diesem Workshop sollen konkrete Anwendungsfälle präsentiert und diskutiert werden, in denen GPT-4 oder alternative LL-Modelle auf Basis unterschiedlichen Quellenmaterials für die vorgegebenen Szenarien experimentell erprobt und hinsichtlich ihrer Potenziale, Grenzen, Probleme sowie ethischen und theoretischen Implikationen diskutiert werden, um darauf aufbauend anhand der gewonnenen Erkenntnisse zu erörtern, welchen Einfluss diese Technologien auf die digitalen Editionen der Zukunft haben könnten.

Wir starten daher einen Call for AI-Experiments zu jeglichen Themenbereichen die im Zusammenhang mit digitalen Editionen stehen, einschließlich (aber nicht beschränkt auf):

  • Überführung von unstrukturiertem Text (Transkription) in strukturierten Text (Markup)
  • Überführung von strukturiertem Text in explizite Datenstrukturen
  • Named Entity Recognition, Normalisierung und Anreicherung
  • Kontextspezifische Annotationen
  • Fehlermanagement und Datenkontrolle
  • Integration in Arbeitsabläufe
  • Planung, Konzeption und Evaluierung digitaler Editionen
  • Webentwicklung und Benutzeroberflächen
  • Fine Tuning, Prompt Tuning, Prompt Engineering und Vektordatenbanken

Um einen Beitrag einzureichen, senden Sie bitte eine halbseitige Skizze und Link zum Chat-Protokoll (wenn möglich) an ki@i-d-e.de bis zum 14. Januar 2024. Die Vorschläge werden von den Organisator:innen (Mitgliedern des IDE) des Workshops begutachtet, die Benachrichtigung über die Annahme erfolgt bis zum 26. Januar 2024.

Im Namen des IDE

Christopher Pollin, Alexander Czmiel, Stefan Dumont, Franz Fischer, Christiane Fritze, Patrick Sahle, Thorsten Roeder, Torsten Schaßan, Markus Schnöpf, Martina Scholger, Georg Vogeler

Detail

❌