Community Abstracts

Second Culture Community Plenary: Abstracts of Lightning Talks and Presentations

Flexibles, skalierbares und nachhaltiges Arbeiten mit kulturellen Forschungsdaten im Semantic MediaWIKI

Maximilian Nöth
Zentrum für Philologie und Digitalität (ZPD), Universität Würzburg

Wichtige Bestandteile geistes-, kultur- und humanwissenschaftlicher Forschung sind die Generierung von Forschungsdaten, die Rezeption und Interpretation von Wissen sowie die Verwaltung und nachhaltige Archivierung von großen Datenmengen. Das Zentrum für Philologie und Digitalität (ZPD) der Universität Würzburg hat sich zum Ziel gesetzt, die heterogenen Forschungsinteressen und Forschungsdaten von Geistes-, Kultur- und Humanwissenschaftler:innen im digitalen Zeitalter bestmöglich zu unterstützen. Neben der maschinellen Texterkennung sowie der Konzeption und Realisierung digitaler Editionsprojekte, haben sich die Modellierung und Realisierung von Semantic MediaWikis (SMW) zur Erfassung, Vernetzung und Visualisierung von kulturellen Forschungsdaten als ein weiterer wichtiger Schwerpunkt am ZPD herauskristallisiert.

Im Vortrag sollen zunächst anhand von aktuellen Projekten neue Möglichkeiten vorgestellt werden, die sich durch den Einsatz der SMW-Software für geistes-, kultur- und humanwissenschaftliche Forschungsinteressen ergeben. Dazu gehören u. a. das kollaborative Sammeln, Annotieren und Visualisieren von heterogenen Forschungsdaten, die semantische Vernetzung von Informationen, die in unterschiedlichen Datenformaten (Geodaten, Audiodateien für Sprach- und Klangbeispiele oder bibliographische Abgaben) vorliegen sowie der niederschwellige Einstieg und die Verbreitung der Software innerhalb der wissenschaftlichen Community. Zentral hierfür sind die sogenannten „Extensions“, mit denen die Basisfunktionalität gezielt erweitert werden kann. Weit verbreitete Beispiele sind durch Abfragen automatisch generierte Listen und Tabellen, dynamische Bildergalerien, sowie interaktive Karten.

Der zweite Teil des Vortrags widmet sich den Aspekten der Wartung, Skalierbarkeit und Nachhaltigkeit. Erwähnte Extensions erweisen sich in der Praxis zwar häufig als nützlich, sind jedoch unterschiedlich stabil. Viele erhalten in unregelmäßigen Abständen Updates, was wiederum zu Inkompatibilitäten führen kann. Gerade der Betrieb mehrerer SMWs, die sehr heterogene Anforderungen haben und möglichst fortlaufend aktualisiert werden sollen, stellt für die technische Administration eine große Herausforderung dar. Das ZPD erprobt deshalb derzeit einen hierarchischen Ansatz, der eine sehr allgemeine Basisinstallation schrittweise verfeinert und dadurch individuelle Anpassungen an projektspezifische Anforderungen ermöglicht. 

Die technische Umsetzung erfolgt mittels der weit verbreiteten Containerisierungslösung „Docker“, in der Programmpakete und deren Abhängigkeiten innerhalb sogenannter „Images“ gekapselt und anschließend sehr einfach in beliebigen Umgebungen als „Container“ betrieben werden können. Den gemeinsamen Grundstein für alle weiteren Images bildet ein „Base-Image“, das die oben erwähnte Basisfunktionalität enthält. Das „Core-Image“ baut direkt darauf auf, enthält jedoch nur stabile Extensions, die in der SMW-Community etabliert sind, bei einem Software- oder Serverupgrade zuverlässig funktionstüchtig bleiben und bei spezielleren Fragestellungen erweitert werden können. Ausgewählte, finale Verfeinerung resultieren schließlich in einem konkreten Image für ein einzelnes SMW-Projekt, das zusammen mit der projektspezifischen Datenbank deployt wird.

Im Vergleich zu anderen gängigen Architekturen – wie beispielsweise der „WikiFarm“, bei der eine Vielzahl von (S)MW-Instanzen auf einer einzelnen Installation laufen – erfordert unser modularer Docker-Ansatz zwar eine initial komplexere Konzeption, erlaubt anschließend jedoch einen deutlich flexibleren Betrieb. Während bei einer WikiFarm alle enthaltenen Instanzen zeitgleich auf eine neue (S)MW-Version migriert und die damit verbundenen Probleme direkt für alle Instanzen behoben werden müssen, erlaubt unser Ansatz eine zeitversetzte Migration, wodurch der Einfluss der Wartungsarbeiten lediglich auf die tatsächlich betroffenen Instanzen minimiert wird. Durch die Verwendung von Docker Images müssen die mit einem Update verbundenen Änderungen jedoch nur einmalig vorgenommen werden. Ein weiterer Vorteil ist das einfache Herauslösen von einzelnen Instanzen, um diese beispielsweise an einen anderen Standort zu migrieren. Durch die standardisierte Schnittstelle zu den Docker Containern können Wartungsarbeiten durch eine automatisierte Pipeline ebenso problemlos durchgeführt werden, wie im Falle des Betreibens einer WikiFarm.

Da die zugrundeliegenden Technologien – (S)MW und Docker – Open Source sind, und unsere Architektur öffentlich auf GitHub zur Verfügung gestellt wird, ist eine Nachnutzung durch andere Projekte und Institutionen nicht nur möglich, sondern ausdrücklich erwünscht.

Kuratieren mit Künstlicher Intelligenz

Sonja Thiel
Badisches Landesmuseum Karlsruhe

Das Projekt "Creative User Empowerment" am Badischen Landesmuseum Karlsruhe in Kooperation mit Allard Pierson an der Universität zu Amsterdam (UvA) macht mit der Entwicklung des Tools xCurator die kulturellen digitalen Ressourcen der Museen mittels Verfahren aus dem Bereich der Künstlichen Intelligenz zugänglich. In dem assistiven Tool werden Personalisierung, Automatisierung und vertiefende Kontextualisierungsebenen mit den Möglichkeiten der Bilderkennung, der KI-gestützten Textproduktion sowie einem Storytelling Ansatz verbunden. Damit wird mit und für Nutzer*innen ein Werkzeug entwickelt, mit dem nicht nur die Erschließung von vorhandenen kulturellen Ressourcen, sondern vor allem die Mehrwerte von Künstlicher Intelligenz für Kontextualisierung und Produktion erforscht werden. Der Talk gibt einen Einblick in das Konzept und diskutiert den Stand der Forschung und Entwicklung von Verfahren des Maschinellen Lernens für Museen. Zur Diskussion gestellt werden die Grenzen, Herausforderungen und notwendigen Standards.

(Automatisierte) Annotation im Tanz: das #vortanz-Projekt und die aktuelle Tool-Entwicklung von Motion Bank

David Rittershaus
Hochschule Mainz

Der Talk stellt das aktuelle Forschungsprojekt von Motion Bank (Hochschule Mainz) vor. Bei dem BMBF-geförderten Verbundprojekt „#vortanz – Automatisierte Vorannotation in der digitalen Hochschultanzausbildung“ (2021-2024) steht die Weiterentwicklung der Annotationswerkzeuge für Tanzpraxis und Tanzwissenschaft im Mittelpunkt. Vorwiegend ausgerichtet an den Anforderungen für den analytisch-reflexiven Einsatz in der Hochschultanzausbildung wird die bereits existierende Webanwendung von Motion Bank grundlegend überarbeitet. Einerseits werden die Userinterfaces und die Nutzer*innenführung der kollaborativen Annotationssoftware modernisiert, sodass die Nutzung intuitiver und niederschwelliger wird und auch auf mobilen Geräten problemlos funktioniert. Zudem wird das Einbinden von Videos, Bildern und Audioaufnahmen erweitert (multimodale Annotation) und es werden neue Ansichten für die erhobenen Daten geschaffen. Andererseits zielt ein wesentlicher Teil des Projekts darauf ab, bereits etablierte Künstliche Intelligenz (KI)/Machine Learning (ML)-Methoden in die Software zu integrieren, um einfache Vorannotationen für Videoaufzeichnungen bereitzustellen und den manuellen Annotationsprozess zu erleichtern. So sollen beispielsweise längere Videoaufzeichnungen aus dem Unterricht oder von Proben so automatisiert vor-annotiert werden, dass leicht ersichtlich wird, wo im Video überhaupt Bewegung erkennbar ist, wie viele Personen im Bild zu sehen sind oder ob Musik in der Aufzeichnung zu hören ist oder nicht. Die Vorsegmentierung zielt dabei weniger auf eine (semantische) Interpretation ab, sondern ist darauf ausgerichtet, die Orientierung im (ansonsten hermetischen) Video zu erleichtern. Den manuellen Annotationsprozess sollen neue KI-/ML- Funktionen erleichtern, die beispielsweise Personen im Videobild selektierbar machen, sodass sich Annotationen direkt auf diese Personen beziehen können. Gleichzeitig soll dadurch auch eine visuelle Hervorhebung von Videobildelementen (Personen, Objekten) möglich werden.

CVMA Foto Manager – ein Open-Source-Metadateneditor für die Erschließung von Bilddaten

Anja Gerber, Gordon Fischer
Berlin-Brandenburgische Akademie der Wissenschaften

Abstract (1-2 Seiten): Das Corpus Vitrearum Medii Aevi (CVMA) Deutschland ist als interakademisches Projekt mit zwei Arbeitsstellen in Freiburg (AdWL) und Potsdam (BBAW) Teil eines internationalen Forschungsvorhabens, das Participant der NFDI4Culture ist. Das CVMA Deutschland hat die Aufgabe, die mittelalterlichen Glasmalereien in Deutschland zu erfassen und wissenschaftlich zu erschließen. Eine wichtige Basis der Dokumentations- und Erschließungsarbeit sind fotografische Aufnahmen. Diese werden ergänzend zur Veröffentlichung in gedruckten Corpusbänden in einem digitalen Bildarchiv verwaltet und über die Website des CVMA Deutschland veröffentlicht (http://corpusvitrearum.de). Die digitalen Bilddaten werden seit 2015 nach einer eigenen durch die beiden Arbeitsstellen des CVMA, der Digitalen Akademie Mainz und der TELOTA-Initiative der Berlin-Brandenburgischen Akademie der Wissenschaften erarbeiteten XMP-Metadatenspezifikation mit wissenschaftlichen Metadaten angereichert.

Für die Erschließung von Metadaten für fotografische Aufnahmen und andere Bilddateien gibt es bisher kaum Softwarelösungen, die Anpassungen an eigene Namensräume erlauben. Das CVMA Potsdam verwendet bisher für die Verschlagwortung seiner umfangreichen Bildbestände die proprietäre Software FotoStation. Ziel war es, eine Open-Source-Lösung zu finden, die Metadaten verschiedener Formate und Standards sowie eigene Namensräume unterstützt und auch als Arbeitsinstrument für Bildverwaltung und Recherche genutzt werden kann.

Der einzige Open-Source-Editor, der eine Verarbeitung von Metadaten in verschiedenen Formaten, z. B. EXIF, IPTC und XMP sowie das Festlegen eigener Namensräume erlaubt, ist ExifTool. Hierzu sind jedoch Kenntnisse der Syntax notwendig, da auf der Kommandoebene gearbeitet werden muss. Mit ExifToolGUI gibt es auch eine graphische Benutzeroberfläche, damit sind aber weder Recherche in den Metadaten noch Stapelverarbeitung, Thumbnailansicht oder Bildgalerie der zu bearbeitenden Dateien möglich. Da diese aber essenzielle Bedürfnisse für die wissenschaftliche Arbeit mit großen Mengen von Bilddaten sind, wird in Zusammenarbeit von TELOTA und dem CVMA Potsdam ein eigener Metadateneditor entwickelt, der noch in diesem Jahr in den Probebetrieb gehen wird.

Der CVMA Foto Manager ist online über ein Webinterface mit Benutzerkennung zugänglich. Er verwendet im Hintergrund ExifTool und wird über eine HTML-Oberfläche angesteuert. Die interne Verwaltung der Bilder erfolgt über ein hierarchisches Ordnersystem, welches über JSON-Dateien (JavaScript Object Notation) adressiert wird. Die Bilder liegen auf einem Server in einer durch das Projekt festgelegten Verzeichnisstruktur und benötigen keine Datenbank zur Verwaltung dieser. In einer ExifTool-Konfiguration sind die Metadatenfelder der eigenen Namensräume festgelegt. Die Informationen werden als XMP (Extensible Metadata Platform) in die Bilddateien und parallel in JSON-Dateien geschrieben. Das CVMA Potsdam hat in seinem Bestand digitale Aufnahmen in hoher Auflösung mit Dateigrößen bis zu 400 MB, so dass durch den Abruf der Metadaten aus den JSON-Dateien Ladezeit reduziert wird. Eine Konfiguration des zu verwendenden Metadatenschemas sowie der Anzeige der Datenfelder des Foto Managers erfolgt ebenfalls über JSON-Dateien, so dass andere Forschungsprojekte eigene Anpassungen vornehmen können.

Der CVMA Foto Manager stellt ein GUI zur Verfügung, über das die Bilddateien mit Metadaten versehen werden können, die Bearbeitung ist dabei sowohl für einzelne als auch mehrere Dateien gleichzeitig möglich. Durch Stapelverarbeitung können Informationen für bestimmte Datenfelder hinzugefügt, ersetzt oder gelöscht werden. Das GUI bietet ebenfalls fest definierte Auswahllisten mit im Standard festgelegten kontrollierten Vokabular sowie Listen bereits erfolgter Einträge, so dass gerade bei umfangreichen Eingaben die Arbeit erleichtert und vor allem Genauigkeit und Findbarkeit garantiert wird. Selektiv ausgewählte Metadaten können außerdem aus anderen Bilddateien kopiert werden. Ein Wechsel zwischen Thumbnail- und Listenansicht ist jederzeit möglich, es gibt auch eine Einzelanzeige aller Metadaten, die in einer Bilddatei stehen. Neben einer Schnellsuche, die auch nur für bestimmte Felder möglich ist, gibt es einen Suchfilter, der komplexere Suchen mit Booleschen Operatoren in bestimmten Feldern nach Teilstrings oder genau festgelegten Begriffen durchführt. Die URL der so individuell erzeugten Suchergebnisse kann kopiert und vielfältig weiterverwendet werden, etwa zur Klärung von Fragen oder der Fortführung der Arbeit zum späteren Zeitpunkt.

Neben der Datenverarbeitung und Recherche ist im CVMA Foto Manager auch eine Visualisierung der Bilddaten implementiert. Dies unterstützt nicht nur die Metadateneingabe, sondern auch die direkte fachbezogene Nutzung der online vorgehaltenen Bestände durch die Forschenden. Die Visualisierung der Bildgalerie wird via Digilib realisiert, zudem ist eine Implementierung von IIIF geplant. Damit die Bilddaten auch an andere Nutzende weitergeben werden können, wurde ein Bildexport implementiert, bei dem die Dateien als TIF, JPG und Thumbnails für die Verwendung auf mobilen Endgeräten bzw. offline mit allen Metadaten heruntergeladen werden können.

Aufgrund der Verknüpfung von JSON-Dateien mit den Bilddaten ist es perspektivisch möglich und geplant, auch andere Datenquellen, z. B. 3D-Objekte, auf diese Art mit Metadaten zu versehen. Eine Versionierung der Metadaten mittels JSON-Dateien sorgt dafür, dass jederzeit ein Rollback der Daten möglich ist. Im Rahmen der NFDI4Culture gibt es bereits ein Forum für nachhaltige Softwareentwicklung, das sich mit Strategien beschäftigt und in regelmäßigem Austausch steht. Der CVMA Foto Manager will in diesem Sinne eine Lösung für das standardisierte Erfassen, Verwalten und Erschließen von wissenschaftlichen Bilddaten bieten und der Community zur Diskussion stellen.

 

 Vgl. Akademie der Wissenschaft und Literatur Mainz (2021): Digitale Akademie https://www.adwmainz.de/digitalitaet/digitale-akademie.html [letzter Zugriff 2.9.2021].

 Weitere Informationen unter Berlin-Brandenburgische Akademie der Wissenschaften (2021): TELOTA https://www.bbaw.de/bbaw-digital/telota [letzter Zugriff 2.9.2021].

 Siehe Corpus Vitrearum de (2021): XMP Metadatenspezifikation. Version 1.1 / 8.6.2016 https://corpusvitrearum.de/cvma-digital/spezifikationen/cvma-xmp/11.html [letzter Zugriff 2.9.2021].

 Harvey, Phil (2021): ExifTool by Phil Harvey. Read, Write and Edit Meta Information! https://exiftool.org/ [letzter Zugriff 2.9.2021].

 Hrastnik, Bogdan (2012): ExifToolGUI for Windows v5.xx https://exiftool.org/gui/ [letzter Zugriff 2.9.2021].

 Vgl. Cast, Rob (2001–2021): digilib - a versatile image viewing environment for the internet https://robcast.github.io/digilib/ [letzter Zugriff 2.9.2021].

Siehe Henny-Krahmer, Ulrike / Jettka, Daniel / Dieckmann, Lisa / Röwenstrunk, Daniel (2021): NFDI4Culture Expert:innen-Forum „Nachhaltige Softwareentwicklung“ https://dhd-blog.org/?p=15793 [letzter Zugriff 4.9.2021].

 

Find What You’re (Not) Looking For: Die multimodale Suchmaschine „iART“

Stefanie Schneider
Institut für Kunstgeschichte, LMU München

Kunsthistorische Erkenntnisprozesse werden über Ähnlichkeitsbeschreibungen angetrieben: Bei Heinrich Wölfflin finden diese in formanalytischer Perspektive statt, bei dem gleichzeitig tätigen Aby Warburg aus der Sicht des kulturwissenschaftlich forschenden Ikonologen. Wölfflin visualisiert Ähnlichkeiten und Differenzen in seinen „Kunstgeschichtlichen Grundbegriffen“ auf einer Doppelseite mit gegenüberliegenden Vergleichsbeispielen, kategorisiert in fünf binären Gegensätzen; Warburg gestaltet seine zu Berühmtheit avancierten Bilderatlastafeln in Gruppen mit loserer, ähnlichkeitsnaher Verbindung. Ein digitales Werkzeug, das ein umfangreiches, nicht über Kanonisierungsprozesse vorselektiertes Bildmaterial nach unterschiedlich gewichteten Ähnlichkeitskriterien zu filtern in der Lage ist, scheint daher in hohem Maße erwünscht – gerade, weil elektronische Bilddatenbanken inzwischen über große Mengen von Reproduktionen verfügen.

Mit „iART“ wird der Versuch unternommen, dieses Desiderat mithilfe einer offenen Web-Plattform zu schließen. Das Retrieval von Objekten erfolgt nicht nur mit durch Deep Learning generierte Schlagwörter, sondern auch unter Verwendung multimodaler Embeddings, die eine Suche bspw. auf Grundlage detaillierter Szenenbeschreibungen ermöglichen.

1. Infrastruktur

1.1 Backend

Um eine Anpassung an unterschiedliche Forschungsinteressen zu erleichtern, ist „iART“ möglichst modular aufgebaut. Daher sind die einzelnen Indizierungsschritte in Plug-ins ausgelagert und die Benutzerverwaltung von der Suchinfrastruktur getrennt. Alle Modelle werden mit einem „RedisAI“-Inferenzserver beschleunigt, um die für die Berechnung benötigten Ressourcen optimal zu verwalten. Dieser Schritt erleichtert es, verschiedene Deep-Learning-Modelle auf einer einzigen GPU laufen zu lassen und ermöglicht den Einsatz von Backend-Systemen wie „PyTorch“.

„iART“ generiert eine Vielzahl von Merkmalen pro Bild, die je nach Forschungsinteresse gewichtet werden können. Gängige Merkmalsextraktoren auf „ImageNet“-Basis werden ergänzt durch Modelle, die an die kunsthistorische Domäne angepasst sind: (1) das selbstüberwachte Modell „BYOL“ („Bootstrap Your Own Latent“) wird auf einer Teilmenge von „Wikimedia“-Bildern trainiert; (2) während das „Painter“-Modell den „Painter by Numbers“-Datensatz verwendet, um Merkmale für Stil und Genre zu extrahieren; (3) und das neuronale Netzwerk „CLIP“ („Contrastive Language-Image Pre-Training“) visuelle Konzepte mithilfe von Natural Language Supervision lernt. Darüber hinaus werden verschiedene Klassifizierungsmodelle trainiert, um kunsthistorisch relevante Phänomene u. a. aus „Iconclass“ vorherzusagen.

1.2 Frontend

Die webbasierte Benutzeroberfläche von „iART“ wurde mit „Vue.js“ erstellt und in JavaScript geschrieben. Sie integriert durch das UI-Framework „Vuetify“ bewusst Googles „Material Design“. Dementsprechend klassisch ist die Positionierung der Einzelkomponenten in „iART“: Der Suchschlitz befindet sich oben in der Mitte, während erweiterte Einstellmöglichkeiten in einem Banner darunter erscheinen. Verschiedene Objektansichten vereinfachen die Exploration der Suchergebnisse. Standardmäßig wird ein Bildraster angezeigt, über das bei Bedarf weitere Objektdetails bereitgestellt werden. Eine Clusterung, z. B. basierend auf k-means, visualisiert die Objekte als Bilderkarussells vertikal nach Gruppen getrennt. Für fortgeschrittene Anwendungsfälle ist es möglich, die Bilder auf einer zweidimensionalen Leinwand anzuordnen, in der farbliche Markierungen die Gruppenzugehörigkeiten der jeweiligen Objekte indizieren. Zoom- und Filteroperationen, etwa ein interaktives Drag-Select zur Gegenüberstellung mehrerer Objekte, unterstützt „iART“ mithilfe der Bibliothek „vis.js“.

2. Datensätze

„iART“ integriert ein breites Spektrum offen lizenzierter Bildinventare, das fortlaufend erweitert wird. Momentan bereitgestellt werden Daten aus fünf kunsthistorisch relevanten Quellen: des niederländischen „Rijksmuseums“, der „Wikidata“, des virtuellen Münzkabinetts „KENOM“, der Social-Tagging-Plattform „ARTigo“ und des Museumsportals „Kulturerbe Niedersachsen“. Die Objekte wurden entweder mittels Web Scraping oder über offiziell verfügbare APIs extrahiert. Zum Metadaten-gestützten Retrieval offeriert „iART“ im Frontend eine facettierte Suche, die die Objekte nach von den jeweiligen Institutionen vorgehaltenen Kategorien unscharf filtert. Um zu gewährleisten, dass selbst spezifische kunsthistorische Forschungsanliegen flexibel adressiert werden können, ist darüber hinaus der Import von eigenen Datenbeständen möglich.

3. Use Cases

Die Vorteile von „iART“ erschließen sich insbesondere bei Suchanfragen, die aufgrund ihrer semantischen Komplexität bislang nahezu unmöglich waren – oder nur in äußerst feingranular verschlagworteten Systemen sinnvolle Ergebnisse bringen. Wir sehen vor allem drei Anwendungsszenarien, die exemplarisch präsentiert werden sollen: (1) Suche nach ähnlichen Ikonographien; (2) Suche zur Rekontextualisierung; (3) Suche im historischen Umkreis. Die Anwendungsszenarien sollen zeigen, dass „iART“ als unterstützendes Werkzeug für die kunst- und kulturwissenschaftliche Forschung dienen kann, indem es für eine Forschungsfrage interessante Bildobjekte identifiziert, extrahiert und analysiert. Wie zu zeigen sein wird, sollte auch die Deep-Learning-gestützte Suche prinzipiell als Anreiz zur weiteren Exploration verstanden werden und nicht als Instrument, das per se perfekte Ergebnisse liefert. Gerade durch zunächst „unsinnig“ oder offensichtlich „falsch“ erscheinende Resultate können sich näher zu begutachtende Forschungsperspektiven ergeben.

 https://labs.tib.eu/iart/, letzter Zugriff 4. September 2021. Der zugrunde liegende Quelltext wird Ende des Jahres Open Source veröffentlicht.

 Siehe Grill et al. (2020): „Bootstrap Your Own Latent. A New Approach to Self-Supervised Learning“, in: Proceedings of Advances in Neural Information Processing Systems 21271–21284; Radford et al. (2021): Learning Transferable Visual Models From Natural Language Supervision https://arxiv.org/pdf/2103.00020.pdf.

 

LAWHA – Forschungsdaten zu Kunst in aus dem Libanon

Monique Bellan, Nadia von Maltzahn
Orient-Institut Beirut/Max Weber Stiftung, Bonn

Das ERC-Projekt „LAWHA: Lebanon´s Art World at Home and  Abroad“ (Laufzeit 2020-2025) untersucht Werdegänge von bildenden Künstlerinnen und Künstlern im und aus dem Libanon, deren Schaffensphase in die Zeit seit der Unabhängigkeit 1943 fällt. Das Forschungs- und Datenbankprojektprojekt beschäftigt sich mit Austauschbeziehungen und Netzwerken von Künstlern, Galeristen, Kunstkritikern, Kunstsammlern, Schriftstellern, Intellektuellen etc., um Fragen nach Ausbildungs- und Ausstellungsorten, Lehrern, Kooperationen mit anderen Künstlern und Schriftstellern zu beantworten. Wie kommt es, dass es im Libanon überproportional viele Künstlerinnen gab zu einer Zeit, als das öffentliche Leben noch weitgehend von Männern dominiert wurde? Welche Rolle spielten die im Libanon ansässigen armenischen Künstlerinnen und Künstler in der Kunstszene? Anhand dieser und weiterer Fragen soll die Geschichte der Kunst im Libanon seit 1943 systematisch rekonstruiert und vorherrschende Narrative auf deren Gültigkeit hin befragt werden.

Kontext spielt im Projekt eine ebenso wichtige Rolle wie die Kunstwerke selbst. Daher sollen in der Datenbank und digitalen Plattform (DDP) Kunstwerke mit Archivmaterial von Künstlern (Korrespondenz, Tagebucheinträge, Notizbücher, Skizzen, Fotos usw.), Presseartikeln und Interviews flankiert werden, um ein möglichst umfassendes Bild zu zeichnen. Zudem sollen die Daten mit anderen, bereits bestehenden oder im Aufbau befindlichen Projekten und Datenbanken verlinkt werden. LAWHA selbst arbeitet in Partnerschaft mit dem Sursock Museum für moderne und zeitgenössische Kunst in Beirut. Die in der Sammlung des Museums befindlichen Kunstwerke sollen – je nach Urheberrechtslage – digitalisiert und in die Datenbank von LAWHA aufgenommen werden. 

LAWHA möchte mit der Datenbank und digitalen Plattform ein Werkzeug zur Aufarbeitung der Geschichte der Kunst im Libanon entwickeln, das Künstler und ihre Werke im Kontext der jeweiligen ästhetischen und politischen Diskurse, ihrer persönlichen Begegnungen und Korrespondenzen und in ihrem soziopolitischen und kulturellen Umfeld betrachtet. Ziel ist es, ein zentrales und frei zugängliches Repositorium für die zukünftige Forschung zu schaffen und unterschiedliche akademische Kulturen, Museen und Kunstinstitutionen miteinander ins Gespräch zu bringen und auf diese Weise das kulturelle Erbe des Libanon zu bewahren und für die Forschung zu erschließen.

LAWHA ist bestrebt, eine möglichst große Nachhaltigkeit zu gewährleisten. Hier liegen auch die Herausforderungen: Wo werden die Daten langfristig aufbewahrt? Welche Repositorien sind für das Projekt geeignet und wie kann sichergestellt werden, dass die Daten in Zukunft gefunden werden? Eine weitere Herausforderung liegt in der Erstellung der Ontologie und der Auswahl und Erweiterung des Vokabulars. Welche Standards sollen verwendet werden und welche Verknüpfungsmöglichkeiten gibt es? Wie soll das eigene Vokabular gestaltet sein? Schließlich: Wie kann man Open Source Software wie Omeka S weiterentwickeln und nachnutzbar machen?

How do we identify and tag objects from colonial contexts? A Decision Tree for the Collection at the Museum für Naturkunde Berlin

Katja Kaiser & Catarina Madruga, Museum für Naturkunde Berlin

The massive digitization of museum collections worldwide is seen as one important means to advance fast, equal, and fair access to collected items. Moreover, it is considered a major vehicle for negotiating the future of museums, and their role in mobilizing participation and social change. 


In Germany, this technological optimism has been supported by the federal three-road strategy from October 2020 that focuses on the documentation and digital publication of collections from colonial contexts held in Germany. The agreed measures include, firstly, the creation of central access to collections from colonial contexts that have already been published digitally; secondly, the basic digitisation and digital publication of still unpublished collections from colonial contexts in a central data repository; and thirdly, the development of standards devised in collaboration with countries and societies of origin as well as the diaspora in Germany.

Apart from the fundamental problem of whether digitisation can be equated with accessibility, other challenges arise in the context of a natural history museum: The Museum für Naturkunde has 30 Million objects. Out of these millions of objects, how do we identify those from colonial contexts and how do we tag them? How can we enable symmetrical description systems in the databases that take into account and bring together different bodies of knowledge? How should a digitisation process be designed that allows for different epistemologies and perspectives right from the start?

In our lightning talk we will address the first question of how to identify objects from colonial contexts and how do we tag them. We will present a decision tree designed at the Museum für Naturkunde within the context of a project on dealing with natural history collections from colonial contexts. Based on our experience from a case study of identifying objects from colonial contexts within a selected group of animals from the mammals collection we explain the categories of information and metadata necessary to confirm a colonial acquisition context. We discuss possibilities and challenges of enriching metadata and  adding further information on acquisition contexts and historical backgrounds, especially scrutinizing possible contexts of injustice. 

 

Digitalisierung des buddhistischen Erbes Pakistans: Das DiGA-Projekt

Frederik Elwert, Jessie Pons, Serena Autiero, Cristiano Moscatelli (Ruhr-Universität Bochum)

Das Projekt „Digitalisierung Gandharischer Artefakte“ (DiGA) digitalisiert und erschließt ein Korpus von 1.791 buddhistischen Skulpturen, die derzeit im Dir Museum in Chakdara und im Missionshaus der Missione Archeologica Italiana in Pakistan (MAIP) in Saidu Sharif (Provinz Khyber-Pakhtunkhwa, Pakistan) aufbewahrt werden.[1] Dabei handelt es sich um Statuen des Buddha, der Bodhisattvas, der Schutzgottheiten und der Stifter sowie um narrative Reliefs, die Ereignisse aus dem vorherigen und letzten Leben des Buddha Siddhārtha Gautama darstellen. Diese Sammlungen sind außergewöhnlich, weil der archäologische Kontext der Objekte dokumentiert ist. Damit unterscheiden sie sich von vielen anderen Sammlungen buddhistischer Kunst aus Gandhāra, deren Provinienz häufig unklar ist. Das Projekt leistet damit einen Beitrag dazu, diese kaum erforschten Sammlungen international zugänglich zu machen und das buddhistische Kulturerbe Pakistans dauerhaft zu bewahren. Hierfür sucht eine enge Zusammenarbeit mit den pakistanischen Partnern, was auch die Reflexion historischer und gegenwärtiger Machtasymmetrien und Operationsbedingungen erfordert.

Die Digitalisierung der Objekte und ihre Erschließung sind zwei komplementäre Ziele des Projekts: Die Digitalisierung erfolgt in erster Linie durch Digitalfotografie aller Seiten eines Objekts; ergänzend dazu ist eine 3D-Erfassung ausgewählter Objekte mittels fotogrammetrischer Verfahren geplant. Nutzbar werden die Digitalisate aber erst durch die Anreicherung mit Metadaten. Basisdaten zum Objekt (etwa Material und Größe) sowie zum archäologischen Fundkontext werden auf Grundlage bestehender Inventare sowie anhand der Objekte selbst im Zuge der Digitalisierung erfasst. In einem zweiten Schritt erfolgt eine kunsthistorische Erschließung durch die Identifikation der Bildinhalte – die zumeist kanonische Szenen aus der buddhistischen Tradition darstellen – und die Annotation ikonografischer Elemente.

Eine zentrale Herausforderung des Vorhabens ist hierbei die Standardisierung der Objektbeschreibung, um die Nachnutzbarkeit der digitalen Sammlungen und ihre Interoperabilität mit anderen Beständen zu erleichtern. Etablierte kunsthistorische Vokabulare, wie etwa IconClass oder der Getty Arts and Architecture Thesaurus, decken buddhistische Motive nur in sehr begrenztem Umfang ab. Gebräuchliche Ressourcen aus dem Feld der Gandhara-Studien wiederum liegen nicht als digitale Instrumente vor. Daher werden im Rahmen des Projekts zentrale Werkzeuge wie ein Thesaurus buddhistischer Ikonografie und ein Gazetteer archäologischer Stätten Gandhāras auf Basis anerkannter fachwissenschaftlicher Publikationen als Linked-Open-Data-Ressourcen veröffentlicht und mit anderen einschlägigen Projekten in Bezug auf ihre Nachnutzbarkeit diskutiert.

[1] Das Vorhaben wird mit Mitteln des Bundesministeriums für Bildung und Forschung unter dem Förderkennzeichen 01UG2048X gefördert. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt bei der Autorin/beim Autor.

Rich and sustainable Annotations on 3D-Objects

Timo Homburg, Hubert Mara, Kai-Christian Bruhn (Hochschule Mainz)

Annotationen sind ein wichtiger Bestandteil der Erschließung von Forschungsdaten nicht nur des kulturellen Erbes. Entsprechend verbreitet sind Technologien und Verfahren zur Annotation, beispielsweise das W3C Web Annotation Data Model für die standardisierte Verknüpfung von Web-Ressourcen. Dieses und verwandte Modelle werden insbesondere für Texte und zweidimensionale Digitalisate, in denen Textabschnitte oder Bildbereiche mit strukturierenden, ergänzenden und verknüpfenden Informationen versehen werden, genutzt. Eine Übertragung der Konzepte und Methoden der Text- und Bildannotation auf dreidimensionale Objektmodelle stellt auf mehreren Ebenen eine besondere Herausforderung dar:

1. Texte und Bilder verfügen per se über einen strukturierenden Rahmen. Der Text hat eine Schreib- bzw. Lese-Richtung und ein Bild verfügt über ein implizites Bildkoordinatensystem. Annotationen können damit eindeutig bestimmten Bereichen in den Digitalisaten zugewiesen werden. Bei 3D-Digitalisaten ist der Bezug auf einen eindeutigen Bezugsrahmen deutlich komplexer.
2. Die Informationen in Text- und Bild-Digitalisaten sind als character bzw. pixel codiert. Annotationen beziehen sich damit auf einheitliche digitale Informationsträger, so dass der Datentyp des annotierten Objekts feststeht. 3D-Objektmodelle sind hingegen stark aggregierte Ergebnisse sehr komplexer Mess- und Auswerteverfahren, deren Ergebnisse in unterschiedlichen Datenmodellen vorliegen (Punktwolken, Vermaschungen, Voxel, Flächen oder Solide). Entsprechende Unterschiede ergeben sich für den Gegenstand einer Annotation im dreidimensionalen Raum.

Im Rahmen des von der DFG geförderten Projekts „Digitale Edition der Keilschrifttexte aus Haft Tappeh (Iran)“ werden derzeit Konzepte und Werkzeuge entwickelt, die Lösungsansätze für die genannten Problemstellungen entwickeln und in die Konsortialarbeit von NFDI4Objects einfließen sollen. Ausgangspunkt sind dabei Punktwolken und vermaschte Modelle von bronzezeitlichen Keilschrifttafeln. Das Culture Plenary Meeting nehmen wir gerne zum Anlass, Ideen und Prototypen zur Diskussion zu stellen. Die Themen umfassen im Einzelnen:

* Modellierung technischer Metadaten aus dem Streifenlichtscanning zu Erfassung und Aufbereitung von vermaschten 3D-Modellen
* Methoden für die Ableitung eines eindeutigen Koordinatenbezugssystems aus Punktwolken
* Konzepte für die Übertragung des Web-Annotation Model auf online-gestützte 3D-Annotationen

Kritische Editionen vorderorientalischer Musikhandschriften – das Projekt "Corpus Musicae Ottomanicae"

Ersin Mihçi, Universität Münster:

Ab dem Beginn des 19. Jahrhunderts wurde osmanische Musik zum ersten Mal im größeren Umfang verschriftlicht. Dieses in verschiedenen Sprachen, Alphabeten und Notationsverfahren überlieferte Repertoire konnte bisher von der Musikwissenschaft nicht systematisch erschlossen, katalogisiert und ediert werden. Das Langristvorhaben Corpus Musicae Ottomanicae (CMO) verfolgt den Anspruch das umfangreiche Quellenmaterial zu erforschen und es auf vielfältige Art und Weise der Öffentlichkeit zugänglich zu machen. In diesem Vortrag sollen nicht nur die Leistungen des CMO im Bereich der Musikwissenschaft, sondern auch im Bereich der Digital Humanities vorgestellt werden. Dabei wird die Präsentation Einblicke in die methodologische Vorgehensweise und strukturelle Organisation der Metadaten geben. Die Anforderungen an die Datenstrukturen, die aus der Vielschichtigkeit und Komplexität der Quellen resultieren, werden ebenfalls thematisiert. Daher wird dieser Beitrag über die allgemein üblichen Metadaten hinaus auch solche vorstellen, für die das Datenmodell erweitert wurde, da sie sich für die Erforschung osmanischer Musik als relevant und nützlich erwiesen haben. Das Ziel des Vortrages ist es, ein besseres Verständnis forschungsrelevanter Metadaten im CMO zu vermitteln und Perspektiven zu erarbeiten, wie dieses Modell in Zukunft auch in der Forschung zu anderen südosteuropäischen und vorderorientalischen Musiken Anwendung finden könnte.

Modern Migrants - Provenance Studies at Leuphana

Fabio Mariani, Leuphana University Lüneburg

Recently, Professor Paul B. Jaskot identified three dominant areas in which digital methods and art history can productively converge: large-scale queries via big data, network analysis, and spatial analysis.[1] Indeed, the study of the art market through the provenance of works represents a domain of art history in which large-scale study, network analysis, and spatial analysis can seriously assist research. The "Modern Migrants: Paintings from Europe in US Museum Collection" project at Leuphana University Lüneburg, funded by Volkswagen-Stiftung and led by Professor Lynn Rother, aims to digitally collect and structure data on modern paintings from Europe in American museums, which have been at the forefront of publishing provenance on a large scale online. The project's ultimate aim is to analyze this data to generate knowledge about art markets, the circulation of artworks, and other networked aspects of art history.

The ownership history of a work of art, from which we must start reconstructing the network of trades, is given in provenance texts. These texts are the result of extensive archival research through catalogs, inventories, and letters. Ideally, a provenance should contain the entire chronology of the owners of a painting from the artist to the current museum. The ownership history of a work of art is not only of interest to art historians but also to other disciplines such as social studies, law, and economics.

The presentation introduces the project by analyzing its workflow, first introducing the steps already accomplished and then presenting the project's current challenges.

From a big data perspective, our project has addressed a range of challenges already. While preparing a provenance text dataset of modern European paintings in American museums, we have been facing issues related to completeness and representativeness as well as data availability. First, creating this dataset poses several dilemmas from an art history perspective: what should we consider a painting? What are the modern European artists? Which American museums should be included in the dataset? Added to these challenges, the current state of online publication of provenance texts is limited. In particular, evaluating the quality of online provenances through the FAIR principles of interoperability and reusability, we have had to conclude that these are hardly ever guaranteed through, for example, APIs and data dumps.

Although a large corpus of provenance texts already allows us to perform some quantitative analysis, to proceed with network and spatial analysis, the other two dominant areas identified by Jaskot, it is necessary to structure the provenance data in a machine-readable format. For this reason, we introduce and discuss the challenges we expect to face in the project's knowledge organization and data modeling phase. Structuring provenance data requires a conceptual leap from an object-based approach that considers the list of owners of artworks to an event-based approach that considers the change of ownership as events, first and foremost. Furthermore, an event-based approach allows being consistent with the Linked Art community that has proposed a data model based on CIDOC CRM.

Although compiled according to American Alliance of Museum guidelines, the currently available provenance texts are poorly structured, hindering machine readability. Given the amount of work required to structure the information by hand, we have devised a conceptual framework that allows a modular approach to structuring provenance data from a base layer of essential information. For this reason, we are developing and training statistical models to extract from the provenance texts the information we consider base layer through sentence boundary disambiguation and named entity recognition.

In the last section of the presentation, I will introduce the platform we have developed to ensure a balanced relationship between the quality and quantity of the data. Through a human-in-the-loop philosophy, the platform allows domain experts to enrich, disambiguate and possibly correct the information extracted by the machine. Of particular interest in this phase of our workflow is information that is vague ("e.g., "around 1943"), incomplete (historical gaps), subjective (interpretations of domain experts), and uncertain (e.g., "possibly").

 

[1] Paul B. Jaskot, “Digital Methods and the Historiography of Art,” in The Routledge Companion to Digital Humanities and Art History, ed. Kathryn Brown (Routledge, Taylor & Francis Group, 2020), 9–17.

Digital vernetzen und nachhaltig verzeichnen_Audiovisuelle Ressourcen und Ereignisse im Bereich Darstellende Kunst

Julia Beck, Fachinformationsdienst Darstellende Kunst/ Universitätsbibliothek J.C. Senckenberg; Sara Tiefenbacher Mediathekenprojekt / UB Universitätsbibliothek J.C. Senckenberg; Franziska Voß, Fachinformationsdienst Darstellende Kunst/ UB Universitätsbibliothek J.C. Senckenberg; Klaus Illmayer, Institut für Theater Film und Medienwissenschaft / Universität Wien;  Christine Henniger, Internationales Theaterinstitut/ Mediathek für Tanz und Theater; Maxim Wittenbecher, Internationales Theaterinstitut Deutschland / Mediathek für Tanz und Theater

Dem Desiderat eines gemeinsamen, institutionenübergreifenden, zentralen und freien Zugangs zu Metadaten von audiovisuelle (AV-) Medien im Bereich Darstellende Kunst widmet sich das im Mai 2021 gestartete zweijährige DFG-Projekt "Mediatheken der Darstellenden Kunst digital vernetzen". Es setzt auf eine nachhaltige Bereitstellung und Nachnutzbarkeit aggregierter, modellierter und implementierter Mediatheksmetadaten. Ziel ist es, durch den Aufbau eines zentralen Recherchezugangs über das FID-Portal https://www.performing-arts.eu Metadaten zu AV-Medien und den in ihnen repräsentierten und archivierten Aufführungen, Performances und Ereignissen der Darstellenden Kunst frei zur Verfügung zu stellen, besser recherchierbar zu machen und gezielte Forschungsunterstützung zu leisten. Koordiniert wird das Projekt vom Fachinformationsdienst Darstellende Kunst (FID DK) der Universitätsbibliothek Johann Christian Senckenberg und dem Internationalen Theaterinstitut Deutschland (ITI) / Mediathek für Tanz und Theater (MTT) in Zusammenarbeit mit fünf datengebenden universitären Sammlungen im deutschsprachigen Raum.

Folgende Themengebiete und Fragen – anhand des Datenlebenszyklus – werden im Rahmen des eingereichten Beitrags behandelt:

  • Access: Welche Voraussetzungen müssen erfüllt sein, um Metadaten zu AV-Ressourcen öffentlich zugänglich und nachnutzbar zu machen?
  • Creation: Welche Verzeichnungselemente und kontrollierten Vokabulare sind für eine vernetzbare, nachhaltige Aufbereitung von Mediatheksmetadaten, deren Umfang oftmals von Objektmetadaten über zentrale Ereignis- und Prozessinformationen bis hin zu Werkdaten komplexe implizite Strukturen umfasst, zielführend?
  • Processing: Spiegeln sich die Bedarfe der Forschungscommunity in der Verzeichnungstiefe und -struktur wieder?
  • Reuse: Welche rechtlichen Richtlinien sind bei der Zurverfügungstellung des AV- Materials zu bedenken bzw. welche Richtlinien beschränken eine öffentliche Zugänglichmachung?

Mit diesem Fokus wirkt das Projekt mit seinen Partner:innen aus den Bereichen Lehre und Forschung, Bibliotheks- und Archivwesen sowie Informationstechnologie an der Sichtbarmachung und  Bewahrung des audiovisuellen sowie immateriellen Kulturerbes mit und unterstreicht dabei die Bedeutung digitaler Dateninfrastrukturen.

Seit den 1980er Jahren – an einigen Institutionen bereits deutlich früher – beginnen theater- und tanzwissenschaftliche Institute an Universitäten und Hochschulen sowie an außeruniversitären Forschungseinrichtungen im deutschsprachigen Raum umfassende AV-Sammlungen und Medienarchive im Bereich Tanz, Theater und Performance aufzubauen, um Darstellende Kunst zu dokumentieren und zu analysieren. Eine nachhaltige, vernetzte, forschungs- und nutzer:innenorientierte Aufbereitung und freie Zurverfügungstellung von Metadaten zu AV-Medien und ephemeren Ereignissen ist hingegen nur rudimentär erfolgt. Mit Blick auf die Erforschung bzw. Erfassung ephemerer Kunstformen sind neben Aufzeichnungen die Informationen über den Probenprozess, die Aufführung und Inszenierung, die Performance, das Festival und/oder temporäre Installation – subsumiert unter der Kategorie „Ereignis” – elementar. 

Neben den skizzierten Fragestellungen zur Datenaggregation und -kuratierung im Mediatheken-Projekt, sollen im Projekt Lösungen bzw. Modelle für die ereignisbasierte Erfassung in GLAM-Einrichtungen und Forschungsprojekten diskutiert werden. Wie lassen sich ephemere Prozesse in (Daten-)Modellen abbilden? Wo stoßen diese Modelle an ihre Grenzen? Und wie können Ansätze zur ereignisbasierten Erfassung von Normdaten aussehen? Die Diskussion und Beschäftigung zur ereignisbasierten Erfassung stellt Bezüge her zur Forschung an temporären Phänomen (Urbanität, Stadtentwicklung, Musikwissenschaft) sowie zur Museologie/ Museumswissenschaft. Subsumiert werden diese Bedarfe in der Sichtbarkeit und Bewahrung materiellen und inmateriellen Kulturgutes im NFDI4Culture-Konsortium.

 

Der Fachinformationsdienst (FID) BAUdigital - Eine Plattform für die Wissenschaft in Bauingenieurwesen, Architektur und Urbanistik

Andreas Noback, Technische Universität Darmstadt, Universitäts- und Landesbibliothek

Gefördert durch die Deutsche Forschungsgemeinschaft entstehen schon seit Mitte der 2010er Jahre an wissenschaftlichen Bibliotheken „Fachinformationsdienste für die Wissenschaft“ als digitale Infrastrukturen für die Forschung. Der Fachinformationsdienst BAUdigital wird seit 2020 als zentrales Informations- und Forschungsportal mit passgenauen Serviceangeboten für die Forschung Bauingenieurwesen, Architektur und Urbanistik (Städtebau) aufgebaut. Er richtet sich eine Community, die auf digitale Methoden und Technologien fokussiert, unabhängig davon ob sie dabei zeitgenössische oder historische Bauwerke und Techniken untersucht oder mit „digital born“ oder retrodigitalisierten Daten arbeitet.

Die Arbeit des FID BAUdigital teilt sich in acht sog. Aktionsfelder auf, deren Bearbeitung kooperativ auf die verschiedenen Projektstandorte verteilt sind. Die Aktionsfelder und die darin zu entwickelnden Services und Informationsangebote werden im Rahmen des geplanten Vortrags erläutert:

1.           Kommunikation und Interaktion mit den Fachcommunities

2.           Webserviceplattform und Recherche

3.           Fachthesaurus

4.           Retrodigitalisierung von 2D- und 3D-Objekten, Entwicklung eines 3D- Retrodigitalisierungsservices

5.           Forschungsdatenmanagement und -kuratierung

6.           Langzeitarchivierung

7.           Forschungs- und Infrastrukturvernetzung

8.           Open Access und Publikationsdienstleistungen

Eine Auswahl einzelner, bereits fortgeschrittener Prozesse und Services des FID BAUdigital werden hervorgehoben erläutert. Dazu zählt die Vorstellung des Community-Prozess (Aktionsfeld 1), der in Form von Use-Cases die Bedarfe im Detail ermittelt. Er umfasst zudem eine systematische Online-Umfrage zu „Open Access und Forschungsdatenmanagement“. Gezeigt wird ein Zwischenstand vom Aufbau eines Digitalisierungsservices für Architekturmodelle mittels eines robotischen 3D-Scanners (Aktionsfeld 4) und die Konzeption des geplanten Forschungsdatenrepositoriums (Aktionsfeld 5).

Der Beitrag nutzt die Gelegenheit, sich der Community des NFDI4Culture vorzustellen. Den Partnern des Projektes – die Universitätsbibliothek Braunschweig, die Universitäts- und Landesbibliothek Darmstadt, die TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und das Fraunhofer-Informationszentrum Raum und Bau – ist die integrative Vernetzung mit der Nationalen Forschungsdateninitiative, namentlich mit den Konsortien NFDI4Ing und NFDI4Culture ein besonderes Anliegen. Gleiches gilt für die Vernetzung mit anderen Fachinformationsdiensten (u.a. FIDs arthistoricum.net und Altertumswissenschaften/Propylaeum). Beitrag und Diskussion sollen genutzt werden, die verschiedenen Akteure im breiter und wichtiger werdenden Feld nachhaltiger Forschungsinfrastrukturen im Kontext zu verstehen und Ansätze für die strategische Weiterentwicklung des gesamten Feldes zu entwickeln.