Workshop Bericht

"Forschungsdatenmanagement als Teil der Hochschullehre in der Culture-Community" – Ein Forum der Cultural Research Data Academy (CRDA) der NFDI4Culture

Veranstaltungszeitraum: 17.06. und 18.06.2021

Den gesamten Bericht gibt es unten als auch hier als pdf-Datei zum Download.

Das Programm können Sie hier finden, einige Präsentationen der Inputgeber:innen stehen hier zum Download bereit.

Welchen Stellenwert hat das Thema Forschungsdatenmanagement innerhalb der akademischen Ausbildung in der Culture Community? Welche unterschiedlichen Wege werden in der Community in der FDM-Ausbildung verfolgt, welche Best Practices gibt es in den einzelnen Fächern? Wo liegen die Herausforderungen und Probleme bei der Verankerung des Themas in der Lehre und welchen Beitrag kann NFDI4Culture dazu leisten, diese Hürden abzubauen? Von welchen etablierten, nicht fachspezifischen Angeboten und Formaten kann die Community lernen? Braucht die Culture Community einen Kompetenzrahmen für die FDM-Ausbildung?

Diesem umfassenden Fragenkomplex widmete sich das diesjährige Forum der Cultural Research Data Academy, welche sich innerhalb des Konsortiums NFDI4Culture als interdisziplinäre und dezentrale Institution mit der Bündelung und Entwicklung von fachspezifischen und bedarfsorientierten Aus- und Weiterbildungsmöglichkeiten im Bereich Data und Code Literacy beschäftigt.

Der zweitägige digitale Workshop, der am 17. und 18. Juni 2021 stattfand, sollte als niedrigschwellige Veranstaltung den möglichst breiten Austausch innerhalb der Community anstoßen, den die CRDA in den nächsten Jahren mit allen Interessierten fortsetzen möchte. Akteur:innen aus verschiedenen Bereichen der Culture Community waren eingeladen, vor dem Hintergrund ihrer Expertisen im Bereich FDM-Ausbildung schlaglichtartig verschiedene Angebote und Formate vorzustellen, mit denen das Thema Forschungsdatenmanagement bereits Eingang in die Lehre gefunden hat oder noch finden soll, und diese mit den Teilnehmenden zu diskutieren.

Aufgegliedert in vier Panels und eine separate Diskussionsrunde zum Thema Kompetenzrahmen für die FDM-Ausbildung widmete sich der Workshop zunächst den Erfahrungen, die bislang in generischen Ausbildungsangeboten gewonnen werden konnten und die als wichtige Grundlage für die Culture Community dienen können, bevor zwei Panels interdisziplinäre Lehrangebote in den Blick nahmen und schließlich im letzten Themenblock fach- und medienspezifische Vermittlungsansätze im Fokus standen.

Das erste Panel "Auf Erfahrungen und Infrastrukturen aufbauen" wurde von Dr. Elisabeth Böker eröffnet, die über ihre umfangreiche Arbeit im Kommunikations-, Informations- und Medienzentrum der Universität Konstanz sowie des baden-württembergischen Begleit- und Weiterentwicklungsprojekts für Forschungsdatenmanagement (bw2FDM) berichtete, aus dem auch die Informationsplattform forschungsdaten.info hervorgegangen ist, die es seit 2019 gibt. Mithilfe dieser Plattform werden nicht nur Landesinitiativen und ausgewiesene Standorte miteinander vernetzt, sondern über Themenseiten und Glossar generell und stichhaltig Begriffe und Konzepte des FDM vermittelt. Der Fokus liegt dabei gerade auf Schulungsangeboten: Open Science Kurse werden damit nicht nur verlinkt, sondern ebenso eigene Webinare veranstaltet. Böker wies besonders darauf hin, den Kenntnisstand der Teilnehmenden abzufragen, da hier selbst Basisinformationen zum recht speziellen Thema FDM fehlen könnten. Im Weiteren böten sich rechtliche Anwendungsbeispiele in der Lehre an.

Den zweiten Beitrag bestritt Patrick Helling vom Kölner Data Center for the Humanities (DCH). Er führte in die Arbeit des Cologne Center for eHumanities (CCeH) ein, ein 2009 gegründetes Lehr- und Forschungszentrum der Philosophischen Fakultät der Universität zu Köln, das heute die Koordinierungsstelle für Digital Humanities der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste übernimmt. Helling berichtete von breiten Lehrangeboten wie auch von der Möglichkeit für Studierende und Mitarbeiter:innen IT-Zertifikate zu erwerben. So gebe es Übungen für die Studiengänge der Medieninformatik, Informationsverarbeitung und Linguistik, Studium Integrale und die Graduiertenschule, in denen Sicherung und Archivierung, Publikation wie Nachnutzung, aber spezieller auch DMP, Software- und Datenkuration vermittelt werden. Helling unterstrich die Fachspezifik in den Kursen und ebenso, dass mehr Input aus Teildisziplinen wünschenswert wäre, der durch den Aufbau eines Expert:innennetzwerks gewährleistet werden könnte.

Katarzyna Biernacka vom HEADT-Centre (Humboldt-Elsevier Advanced Data and Text Centre) der Humboldt-Universität Berlin schloss die Inputs des ersten Panels mit einem Einblick in die Tätigkeit der Unter-Arbeitsgruppe (UAG) Schulungen/Fortbildungen der Deutschen Initiative für Netzwerkinformation e.V. (DINI) und des Kompetenznetzwerks nestor sowie einer Diskussion der Bedarfe und Herausforderungen bei Weiterbildungen. Es wurden unterschiedliche Schulungsmodelle angesprochen als auch die enge Absprache mit der Research Data Alliance Deutschland (RDA-DE) hervorgehoben. Langfristig soll es einen Zertifikatskurs zum Thema FDM geben, dessen Einführung aber noch nicht abzusehen ist. Biernacka hob den Bezug der UAG Schulungen/Fortbildungen zum FDMentor Train-the-Trainer-Konzept hervor und unterstrich die unterschiedliche curriculare Einbindung. Ebenso wurden die Erfordernisse der Weiterqualifikation betont, bei der sich das Workshopformat bewiesen habe (zeitlich begrenzt, auf bestimmte Themen fokussiert, interaktiv, praktisch und an Teilnehmenden orientiert). Dazu bietet das FDMentor Train-the-Trainer-Konzept nicht nur einen vollen Methodenkoffer, sondern auch eine große Materialsammlung auf den Seiten der HU.

Das zweite Panel nahm im Anschluss das Thema "Synergien nutzen – Interdisziplinäre Angebote" auf, das am Freitag fortgeführt werden sollte.

Prof. Dr. Peter Niedermüller und Akademie-Jun.-Prof. Dr. Stefanie Acquavella-Rauch vom Institut für Kunstgeschichte und Musikwissenschaften der Johannes Gutenberg-Universität Mainz und der Akademie der Wissenschaften und der Literatur Mainz stellten das 2016 gegründete, forschungsorientierte und hochschulübergreifende Programm des Masterstudiengangs "Digitale Methodik in den Geistes- und Kulturwissenschaften" vor. Dieser wird als konsekutiver, forschungsorientierter Studiengang von mainzed, dem Mainzer Zentrum für Digitalität in den Geistes- und Kulturwissenschaften, organisiert und koordiniert, das wiederum als regionales Kompetenz- und Beratungszentrum im Rhein-Main-Gebiet fungiert. Neben einer grundlegenden Vermittlung von Kernkompetenzen in praxisorientierten Übungen und forschungsnahen Blockseminaren wählen die Studierenden aus den Kultur- und Geisteswissenschaften als auch der Informatik Schwerpunkte in Wahlpflichmodulen und Spezialisierungen: Text und Sprache, Raumbezug, Musik und Medien. Diese vermitteln beispielsweise digitale Musikedition und Musikinformatik, Digital English Linguistics, Translationswissenschaft und Translationstechnologie, Digitale Editorik und Modellierung. Besonders ist dabei die verpflichtende mehrwöchige Projektarbeit an einer Forschungsinstitution. Ebenso sollen in Zukunft Data Literacy und 'Teach the Teacher' in Ausbildungsangeboten für Tutoren in den Vordergrund treten.

Dr. Dennis Mischke, Forschungskoordinator des Netzwerks für Digitale Geisteswissenschaften am Hochschulstandort Potsdam gab im nächsten Beitrag einen Einblick in das sehr breit aufgestellte Lehrangebot des Universitätsstandorts Potsdam anhand des BMBF-Projekts Forschen | Lernen – Digital (FoLD), mit dem möglichst institutsübergreifend zuallererst Lücken in der DH-Ausbildung geschlossen, Konzepte für die Lehre entwickelt und in einzelnen Studiengängen implementiert werden sollen: Einführungen und Kurse der Digitalen Literaturwissenschaften führen somit in Textmining und computationale Texttechnologien ein, um Data, Digital und Code Literacy zu verbessern. Das Programm umfasst ebenso Hackathons, Tutorials und Self-Study-Units, die vor allem auf Computational Literacy abzielen, ihren derzeitigen Schwerpunkt in den Philologien haben, aber in naher Zukunft auch in anderen Fächern Verbreitung/Zulassung finden sollen.

Das Panel wurde von Julia Röttgermann mit einem Input geschlossen, der in die Arbeit des Trierer Lehrstuhls Digital Humanities einführte. Für die Diskussion stieß Prof. Dr. Christof Schöch dazu. Dieser Lehrstuhl koordiniert den Studiengang Master of Science Digital Humanities an der Schnittstelle von Geisteswissenschaften und Informatik. Röttgermann gab einen reichhaltigen Überblick über die Angebote des Trier Center for Digital Humanities. In diesem werden anwendungsorientierte Inhalte und Lehreinheiten (Open Science, XML-Formate, GitHub, FAIR, Wikiversum...) integriert und in der Vorstellung von Methoden und Einübung Tools mit einem Schwerpunkt in den Digitalen Literaturwissenschaften vermittelt. In der Diskussion wurde schließlich ebenso darauf hingewiesen, dass es sich bei diesem Lehrwerkzeugkasten nicht um eine festehende Auswahl handelte, sondern ein sich entwickelndes Curriculum, wodurch es sich gleichfalls für Interessen von Studierenden abseits großer Sammlungen und Texte öffnete.

Das dritte Panel setzte den Komplex „Synergien nutzen – interdisziplinäre Angebote“ fort. Prof. Dr. Vivien Petras berichtete von dem weiterbildenden Masterstudiengang „Digitales Datenmangement“, einem gemeinsamen Angebot der Humboldt-Universität Berlin und der Fachhochschule Potsdam. Der Studiengang vermittelt Data Literacy, also Kompetenzen zu (Forschungs-)Daten aus den Bereichen Wissenschaft, Kultur und Wirtschaft. Seine Module reichen von Rahmenbedingungen des Datenmanagements, über Technologien bis hin zu agilem Projektmanagement. Aufgebaut wurde der Studiengang anhand des EDISON Data Science- und des FAIR4S-Frameworks. Im Gegensatz zu Angeboten, die Studiengänge ergänzen, ist hier ein kompletter Studiengang entwickelt worden. Er wendet sich jedoch nicht alleinig an ordentliche Studierende, sondern steht auch Interessierten offen. Diese können einzelne Module als Weiterbildungskurse besuchen. Erst Anfang 2020 akkreditiert, können die Studiengangsanbieter bereits eine positive Bilanz ziehen.

Von der Einbindung der Kursangebote zu Data Literacy in das Studium generale der Johannes-Gutenberg-Universität berichteten Dr. Andreas Hütig und Lennart Linde. Zentrales Merkmal des Studium generale ist die Interdisziplinarität, diese bezieht sich an der JGU nicht nur auf die an den Kursen teilnehmenden Studierenden, auch die Projektgruppe ist interdisziplinär aufgestellt. Für vier Fächergruppen (MINT, Geistes-/Kulturwissenschaften, Sozialwissenschaften, Medizin/Lebenswissenschaften) wurden bereichsspezifische Bedarfe und Einschätzungen ermittelt. Kernkompetenzen im Umgang mit Daten sollen erworben werden. Dies geschieht in vier Schritten: dem Entwickeln einer Fragestellung, der Auswahl und Beurteilung geeigneter Datensätze, deren selbstständige Analyse und der abschließenden Dokumentation. Zum Lösen der Aufgaben werden Studierende unter anderem in gängige Tools eingeführt. Rückblickend auf abgeschlossene Kurse stellten die Vortragenden fest, dass übliche Probleme aus Studium generale, wie etwa das unterschiedliche Einstiegslevel der Studierenden einige Herausforderungen in der Kursgestaltung mit sich bringen. Ganz allgemein wird das Angebot jedoch gut angenommen und eine Verstetigung durch die feste Aufnahme in das Studium generale der JGU wird angestrebt.

Nach den interdisziplinären Angeboten der vorangegangenen Panels widmete sich die abschließende Vortragsrunde fachspezifischen Vermittlungsansätzen.

Prof. Dr. Christoph Seibert ist Professor für Musikinfomatik an der Hochschule für Musik Karlsruhe. Er berichtete von Data und Code Literacy in den Studiengängen Musikwissenschaft und Musikinformatik. Seit 2004 werden die beiden Fächer an der HfM enger zusammengedacht und sinnvolle wechselseitige Ergänzungen von musikwissenschaftlichen und musikinformatischen Studieninhalten realisiert. Neben Grundlagen des Programmierens in Python spielen vor dem Hintergrund der Digital Humanities unter anderem Forschungsethik, Statistik und Datenmanagement eine wichtige Rolle. Studierende können beide Fächer im Bachelor gleichgewichtig nebeneinander studieren oder sich eines der beiden als Ergänzungsfach wählen. Diese mögliche Kombination bringt Chancen und Herausforderungen mit sich, so war bereits zu beobachten, dass ausgebildete Kompetenzen in der Musikinformatik selten ihren Weg in die Musikwissenschaft finden und dort einen eigenen Bereich ausbauen. In Zukunft soll auch das Thema Forschungsdatenmanagement konkreter in die Ausbildung der Studierenden eingeplant werden.

Prof. Dr. Tobias Matzner berichtete anschließend von den Erfahrungen und Herangehensweisen des Instituts für Medienwissenschaften an der Universität Paderborn. Studierenden ist weitgehend klar, worum es sich bei ihren im Studium behandelten Daten handelt und mit welchen Tools sie zu bearbeiten sind. Nichtsdestotrotz besteht ein großer Bedarf an der Vermittlung von Datenkompetenz, vor allem dem Bereich Datenethik und dem Erkennen und Identifizieren von algorithmischen Vorurteilen (algorithmic biases). Matzner sprach zudem die gesellschaftliche Dimension von Data Literacy an und somit unter anderem den Aspekt, dass jeder Bürger ein gewisses Maß an Datenkompetenz braucht, allein im Bereich der Social Media und ihren Algorithmen bedarf es einem Grundmaß an Data Literacy, um korrekt mit diesen Medien umgehen zu können.

Eine theaterwissenschaftliche Perspektive brachte Dr. Nora Probst, die Leiterin der Abteilung für Digital Humanities der theaterwissenschaftlichen Sammlung (TWS) der Universität zu Köln, in die Veranstaltung ein. In der TWS wird den Studierenden im Bereich der Data Literacy vor allem gutes Forschungsdatenmanagement vermittelt. Theaterwissenschafliche Sammlungsdaten sind sehr divers in ihrer Materialität und ihren Medien; insbesondere in der Sammlungerfassung und Kuratierung sind Aspekte wie der korrekte Umgang mit Metadaten, die Schaffung möglichst langer Nachnutzbarkeit und Interoperabilität der Datensätze von großer Bedeutung. Es geht jedoch nicht nur darum die Daten korrekt zu speichern, sondern vor allem um die Interpretation von Datensätzen. Daneben ist auch in Köln Datenethik ein wichtiges Element der Ausbildung und Datenkritik ein Lehrkonzept.

Dr. Harald Klinke beendete das Panel mit einem Vortrag zu fach- und medienspezifischen Angeboten in der kunsthistorischen Forschung und im Bereich der Digitalen Kunstgeschichte. Neben der Vermittlung gängiger Tools, Repositorien und Metadatenstandards hob Klinke das eigene Erstellen von Datensätzen als wichtige Lehrmethode heraus. Das Erstellen, Visualisieren und spätere Analysieren von Datensätzen ist eine Methode, die Studierenden Nutzen und Probleme der Digitalen Datenanalyse konkret vor Augen führen kann. Für die Kunstgeschichte ist es zudem wichtig, mit konkreten und ausreichend großen Datensätzen arbeiten zu können und so ist ein enger Kontakt zu GLAM-Einrichtungen und universitären Sammlungen nötig. Als zukünftige Herausforderungen sah Klinke abschließend die Integration von Forschungsdatenmangement als digitale Kompetenz in die Hochschulausbildung.

Einen weiteren Programmpunkt der Veranstaltung bildete eine Diskussionsrunde mit allen Teilnehmenden, die sich der Frage „Brauchen wir einen Kompetenzrahmen für die FDM-Ausbildung in der Culture Community?“ widmete.

Die Erwartung an die Reaktionen der Forumsteilnehmer auf diese zugespitzte Frage war selbstverständlich mehr als ein einfaches „Ja“ oder „Nein“. Vielmehr sollten auch hier – vor dem Hintergrund der Zielsetzung der NFDI, eine offene, nutzer:innenzentrierte und wissenschaftsgetriebene Zusammenarbeit über Forschungsdaten anzustoßen – die Erfahrungen und Bedarfe der Community im Mittelpunkt stehen.

Nach Ansicht von NFDI4Culture sollte die Vermittlung von Data und Code Literacy und damit auch von Aspekten des Forschungsdatenmanagements nicht erst auf dem Level von Promovierenden beginnen, sondern bereits in der BA- und MA-Ausbildung thematisiert werden. NFDI4Culture versteht sich als Vernetzungs- und Vermittlungsplattform für die Culture Community und möchte den Abstimmungsprozess zur Schaffung eines auf die Community zugeschnittenen Kompetenzrahmens moderieren.

In der ersten von zwei Umfragen zum Titel der Diskussionsrunde ergaben sich durchaus unterschiedliche Positionen, die sich um folgende Bereiche bündelten:

Pro:

  • Orientierung (auch für eigene Lehrveranstaltungen)
  • Dient der Klärung von Grundfragen und der Verständigung auf Grundkompetenzen
  • Die doppelte Entwicklung von Inhalten kann vermieden werden
  • offizielle Verstetigung/Empfehlung von Inhalten
  • Standards sind enorm wichtig
  • FDM muss in der Community gestärkt werden
  • Ein Kompetenzrahmen bietet Orientierung für kleinere Institutionen
  • Transparenz auch für Studierende
  • Eine basale FDM-Ausbildung gehört in alle Studiengänge (spätestens auf Masterniveau)

Kontra:

  • Es gibt schon genügend Kompetenzrahmen, zudem spezielle, sehr unterschiedliche Anforderungen
  • Die Umsetzung könnte schwierig sein
  • (unerwünschte) Normierung/Bürokratie/zu viel Normierung und Standardisierung
  • Freiheit der Lehre
  • mangelnde Akzeptanz
  • Ein Kompetenzrahmen wird der Heterogenität der Inhalte nicht gerecht und geht an den tatsächlichen Bedarfen vorbei
  • Lohnt sich der Aufwand?

In der konstruktiven Diskussion spiegelten sich diese Standpunkte wider. Zudem wurde u. a. kritisch angemerkt, dass Doppelentwicklungen vermieden werden sollen, dass für die Etablierung gesorgt werden muss, dass das kreative Denken durch einen Kompetenzrahmen nicht unterdrückt werden darf, dass Kompetenzrahmen ständig überprüft werden müssen, dass die Orientierung an den FAIR-Prinzipien deren „Halbwertszeit“ bedenken muss und dass bei vielen Kolleg:innen noch ein (Problem-)Bewusstsein für FDM geschaffen werden muss.

Fragen zu Datenethik und -recht, sowie zu Best Practices und Austausch von Erfahrungen (auch bundesweit) werden als wichtig angesehen, die von der CRDA vermittelt und "moderiert" werden können; ohne die Idee von Ausschließlichkeit sollten die geplanten NFDI4Culture-Formate Forum und Workshop geeignet und flexibel genug für eine solche Moderation sein.
Auch die Frage nach dem Status von Kompetenzrahmen in anderen NFDI-Konsortien kam auf und wurde mit dem Hinweis auf das im Aufbau befindliche Querschnittsteam "Training & Education" beantwortet; u. a. bei einem Querschnittsbereich zwischen den Studiengängen zum Thema FDM könnte NFDI4Culture ein Vorreiter sein.
Als Chance von Kompetenzrahmen wird die Schaffung von Plattformen gesehen, von denen begutachtete Materialien abrufbar sind und über die Datenpublikationen stattfinden können.
Außerdem muss sich ein Kompetenzrahmen an der Datenspezifik und an den unterschiedlichen Kompetenzen orientieren; die Voraussetzungen schwanken sehr stark – beispielsweise zwischen Kolleg:innen aus den Bereichen DH und jenen der mitunter noch weitgehend analogen Geisteswissenschaftler:innen. Diese Differenz gründet u. a. darauf, dass das Thema FDM außerhalb der DH kaum wahrgenommen wird. Das zu ändern, sollte ein zentrales Thema sein, frei aus der Diskussion: FDM ist gute wissenschaftliche Praxis, deshalb kann es nicht nur für DH relevant sein; man sollte versuchen, alle ins Boot zu holen und die Kritiker bzw. analogen Kolleg:innen mit unterschiedlichen Strategien überzeugen (z. B.: "Sie erzeugen schon Forschungsdaten, sie müssen es nur ordentlich machen ...", "Auch das Internet ist ein Großgerät ...").
Grundsätzlich ist Data Literacy gut auf Wikipedia dargestellt, gleichfalls gibt es bereits einige Kompetenzrahmen an Universitäten. Die Verständigung auf gemeinsame Standards ist eine Herausforderung, die Beteiligten sollten sich u. a. am Daten-Lebenszyklus (Daten erstellen, bereitstellen, auswerten, visualisieren, interpretieren) orientieren, aber auch an Fragen wie: Wer muss was können? Was erwarten wir zukünftig von Infrastruktur-Mitarbeiterinnen und Wissenschaftlern? Wer macht welche FDM-Angebote, wie viel Kompetenz brauchen Wissenschaftler:innen, um diese kritisch zu bewerten?

In der zweiten Umfrage wurde in einer WordCloud (siehe oben) zentralen Themen gesammelt, die ein künftiger Kompetenzrahmen für die FDM-Ausbildung in der Community berücksichtigen könnte. Einige bereits zur Sprache gekommenen Aspekte tauchen an dieser Stelle wieder auf, wurden hier aber zusammen mit den ergänzten Begriffen gewichtet.

Ausblick

Das diesjährige Forum der Cultural Research Data Academy bot schlaglichtartige Einblicke in den aktuellen Status der Hochschulausbildung im Bereich Forschungsdatenmanagement in der Culture Community. Die Inputs und Diskussionsbeiträge spiegelten die bekannte Komplexität des Themas wider, präsentierten aber auch verschiedene Lösungsansätze für eine stärkere Verankerung von FDM in der Ausbildung Studierender.

Die Beiträge und Inputs verschiedenster Institutionen, Initiativen und Personen aus dem Bereich der Hochschulausbildung zeigten, dass es bereits zahlreiche Ideen, Konzepte und Lehrangebote gibt, generische, wie fachspezifische. Insbesondere in den Gesprächen und Diskussionen zwischen den Vorträgen, wurde deutlich, wie fruchtbar und gewinnbringend eine engere Vernetzung der Teilnehmenden und weiterer Akteur:innen dieses Bereiches sein kann. Neben dem Austausch über Best Practices und Hürden in der Angebotsentwicklung wurden zudem Wünsche nach weitergehender Zusammenarbeit und Kooperation bei der Angebotsentwicklung ausgesprochen.

Die CRDA möchte als Vermittler und Bindeglied agieren, als Anreger für Netzwerkbildung. Kontakte, die geknüpft und Gespräche, die begonnen wurden, möchten wir nicht abreißen lassen und bieten für die Zukunft an, Kontakte zu vermitteln und virtuelle Räume für den gemeinsamen Austausch zu schaffen. Wir möchten auch in kommenden Foren das Netzwerk weiter ausbauen, Akteur:innen im Kultursektor miteinbeziehen und Verbesserungspotentiale im Bereich FDM und Training diskutieren. Wenn auch Sie Interesse an einem Austausch mit uns oder den Inputgeber:innen des Forums haben, dann kontaktieren Sie das Team der Cultural Research Data Academy über das Kontaktformular auf unserer Website.