Digital Humanities Berlin – zum Herstellen, Finden und Ergreifen von Möglichkeiten

Letzte Woche fand in Berlin der erste Workshop der Initiative „Digital Humanities Berlin“ statt,
die sich in den nächsten zwei Jahren -mit Unterstützung der Einstein-Stiftung – mit möglichen Inhalten und organisationalen Formen eines Berliner Standortes für die Digital Humanities auseinandersetzen wird.

Wie Dirk Wintergrün zusammenfasste, sind in Berlin zahlreiche Institutionen, Kompetenzen und Ressourcen vertreten, die sich mit unterschiedlichen fachlichen und technischen Schwerpunkten im Bereich der Digital Humanities engagieren. Diese fachliche und technische Expertise vor Ort zu bündeln, Synergien zu nutzen statt in Parallel-Entwicklungen zu investieren, und mögliche Formen einer Verstetigung der DH-Aktivitäten auszuloten, ist mit eine Motivation der Einstein-Zirkel-Runde.

Die Auftaktveranstaltung fragte nun nach „Modellen, Erfahrungen und Perspektiven“ und hatte dazu Vertreter bereits etablierter DH-Zentren in Deutschland für einen Erfahrungs-und Meinungsaustausch eingeladen. Nicht die Technik war Thema, sondern Netzwerke, Kooperationen, Strategien und Möglichkeiten – es ging um einen sozialen, organisationalen und nicht zuletzt politischen Rahmen, in dem der Forschungs-, Lehr- und Service-Charakter der Digital Humanities umgesetzt werden kann.

Claudine Moulin (für das Trier Center for Digital Humanities), Patrick Sahle (für das Cologne Center for eHumanities) sowie Gerhard Lauer (für das Göttinger Centre for Digital Humanities) hatten sich bereit erklärt, die jeweiligen Kompetenzen, Dienstleistungen und Strategien vorzustellen und vorallem ihren Erfahrungsschatz in der praktischen Verstetigungsarbeit eines Zentrums mit den Berliner Kollegen zu teilen.

Interdisziplinäre Kooperationen auf lokaler, regionaler und internationaler Ebene, Aufklärungs- und Beratungsarbeit für Fachkollegen und die Zusammenarbeit mit lokalen Infrastruktur-Anbietern wie Bibliotheken, Rechenzentren, IT-Abteilungen sind grundlegende Bestandteile der jeweiligen Programme. Die Kompetenzen reichen von Tool-und Infrastrukturentwicklung über spezielle DH-Methoden wie Kodierung, quantitativer und qualitativer Erschließung oder nachhaltiger Bereitstellung digitaler Korpora bis hin zum Management/Akquise von Drittmitteln, der administrativen und rechtlichen Durchführung von Projekten, und dem Support und Beratung für geisteswissenschaftliche Projekte, die ihr Forschungsvorhaben mit einer „digitalen Komponente“ umsetzen wollen (oder zunehmend müssen). Die Ausbildung des wissenschaftlichen Nachwuchses ist ebenfalls ein wichtiges Anliegen der Zentren. Auch hier variiert die Umsetzung, von der Entwicklung einzelner Module für Hörer aller Fakultäten bis hin zur Konzeption und Durchführung akkreditierter Studiengänge eines B.A./M.A. in Digital Humanities.  

Wie Claudine Moulin es zu Beginn ihres Vortrags auf den Punkt brachte, geht es bei der praktischen Operationalisierung einer Zentrums-Idee nicht nur um langfristige Visionen, sondern ganz konkret um Geld und Stellen. Die operativen und strategischen Möglichkeiten, innovative Ideen auszuprobieren (und auch ggf. zu scheitern), engagierte Mitarbeiter zu halten und zu fördern oder technische bzw. fachwissenschaftliche Schwerpunkte zu setzen, hängen stark von den Bedingungen ab, die eine Drittmittel-Finanzierung vorgibt. Das Ergreifen von Möglichkeiten im richtigen Moment, eine Organisationsform, die es erlaubt, mit und an den wechselnden Anforderungen zu wachsen, die Relevanz einer Professur, um das unstete „Drittmittel-Geschäft“ in der Forschung zu verankern, aber auch die pragmatische Einsicht, “ …man muss nicht alle glücklich machen …“ waren nur einige der Erfahrungen, über die berichtet wurde.

In der anschließenden Diskussion wurden sowohl mögliche regionale als auch inhaltliche Schwerpunkte eines Berliner Standortes diskutiert. Auf Interesse stieß insbesondere die Verknüpfung mit dem osteuropäischen Raum als auch der mögliche inhaltliche Schwerpunkt auf die „Materialität des Objekts“ in einer digitalen bzw. digitalisierten Forschung. Viel Raum nahm auch die Diskussion über Möglichkeiten und Strategien hinsichtlich der Einbindung und Zusammenführung der unterschiedlichen Interessen ein, sowohl der „big player“ als auch der einzelnen „grassroot-Projekte“. Was den Berliner Standort besonders macht, nämlich die zahlreichen etablierten Institutionen wie Museen, Archive, die BBAW oder die beiden Universitäten HU und FU, stellt gleichzeitig eine besondere Herausforderung dar, wenn es um die Identifikation und das Formulieren gemeinsamer Interessen geht. Die Organisation einer möglichen Form der nachhaltigen Zusammenarbeit steht nicht zuletzt unter einer forschungspolitischen Agenda und erfordert die Positionierung der einzelnen Institutionen hinsichtlich einer gemeinschaftlichen Ressourcennutzung für Forschung, Lehre und Dienstleistungen in den Geistes-und Kulturwissenschaften.

Egal, aus welcher Perspektive man sich dem Phänomen der Digital Humanities nähert – als junges Forschungsfeld mit eigenen Forschungsfragen, als Form einer sozialen Bewegung, die sich über einen gemeinsamen Diskurs zur Innovation von Inhalten und Methoden geisteswissenschaftlicher Fragestellungen definiert, oder als eine Form der Ausdifferenzierung von Forschung und Service, –  es ist in jedem Fall eine höchst dynamische Gemengelage, die sich durch Enthusiasmus und Engagement der unterschiedlichsten Akteure, aber auch durch kritische Widerstände aus den einzelnen Fachgemeinschaften auszeichnet. Unabhängig davon, welche konkrete organisationale oder institutionelle Form einer Zusammenarbeit eines Tages entstehen mag – es wird ein Rahmen sein, in dem sich Forschung, IT-Entwicklung und Dienstleistung wechselseitig beeinflussen. Die Gestaltung dieses Rahmens wird nicht allein durch die Möglichkeiten der Technik und Technologien bestimmt, sondern auch durch die Möglichkeiten und Bedingungen aller Beteiligten, ihre Ressourcen wie Kompetenzen, Tools oder Daten anderen zur Verfügung zu stellen. Das ist und bleibt eine spannende Entwicklung der bislang eher solitär arbeitenden Geisteswissenschaften.

Der nächste Workshop wird voraussichtlich am 11.10.2013 zum Thema „Das materielle Objekt in der digitalen Welt“ stattfinden. Weitere aktuelle Informationen zu Veranstaltungen und Projekten finden sich auf der Webseite des Zirkels.

Advertisements

Kompetenzzentren für Digital Humanities – Einladung zum Workshop

Am 28. Juni veranstaltet der Digital Humanities Zirkel Berlin einen Workshop zum Thema „Digital Humanities-Kompetenzzentren in Deutschland – Modelle, Erfahrungen und Perspektiven für Berlin”

Vertreter von drei bereits etablierten Digital Humanities Zentren in Deutschland (Trier, Köln, Göttingen) sind eingeladen, über Strategien, Erfahrungen und Perspektiven der jeweiligen Zentren zu berichten. In einer öffentlichen Podiumsdiskussion wird anschließend über mögliche Schwerpunkte eines Kompetenzzentrums in Berlin diskutiert.

Detaillierte Informationen zum Inhalt und Hintergrund des Workshops, der Auftakt einer Serie von Veranstaltungen sein wird, finden sich auf der Homepage des Zirkels.

Zeit und Ort: 28.6.2013, ab 14:45 im Festsaal der Humboldt Graduate School (Luisenstraße 56, Berlin-Mitte)

Die Veranstaltung ist öffentlich, alle Interessierten sind herzlich eingeladen!

 

 

„Varianz und Vielfalt“ – Wechselwirkungen zwischen Bioinformatik und Sprachwissenschaft

Vom 29.11. bis 30.11. fand in Darmstadt ein Arbeitstreffen des Projektes „Wechselwirkungen zwischen
linguistischen und bioinformatischen Verfahren, Methoden und Algorithmen: Modellierung
und Abbildung von Varianz in Sprache und Genomen.“ statt.

Der zweitägige Workshop stand unter dem Thema „Varianz und Vielfalt interdisziplinär: Wörter und Strukturen“. Mein Interesse lag vorrangig auf den Erfahrungen und Ergebnissen des Wechselwirkungs-Projektes: Ausgangspunkt des Projektvorhabens war eine spannende interdisziplinäre Fragestellung – was sind strukturelle Gemeinsamkeiten zwischen Genomcode (Codierung genetischer Information) und sprachlichem Code (Codierung von sprachlicher Information). Zwei Aspekte sollten untersucht werden, zum einen die Entwicklungsfähigkeit (Historizität), zum anderen Vielfalt bzw. Varianz (und ihre Regelmässigkeit). Die gemeinsame, empirische Datenbasis sind vernetzte Wörterbuchdaten und Daten des menschlichen Genoms.

Andrea Rapp gab einen kurzen Überblick über Herausforderungen und Chancen der interdisziplinären Kooperation. Es scheint, dass das Bemühen um Verständigung und Austausch über disziplinäre Grenzen hinweg zu einem „heilsamen“ Prozess der Selbstdisziplinierung, Formalisierung und Reflexion führte: durch die Notwendigkeit, dem fachfremden Gegenüber Methoden, Konzepte und „Forschungsstand“ zu erläutern, muss auch in der Disziplin selbst das kodifizierte Wissen neu reflektiert werden.
Einen Einblick in den möglichen interdisziplinären Transfer von Erkenntnisse und Methoden bot der Vortrag der beteiligten Bioinformatiker: Die bioinformatische Methode der Netzwerk-Analyse einer Proteindomäne wurde auf Morpheme übertragen, um nach Aussagen über den Zusammenhang von Morphemgebrauch und Morphemwandel zu schliessen.
Schon allein die Visualisierung der Veränderung und des Wandels in Konstellationen von Morphemen durch eine Netzwerk-Analyse ist ein Gewinn, über den wissenschaftlichen Aussagewert wurde noch kontrovers diskutiert. Die Bioinformatiker berichteten, dass in ihrem Teilbereich sprach-und literaturwissenschaftliche Methoden zur Erforschung des Sprachwandels zwar auf Interesse gestoßen sind, aber Untersuchungen zu Varianz und Wandel im menschlichen Genom an der Verfügbarkeit historischer biologischer Daten scheitert.

Der Großteil der Vorträge der Tagung beschäftigte sich mit sprach-und literaturwissenschaftlichen Fragestellungen zu Sprachentwicklung und -wandel, mit mehr oder weniger explizitem Einblick in technische Fragestellungen (Kodierung, Tool-Entwicklung oder Modellierungen).

Die Keynote von Anke Lüdeling fand im Kontext der Ringvorlesung „Digital Humanities“ der TU Darmstadt statt, und adressierte entsprechend die Digital Humanities Community vor Ort. Neben der Notwendigkeit des Publizierens mittels „open access“-Modelle betonte Lüdeling vorallem die Notwendigkeit einer (technologischen und wissenschaftlichen) Veränderung hinsichtlich der Offenlegung und maschin-lesbaren Auszeichnung von epistemischen Wissen und Know-How: Der Wert einer digitalen Auszeichnung liege vorallem in der Möglichkeit der Nachvollziehbarkeit subjektiver Interpretationssschritte in der wissenschaftlichen Analyse. Dafür sieht Lüdeling sozialen Innovationsbedarfs (eine Veränderung der Community bottom-up) als auch technischen Innovationsbedarf: die diachrone und synchrone Darstellung unterschiedlicher „annotation layer“ eines Objektes ist aus ihrer Sicht ein Desiderat der digitalen Geistes-und Sozialwissenschaften.

 

Chomsky zur Rolle von Daten und Algorithmen für wissenschaftliche Erkenntnis

Ein anregendes (und sehr ausführliches Interview) mit Noam Chomsky über seine Sicht auf die aktuelle Artificial Intelligence (AI) findet sich im Atlantic Monthly
Chomsky kritisiert die Orientierung an statistischen Methoden und Datenanalyse der aktuellen AI, die zwar
Annäherungen an die Wirklichkeit biete, aber keine Erklärung des Wesens intelligenter Wesen oder Kognition. Mit unterschiedlichen Beispiele aus der Meteorologie, Biologie, Physik und Kognitionsforschung illustriert er seine Sicht auf eine  grundlegende Frage:
„The urge to gather more data is irresistible, though it’s not always clear what theoretical
framework these data might fit into. These debates raise an old and general question in the philosophy of science:
What makes a satisfying scientific theory or explanation, and how ought success be defined for science?“

Rückblick auf die EASST 2012

Letzte Woche hatte ich Gelegenheit, in Kopenhagen an der EASST 2012 teilzunehmen.
Die Konferenz wurde von der European Association for the Study of Science and Technology (EASST) veranstaltet, zusammen mit dem US-amerikanischen Pendant, der Society for Social Studies of Science (4S).

Unter der thematischen Klammer „Design and Displacement“ wurde ein Panoptikum aktueller Forschungstrends präsentiert, organisiert über 300 Panels in 3 Tagen.

„Design has become a key concept across a multitude of disciplinary domains and social spheres. In addition to its traditional ‘aesthetic’ associations, it is now a key term in multiple scientific domains and in diverse technological practices. One can even think of societies and social arrangements being ‘designed’. In science and technology, ‘design’ implies the re-arrangement of materials and ideas for innovative purposes. When newly designed scientific and technical objects enter the world, however, their initial purposes are often displaced.“ (Zitat von der Konferenz-Homepage)

Konferenz-Teilnehmer waren rund 1600 WissenschaftlerInnen, die sich mit sehr unterschiedlichen theoretischen und methodologischen Vorgaben auf die Suche nach verschwundenen, neu enstandenen oder konfligierenden „purposes“ wissenschaftlicher und/oder technischer Objekte  machen.

Die Wahrnehmung einer STS (Science, Technology and Society)-Community als deutlich heterogene und differenzierte Community war u.a. auch Thema beim Pre-Conference Workshop für Doktorandinnen und Doktoranden: Unter der Frage „What does it mean to do STS at the margin?“ wurde über „Centers“ und „Margins“ in der Wissenschaft mehr praktisch als theoretisch diskutiert. Die unterschiedlichen Perspektiven, biographische Anekdoten und erste Forschungsergebnisse der TeilnehmerInnen spiegelten das breite Spektrum von STS-Ansätzen wider: Von den Schwierigkeiten, sich als Mitglied einer epistemisch höchst fragmentierten Community zu positionieren, über die Herausforderungen des interdisziplinären Forschens (und Publizierens) bis hin zur kritischen Reflexion einer Romantisierung von STS als „Grenzwissenschaft“, als Kultivierung einer Randposition, die aufschlussreichere Perspektiven und politisches Veränderungspotenzial ermöglichen soll als der „Mainstream“ der wissenschaftlichen Forschung.

Der Small-Talk beim Buffett (eine in der Tat sehr leckere Auswahl der „new nordic kitchen“)  mit Doktoranden, die „STS machen“ (meine Gesprächspartner kamen vorrangig aus den Bereichen Informationswissenschaft, Informatik und Ethnologie), verdeutlichte den Eindruck, dass es schwierig ist, insbesondere im deutschsprachigen Raum, eine STS-Promotion zu organisieren. Eine interdisziplinäre Fragestellung bedeutet unterschiedliche, häufig inkompatible Theorien, Methoden und Qualitätsverständnis.

Aufgrund der hohen Fragmentierung war die Auswahl potentiell spannender und innovativer Sessions schwierig. In manchen Fällen war die Zuordnung der einzelnen Vorträge zum Thema der Session nur eingeschränkt nachvollziehbar.
Trotzdem war die Konferenz eine guter Ort der Kontaktanbahnung und gab -unter dem breiten gemeinsamen Nenner des „socio-material entanglements“ – manch neuen Einblick in unterschiedliche Herangehensweisen an technische, materielle, soziale und epistemische Aspekte der Technisierung und Digitalisierung in „knowing and working environments“.

„Design challenges of working and organizing in technologically dense environments“ war ein Panel veranstaltet von Cornelius Schubert und Attila Bruni, die u.a. der Frage nachgehen, wie die Praxis von „knowing and working“ in mehr oder weniger technologisch „dichten“ Umgebungen funktioniert. Der Begriff der „density“ ist ein reizvoller auch für unsere Forschung,  die Frage, wie man sich dem Begriff der „Dichte“ technischer Umgebungen qualitativ und theoretisch nähern kann, bleibt eine spannende Frage für weitere Forschung.

Im Panel zu „Ethnography of socio-material collaborations“ lernte ich Smiljana Antonijevic kennen, die -zumindest soweit mir bekannt – den einzigen Vortrag mit explizitem Bezug zum empirischen Phänomen der Digital Humanities hielt. Sie berichtete über erste Ergebnisse hinsichtlich „reconfiguring practices und resources“ im Arbeiten von Geisteswissenschaftlern mit Werkzeugen der Digital Humanities. Schwerpunkt ihrer Forschung ist die qualitative Untersuchung der Nutzung der Werkzeuge.

Besonders gefreut habe ich mich über ein Wiedersehen mit Theresa Velden, ehemalige Leiterin des Zentrum für Informationsmanagement an der MPG (ZIM), die am Beispiel der Chemie über „field-differences in
openeness and sharing of scientific knowledge“ berichtete, und -im Gegensatz zu vielen anderen Vorträgen – auch auf weitergehende theoretische Erklärungsmuster für die Zusammenhänge zwischen epistemischen und materiellen Charakteristika von Forschungsfeldern und den Konsequenzen für Data Sharing einging.

Zum Abschluss der Konferenz konnte ich noch in die Session von Paul Edwards zu „Spatiotemporalities – Space and Infrastructures“ reinschnuppern. Der Schwerpunkt der Vorträge lag auf der empirischen und historischen Beschreibung der Herstellung von Räumlichkeit in und durch große, technische Infrastrukturen. Interessant, aber leider wenig weiterführend, was theoretische oder methodische Fragen einer „Soziologie der Infrastrukturen“ betrifft.

Akademische Sommerfrische und Verstoffwechslung

oder: Was macht man so als PhD-Kandidatin im Sommer?

Neben all den Widrigkeiten, die anderswo verhandelt werden sollen, hat das Akademikerdasein ja schon auch schöne Seiten – unter anderem bietet es die Möglichkeit, an besonderen Orten der Welt mit Kollegen zusammenzukommen, Forschungsfragen und -designs auseinanderzunehmen und nicht-systematische Vergleiche von Forschungs-und Finanzierungsbedingungen anzustellen. Das hat noch gar nichts mit Konferenztourismus zu tun;-), im Gegenteil, hier werden auch fundamentale Überlebensstrategien für den akademischen Dschungel geprobt. (Wers nicht glaubt, möge nachlesen z.B.  in „Perlmanns Schweigen“  )

 
Jedenfalls durfte ich diese Möglichkeit mit der Absolvierung eines PhD-Kurses für „Socio-technical theory and methods“ an der Technischen Universität in Kopenhagen (DTU) erleben. Letzte Woche fand der zweite und letzte Teil statt. Für Neueinsteiger in STS („Science and Technology Studies“, manchmal auch „Science, Technology and Society“) wie mich war es eine turbulente, dichte und wichtige Erfahrung, mit deren Verstoffwechslung ich noch länger zu tun haben werde.
Die internationale STS Forschung hat keine einheitliche Orientierung und wirkt in sehr unterschiedlichen Disziplinen. Als eine der wenigen Gemeinsamkeiten gilt die sozialkonstruktivistische Orientierung: Technik und (jegliche Form von )Wissen wird als sozial konstruiert verstanden. Ob sich etwas als Wissen  durchsetzt, akzeptiert oder abgelehnt wird, ist eine soziale Frage, und keine der Gesetzmässigkeiten einer natürlichen Welt. Das, was Glühbirnen, Fahrräder, Infrastrukturen „sind“, ist keine inhärente Eigenschaft der Technik, sondern das Ergebnis eines sozialen Aushandlungsprozesses. Grundlegende Annahmen der STS-Forschung sind somit, dass „Inhalte und Ergebnisse von Wissenschaft und Technik weder vorbestimmt noch inhärent neutral sind, sondern in Prozessen geformt werden, in denen Artefakte, Politik und kulturelle Praxen ineinander verwoben sind.“ (Petra Ilyes, Zum Stand der Forschung des englischsprachigen STS Diskurses, S. 8 – eine gute Übersicht und Einführung für STS-Interessierte)

Das Ziel des PhD-Kurses in Kopenhagen war die Vorstellung und Diskussion zweier grundlegender Theorieansätze in STS – Social Construction of Technology (SCOT) und Actor-Network Theory (ANT). Gemeinsam mit Kollegen aus dem Gesundheitsbereich, des Industrial Designs und der Nachhaltigkeitsforschung führten wir viele Diskussionen über die ontologischen und methodologischen Implikationen dieser beiden Richtungen, die sich auf deutlich unterschiedliche Weise dem breiten Themenfeld der Mensch-Technik-Interaktion annähern. Eine Beschäftigung mit „dem Sozialen“ in der Technikentwicklung führt dabei zwangsläufig zur Frage, was den Menschen ausmacht, ob, wann und wie er sich von nicht-menschlichen Objekten unterscheidet, ob und wie man das beobachten kann, und nicht zuletzt zur Frage, welche Bedeutung die klassische Dichotomie Struktur vs. Handlung (oder Technik vs. Mensch ) für „doing science“ hat. Und mitten in der dänischen Sommerfrische ist man ohne Vorwarnung bei metaphysischen, philosophischen und ontologischen Diskussionen gelandet …

Für weitere intellektuelle Überraschungen, Grenzüberschreitungen und Stoffwechselstörungen wird wohl in diesem Zusammenhang auch noch „die“ große STS Konferenz sorgen: Die beiden großen Fachgemeinschaften EASST (European Association for the Study of Science and Technology) und das amerikanische Pendant 4S (Society for Social Studies of Science) veranstalten im Oktober in Kopenhagen ihr gemeinsames Annual Meeting unter dem Titel „Design and displacement – social studies of science and technology”. Wer sich einen Überblick verschaffen möchte, was die europäische und amerikanische STS umtreibt,kann sich hier einen Überblick (?) über die 106 Open Panels, eingeteilt in 10 Subject Cluster, verschaffen.

Auch hier werde ich Möglichkeit haben, an einem Pre-Conference Workshop für PhD-Kandidaten teilzunehmen, diesmal mit dem Motto „What does it mean to you do STS at the margin?“ Diese Aufforderung habe ich sehr wörtlich genommen, und einen sehr individuellen Bericht über meine Erfahrungen im letzten Jahr geschrieben..bin schon sehr gespannt, wie und ob sich das mit anderen Doktoranden deckt. Einige Kollegen aus Kopenhagen werde ich wiedertreffen – und schon ist es da, das erste kleine Netzwerk;-). Ein Konferenzbericht folgt noch im Oktober.

Letzte Station der akademischen Sommerfrische stellt für mich der Besuch der diesjährigen SummerSchool der KIT/ITAS zum Thema „Scientific Knowledge and Transgression of Boundaries“  dar. Dank der wunderbaren Erfindung einer Bewerbung als „participant only“ darf man auch kommen, wenn man noch nichts zu sagen hat, und den fortgeschritteneren Wissenschaftsforschern beim Denken lauschen. Neben der äußerst sympathischen Entscheidung für San Sebastián als Veranstaltungsort freue ich mich besonders auf die eingeladenen Key Note Lectures, inkl. Hans-Jörg Rheinberger und Steve Fuller. Bericht folgt;-)

Infrastrukturen für Forschungsdaten – (Wie) Lässt sich das Unbekannte planen?

Am 17. April 2012 fand am GFZ Potsdam ein Experten-Workshop für den „Umgang mit Forschungsdaten“ statt. Das DFG-geförderte Projekt „Radieschen“ hat als Veranstalter ein ambitioniertes Ziel vor Augen: eine Roadmap mit Handlungsempfehlungen für eine nationale, disziplinübergreifende Infrastruktur für Forschungsdaten zu erstellen.

Dafür wurden in dem Workshop vier Problemfelder in Break-out Sessions diskutiert:

  • Was sind sinnvolle und notwendige Richtlinien im Umgang mit Forschungsdaten (Policies und Anreizsysteme)?
  • Wie kommen die Daten (nicht) in die Infrastruktur?
  • Was sind Erfolgskriterien disziplinübergreifender Dienste (generische vs. disziplinspezifische Dienste)?
  • Was sind Möglichkeiten und Grenzen der Auslagerung und Zentralisierung von Diensten?

An anderer Stelle haben wir mal das Bild der „Gleichzeitigkeit des Ungleichzeitigen“ für die Dynamik in der Entwicklung von Infrastrukturtechnologien verwandt. In der Entstehung und Verbreitung von neuen Forschungstechnologien treffen die eigentliche Entwicklung (aka „Forschung“) und der Betrieb (aka „Anwendung“) aufeinander. Zeithaushalte, Motivationen, Möglichkeiten und Ziele sind jeweils unterschiedlich, aber sie bedingen einander in dem gemeinsamen Versprechen, einen höchst dynamischen Wissenschaftsbetrieb zu unterstützen.

In den einzelnen Sessions spiegelte sich diese Spannung an den zum Teil widersprüchlichen Meinungen der Teilnehmer wider: Braucht es noch mehr Werkzeuge, um der heterogenen Wissenspraxis gerecht zu werden? Oder braucht es weniger, dafür standardisiertere Werkzeuge, um die Interoperabilität und Kompatibilität zu gewährleisten? Braucht es mehr Forschung, um neue und/oder Altdaten möglichst automatisch in die Infrastruktur zu bekommen? Oder braucht es vielmehr Qualifikationsprogramme für wissenschaftliches Personal, das diese Arbeit leisten soll?

Wie so oft – die eine, richtige Antwort gibt es nicht. Insofern ist die gegen Ende der Veranstaltung konstatierte Ratlosigkeit hinsichtlich konkreter Maßnahmen für eine nationale Infrastrukturplanung auch keineswegs ein Zeichen des Scheiterns, sondern vielmehr ein Ausdruck für die vielfältigen Veränderungen, die die einzelnen Akteure in Wissenschaft und Wissenschaftsbetrieb erfahren: Das klassische Nutzerbild wandelt sich, Service-Anbieter werden selbst zu Nutzern, Wissenschaftler übernehmen nicht-wissenschaftliche Aufgaben wie das Schreiben von Spezifikationen oder Nutzer-und Öffentlichkeitsarbeit, Entwicklung und Betrieb von Anwendungen laufen parallel statt zeitlich versetzt uvm. Es dreht sich also nicht nur um die disziplin-spezifischen Unterschiede prospektiver Nutzer, sondern auch um zeitgleich stattfindende Veränderungen im wissenschaftlichen Betrieb, in Arbeitsweisen, Verantwortlichkeiten oder Geschäftsmodellen.

Für eine umfassende Planung einer Forschungsdaten-Infrastruktur erscheint mir eine stärkere Einbindung von Forschung zu den unterschiedlichen sozialen Gemeinschaften, die an und mit Infrastruktur arbeiten, unumgänglich. Das zeigt auch der Fokus der einzelnen Sessions: Policies, Richtlinien, Arbeitsweisen, Geschäftsmodelle sind auch technische, aber vor allem soziale bzw. organisationale Fragen. Hier bietet sich die Einbindung von sozialwissenschaftlicher Forschung (wie z.B. der Wissenschaftssoziologie) an, was aber als konkrete Praxis keineswegs trivial ist: Die kritische, de- und re-konstruierende Perspektive der Science and Technology Studies (STS) auf Kausalbeziehungen, mit der latenten Gewissheit des „It could have been otherwise“, scheint erstmal schwierig mit einer normativen Perspektive der Planung und Steuerung vereinbar zu sein. Dazu kommt eine Variante der „Gleichzeitigkeit des Ungleichzeitigen“: Während z.B. die Wissenschaftssoziologie erstmal verstehen will, wann überhaupt ein Wissenschaftler von „Daten“ spricht und unter welchen Umständen er diese Daten (nicht) zur Verfügung stellt, müssen in der technischen oder politischen Infrastruktur-Planung bereits Entscheidungen getroffen werden.

Hier reihe ich mich wieder ein in die anfangs konstatierte Ratlosigkeit…und frage mich nicht nur nach dem „Was“, sondern vorallem auch nach dem „Wie“. Die Frage nach einer inhaltlichen Ausgestaltung einer nationalen Infrastruktur für Forschungsdaten steht meines Erachtens in enger Verbindung zur Frage nach der Form, den Strukturen der Zusammenarbeit in der ständigen Weiterentwicklung dieser Infrastruktur. Und das betrifft nicht nur die Interaktion der unterschiedlichen Akteure in der Praxis (wie Fachwissenschaften und IT), sondern auch die Organisation einer interdisziplinäre Forschung am empirischen Objekt „Forschungsinfrastrukturen“.