Infrastrukturen für Forschungsdaten – (Wie) Lässt sich das Unbekannte planen?

Am 17. April 2012 fand am GFZ Potsdam ein Experten-Workshop für den „Umgang mit Forschungsdaten“ statt. Das DFG-geförderte Projekt „Radieschen“ hat als Veranstalter ein ambitioniertes Ziel vor Augen: eine Roadmap mit Handlungsempfehlungen für eine nationale, disziplinübergreifende Infrastruktur für Forschungsdaten zu erstellen.

Dafür wurden in dem Workshop vier Problemfelder in Break-out Sessions diskutiert:

  • Was sind sinnvolle und notwendige Richtlinien im Umgang mit Forschungsdaten (Policies und Anreizsysteme)?
  • Wie kommen die Daten (nicht) in die Infrastruktur?
  • Was sind Erfolgskriterien disziplinübergreifender Dienste (generische vs. disziplinspezifische Dienste)?
  • Was sind Möglichkeiten und Grenzen der Auslagerung und Zentralisierung von Diensten?

An anderer Stelle haben wir mal das Bild der „Gleichzeitigkeit des Ungleichzeitigen“ für die Dynamik in der Entwicklung von Infrastrukturtechnologien verwandt. In der Entstehung und Verbreitung von neuen Forschungstechnologien treffen die eigentliche Entwicklung (aka „Forschung“) und der Betrieb (aka „Anwendung“) aufeinander. Zeithaushalte, Motivationen, Möglichkeiten und Ziele sind jeweils unterschiedlich, aber sie bedingen einander in dem gemeinsamen Versprechen, einen höchst dynamischen Wissenschaftsbetrieb zu unterstützen.

In den einzelnen Sessions spiegelte sich diese Spannung an den zum Teil widersprüchlichen Meinungen der Teilnehmer wider: Braucht es noch mehr Werkzeuge, um der heterogenen Wissenspraxis gerecht zu werden? Oder braucht es weniger, dafür standardisiertere Werkzeuge, um die Interoperabilität und Kompatibilität zu gewährleisten? Braucht es mehr Forschung, um neue und/oder Altdaten möglichst automatisch in die Infrastruktur zu bekommen? Oder braucht es vielmehr Qualifikationsprogramme für wissenschaftliches Personal, das diese Arbeit leisten soll?

Wie so oft – die eine, richtige Antwort gibt es nicht. Insofern ist die gegen Ende der Veranstaltung konstatierte Ratlosigkeit hinsichtlich konkreter Maßnahmen für eine nationale Infrastrukturplanung auch keineswegs ein Zeichen des Scheiterns, sondern vielmehr ein Ausdruck für die vielfältigen Veränderungen, die die einzelnen Akteure in Wissenschaft und Wissenschaftsbetrieb erfahren: Das klassische Nutzerbild wandelt sich, Service-Anbieter werden selbst zu Nutzern, Wissenschaftler übernehmen nicht-wissenschaftliche Aufgaben wie das Schreiben von Spezifikationen oder Nutzer-und Öffentlichkeitsarbeit, Entwicklung und Betrieb von Anwendungen laufen parallel statt zeitlich versetzt uvm. Es dreht sich also nicht nur um die disziplin-spezifischen Unterschiede prospektiver Nutzer, sondern auch um zeitgleich stattfindende Veränderungen im wissenschaftlichen Betrieb, in Arbeitsweisen, Verantwortlichkeiten oder Geschäftsmodellen.

Für eine umfassende Planung einer Forschungsdaten-Infrastruktur erscheint mir eine stärkere Einbindung von Forschung zu den unterschiedlichen sozialen Gemeinschaften, die an und mit Infrastruktur arbeiten, unumgänglich. Das zeigt auch der Fokus der einzelnen Sessions: Policies, Richtlinien, Arbeitsweisen, Geschäftsmodelle sind auch technische, aber vor allem soziale bzw. organisationale Fragen. Hier bietet sich die Einbindung von sozialwissenschaftlicher Forschung (wie z.B. der Wissenschaftssoziologie) an, was aber als konkrete Praxis keineswegs trivial ist: Die kritische, de- und re-konstruierende Perspektive der Science and Technology Studies (STS) auf Kausalbeziehungen, mit der latenten Gewissheit des „It could have been otherwise“, scheint erstmal schwierig mit einer normativen Perspektive der Planung und Steuerung vereinbar zu sein. Dazu kommt eine Variante der „Gleichzeitigkeit des Ungleichzeitigen“: Während z.B. die Wissenschaftssoziologie erstmal verstehen will, wann überhaupt ein Wissenschaftler von „Daten“ spricht und unter welchen Umständen er diese Daten (nicht) zur Verfügung stellt, müssen in der technischen oder politischen Infrastruktur-Planung bereits Entscheidungen getroffen werden.

Hier reihe ich mich wieder ein in die anfangs konstatierte Ratlosigkeit…und frage mich nicht nur nach dem „Was“, sondern vorallem auch nach dem „Wie“. Die Frage nach einer inhaltlichen Ausgestaltung einer nationalen Infrastruktur für Forschungsdaten steht meines Erachtens in enger Verbindung zur Frage nach der Form, den Strukturen der Zusammenarbeit in der ständigen Weiterentwicklung dieser Infrastruktur. Und das betrifft nicht nur die Interaktion der unterschiedlichen Akteure in der Praxis (wie Fachwissenschaften und IT), sondern auch die Organisation einer interdisziplinäre Forschung am empirischen Objekt „Forschungsinfrastrukturen“.

 

TextGrid Summit 2012

Ich möchte auf die Veranstaltung TextGrid Summit 2012 am 14. und 15. Mai 2012 in Darmstadt hinweisen, die unter dem Motto ‚Richtfest im Haus der Digitalen Infrastruktur‘ steht.

Da die Zahl der Teilnehmer/-innen begrenzt ist, ist eine Anmeldung bis zum 27.04.2012 erforderlich.

Weitere Informationen und Anmeldung unter:
www.textgrid.de/summit2012

Veranstaltungshinweis: Dialekte der Klimamodellierung

Ich möchte auf einen Workshop in Hamburg aufmerksam machen.

Dialekte der Klimamodellierung

Veranstaltungsort: Deutsches Klimarechenzentrum Hamburg

20.3.2012

Konzeption: Thomas Ludwig (DKRZ Hamburg) und Gabriele Gramelsberger (FU Berlin).
Anmeldung erforderlich bei Thomas Ludwig (DKRZ Hamburg).

Programm: http://www.geisteswissenschaften.fu-berlin.de/en/v/atmosphere-algorithms/news/Dialekte_Klimamodelle.html

eResearch und Bibliotheken? – Antrittsvorlesung Prof. Lossau@IBI

Am 10.01.2012 hielt Prof.Dr.Lossau im Rahmen der IBI-Kolloquienserie seine Antrittsvorlesung als Honorarprofessor am IBI in Berlin.
Sein Vortrag ging der Frage nach, welche Rolle die wissenschaftlichen Bibliotheken in der zukünftigen, als eResearch definierten Wissenschaft einnehmen können und wollen. Ausgehend von der kritischen Feststellung, dass Bibliotheken in Deutschland zur Zeit als eResearch Akteure  kaum sichtbar seien (mit wenigen Ausnahmen wie der SUB Göttingen  oder der TIB Hannover), plädierte Lossau für eine aktivere Rolle der wissenschaftlichen Bibliotheken in der Gestaltung von digitalen und digital gestützten Arbeitsumgebungen.

Mit Ausnahme des LIS-Förderbereichs der DFG sieht er den aktuellen Fokus der eResearch-Förderprogramme auf den Fachwissenschaften und Informatik-Partnern. Lossau sieht hier  Handlungsbedarf für die Bibliotheken: Es sei wichtig, sich als relevante Experten und potentielle Entwicklungspartner aktiv in die Gestaltung von eResearch Angeboten einzubringen. Eine konkurrierende Position zu den Rechenzentren sieht er nicht, vielmehr versteht er Bibliotheken und Rechenzentren als sich gegenseitig unterstützende Servicebereiche für die Forschung und Lehre.

In Abgrenzung zu rein technologie-orientierten Definitionen von eResearch betont Lossau die Relevanz des Verständnisses für  (neue) wissenschaftliche Arbeitsweisen. Er verweist an dieser Stelle an die  traditionelle Rolle der Bibliotheken als Partner in geistes-und sozialwissenschaftlichen Forschungsvorhaben an; hinsichtlich der Kooperation mit naturwissenschaftlichen Forschungsprojekten sieht er noch Verbesserungspotential.
Nach einem Kurzüberblick über aktuelle Strategiepapiere für wissenschaftliche Bibliotheken (LIBER, RLUK, ULC)  bringt Lossau „das Management der Kooperation mit Forschung und Lehre“ als große Herausforderung  für wissenschaftliche Bibliotheken auf den Punkt.

Als konkrete Handlungsempfehlung nennt er u.a.

  • die verbesserte, aktive Profilierung der Bibliotheken als eResearch Partner, insbesondere für lokale Forschungsvorhaben
  • die bewusste strategische Ausrichtung der Bibliotheken als Servicepartner in eResearch, relevant z.B. bei Neubesetzungen, internen Re-organisationen von Abteilungen oder dem Wissenstransfer von „eResearch Expertise“innerhalb einer Einrichtung
  • stärkeren Praxisbezug in der Ausbildung von wiss. Bibliothekaren

Praxeologie und Infrastrukturforschung

Am 2. und 3. Dezember 2011 fand in Heidelberg einPraxeologie-Workshop statt, veranstaltet vom SFB 933 „Materiale Textkulturen“ und der Heidelberger Graduiertenschule für Geistes- und Sozialwissenschaften. (Das Programm als PDF) Ich war eingeladen, über die Relevanz der Praktiken in der Infrastrukturforschung zu berichten.

Die unterschiedlichen Beiträge waren allesamt sehr interessant und zeigten das breite Spektrum an Forschungsfragen, bei denen der Blick auf Praktiken und Praxis eine Rolle spielt. Trotz der heterogenen Forschungskontexte haben wir einige Gemeinsamkeiten in den Fragestellungen festgestellt: Wie umgehen mit den nicht-menschlichen Akteuren? Wie kommen wir zu einer Präzisierung des Begriffes „Praxis“ oder wie lassen sich die Bedingungen systematisch analysieren, die aus individuellen Praktiken so etwas wie „Routine“ (skillfull performances nach Reckwitz) machen? Wie lassen sich Emotionalität und Intentionalität der Akteure forschungspraktisch „festhalten“?

Die Publikation eines Tagungsbandes ist für 2012 angedacht.

Ankündigung : Vortrag am High Performance Computing Center Stuttgart

Am 01. Februar 2012 bin ich eingeladen, einen Vortrag am High Performance Computing Center Stuttgart (HLRS) zu halten. Das HLRS veranstaltet seit einiger Zeit eine Seminarreihe „Gedanken zur Information“. Ich finde es vor allem interessant, dass solch ein Rechenzentren einen Schritt in Richtung eines interdisziplinären Austausches geht. Ich würde vermuten, dass sich darin die wandelnde Rolle (wissenschaftlicher) Rechenzentren wiederspiegelt.
Auch wenn bislang die Wissenschafts- und/oder die Universitätsforschung kaum  ein Auge auf Rechenzentren werfen – ich behaupte, dass sie  die neue Zentren der Macht im Gefüge der Wissenschaften sind.  An Rechenzentren kommt schon lange eigentlich keiner mehr vorbei – auch wenn sie als „Serviceeinrichtungen“ häufig ins Unsichtbare gedrängt werden. Das gilt im übrigen nicht nur für die eh schon datenintensiven Wissenschaften, sondern auch für die Geistes- und Sozialwissenschaften die zunehmend digitalisiert werden.

***

In meinem Vortrag werde ich mich mit der Sozialität von Grid-Technologie beschäftigen. Grid-Technologie-Entwicklung wurde im Rahmen der D-Grid Initiative seit 2005 durch das BMBF gefördert.

Abstract zum Vortrag „Grid: Technologie und soziale Praxis“ 

Im Rahmen der deutschen D-Grid-Initiative wurde 2004 die erste BMBF-Bekanntmachung „Community-Grids“ und „Grid-Middleware-Integrationsplattform“ veröffentlicht und ab 2005 haben verschiedene „Community“-Projekte, u. a. C3-Grid, MediGrid, HEP Grid, und das sogenannte D-Grid-Integrationsprojekt (DGI) ihre durch das BMBF geförderten Arbeiten aufgenommen (Überblick über die Projekte etwa unter http://www.d-grid.de).

Ziel der D-Grid Initiative war, wie im F&E-Rahmenprogramm zu lesen ist, nicht weniger als eine „tiefgreifende Verbesserung der wissenschaftlichen Leistungsfähigkeit und Qualität durch gemeinschaftliche Entwicklung und gegenseitige Öffnung von Arbeitsverfahren, Software, Datenbeständen, Rechnern und Großgeräten auf der Grundlage eines schnellen Kommunikationsnetzes“ (D-Grid-Initiative 2004: 3). Hervorgehoben wurden die Ermöglichung einer de-lokalisierten und auch fachübergreifenden Nutzung von IT-Ressourcen aller Art (Speicher, Daten, Services etc.) und eine damit einhergehende Befreiung des Forschenden „von informationstechnischen und administrativen Aufgaben […], damit er sich wieder stärker seinen eigentlichen wissenschaftlichen Problemen zuwenden kann“ (Schwiegelshohn 2005: 23).

Mit dem aktuellen Auslaufen der projektförmigen Förderungen durch das BMBF scheint mir ein guter Zeitpunkt gekommen zu sein, um einen sozialwissenschaftlich informierten Blick auf die Entwicklungen der letzten Jahre zu wagen. Grid, so die zu entfaltende These, ist eben mehr als eine Technologie – Grid ist auch eine Art Versammlungsort (neuer) Konstellationen der Macht im wissenschaftlichen Gefüge. Nun wird es mir nicht darum gehen, die einstigen Versprechen (Revolution, Paradigmenwechsel) mit dem Erreichten zu konfrontieren und abzugleichen. Vielmehr möchte ich im Vortrag die sozialen Dimensionen der Grid-Technologieentwicklung jenseits technikdeterministischer Lesarten zum Untersuchungsgegenstand machen, wobei der Schwerpunkt meiner Betrachtung auf der Entwicklung der Organisation von Wissenschaft und auf der Frage nach möglichen neuen soziotechnischen Verhältnissen liegen wird.

Für meine Ausführungen werde ich auf öffentlich zugängliche Dokumente zur D-Grid- Initiative und auf empirisches Material aus meinem aktuellen Forschungsprojekt „E-Science Interfaces“ über C3-Grid und TextGrid rekurrieren.

Literatur:
BMBF (2004): Bekanntmachung über die Förderung von Forschungsvorhaben auf dem Gebiet „e-Science und Grid-Middleware zur Unterstützung wissenschaftlichen Arbeitens“ im Rahmen der deutschen D-Grid-Initiative, Call 2004: „Community-Grids” und „Grid-Middleware-Integrationsplattform“, http://www.pt-it.de/pt-in/escience/docs/E-science_Call04_PTIN.pdf [11.11.11]
D-Grid: http://www.d-grid.de
D-Grid-Initiative (2004): F&E-Rahmenprogramm 2005 bis 2009, http://grid.desy.de/d-grid/RahmenprogrammEndfassung.pdf [11.11.11]
Schwiegelshohn, Uwe (2005): Middleware, in: Wissenschaftsmanagement (special). Zeitschrift für Innovation, Nr. 1, S. 23., http://www.pt-it.de/pt-in/escience/docs/WissenschaftsmanagementSpecial.pdf [11.11.11]

Tagungsbericht zur Tagung „Akademische Wissenskulturen“

Zu der Tagung „Akademische Wissenskulturen? Praktiken des Lehrens und Forschens vom Mittelalter bis zur Moderne“ auf der ich einen Vortrag zum Thema „Digital Humanities – Wissenschaft in Arbeit“ gehalten habe, ist jetzt ein Tagungsbericht erschienen:

http://hsozkult.geschichte.hu-berlin.de/tagungsberichte/id=3900

Themenoffene Nachwuchstagung 2011: Politik, Wissenschaft und Technik

Zwar hat dieser Eintrag nicht direkt etwas mit unserem E-Science Interfaces Projekt zu tun, aber immerhin mit meiner Person. Außerdem ist es vielleicht interessant, was in Sachen „Wissenschaft“ um das Projekt herum noch so von mir unternommen wird…

Mit zwei Kollegen organisiere ich folgende Tagung, die in der kommenden Woche am ZTG stattfinden wird.

Themenoffene Nachwuchstagung 2011: Politik, Wissenschaft und Technik (Programm)

Datum: 17.11. – 18.11.2011
Ort: Zentrum Technik und Gesellschaft (ZTG), Technische Universität Berlin
Organisation: Sonja Palfner, Jan-Peter Voss und Stefan Kuhlmann
(Arbeitskreis „Politik, Wissenschaft und Technik“ der Deutschen Vereinigung für Politische Wissenschaft,
http://www.politics-science-technology.org)
Zur offenen Diskussion von Forschungs- und Qualifikationsarbeiten sowie zur Vernetzung von jungen Forschenden aus dem interdisziplinären Bereich der sozialwissenschaftlichen Wissenschafts- und Technikforschung wird vom 17.11. bis 18.11.2011 eine Tagung am Zentrum Technik und Gesellschaft der Technischen Universität Berlin stattfinden.

Das Themenfeld Politik, Wissenschaft und Technik, mit dem wir uns auf der Tagung beschäftigen werden, umfasst Fragen, die eine lange Tradition in der sozialwissenschaftlichen Wissenschafts- und Technikforschung haben. Wie werden Wissenschaft und Technik gefördert, gestaltet und reguliert? Wie wirken Wissenschaft und Technik (ihr Wissen und ihre Artefakte) in politischen Prozessen? Was gilt zu unterschiedlichen Zeiten und in spezifischen Kontexten als technischer, wissenschaftlicher oder politischer Sachverhalt?

Die begriffliche Trennung und die Wechselwirkung zwischen Politik, Wissenschaft und Technik erfordert daher genaues Hinsehen. Das betrifft gesellschaftliche – und im engeren Sinne politische – Einflüsse auf die Wissenschafts- und Technikentwicklung (z. B. Innovationspolitik, Technikregulierung, Konflikte um Technikentwicklung). Dies betrifft umgekehrt aber auch die Prägung von Politik durch Wissenschaft und Technik (z. B. wissenschaftliches Wissen als Machtfaktor, Technisierung öffentlicher Verwaltung, Techniken politischen Handelns). Um diese konstitutive Verschränkung analytisch zugänglich zu machen, wird gelegentlich der Begriff der Ko-Evolution von Wissenschaft, Technik und Politik bemüht. Was genau unter Wissenschaft, Technik und Politik zu verstehen ist, wo die Grenzen gezogen oder verwischt werden und welche Praktiken zur wechselseitigen Konstitution, Stabilisierung und Destabilisierung beitragen, wird so zunehmend zum Gegenstand von Debatten.

Auf der Tagung haben Nachwuchswissenschaftlerinnen und Nachwuchswissenschaftler die Gelegenheit haben, ihre Arbeiten in entspannter Atmosphäre zu diskutieren. Die Tagung ist als Forum zum Ausprobieren konzipiert und lädt zu einer interdisziplinären Auseinandersetzung ein! Es besteht nicht der Anspruch, dass Papiere und Präsentationen perfekt sind. Wir wollen eine offene, kritische Diskussion über Verbesserungsmöglichkeiten anregen, damit alle Beteiligten möglichst viel dabei lernen können.

Hope-, Hype- and Fear-Technologies@TAB

Die jährliche Konferenz der EPTA (European Parliamentary Technology Assessment) fand dieses Jahr am 20.10.2011 im deutschen Bundestag statt, veranstaltet vom Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB). (Mehr zu EPTA )

Dieses Jahr standen drei unterschiedliche Fallstudien der Technologie-Entwicklung im Mittelpunkt:

  • Nanotechnologie
  • Internet/Cyber-Democracy sowie
  • Geo-/Climate Engineering

(siehe auch Programm und Einführung)

Diesen Technologie-Entwicklungen ist eines gemeinsam: der gesellschaftliche Diskurs darüber schwankt zwischen „Hope“ (Technologie als Lösung), „Hype“ (Technologie als Heilsbringer) und „Fear“ (Technologie als apokalyptische Vision). Wobei sich mir bis zum Schluß die Frage stellte, ob es denn überhaupt eine „normale“ (im Sinne von „neutraler“) Technologie gibt…

Die inhaltlich sehr unterschiedlichen Diskussionen drehten sich im Wesentlichen um die Fragen:
Sind HOPE, HYPE oder FEAR in manchen Fällen gerechtfertigt?
Wissen wir genug um die Auswirkungen der jeweiligen Technologie auf die Gesellschaft?
Was fehlt an wissenschaftlichen Fakten oder politischen Taten, um zu verhindern, dass sich HOPE in HYPE verwandelt, oder FEAR jegliches Technologie-Potential hemmt?
Und der Verbraucher – ignorant, uninformiert oder erstmal eine vernachlässigbare Größe?

Die Diskussion zur Nanotechnologie zeigte, dass die Politik „Fakten“ und „belastbares“ Wissen für ihre Entscheidungen von der Wissenschaft einfordert: durch den Mangel an einheitlichen Prüf- und Messmethoden in der Sicherheitsforschung komme es zu einer heterogenen Datenlage, die politische Entscheidungen unmöglich mache. Insbesondere in der Nanotechnologie scheint es je nach nationaler Legislative unterschiedliche Definitionen von „Nano“ zu geben, was sich an den Diskussionen zu dem umstrittenen neuen Chemikalienrecht der Europäischen Union (REACH) zeigte.

Besonders interesssant war der Verlauf der Diskussion zu Internet und Cyberdemocracy: War zunächst als technokratische Diskussion zu beobachten war, inwieweit das Internet als politisches Tool genutzt werden kann, endete mit  der offenen Frage, was direkte Demokratie überhaupt noch bedeuten kann – mit oder ohne Internet.
Internet hat keine demokratische Qualität per se, sondern entscheidend ist, in welchem Kontext es genutzt wird, oder besser: genutzt werden kann. In diesem Zusammenhang wurde eine Studie des flämischen Parlaments vorgestellt, die den Trend vom „digital divide“ (durch Mangel an Internetzugang) zur „digital exclusion“ (durch mangelnde Fähigkeiten im Umgang mit der Technologie) untersucht hat: Das soziale Ungleichgewicht zwischen den „empowered“ und „non-empowered“ nimmt zu. (Mehr zur Studie)

Climate-und Geo-Engineering ist ein relativ neues Thema für die TA, und ein großes moralisches Dilemma: Darf/Soll/Muss der Mensch in geo-bzw. biogeochemische Kreisläufe eingreifen, um mögliche Klima-Katastrophen einzudämmen? Führt Geo-Engineering die Erziehung für ein globales Klima-Bewusstsein ad absurdum? Und wie könnte eine Risiko-Abschätzung auf globalem Level überhaupt organisiert werden? Simulationen stoßen hier an die Grenzen der Skalierbarkeit theoretischer Modelle, und den Planeten Erde gibt es auch nur einmal, was Testläufe schwierig macht.
Deutlich war in dieser Diskussion, dass es noch keinen internationalen Konsens, geschweige denn Argumentationsstrategie gibt, weder für noch gegen Geo-Engineering: die Wissenschaftler stehen zunächst vorallem vor einer ethischen Frage, außerdem fehlen belastbare Risikoeinschätzungen zu bewussten Eingriffen in das Ökosystem. Hier wurde auch der Ruf nach der reinen Wissenschaft laut: Grundlagenforschung sei frei, und aus diesem Grund auch von dem ethischen Dilemma befreit. Ich fürchte, dass es einige anwesende Wissenschaftler gab, die das nicht wirklich befriedigt hat: Es gab deutlich kritische Wortmeldungen zu Sinn und Nutzen von Geo-Engineering. Jan Staman fasste diesen Konflikt in seinem Schlußwort etwa so zusammen: Ja, wir müssen dazu forschen. Ja, wir wollen es nie anwenden. Ja, ich schäme mich als Wissenschaftler dafür.

 

„Nachhaltiger Umgang mit qualitativen Daten“ (08.11.2011) – entfällt!

Krankheitsbedingt muss leider unser nächstes Praxis-Sprechen-Nach-Sechs-Treffen

zum Thema „Nachhaltiger Umgang mit qualitativen Daten“

entfallen.

Das war die Einladung – wir hoffen, dass wir bald einen neuen Termin finden.