Chomsky zur Rolle von Daten und Algorithmen für wissenschaftliche Erkenntnis

Ein anregendes (und sehr ausführliches Interview) mit Noam Chomsky über seine Sicht auf die aktuelle Artificial Intelligence (AI) findet sich im Atlantic Monthly
Chomsky kritisiert die Orientierung an statistischen Methoden und Datenanalyse der aktuellen AI, die zwar
Annäherungen an die Wirklichkeit biete, aber keine Erklärung des Wesens intelligenter Wesen oder Kognition. Mit unterschiedlichen Beispiele aus der Meteorologie, Biologie, Physik und Kognitionsforschung illustriert er seine Sicht auf eine  grundlegende Frage:
„The urge to gather more data is irresistible, though it’s not always clear what theoretical
framework these data might fit into. These debates raise an old and general question in the philosophy of science:
What makes a satisfying scientific theory or explanation, and how ought success be defined for science?“

Infrastrukturen für Forschungsdaten – (Wie) Lässt sich das Unbekannte planen?

Am 17. April 2012 fand am GFZ Potsdam ein Experten-Workshop für den „Umgang mit Forschungsdaten“ statt. Das DFG-geförderte Projekt „Radieschen“ hat als Veranstalter ein ambitioniertes Ziel vor Augen: eine Roadmap mit Handlungsempfehlungen für eine nationale, disziplinübergreifende Infrastruktur für Forschungsdaten zu erstellen.

Dafür wurden in dem Workshop vier Problemfelder in Break-out Sessions diskutiert:

  • Was sind sinnvolle und notwendige Richtlinien im Umgang mit Forschungsdaten (Policies und Anreizsysteme)?
  • Wie kommen die Daten (nicht) in die Infrastruktur?
  • Was sind Erfolgskriterien disziplinübergreifender Dienste (generische vs. disziplinspezifische Dienste)?
  • Was sind Möglichkeiten und Grenzen der Auslagerung und Zentralisierung von Diensten?

An anderer Stelle haben wir mal das Bild der „Gleichzeitigkeit des Ungleichzeitigen“ für die Dynamik in der Entwicklung von Infrastrukturtechnologien verwandt. In der Entstehung und Verbreitung von neuen Forschungstechnologien treffen die eigentliche Entwicklung (aka „Forschung“) und der Betrieb (aka „Anwendung“) aufeinander. Zeithaushalte, Motivationen, Möglichkeiten und Ziele sind jeweils unterschiedlich, aber sie bedingen einander in dem gemeinsamen Versprechen, einen höchst dynamischen Wissenschaftsbetrieb zu unterstützen.

In den einzelnen Sessions spiegelte sich diese Spannung an den zum Teil widersprüchlichen Meinungen der Teilnehmer wider: Braucht es noch mehr Werkzeuge, um der heterogenen Wissenspraxis gerecht zu werden? Oder braucht es weniger, dafür standardisiertere Werkzeuge, um die Interoperabilität und Kompatibilität zu gewährleisten? Braucht es mehr Forschung, um neue und/oder Altdaten möglichst automatisch in die Infrastruktur zu bekommen? Oder braucht es vielmehr Qualifikationsprogramme für wissenschaftliches Personal, das diese Arbeit leisten soll?

Wie so oft – die eine, richtige Antwort gibt es nicht. Insofern ist die gegen Ende der Veranstaltung konstatierte Ratlosigkeit hinsichtlich konkreter Maßnahmen für eine nationale Infrastrukturplanung auch keineswegs ein Zeichen des Scheiterns, sondern vielmehr ein Ausdruck für die vielfältigen Veränderungen, die die einzelnen Akteure in Wissenschaft und Wissenschaftsbetrieb erfahren: Das klassische Nutzerbild wandelt sich, Service-Anbieter werden selbst zu Nutzern, Wissenschaftler übernehmen nicht-wissenschaftliche Aufgaben wie das Schreiben von Spezifikationen oder Nutzer-und Öffentlichkeitsarbeit, Entwicklung und Betrieb von Anwendungen laufen parallel statt zeitlich versetzt uvm. Es dreht sich also nicht nur um die disziplin-spezifischen Unterschiede prospektiver Nutzer, sondern auch um zeitgleich stattfindende Veränderungen im wissenschaftlichen Betrieb, in Arbeitsweisen, Verantwortlichkeiten oder Geschäftsmodellen.

Für eine umfassende Planung einer Forschungsdaten-Infrastruktur erscheint mir eine stärkere Einbindung von Forschung zu den unterschiedlichen sozialen Gemeinschaften, die an und mit Infrastruktur arbeiten, unumgänglich. Das zeigt auch der Fokus der einzelnen Sessions: Policies, Richtlinien, Arbeitsweisen, Geschäftsmodelle sind auch technische, aber vor allem soziale bzw. organisationale Fragen. Hier bietet sich die Einbindung von sozialwissenschaftlicher Forschung (wie z.B. der Wissenschaftssoziologie) an, was aber als konkrete Praxis keineswegs trivial ist: Die kritische, de- und re-konstruierende Perspektive der Science and Technology Studies (STS) auf Kausalbeziehungen, mit der latenten Gewissheit des „It could have been otherwise“, scheint erstmal schwierig mit einer normativen Perspektive der Planung und Steuerung vereinbar zu sein. Dazu kommt eine Variante der „Gleichzeitigkeit des Ungleichzeitigen“: Während z.B. die Wissenschaftssoziologie erstmal verstehen will, wann überhaupt ein Wissenschaftler von „Daten“ spricht und unter welchen Umständen er diese Daten (nicht) zur Verfügung stellt, müssen in der technischen oder politischen Infrastruktur-Planung bereits Entscheidungen getroffen werden.

Hier reihe ich mich wieder ein in die anfangs konstatierte Ratlosigkeit…und frage mich nicht nur nach dem „Was“, sondern vorallem auch nach dem „Wie“. Die Frage nach einer inhaltlichen Ausgestaltung einer nationalen Infrastruktur für Forschungsdaten steht meines Erachtens in enger Verbindung zur Frage nach der Form, den Strukturen der Zusammenarbeit in der ständigen Weiterentwicklung dieser Infrastruktur. Und das betrifft nicht nur die Interaktion der unterschiedlichen Akteure in der Praxis (wie Fachwissenschaften und IT), sondern auch die Organisation einer interdisziplinäre Forschung am empirischen Objekt „Forschungsinfrastrukturen“.

 

Praxeologie und Infrastrukturforschung

Am 2. und 3. Dezember 2011 fand in Heidelberg einPraxeologie-Workshop statt, veranstaltet vom SFB 933 „Materiale Textkulturen“ und der Heidelberger Graduiertenschule für Geistes- und Sozialwissenschaften. (Das Programm als PDF) Ich war eingeladen, über die Relevanz der Praktiken in der Infrastrukturforschung zu berichten.

Die unterschiedlichen Beiträge waren allesamt sehr interessant und zeigten das breite Spektrum an Forschungsfragen, bei denen der Blick auf Praktiken und Praxis eine Rolle spielt. Trotz der heterogenen Forschungskontexte haben wir einige Gemeinsamkeiten in den Fragestellungen festgestellt: Wie umgehen mit den nicht-menschlichen Akteuren? Wie kommen wir zu einer Präzisierung des Begriffes „Praxis“ oder wie lassen sich die Bedingungen systematisch analysieren, die aus individuellen Praktiken so etwas wie „Routine“ (skillfull performances nach Reckwitz) machen? Wie lassen sich Emotionalität und Intentionalität der Akteure forschungspraktisch „festhalten“?

Die Publikation eines Tagungsbandes ist für 2012 angedacht.

Ankündigung : Vortrag am High Performance Computing Center Stuttgart

Am 01. Februar 2012 bin ich eingeladen, einen Vortrag am High Performance Computing Center Stuttgart (HLRS) zu halten. Das HLRS veranstaltet seit einiger Zeit eine Seminarreihe „Gedanken zur Information“. Ich finde es vor allem interessant, dass solch ein Rechenzentren einen Schritt in Richtung eines interdisziplinären Austausches geht. Ich würde vermuten, dass sich darin die wandelnde Rolle (wissenschaftlicher) Rechenzentren wiederspiegelt.
Auch wenn bislang die Wissenschafts- und/oder die Universitätsforschung kaum  ein Auge auf Rechenzentren werfen – ich behaupte, dass sie  die neue Zentren der Macht im Gefüge der Wissenschaften sind.  An Rechenzentren kommt schon lange eigentlich keiner mehr vorbei – auch wenn sie als „Serviceeinrichtungen“ häufig ins Unsichtbare gedrängt werden. Das gilt im übrigen nicht nur für die eh schon datenintensiven Wissenschaften, sondern auch für die Geistes- und Sozialwissenschaften die zunehmend digitalisiert werden.

***

In meinem Vortrag werde ich mich mit der Sozialität von Grid-Technologie beschäftigen. Grid-Technologie-Entwicklung wurde im Rahmen der D-Grid Initiative seit 2005 durch das BMBF gefördert.

Abstract zum Vortrag „Grid: Technologie und soziale Praxis“ 

Im Rahmen der deutschen D-Grid-Initiative wurde 2004 die erste BMBF-Bekanntmachung „Community-Grids“ und „Grid-Middleware-Integrationsplattform“ veröffentlicht und ab 2005 haben verschiedene „Community“-Projekte, u. a. C3-Grid, MediGrid, HEP Grid, und das sogenannte D-Grid-Integrationsprojekt (DGI) ihre durch das BMBF geförderten Arbeiten aufgenommen (Überblick über die Projekte etwa unter http://www.d-grid.de).

Ziel der D-Grid Initiative war, wie im F&E-Rahmenprogramm zu lesen ist, nicht weniger als eine „tiefgreifende Verbesserung der wissenschaftlichen Leistungsfähigkeit und Qualität durch gemeinschaftliche Entwicklung und gegenseitige Öffnung von Arbeitsverfahren, Software, Datenbeständen, Rechnern und Großgeräten auf der Grundlage eines schnellen Kommunikationsnetzes“ (D-Grid-Initiative 2004: 3). Hervorgehoben wurden die Ermöglichung einer de-lokalisierten und auch fachübergreifenden Nutzung von IT-Ressourcen aller Art (Speicher, Daten, Services etc.) und eine damit einhergehende Befreiung des Forschenden „von informationstechnischen und administrativen Aufgaben […], damit er sich wieder stärker seinen eigentlichen wissenschaftlichen Problemen zuwenden kann“ (Schwiegelshohn 2005: 23).

Mit dem aktuellen Auslaufen der projektförmigen Förderungen durch das BMBF scheint mir ein guter Zeitpunkt gekommen zu sein, um einen sozialwissenschaftlich informierten Blick auf die Entwicklungen der letzten Jahre zu wagen. Grid, so die zu entfaltende These, ist eben mehr als eine Technologie – Grid ist auch eine Art Versammlungsort (neuer) Konstellationen der Macht im wissenschaftlichen Gefüge. Nun wird es mir nicht darum gehen, die einstigen Versprechen (Revolution, Paradigmenwechsel) mit dem Erreichten zu konfrontieren und abzugleichen. Vielmehr möchte ich im Vortrag die sozialen Dimensionen der Grid-Technologieentwicklung jenseits technikdeterministischer Lesarten zum Untersuchungsgegenstand machen, wobei der Schwerpunkt meiner Betrachtung auf der Entwicklung der Organisation von Wissenschaft und auf der Frage nach möglichen neuen soziotechnischen Verhältnissen liegen wird.

Für meine Ausführungen werde ich auf öffentlich zugängliche Dokumente zur D-Grid- Initiative und auf empirisches Material aus meinem aktuellen Forschungsprojekt „E-Science Interfaces“ über C3-Grid und TextGrid rekurrieren.

Literatur:
BMBF (2004): Bekanntmachung über die Förderung von Forschungsvorhaben auf dem Gebiet „e-Science und Grid-Middleware zur Unterstützung wissenschaftlichen Arbeitens“ im Rahmen der deutschen D-Grid-Initiative, Call 2004: „Community-Grids” und „Grid-Middleware-Integrationsplattform“, http://www.pt-it.de/pt-in/escience/docs/E-science_Call04_PTIN.pdf [11.11.11]
D-Grid: http://www.d-grid.de
D-Grid-Initiative (2004): F&E-Rahmenprogramm 2005 bis 2009, http://grid.desy.de/d-grid/RahmenprogrammEndfassung.pdf [11.11.11]
Schwiegelshohn, Uwe (2005): Middleware, in: Wissenschaftsmanagement (special). Zeitschrift für Innovation, Nr. 1, S. 23., http://www.pt-it.de/pt-in/escience/docs/WissenschaftsmanagementSpecial.pdf [11.11.11]

Bloggen – eine Frage der Anerkennung?

Am 13.11. las ich in der FAZ Sonntagszeitung einen Artikel über Wirtschaftsblogs. Diese, so der Artikel, würden zunehmend Anerkennung finden:

„Im englischsprachigen Raum hat inzwischen fast jeder Professor, der etwas auf sich hält, ein eigenes Blog […] Die amerikanischen Forscher nehmen die Blogs sogar so ernst, dass manche Universität sie offiziell ins Forschungsprogramm aufgenommen hat.“ (FAZ Sonntagszeitung, 13.11.11, S. 34)

Auch wenn ich davon (noch) nichts merke – klar, unser Projektblog ist winzig und wir sind auch keine Wirtschaftswissenschaftlerinnen 😉 – , so ist es doch spannend, etwas über einen Wandel zu lesen, der sich tatsächlich in einer veränderten Praxis („bloggen und dafür an anderer Stelle weniger publizieren  müssen“) niederschlagen kann.
Freilich wäre es interessant zu wissen, woher der Impuls zur Anerkennung kommt. Sind es die eigenen Kollegen und Kolleginnen, bei denen das Bloggen zunehmend auf Interesse stößt, oder sind es Präsidien und andere Strukturen, die Anreize setzen um das Bloggen prominenter werden zu lassen?

Das Blog ist zumindest heute kein attraktiver Ort für den „ordentlichen“ wissenschaftlichen Artikel – eher scheint doch das Essay, die Skizze, der fußnotenfreie Gedanke in das Format „Blog“ zu passen. Das würde bedeuten, dass sich eine Schreibkultur, die in erster Linie den langen Artikel bevorzugt, öffnen müsste. Ich höre schon, wie der Vorwurf des „Unwissenschaftlichen“ laut wird.

Empirischer Herbstbericht 2011

Nachdem wir die Interviews zur Genese von TextGrid und C3-Grid durchgeführt haben und die Transkripte vorliegen, geht es jetzt in die zweite Interviewphase und Reiserei;).
Hier führen wir (aufbauend auf den Erfahrungen aus den Interviews zur Genese) Interviews zu den Entwicklungen in der ersten Förderphase der beiden E-Infrastrukturprojekte TextGrid und C3-Grid durch.

Hier ist der Leitfaden zu den Genese-Interviews. Ziel war es, die Entstehung (bis zur jeweiligen Bewilligung durch das BMBF) zu rekonstruieren (pdf). An dieser Stelle noch einmal ein herzliches Dankeschön an alle Personen aus den Projekten, die uns für die Interviews zur Verfügung standen (immerhin haben die Interviews im Schnitt 120 Minuten gedauert)!

*** Ziel ist es jetzt, die zweite Interviewphase im Dezember 2011 abzuschließen. Ursprünglich sollte auch die dritte Interviewphase in diesem Jahr abgeschlossen werden. Dieser Plan war nicht nur zu ehrgeizig – auch macht es inhaltlich Sinn, die dritte Runde in das neue Jahr zu schieben, da sich derzeit beide Projekte noch in der zweiten Förderphase befinden. Und um diese Entwicklungen soll es in der dritten Interviewrunde ja auch gehen.

Aktuell schließen wir die Ausarbeitung des Leitfadens für die zweite Runde ab,  identifizieren die relevanten Personen und nehmen in den nächsten Tagen Kontakt auf. Dann werden die Termine vereinbart und es kann losgehen!

.hist 2011 – Geschichte im digitalen Wandel

Vom 14.-15.September 2011 fand an der Humboldt-Universität Berlin die .hist 2011 Konferenz statt. Unser Projekt war auf der Posterausstellung vertreten. Neben Vorträgen und Werkstattberichten war die Konferenz auch Rahmen für das 15-jährige Jubiläum von H-Soz-u-Kult, dem Fach- und Kommunikationsforum für die Geschichtswissenschaften, und dem einjährigen Bestehen von „L.I.S.A. – Das Wissenschaftsportal der Gerda Henkel Stiftung“ .

Die Vorträge waren inhaltlich in vier Sessions organisiert. Parallel liefen die Werkstattberichte, i.e. Präsentationen unterschiedlichster Projekte aus der digitalen Geschichtswissenschaft. Abstracts der Sektionen und Werkstattberichte sind online

In der Sektion „Virtuelle Forschung und Geschichtswissenschaften 2.0“ referierte der Medienwissenschaftler Stefan Münker seine These über den Status Quo des digitalen Wandels: Digitalisierung versetze uns in einen Zustand jenseits der Technik. Erst die Art und Weise der Nutzung sei entscheidend für das qualitativ Andere des digitalen Wandels in der Forschung: „It’s the practice, stupid“. Manfred Thaller, der „Nestor der Computer Science in den Humanities“ (Hohls), erläuterte seine Überlegungen zu eScience, der „mechanistischen Übernahme“ der entsprechenden Begriffe und Konzepte aus den Hard Sciences und fragt u.a. nach der Bedeutung der „mobilen Revolution“ in der historischen Entwicklung von virtuellen Forschungsumgebungen. In seinem Modell der historischen Forschung können virtuelle Forschungsumgebungen Praktiken wie Transkription oder Edition unterstützen. Inwieweit virtuelle Forschungsumgebungen bzw. Service-Einrichtungen aber die intellektuell-analytische Forschungstätigkeit der Historiker unterstützen können, ist seiner Ansicht nach noch offen. Torsten Reimer gab einen Überblick über Stand und Entwicklung der Förderprogramme von JISC in Großbritannien, u.a. eine Geschichte des Ressourcenkampfes zwischen Forschung, Lehre und Infrastrukturen dafür.

In der Sektion „Digitale Quellenkritik und Data Driven History“ ging Eva Pflanzelter von der Quellenkritik als Nadelöhr des historischen Erkenntnisprozesses aus und stellte die Garantie für eine „Echtheit“ von Primär- und Sekundärquellen im Internet kritisch zur Diskussion. Theo Röhle referierte über „Hypes“ und „Konjunkturen“ in der Entwicklung quantitativer Methoden in den Geisteswissenschaften und betonte die enge, ggf. auch produktive Wechselwirkung zwischen Theorie-Diskussion und (technischer) Praxis .

In der Sektion „Narrativität und Medialität“ gab Markus Krajewski Einblick in die Funktionen seines individuellen digitalen Zettelkastens und zeigte die Zusammenhänge zwischen der Entwicklung der Anwendung und der Leitthesen für sein aktuelles Forschungsprojekt auf.

In der Sektion„ Grenzverschiebungen zwischen Wissenschaft und Öffentlichkeit“ wurden Fragen nach den Machtverhältnissen und der „Interpretationshoheit“ an der Grenze zwischen Wissenschaft und Öffentlichkeit  diskutiert. Dabei dominierte vorallem der pessimistische Tenor, als man über den „Abschiedsschmerz vom Elfenbeinturm“, der „öffentlichen Inszenierung von Wissenschaft“ oder der „Instrumentalisierung von Öffentlichkeit in der Antragslyrik“ sprach. Michael Hengstenberg berichtete von  einestages.de, dem Zeitgeschichte-Portal von Spiegel Online. Hier muss eine redaktionelle Steuerung natürlich nicht nur die fachwissenschaftlichen, sondern auch die betriebswirtschaftlichen Gesichtspunkte berücksichtigen. Aber auch rein fachwissenschaftlich getriebene Projekte stehen unter Druck der öffentlichen Aufmerksamkeit bzw. der alles dominierenden Relevanz-Frage der Geisteswissenschaften. Maren Lorenz spielte den Advocatus diaboli und stellte im Kontext der „Aufmerksamkeits-Ökonomie“ des Internet die Frage an die Historiker: Definieren wir unsere Ziele noch selbst?

 

TEI – Lost in translation? Einblicke in Infrastrukturarbeit

Am 16. August kam über Twitter (#teiputsch) die Meldung, dass der Vorsitzende des TEI-C Board, Martin Mueller, zurückgetreten war. (Danke an Markus B. Schnoepf für den Hinweis auf der FB-Gruppe Digital Humanities Berlin)

In Folge spekulierte die Community u.a., in wieweit ein offener Brief (1) von Martin Mueller an die TEI-Gemeinde eine Rolle in den Geschehnissen spielt. Das hat mich neugierig gemacht – eine Wertung seiner Gedanken zum aktuellen Stand der TEI liegt mir fern, aber in jedem Fall gab mir die Lektüre des offenen Briefes Anregungen, um über unterschiedliche Aspekte der Infrastrukturarbeit im wissenschaftlichen Bereich nachzudenken.
(In der Zwischenzeit gab es auch eine Reaktion des Technical Council von TEI zum Rücktritt.)

Die Schwierigkeiten der TEI-Community, die Mueller in seinem Brief kritisch anspricht, geben einen möglichen Blick auf Infrastrukturarbeit: Es geht um Kompromisse zwischen unterschiedlichen Erwartungshaltungen, um mögliche „Gewinner und Verlierer“(2), die im Zuge der Infrastrukturarbeit zwangsläufig entstehen.
Mueller sieht eine Herausforderung in der aktuellen Rolle der TEI als Hybrid zwischen Standardisierungsgremium, wissenschaftlicher Gemeinschaft und Institution, die Mitgliedsgebühren erheben muss.Er erzählt von den Schwierigkeiten, über den Wert einer wissenschaftlichen Technologie mit den Vertretern der lokalen Serviceeinrichtungen zu verhandeln. Der „wissenschaftliche Mehrwert“ einer Forschungsinfrastrukturleistung muss schließlich auch in lokalen Budget-Entscheidungen vertreten werden. Er spricht über die Schwierigkeiten der Ausweitung des Nutzerkreises für eine wissenschaftliche Technologie, die zwar hochspezialisierte Auszeichnungen ermöglicht, aber seines Erachtens nur von einem geringen Teil der Forscher „decoded“ werden kann.
Eine seiner Kernaussagen ist die aus seiner Sicht mangelnde Berücksichtigung von Interoperabilität. „Unnecessary divergence and inconsistency (…) are only one reason for the fact that much of TEI encoding is „lost in translation“ “ (1, S.9): Die verstärkte Nutzung eines „basic set of tags“ sollte eine erste, grundlegende Verknüpfung unterschiedlicher Daten ermöglichen. Die Kernkodierung, wie sie in TextGrid genutzt wird, sieht er als positives Beispiel für die Idee einer „TEI-API for query tools“. Gleichzeitig sieht er einen Bedarf an der Fokussierung auf Such- und Indexierungstechnologien,  um das mögliche Query Potential reich ausgezeichneter XML-Dokumente auch effizient zu nutzen.

Infrastrukturarbeit bedeutet vorrangig Übersetzungs- und Vermittlungsarbeit zwischen Mensch und Maschine. Diese Vermittlung läuft mittels Technologie (wie Programmier- und Auszeichnungssprachen, Schnittstellen oder Protokolle), aber natürlich auch mittels sozialer Interaktion in der Entwicklung einzelner Bausteine von Forschungsinfrastrukturen. In dieser Vermittlung wird übersetzt, und damit wird auch ein- und ausgeschlossen. Durch die dynamische Interaktion der menschlichen als auch der nicht-menschlichen Akteure einer Infrastruktur unterliegen auch die notwendigen Übersetzungspraktiken einer ständigen Revision und Weiterentwicklung.
Auch die Entwicklung von TEI als wissenschaftliche Auszeichnungssprache für (historische) Texte ist „work in progress“, die notwendigerweise von Spannungen begleitet wird: Die Entscheidung über „notwendige“ und „optionale“ Elemente für sinnhafte Auszeichnung von wissenschaftlich relevanten Entitäten der Texte kann inter- und intradisziplinär stark variieren.
(Ein anderes Beispiel für die Notwendigkeit der ständigen Weiterentwicklung der Übersetzungstechnologie  ist das mit 1,69 Millionen Euro geförderte BMBF-Projekt ECOUSS, in dem u.a. Automatismen zur Anpassung von Compilern an die dynamische Entwicklung der parallelen Rechnerarchitekturen entwickelt werden soll. Mehr dazu hier oder hier )

Unabhängig, auf welcher „Ebene“ (oder „Layer“) der Infrastruktur übersetzt wird, es geht im Endeffekt immer um die Interaktion in einem sozio-technischen System: Mensch und Maschine agieren miteinander und stellen dabei ihre eigenen Bedingungen an die Kommunikation. Diese Bedingungen werden in der Entwicklung von Forschungsinfrastrukturen verhandelt. Dabei treffen unterschiedlichen Sprachen, Wissensbestände, Wertigkeiten und Praktiken aufeinander.  Peter Galison, in seiner Rekonstruktion der Entwicklung der Mikrophysik, prägte dafür den Begriff trading zone „as a social, material, and intellectual mortar binding together the disunified traditions of experimenting, theorizing, and instrument building.“(3)

Eine – wie auch immer wissenschaftlich definierte – „gelungene“ Kommunikation innerhalb von Forschungsinfrastruktren ist auch das Ergebnis der Verhandlungen über „generische“ und „spezifische“ Funktionalitäten sowie über die notwendige Weiterentwicklung von Technologien, Communities und tragenden Einrichtungen von Forschungsinfrastrukturen. Die „trading zone“ ist somit auch ein Ort der Verhandlungen über das noch Unbekannte. Und diese Verhandlungen sind geprägt von den unterschiedlichen Vorstellungen zum Umgang mit dem „Werdenden“, das nicht zuletzt beschrieben, geplant, entwickelt und finanziert werden soll. Die unterschiedlichen Vorstellungen zu „Innovation“ und „Nachhaltigkeit“ sind relevante Werte, mit denen dabei gehandelt wird.

(1) Letter to members of the TEI-C Board and Council. From Martin Mueller, chair, TEI-C Board. August 4, 2011.
(2) vgl.Edwards, Paul N.; Jackson, Steven J., Bowker, Geoffrey C. and Cory P. Knobel: Understanding Infrastructure: Dynamics, Tensions, and Design. Ann Arbor: DeepBlue 2007. S.24.
(3) Galison, Peter:Image and Logic. A Material Culture of Microphysics. UCP 1997. S.803

Materialität des Virtuellen – Vor der Sommerpause:)

Materialität des Virtuellen

In Forschung und Lehre sind der Computer und das Internet nicht mehr wegzudenken. Ein „E“ zeigt an, dass man sich auf den Weg durch das digitale Zeitalter begeben hat: Lehrende sind aufgefordert, sich in E-Learning weiterzubilden und Lernplattformen in ihren (nicht selten unbezahlten) Lehralltag zu integrieren. Es ist die Rede von E-Science und von E-Humanities. In der Forschung stößt man immer häufiger auf den Begriff der Virtuellen Forschungsumgebung und gerade Natur- und Technikwissenschaften kommen schon lange nicht mehr ohne stetig steigende Rechenleistung aus. Ein Begleiter dieser Entwicklung, die sich in einer wachsenden Anzahl an entsprechenden Konferenzen und Publikationen materialisiert, ist das Versprechen nach einer besseren Wissenschaft: „The outcome from such an undertaking is clear and substantial: new, faster, better and different science than has been possible before”(Coveney/Atkinson 2009).

Versprechen, so hat es Michel Fortun für die Genomik formuliert, „verweilen unsicher im Raum zwischen Gegenwart und Zukunft“ (Fortun 2000: 115). Begleitet wird das digitale Loblied nicht selten von Stimmen, die nur darauf warten laut zu werden, sobald sich ein Versprechen als Versprecher entpuppt. Ich denke, dass pauschale Aussagen so oder so ausgerichtet, wenig nützen. Viel interessanter scheint mir die Frage zu sein, unter welchen Möglichkeitsbedingungen Wissenschaft digital handelt und handeln soll. Die Debatten rund um unsere digitale Zukunft in Forschung und Lehre könnten gewinnbringender sein,  wenn es gelänge, den Blick von den fantastischen Szenerien des Virtuellen abzuziehen und schlicht die materiellen Beschaffenheiten und Voraussetzungen der E-Science genauer zu betrachten.  Hierzu gäbe es viel zu sagen: Angefangen bei der Frage nach den Energiekosten für all unser Datentreiben (die Kosten gehen in die Millionen) bis hin zur genaueren Betrachtung der Rolle von (Supercomputer-)Rechenzentren und ihren Zusammenschlüssen beispielsweise in der deutschen Gauss Allianz. Ich denke, wir könnten über diese und andere wichtige Themen im Kontext von Forschung und Lehre im digitalen Zeitalter besser sprechen, wenn wir hinter die Trennung zwischen Forschung/Lehre und Infrastruktur/Dienstleistung blickten – denn diese Ordnung der Wissenschaft, so meine Vermutung, muss neu verhandelt werden. Eine knappe Ausführung zu dieser Vermutung soll die angedeutete Denkbewegung erhellen: Betrachten wir die Geistes- und Sozialwissenschaften, die ebenso wie alle anderen Wissenschaften von Drittmitteln abhängig sind und für die somit die Frage „Was wird gefördert?“ keine Kleinigkeit ist. Aktuell hat das Bundesministerium für Bildung und Forschung Richtlinien zur Förderung von Forschungs- und Entwicklungsvorhaben aus dem Bereich der E-Humanities veröffentlicht (www.bmbf.de/foerderungen/16466.php). Gefragt sind Vorhaben, die „in Kooperation mit informatiknahen Fächern neue Forschungsansätze in ihren Fachdisziplinen entwickeln“ (ebd.). Nicht gefördert werden u.a. Infrastrukturwerkzeuge und Infrastrukturentwicklung.

Digital vernetzt stellt sich die Frage, wo Infrastruktur aufhört und Forschung anfängt? Es ist nicht untypisch, dass die informationstechnischen Aufgaben und die Menschen (!), die diese vollbringen sollen, unter Infrastruktur oder Dienstleistung verbucht werden. Ein Ergebnis dieser hierarchischen Trennung in Forschung und Service ist häufig, dass der „Dienstleistungsbereich IT“ häufig personell chronisch unterbelegt ist. Es scheint für viele Wissenschaftler/-innen (oder für die geldgebenden Institutionen) nicht vorstellbar, dass der Computer kein Ding ist, dass einfach irgendwo aufgestellt von alleine läuft; erst recht, wenn es um komplexe virtuelle Forschungsumgebungen oder Höchstleistungsrechnersysteme geht. Wir sind die glatte Oberfläche von Microsoft gewöhnt, so dass unser digitales Analphabetentum zum Glück nicht auffällt. Das Phänomen der unsichtbaren Arbeit scheint auch in der Lehre seine Spur zu ziehen. Didaktisch ansprechende und anspruchsvolle Lehre zu gestalten und durchzuführen braucht Zeit und Unterstützung (abgesehen davon, dass es nicht sein kann, dass E-Learning dafür herhalten soll, eine wachsende Zahl an Studierenden durch das Studium zu bringen).

Wo fängt E-Infrastruktur an und wo hört E-Science auf? Diese Frage braucht eine Perspektivverschiebung: Wer bestimmt was Infrastruktur/Service  und was wissenschaftliche Praxis ist, wie werden überhaupt die Ressourcen verteilt? Denn eines dürfte klar sein: Der (politische) Unwille zur adäquaten Förderung wissenschaftlicher Institutionen und die damit zusammenhängende Mittelknappheit (selbstredend nicht überall gleichermaßen ausgeprägt) können dazu führen, dass anstelle eines Sich-Aufeinander-Zubewegens der Graben nur noch tiefer wird, etwa nach dem Motto: Fließen die Mittel in die Infrastruktur, dann fehlen sie mir in der Forschung. Ob digital oder nicht, ein anderes Ver-(Handeln) ist nötig und so kann das „E“ auch eine Möglichkeit sein, jene dringende Frage gemeinsam – und zwar unterhalb der Trennung in Forschung und Infrastruktur – zu diskutieren: Welche Wissenschaft wollen wir?

 

Literatur:

Coveney, Peter V. & Atkinson, Malcolm P. (2009): Crossing boundaries: computational science, e-Science and global e-Infrastructure, in: Phil. Trans. R. Soc. A 2009 367, 2425-2427, http://rsta.royalsocietypublishing.org/content/367/1897/2425.full.pdf [download 28.05.11].

Fortun, Michael (2000): Vielversprechende Genomik verspricht Vielfalt: Wenn die Industrie auf die Zukunft setzt, warum nicht auch wir? In: Amann, Klaus für das Deutsche Hygiene-Museum (Hrsg): Natur und Kultur: Gentechnik und die unaufhaltsame Auflösung einer modernen Unterscheidung, Dresden: Dt. Hygiene-Museum, 113-133.

Encoded Experiences

Unter diesem verheißungsvollen Titel erläutert James Bridle (u.a. Autor, Programmierer und Designer),  was seiner Meinung nach schief läuft bei der Digitalisierung:

“ The great misunderstanding of digitization is to believe that it is only the content and the appearance that matters. That, to reproduce the experience of the book, we needed to make a screen that looked like a page, that turned like a page, that contained words. “

Konkrete Beispiele für das kodierte Erleben gibt es zwar nicht, aber kurzweilige Unterhaltung findet sich trotzdem unter  http://www.ireadwhereiam.com/

(und schick sieht sie allemal aus, die Seite….;-)