TEI – Lost in translation? Einblicke in Infrastrukturarbeit

Am 16. August kam über Twitter (#teiputsch) die Meldung, dass der Vorsitzende des TEI-C Board, Martin Mueller, zurückgetreten war. (Danke an Markus B. Schnoepf für den Hinweis auf der FB-Gruppe Digital Humanities Berlin)

In Folge spekulierte die Community u.a., in wieweit ein offener Brief (1) von Martin Mueller an die TEI-Gemeinde eine Rolle in den Geschehnissen spielt. Das hat mich neugierig gemacht – eine Wertung seiner Gedanken zum aktuellen Stand der TEI liegt mir fern, aber in jedem Fall gab mir die Lektüre des offenen Briefes Anregungen, um über unterschiedliche Aspekte der Infrastrukturarbeit im wissenschaftlichen Bereich nachzudenken.
(In der Zwischenzeit gab es auch eine Reaktion des Technical Council von TEI zum Rücktritt.)

Die Schwierigkeiten der TEI-Community, die Mueller in seinem Brief kritisch anspricht, geben einen möglichen Blick auf Infrastrukturarbeit: Es geht um Kompromisse zwischen unterschiedlichen Erwartungshaltungen, um mögliche „Gewinner und Verlierer“(2), die im Zuge der Infrastrukturarbeit zwangsläufig entstehen.
Mueller sieht eine Herausforderung in der aktuellen Rolle der TEI als Hybrid zwischen Standardisierungsgremium, wissenschaftlicher Gemeinschaft und Institution, die Mitgliedsgebühren erheben muss.Er erzählt von den Schwierigkeiten, über den Wert einer wissenschaftlichen Technologie mit den Vertretern der lokalen Serviceeinrichtungen zu verhandeln. Der „wissenschaftliche Mehrwert“ einer Forschungsinfrastrukturleistung muss schließlich auch in lokalen Budget-Entscheidungen vertreten werden. Er spricht über die Schwierigkeiten der Ausweitung des Nutzerkreises für eine wissenschaftliche Technologie, die zwar hochspezialisierte Auszeichnungen ermöglicht, aber seines Erachtens nur von einem geringen Teil der Forscher „decoded“ werden kann.
Eine seiner Kernaussagen ist die aus seiner Sicht mangelnde Berücksichtigung von Interoperabilität. „Unnecessary divergence and inconsistency (…) are only one reason for the fact that much of TEI encoding is „lost in translation“ “ (1, S.9): Die verstärkte Nutzung eines „basic set of tags“ sollte eine erste, grundlegende Verknüpfung unterschiedlicher Daten ermöglichen. Die Kernkodierung, wie sie in TextGrid genutzt wird, sieht er als positives Beispiel für die Idee einer „TEI-API for query tools“. Gleichzeitig sieht er einen Bedarf an der Fokussierung auf Such- und Indexierungstechnologien,  um das mögliche Query Potential reich ausgezeichneter XML-Dokumente auch effizient zu nutzen.

Infrastrukturarbeit bedeutet vorrangig Übersetzungs- und Vermittlungsarbeit zwischen Mensch und Maschine. Diese Vermittlung läuft mittels Technologie (wie Programmier- und Auszeichnungssprachen, Schnittstellen oder Protokolle), aber natürlich auch mittels sozialer Interaktion in der Entwicklung einzelner Bausteine von Forschungsinfrastrukturen. In dieser Vermittlung wird übersetzt, und damit wird auch ein- und ausgeschlossen. Durch die dynamische Interaktion der menschlichen als auch der nicht-menschlichen Akteure einer Infrastruktur unterliegen auch die notwendigen Übersetzungspraktiken einer ständigen Revision und Weiterentwicklung.
Auch die Entwicklung von TEI als wissenschaftliche Auszeichnungssprache für (historische) Texte ist „work in progress“, die notwendigerweise von Spannungen begleitet wird: Die Entscheidung über „notwendige“ und „optionale“ Elemente für sinnhafte Auszeichnung von wissenschaftlich relevanten Entitäten der Texte kann inter- und intradisziplinär stark variieren.
(Ein anderes Beispiel für die Notwendigkeit der ständigen Weiterentwicklung der Übersetzungstechnologie  ist das mit 1,69 Millionen Euro geförderte BMBF-Projekt ECOUSS, in dem u.a. Automatismen zur Anpassung von Compilern an die dynamische Entwicklung der parallelen Rechnerarchitekturen entwickelt werden soll. Mehr dazu hier oder hier )

Unabhängig, auf welcher „Ebene“ (oder „Layer“) der Infrastruktur übersetzt wird, es geht im Endeffekt immer um die Interaktion in einem sozio-technischen System: Mensch und Maschine agieren miteinander und stellen dabei ihre eigenen Bedingungen an die Kommunikation. Diese Bedingungen werden in der Entwicklung von Forschungsinfrastrukturen verhandelt. Dabei treffen unterschiedlichen Sprachen, Wissensbestände, Wertigkeiten und Praktiken aufeinander.  Peter Galison, in seiner Rekonstruktion der Entwicklung der Mikrophysik, prägte dafür den Begriff trading zone „as a social, material, and intellectual mortar binding together the disunified traditions of experimenting, theorizing, and instrument building.“(3)

Eine – wie auch immer wissenschaftlich definierte – „gelungene“ Kommunikation innerhalb von Forschungsinfrastruktren ist auch das Ergebnis der Verhandlungen über „generische“ und „spezifische“ Funktionalitäten sowie über die notwendige Weiterentwicklung von Technologien, Communities und tragenden Einrichtungen von Forschungsinfrastrukturen. Die „trading zone“ ist somit auch ein Ort der Verhandlungen über das noch Unbekannte. Und diese Verhandlungen sind geprägt von den unterschiedlichen Vorstellungen zum Umgang mit dem „Werdenden“, das nicht zuletzt beschrieben, geplant, entwickelt und finanziert werden soll. Die unterschiedlichen Vorstellungen zu „Innovation“ und „Nachhaltigkeit“ sind relevante Werte, mit denen dabei gehandelt wird.

(1) Letter to members of the TEI-C Board and Council. From Martin Mueller, chair, TEI-C Board. August 4, 2011.
(2) vgl.Edwards, Paul N.; Jackson, Steven J., Bowker, Geoffrey C. and Cory P. Knobel: Understanding Infrastructure: Dynamics, Tensions, and Design. Ann Arbor: DeepBlue 2007. S.24.
(3) Galison, Peter:Image and Logic. A Material Culture of Microphysics. UCP 1997. S.803

Advertisements

Materialität des Virtuellen – Vor der Sommerpause:)

Materialität des Virtuellen

In Forschung und Lehre sind der Computer und das Internet nicht mehr wegzudenken. Ein „E“ zeigt an, dass man sich auf den Weg durch das digitale Zeitalter begeben hat: Lehrende sind aufgefordert, sich in E-Learning weiterzubilden und Lernplattformen in ihren (nicht selten unbezahlten) Lehralltag zu integrieren. Es ist die Rede von E-Science und von E-Humanities. In der Forschung stößt man immer häufiger auf den Begriff der Virtuellen Forschungsumgebung und gerade Natur- und Technikwissenschaften kommen schon lange nicht mehr ohne stetig steigende Rechenleistung aus. Ein Begleiter dieser Entwicklung, die sich in einer wachsenden Anzahl an entsprechenden Konferenzen und Publikationen materialisiert, ist das Versprechen nach einer besseren Wissenschaft: „The outcome from such an undertaking is clear and substantial: new, faster, better and different science than has been possible before”(Coveney/Atkinson 2009).

Versprechen, so hat es Michel Fortun für die Genomik formuliert, „verweilen unsicher im Raum zwischen Gegenwart und Zukunft“ (Fortun 2000: 115). Begleitet wird das digitale Loblied nicht selten von Stimmen, die nur darauf warten laut zu werden, sobald sich ein Versprechen als Versprecher entpuppt. Ich denke, dass pauschale Aussagen so oder so ausgerichtet, wenig nützen. Viel interessanter scheint mir die Frage zu sein, unter welchen Möglichkeitsbedingungen Wissenschaft digital handelt und handeln soll. Die Debatten rund um unsere digitale Zukunft in Forschung und Lehre könnten gewinnbringender sein,  wenn es gelänge, den Blick von den fantastischen Szenerien des Virtuellen abzuziehen und schlicht die materiellen Beschaffenheiten und Voraussetzungen der E-Science genauer zu betrachten.  Hierzu gäbe es viel zu sagen: Angefangen bei der Frage nach den Energiekosten für all unser Datentreiben (die Kosten gehen in die Millionen) bis hin zur genaueren Betrachtung der Rolle von (Supercomputer-)Rechenzentren und ihren Zusammenschlüssen beispielsweise in der deutschen Gauss Allianz. Ich denke, wir könnten über diese und andere wichtige Themen im Kontext von Forschung und Lehre im digitalen Zeitalter besser sprechen, wenn wir hinter die Trennung zwischen Forschung/Lehre und Infrastruktur/Dienstleistung blickten – denn diese Ordnung der Wissenschaft, so meine Vermutung, muss neu verhandelt werden. Eine knappe Ausführung zu dieser Vermutung soll die angedeutete Denkbewegung erhellen: Betrachten wir die Geistes- und Sozialwissenschaften, die ebenso wie alle anderen Wissenschaften von Drittmitteln abhängig sind und für die somit die Frage „Was wird gefördert?“ keine Kleinigkeit ist. Aktuell hat das Bundesministerium für Bildung und Forschung Richtlinien zur Förderung von Forschungs- und Entwicklungsvorhaben aus dem Bereich der E-Humanities veröffentlicht (www.bmbf.de/foerderungen/16466.php). Gefragt sind Vorhaben, die „in Kooperation mit informatiknahen Fächern neue Forschungsansätze in ihren Fachdisziplinen entwickeln“ (ebd.). Nicht gefördert werden u.a. Infrastrukturwerkzeuge und Infrastrukturentwicklung.

Digital vernetzt stellt sich die Frage, wo Infrastruktur aufhört und Forschung anfängt? Es ist nicht untypisch, dass die informationstechnischen Aufgaben und die Menschen (!), die diese vollbringen sollen, unter Infrastruktur oder Dienstleistung verbucht werden. Ein Ergebnis dieser hierarchischen Trennung in Forschung und Service ist häufig, dass der „Dienstleistungsbereich IT“ häufig personell chronisch unterbelegt ist. Es scheint für viele Wissenschaftler/-innen (oder für die geldgebenden Institutionen) nicht vorstellbar, dass der Computer kein Ding ist, dass einfach irgendwo aufgestellt von alleine läuft; erst recht, wenn es um komplexe virtuelle Forschungsumgebungen oder Höchstleistungsrechnersysteme geht. Wir sind die glatte Oberfläche von Microsoft gewöhnt, so dass unser digitales Analphabetentum zum Glück nicht auffällt. Das Phänomen der unsichtbaren Arbeit scheint auch in der Lehre seine Spur zu ziehen. Didaktisch ansprechende und anspruchsvolle Lehre zu gestalten und durchzuführen braucht Zeit und Unterstützung (abgesehen davon, dass es nicht sein kann, dass E-Learning dafür herhalten soll, eine wachsende Zahl an Studierenden durch das Studium zu bringen).

Wo fängt E-Infrastruktur an und wo hört E-Science auf? Diese Frage braucht eine Perspektivverschiebung: Wer bestimmt was Infrastruktur/Service  und was wissenschaftliche Praxis ist, wie werden überhaupt die Ressourcen verteilt? Denn eines dürfte klar sein: Der (politische) Unwille zur adäquaten Förderung wissenschaftlicher Institutionen und die damit zusammenhängende Mittelknappheit (selbstredend nicht überall gleichermaßen ausgeprägt) können dazu führen, dass anstelle eines Sich-Aufeinander-Zubewegens der Graben nur noch tiefer wird, etwa nach dem Motto: Fließen die Mittel in die Infrastruktur, dann fehlen sie mir in der Forschung. Ob digital oder nicht, ein anderes Ver-(Handeln) ist nötig und so kann das „E“ auch eine Möglichkeit sein, jene dringende Frage gemeinsam – und zwar unterhalb der Trennung in Forschung und Infrastruktur – zu diskutieren: Welche Wissenschaft wollen wir?

 

Literatur:

Coveney, Peter V. & Atkinson, Malcolm P. (2009): Crossing boundaries: computational science, e-Science and global e-Infrastructure, in: Phil. Trans. R. Soc. A 2009 367, 2425-2427, http://rsta.royalsocietypublishing.org/content/367/1897/2425.full.pdf [download 28.05.11].

Fortun, Michael (2000): Vielversprechende Genomik verspricht Vielfalt: Wenn die Industrie auf die Zukunft setzt, warum nicht auch wir? In: Amann, Klaus für das Deutsche Hygiene-Museum (Hrsg): Natur und Kultur: Gentechnik und die unaufhaltsame Auflösung einer modernen Unterscheidung, Dresden: Dt. Hygiene-Museum, 113-133.

Encoded Experiences

Unter diesem verheißungsvollen Titel erläutert James Bridle (u.a. Autor, Programmierer und Designer),  was seiner Meinung nach schief läuft bei der Digitalisierung:

“ The great misunderstanding of digitization is to believe that it is only the content and the appearance that matters. That, to reproduce the experience of the book, we needed to make a screen that looked like a page, that turned like a page, that contained words. “

Konkrete Beispiele für das kodierte Erleben gibt es zwar nicht, aber kurzweilige Unterhaltung findet sich trotzdem unter  http://www.ireadwhereiam.com/

(und schick sieht sie allemal aus, die Seite….;-)

„Interfacing“ – Arbeiten mit dem Forschungsfeld

Bereits im Februar (23.2.11) fand unser gemeinsames Kickoff-Treffen mit VertreterInnen von TextGrid und dem Projektträger (DLR) in Berlin statt. Letzte Woche Freitag (20.5.11) hatten wir dann unser Kickoff“ mit VertreterInnen von C3-INAD und dem Projektträger (DLR) in Hamburg.

Kickoff mit TextGrid (Vorlage & Präsentation)

Kickoff mit C3-INAD (Vorlage & Präsentation)

Die Treffen sollten uns die Möglichkeit geben, unser sozialwissenschaftliches Begleitforschungsprojekt vorzustellen, gemeinsam zu diskutieren und den empirischen Zugang zu konkretisieren. Wir bedanken uns an dieser Stelle noch einmal herzlich bei allen TeilnehmerInnen!

Der enge Kontakt mit dem Feld war uns von Anfang an wichtig. Das „Interfacing“ verlangt mehr, als „nur“ die empirischen Daten zu erheben und sie zu analysieren um zu sozialwissenschaftlichen Forschungsergebnissen zu kommen (die dann vielleicht vom Forschungsfeld nicht einmal zur Kenntniss genommen werden). Man könnte es auch so formulieren: Unser Forschungsfeld bringt sich ein – es ist in unserem Forschungsverlauf aktiv. Können wir ihm (also TextGrid und C3-INAD) etwas geben; etwas das für sein eigenes Agieren von Interesse ist? Inwieweit müssen wir einen Balanceakt ausprobieren – zwischen unseren eigenen Interessen und Schwerpunkten und den Interessen der Akteure des Feldes?

Uns werden diese Fragen des „Interfacing“ im Projektverlauf begleiten und wir würden uns freuen, mit KollegInnen hierüber (multiple Anforderungen an eine sozialwissenschaftliche „Begleit“forschung) in den kommenden Monaten in ein Gespräch zu kommen.

„Digital Humanities“ und die Sache mit der Nachhaltigkeit

Am Freitag und Samstag (01. – 02. April 2011) fand in Berlin am IBI, veranstaltet im Rahmen der Jahrestagung der Gesellschaft für Wissenschaftsforschung, das Kolloqium „Digital Humanities: Wissenschaften vom Verstehen“ statt. Das Programm liegt hier (ist erst weiter unten auf der Seite verlinkt), die Vorträge sollen noch veröffentlicht werden.

Die Behauptung im Titel als der Digital Humanities als „Wissenschaften vom Verstehen“ wurde nicht von allen Vortragenden explizit aufgegriffen, aber für meine Frage, die mich beim Rekapitulieren der zwei Tage begleitet hat, – „Was passiert bei der Entwicklung von virtuellen Forschungsumgebungen?“ – gab es ein buntes Panoptikum unterschiedlicher Aspekte, die beim Aufbau von virtuellen Forschungsumgebungen eine Rolle spielen.

Aus meiner Sicht warfen die einzelnen Präsentationen über kurz oder lang folgende Fragestellungen auf: Was ist das Besondere an der Digitalisierung in den Geistes-, vorallem in den Textwissenschaften? Welchen epistemologischen Wert sehen wir in den neuen Technologien? Falls es da etwas wie ein distinktives Merkmal der „Digital Humanities“ gibt („das Andere“ – Sahle), wie stellen wir sicher, dass wir es vernünftig fördern?

Die Reflexion über methodisches Potenzial der neuen oder neugemachten digitalen Technologien ist an dem Punkt angelangt, den Werkzeugen eine essenzielle Veränderung in den Möglichkeiten der Sammlung, Systematisierung und gemeinsamen Deutung zuzuschreiben.
Gleichzeitig wurde betont, dass eine reine Emulation traditioneller Methoden und Praktiken nicht das finale Ziel der Digital Humanities sein kann: vielmehr sei das Potenzial für substanzielle Änderungen wichtig zu erkennen (Gradmann).
Ähnlich regelmässig stand die Frage der Definition des Forschungsobjektes im Raum: Sammlung oder Text oder Werk? Die
Beschreibung der unterschiedlichen Bestände als „objects of interest“ bewegte sich zwischen fachwissenschaftlichem Interesse,
kulturhistorischer Bedeutung und theoretischer Reflexion: Was bedeutet es, das Forschungsobjekt „Text“ selbst noch einmal zu hinterfragen, zu definieren? Welche Auswirkungen hat das auf Theorie-Aussagen in den Text- Kultur- und Literaturwissenschaften? Die Wichtigkeit der Kompetenz in „Modellierung“ der komplexen Forschungsobjekte und -fragen der Geisteswissenschaften wurde auch hinsichtlich der Ausbildung betont (Sahle).

Gleichzeitig gab es auch zwei überzeugte Vorträge zur Notwendigkeit von Standards – Internationalisierung/Lokalisierung und TEI waren die Beispiele für community-getriebene Weiterentwicklung von Standards.
Dabei waren zwei Aspekte spannend: Die Betonung der Standard-Entwicklung als laufende wissenschaftliche Tätigkeit (Romary) sowie die Notwendigkeit eines vernünftigen und selbstverständlichen Einsatz von Standards (Sasaki). Unter anderen wurden als bekannte Schwierigeiten benannt: ein gewisser Widerwillen, gekoppelt mit Zeitmangel in der Fachwissenschaft, sich im Detail in ISO-Standardization documents einzulesen.

Die Vermittlung der oft komplexen Bedeutung einer Entscheidung für oder gegen ein Set an vereinbarten Annahmen, Parametern und Algorithmen in der Netzwelt sowie die Verhandlung von diesen Entscheidungen ist eine Praktik, die mir im Aufbau von Infrastrukturen in der Forschung als wesentlich erscheint. Und diese Aktivitäten kann man exemplarisch innerhalb einer „Mikroeinheit Projekt“ in den unterschiedlichsten Bereichen beobachten: Nutzer, Software-Entwicklung, strategische und/oder technische Entscheidungsträger, Projektträger…alle verhandeln im Endeffekt „zwischen Interoperabilität und Forschung“ (Sasaki). Die Entwicklung und Umsetzung von technologischen Standards, aber auch anderen Artefakten, wo die Entscheidung zwischen generischem, standardisiertem Vorgehen und konkreter Bedienung von spezifischen Anforderungen zu einem Konflikt führen kann, ist ein interessantes Phänomen: Der ständige Input der Fachwissenschaft ist nötig, um Standards weiterzuentwickeln. Im herkömmlichen Forschungsbetrieb ist es jedoch schwer, für diese „wissenschaftliche Aktivität“ (Romary) entsprechende Incentives zu
erhalten.
In den traditionellen Service-Bereichen Bibliotheken und wissenschaftliche IT scheint die Weiterentwicklung von Standards,
aber auch die verwandte Frage der „Nachhaltigkeit“ (sowohl der Daten als auch der Werkzeuge) einen anderen Stellenwert zu haben:
Da man sich häufig in einer konfliktträchtigen Doppelrolle -als „Anwender“ (i.e. Nutzer) von technologischen Artefakten wie Repositories, Applications, Services, Registries oder Rechenressourcen und als „Anbieter“ von Diensten und entsprechender „Dienstleistung“ wiederfindet, muss die Spannung zwischen „Interoperabilität“ und „Forschung“ ständig verhandelt werden.
Interessant ist dabei die Frage, welche Auswirkungen das auf den Grenzbereich Forschung und Service beim Aufbau von Infrastrukturen hat. Gibt es Tätigkeiten bei der Entwicklung von virtuellen Forschungsumgebungen, die als „wissenschaftliche Tätigkeit“ wahrgenommen werden? Welche Arten der Anerkennung gibt es dafür? Welche Rolle spielt „Nachhaltigkeit“ für die unterschiedlichen Akteure? Welche Bedeutung hat die Ausbildung in dieser Hinsicht?

Ein Danke an die Veranstaltung, Vortragende und Teilnehmer für eine interessante Tagung!

„Für den Saft brauche ich eben eine Orange.“

Dieser Satz stammt von David Gelernter und ist einem SPIEGEL Interview (DER SPIEGEL Nr. 8, 21.02.2011) entnommen.

Gelernter wird zur „Intelligenz“ von Computern gefragt – Anlass ist der Einsatz des IBM-Rechners „Watson“ in der Quizshow „Jeopardy“ am 16. Februar 2011 (siehe hierzu auch den Artikel auf heise online „IBM-Supercomputer gewinnt Quizshow“).

Was Computer können und was sie können sollen ist Thema. In den Wissenschaften und unter dem Label „E-Science, Digital Humanities…“ wird der Einsatz des Computers und sein Platz in der wissenschaftlichen Arbeit diskutiert. Führt der Einsatz neuer digitaler Werkzeuge zu neuen Erkenntnissen? So lautet das Versprechen.

So banal es klingt, aber ich denke, dass „der Computer“ vielleicht auch etwas ganz anderes ermöglichen kann: die „Rehabilitation“ des Menschen, der keine Maschine ist –  „Für den Saft brauche ich eben eine Orange“ (Gelernter). Nein, es geht mir nicht um Technikfeindlichkeit – langweilig. Auch interessiert mich gerade nicht, was der Computer in Zukunft können wird. Es geht um das profane Hier und Jetzt wissenschaftlicher Arbeit. Fakt ist, Computer sind in vielen Bereichen nicht mehr wegzudenken – warum auch? Es ist offentlichtlich, dass der Computer Leistungen erbringen kann, die über unser menschliches Maß hinausgehen. Man denke an die Geschwindigkeit, mit der Rechenoperationen großer Klimasimulationen durchgeführt oder große Textsammlungen nach bestimmten Wörtern durchsucht werden. Höher, schneller, weiter…

Es bleibt ein „menschlicher Rest“, der – und darum geht es – nicht hinter der Maschine verschwinden darf. Eher müssen die Verbindungen anders hergestellt werden. Das gilt auch für die zwischenmenschlichen Beziehungen – ich denke hier an die Menschen, die das Funktionieren des Computers überhaupt erst ermöglichen. Auch „Watson“ ist nicht alleine.

„Füttern Sie Watson ruhig mit Keats. Da liest er dann „Mein Herz tut weh, und schläfriges Erlahmen quält mich“. Was um Himmels willen soll ihm das denn bedeuten? Wenn ein Poet „mein Herz tut weh“ schreibt, entspringt das einem Gefühl mitten in der Brust. Oder ein „schläfriges Erlahmen quält mich“: Watson war niemals schläfrig oder wach, er weiß auch nicht, was Schmerz ist. Er versteht nichts von Poesie. Natürlich könnte er immer noch „Jeopardy“ gewinnen, etwa in der Kategorie „Britische Dichter“. Auch Literaturwissenschaft basiert auf einer Menge Daten, mit denen ein Computer nun mal sehr gut umgehen kann. Aber es ist und bleibt ein großer Schwindel.“ (Gelernter)

Link des Monats März 2011

http://monmodmem.org/

Warum „Monitoring, Modeling and Memory: Dynamics of Data and Knowledge in Scientific Cyberinfrastructures“ Link des Monats geworden ist, hängt mit der Geschichte unseres E-Science Interfaces Projektes zusammen.

Wo fängt ein Projekt an? Die Geschichte des E-Science Interfaces Projektes beginnt mit dem Ende meiner Dissertation. Ich stellte mir die Frage, welches Forschungsfeld mir für die kommenden Jahre ein Zuhause bieten könnte. Meine sozialwissenschaftliche Forschung zu Brustkrebs-Genen wollte ich keinesfalls aufgeben, aber ich wollte auch nicht nahtlos an Themen aus dem Bereich der Gentechnologie und Biomedizin anknüpfen. Ich wollte schlicht und ergreifend am Ende meiner dreijährigen Auseinandersetzung mit Brustkrebs-Genen im Kontext wissenschaftlicher und medizinischer Praktiken neue Dinge kennenlernen. Zwei Linien trafen sich günstig. Erstens lernte ich im Rahmen eines Workshops zu genealogischen Praktiken, den ich zusammen mit zwei Kolleginnen 2007 organisiert hatte, Geoffrey C. Bowker und Susan Leigh Star kennen. Über sie führte mein Weg zu den Cyberinfrastrukturen. Zweitens machte ich mir in dieser Zeit Gedanken über die Ähnlichkeiten von Genen und Klima. Beide werden als natürlich begriffen, beide sind eingewoben in ein dichtes Netz sozialer Auseinandersetzungen. Sie sind in ihrer – immer auch konstuierten – Natürlichkeit durch und durch sozial wirkungsmächtig. Ich stellte mir die Frage, ob „Gen“ und „Klima“ als bedeutendes Kapital unserer Gegenwart verstanden werden können. Ich habe den Strang eines Vergleichs nicht weiter verfolgt. Eher bin ich über diesen Weg zu meinem neuen empirischen Feld gekommen: Ich wollte verstehen lernen, wie sich Cyberinfrastrukturen in der Klimaforschung entwickeln.

Ich werde diese Geschichte irgendwann in einem anderen Beitrag weitererzählen. Für die Begründung, warum das kollaborative Projekt „Monitoring, Modeling and Memory: Dynamics of Data and Knowledge in Scientific Cyberinfrastructures“ Link des Monats geworden ist, reichen die Informationen aus. Mit Geoffrey C. Bowker (einem der Principal Investigators von „Monitoring, Modeling and Memory“) blieb ich nach dem Workshop zu genealogischen Praktiken in Kontakt. Ich las die Publikationen von ihm und Susan Leigh Star und bekam schließlich die Möglichkeit, sie und andere Kolleginnen und Kollegen für ein paar Wochen im Sommer 2009 in den USA zu besuchen.

Die Cyberinfrastukturforschung in den USA stellt bis heute eine Inspiration für mich dar. Ohne sie wären ich und unser E-Science Interfaces Projekt nicht da, wo wir sind. Deshalb ist diese Website unser erster Link des Monats.