„Interfacing“ – Arbeiten mit dem Forschungsfeld

Bereits im Februar (23.2.11) fand unser gemeinsames Kickoff-Treffen mit VertreterInnen von TextGrid und dem Projektträger (DLR) in Berlin statt. Letzte Woche Freitag (20.5.11) hatten wir dann unser Kickoff“ mit VertreterInnen von C3-INAD und dem Projektträger (DLR) in Hamburg.

Kickoff mit TextGrid (Vorlage & Präsentation)

Kickoff mit C3-INAD (Vorlage & Präsentation)

Die Treffen sollten uns die Möglichkeit geben, unser sozialwissenschaftliches Begleitforschungsprojekt vorzustellen, gemeinsam zu diskutieren und den empirischen Zugang zu konkretisieren. Wir bedanken uns an dieser Stelle noch einmal herzlich bei allen TeilnehmerInnen!

Der enge Kontakt mit dem Feld war uns von Anfang an wichtig. Das „Interfacing“ verlangt mehr, als „nur“ die empirischen Daten zu erheben und sie zu analysieren um zu sozialwissenschaftlichen Forschungsergebnissen zu kommen (die dann vielleicht vom Forschungsfeld nicht einmal zur Kenntniss genommen werden). Man könnte es auch so formulieren: Unser Forschungsfeld bringt sich ein – es ist in unserem Forschungsverlauf aktiv. Können wir ihm (also TextGrid und C3-INAD) etwas geben; etwas das für sein eigenes Agieren von Interesse ist? Inwieweit müssen wir einen Balanceakt ausprobieren – zwischen unseren eigenen Interessen und Schwerpunkten und den Interessen der Akteure des Feldes?

Uns werden diese Fragen des „Interfacing“ im Projektverlauf begleiten und wir würden uns freuen, mit KollegInnen hierüber (multiple Anforderungen an eine sozialwissenschaftliche „Begleit“forschung) in den kommenden Monaten in ein Gespräch zu kommen.

„Digital Humanities“ und die Sache mit der Nachhaltigkeit

Am Freitag und Samstag (01. – 02. April 2011) fand in Berlin am IBI, veranstaltet im Rahmen der Jahrestagung der Gesellschaft für Wissenschaftsforschung, das Kolloqium „Digital Humanities: Wissenschaften vom Verstehen“ statt. Das Programm liegt hier (ist erst weiter unten auf der Seite verlinkt), die Vorträge sollen noch veröffentlicht werden.

Die Behauptung im Titel als der Digital Humanities als „Wissenschaften vom Verstehen“ wurde nicht von allen Vortragenden explizit aufgegriffen, aber für meine Frage, die mich beim Rekapitulieren der zwei Tage begleitet hat, – „Was passiert bei der Entwicklung von virtuellen Forschungsumgebungen?“ – gab es ein buntes Panoptikum unterschiedlicher Aspekte, die beim Aufbau von virtuellen Forschungsumgebungen eine Rolle spielen.

Aus meiner Sicht warfen die einzelnen Präsentationen über kurz oder lang folgende Fragestellungen auf: Was ist das Besondere an der Digitalisierung in den Geistes-, vorallem in den Textwissenschaften? Welchen epistemologischen Wert sehen wir in den neuen Technologien? Falls es da etwas wie ein distinktives Merkmal der „Digital Humanities“ gibt („das Andere“ – Sahle), wie stellen wir sicher, dass wir es vernünftig fördern?

Die Reflexion über methodisches Potenzial der neuen oder neugemachten digitalen Technologien ist an dem Punkt angelangt, den Werkzeugen eine essenzielle Veränderung in den Möglichkeiten der Sammlung, Systematisierung und gemeinsamen Deutung zuzuschreiben.
Gleichzeitig wurde betont, dass eine reine Emulation traditioneller Methoden und Praktiken nicht das finale Ziel der Digital Humanities sein kann: vielmehr sei das Potenzial für substanzielle Änderungen wichtig zu erkennen (Gradmann).
Ähnlich regelmässig stand die Frage der Definition des Forschungsobjektes im Raum: Sammlung oder Text oder Werk? Die
Beschreibung der unterschiedlichen Bestände als „objects of interest“ bewegte sich zwischen fachwissenschaftlichem Interesse,
kulturhistorischer Bedeutung und theoretischer Reflexion: Was bedeutet es, das Forschungsobjekt „Text“ selbst noch einmal zu hinterfragen, zu definieren? Welche Auswirkungen hat das auf Theorie-Aussagen in den Text- Kultur- und Literaturwissenschaften? Die Wichtigkeit der Kompetenz in „Modellierung“ der komplexen Forschungsobjekte und -fragen der Geisteswissenschaften wurde auch hinsichtlich der Ausbildung betont (Sahle).

Gleichzeitig gab es auch zwei überzeugte Vorträge zur Notwendigkeit von Standards – Internationalisierung/Lokalisierung und TEI waren die Beispiele für community-getriebene Weiterentwicklung von Standards.
Dabei waren zwei Aspekte spannend: Die Betonung der Standard-Entwicklung als laufende wissenschaftliche Tätigkeit (Romary) sowie die Notwendigkeit eines vernünftigen und selbstverständlichen Einsatz von Standards (Sasaki). Unter anderen wurden als bekannte Schwierigeiten benannt: ein gewisser Widerwillen, gekoppelt mit Zeitmangel in der Fachwissenschaft, sich im Detail in ISO-Standardization documents einzulesen.

Die Vermittlung der oft komplexen Bedeutung einer Entscheidung für oder gegen ein Set an vereinbarten Annahmen, Parametern und Algorithmen in der Netzwelt sowie die Verhandlung von diesen Entscheidungen ist eine Praktik, die mir im Aufbau von Infrastrukturen in der Forschung als wesentlich erscheint. Und diese Aktivitäten kann man exemplarisch innerhalb einer „Mikroeinheit Projekt“ in den unterschiedlichsten Bereichen beobachten: Nutzer, Software-Entwicklung, strategische und/oder technische Entscheidungsträger, Projektträger…alle verhandeln im Endeffekt „zwischen Interoperabilität und Forschung“ (Sasaki). Die Entwicklung und Umsetzung von technologischen Standards, aber auch anderen Artefakten, wo die Entscheidung zwischen generischem, standardisiertem Vorgehen und konkreter Bedienung von spezifischen Anforderungen zu einem Konflikt führen kann, ist ein interessantes Phänomen: Der ständige Input der Fachwissenschaft ist nötig, um Standards weiterzuentwickeln. Im herkömmlichen Forschungsbetrieb ist es jedoch schwer, für diese „wissenschaftliche Aktivität“ (Romary) entsprechende Incentives zu
erhalten.
In den traditionellen Service-Bereichen Bibliotheken und wissenschaftliche IT scheint die Weiterentwicklung von Standards,
aber auch die verwandte Frage der „Nachhaltigkeit“ (sowohl der Daten als auch der Werkzeuge) einen anderen Stellenwert zu haben:
Da man sich häufig in einer konfliktträchtigen Doppelrolle -als „Anwender“ (i.e. Nutzer) von technologischen Artefakten wie Repositories, Applications, Services, Registries oder Rechenressourcen und als „Anbieter“ von Diensten und entsprechender „Dienstleistung“ wiederfindet, muss die Spannung zwischen „Interoperabilität“ und „Forschung“ ständig verhandelt werden.
Interessant ist dabei die Frage, welche Auswirkungen das auf den Grenzbereich Forschung und Service beim Aufbau von Infrastrukturen hat. Gibt es Tätigkeiten bei der Entwicklung von virtuellen Forschungsumgebungen, die als „wissenschaftliche Tätigkeit“ wahrgenommen werden? Welche Arten der Anerkennung gibt es dafür? Welche Rolle spielt „Nachhaltigkeit“ für die unterschiedlichen Akteure? Welche Bedeutung hat die Ausbildung in dieser Hinsicht?

Ein Danke an die Veranstaltung, Vortragende und Teilnehmer für eine interessante Tagung!

„Für den Saft brauche ich eben eine Orange.“

Dieser Satz stammt von David Gelernter und ist einem SPIEGEL Interview (DER SPIEGEL Nr. 8, 21.02.2011) entnommen.

Gelernter wird zur „Intelligenz“ von Computern gefragt – Anlass ist der Einsatz des IBM-Rechners „Watson“ in der Quizshow „Jeopardy“ am 16. Februar 2011 (siehe hierzu auch den Artikel auf heise online „IBM-Supercomputer gewinnt Quizshow“).

Was Computer können und was sie können sollen ist Thema. In den Wissenschaften und unter dem Label „E-Science, Digital Humanities…“ wird der Einsatz des Computers und sein Platz in der wissenschaftlichen Arbeit diskutiert. Führt der Einsatz neuer digitaler Werkzeuge zu neuen Erkenntnissen? So lautet das Versprechen.

So banal es klingt, aber ich denke, dass „der Computer“ vielleicht auch etwas ganz anderes ermöglichen kann: die „Rehabilitation“ des Menschen, der keine Maschine ist –  „Für den Saft brauche ich eben eine Orange“ (Gelernter). Nein, es geht mir nicht um Technikfeindlichkeit – langweilig. Auch interessiert mich gerade nicht, was der Computer in Zukunft können wird. Es geht um das profane Hier und Jetzt wissenschaftlicher Arbeit. Fakt ist, Computer sind in vielen Bereichen nicht mehr wegzudenken – warum auch? Es ist offentlichtlich, dass der Computer Leistungen erbringen kann, die über unser menschliches Maß hinausgehen. Man denke an die Geschwindigkeit, mit der Rechenoperationen großer Klimasimulationen durchgeführt oder große Textsammlungen nach bestimmten Wörtern durchsucht werden. Höher, schneller, weiter…

Es bleibt ein „menschlicher Rest“, der – und darum geht es – nicht hinter der Maschine verschwinden darf. Eher müssen die Verbindungen anders hergestellt werden. Das gilt auch für die zwischenmenschlichen Beziehungen – ich denke hier an die Menschen, die das Funktionieren des Computers überhaupt erst ermöglichen. Auch „Watson“ ist nicht alleine.

„Füttern Sie Watson ruhig mit Keats. Da liest er dann „Mein Herz tut weh, und schläfriges Erlahmen quält mich“. Was um Himmels willen soll ihm das denn bedeuten? Wenn ein Poet „mein Herz tut weh“ schreibt, entspringt das einem Gefühl mitten in der Brust. Oder ein „schläfriges Erlahmen quält mich“: Watson war niemals schläfrig oder wach, er weiß auch nicht, was Schmerz ist. Er versteht nichts von Poesie. Natürlich könnte er immer noch „Jeopardy“ gewinnen, etwa in der Kategorie „Britische Dichter“. Auch Literaturwissenschaft basiert auf einer Menge Daten, mit denen ein Computer nun mal sehr gut umgehen kann. Aber es ist und bleibt ein großer Schwindel.“ (Gelernter)

Link des Monats März 2011

http://monmodmem.org/

Warum „Monitoring, Modeling and Memory: Dynamics of Data and Knowledge in Scientific Cyberinfrastructures“ Link des Monats geworden ist, hängt mit der Geschichte unseres E-Science Interfaces Projektes zusammen.

Wo fängt ein Projekt an? Die Geschichte des E-Science Interfaces Projektes beginnt mit dem Ende meiner Dissertation. Ich stellte mir die Frage, welches Forschungsfeld mir für die kommenden Jahre ein Zuhause bieten könnte. Meine sozialwissenschaftliche Forschung zu Brustkrebs-Genen wollte ich keinesfalls aufgeben, aber ich wollte auch nicht nahtlos an Themen aus dem Bereich der Gentechnologie und Biomedizin anknüpfen. Ich wollte schlicht und ergreifend am Ende meiner dreijährigen Auseinandersetzung mit Brustkrebs-Genen im Kontext wissenschaftlicher und medizinischer Praktiken neue Dinge kennenlernen. Zwei Linien trafen sich günstig. Erstens lernte ich im Rahmen eines Workshops zu genealogischen Praktiken, den ich zusammen mit zwei Kolleginnen 2007 organisiert hatte, Geoffrey C. Bowker und Susan Leigh Star kennen. Über sie führte mein Weg zu den Cyberinfrastrukturen. Zweitens machte ich mir in dieser Zeit Gedanken über die Ähnlichkeiten von Genen und Klima. Beide werden als natürlich begriffen, beide sind eingewoben in ein dichtes Netz sozialer Auseinandersetzungen. Sie sind in ihrer – immer auch konstuierten – Natürlichkeit durch und durch sozial wirkungsmächtig. Ich stellte mir die Frage, ob „Gen“ und „Klima“ als bedeutendes Kapital unserer Gegenwart verstanden werden können. Ich habe den Strang eines Vergleichs nicht weiter verfolgt. Eher bin ich über diesen Weg zu meinem neuen empirischen Feld gekommen: Ich wollte verstehen lernen, wie sich Cyberinfrastrukturen in der Klimaforschung entwickeln.

Ich werde diese Geschichte irgendwann in einem anderen Beitrag weitererzählen. Für die Begründung, warum das kollaborative Projekt „Monitoring, Modeling and Memory: Dynamics of Data and Knowledge in Scientific Cyberinfrastructures“ Link des Monats geworden ist, reichen die Informationen aus. Mit Geoffrey C. Bowker (einem der Principal Investigators von „Monitoring, Modeling and Memory“) blieb ich nach dem Workshop zu genealogischen Praktiken in Kontakt. Ich las die Publikationen von ihm und Susan Leigh Star und bekam schließlich die Möglichkeit, sie und andere Kolleginnen und Kollegen für ein paar Wochen im Sommer 2009 in den USA zu besuchen.

Die Cyberinfrastukturforschung in den USA stellt bis heute eine Inspiration für mich dar. Ohne sie wären ich und unser E-Science Interfaces Projekt nicht da, wo wir sind. Deshalb ist diese Website unser erster Link des Monats.