Standort: science.ORF.at / Meldung: "Wie die Wissenschaft "verfacebookt""

Jemand streckt vor blauem Hintergrund einen Daumen nach oben

Wie die Wissenschaft "verfacebookt"

Tag für Tag werden riesige Mengen digitaler Daten hergestellt. Diese Big Data bergen - Stichwort: Datenschutz - zahlreiche Risiken. Für Alltag und Wissenschaft ergeben sich aber auch ganz neue Anwendungsgebiete. Wie letztere zunehmend "verfacebookt", beschreibt der Medienphilosoph Ramón Reichert in einem Interview.

Medien 29.10.2014

science.ORF.at: Wie verändern die riesigen Datenmengen, die heute erhoben werden, die Lebenswelt der Menschen?

Ramón Reichert: Viele Menschen profitieren bereits von Big Data und richten ihr Leben danach aus. Die Crowd im Internet dient als primäre Informationsquelle, auf deren Grundlage individuelle Entscheidungen getroffen und kollektive Aktivitäten ermöglicht werden. Beim Social Commerce etwa unterstützen andere Nutzer die eigenen Kaufentscheidungen durch Bewertungen und Empfehlungen. Ein weiteres Beispiel für Crowd-Kultur ist Google Flu Trends, das die geografische Ausbreitung von Grippeepidemien vorhersagen sollte. Generell kann man sagen, dass Nutzer derartiger Dienste ihre Handlungen auf die Medienpräsenz von Themen und Trends abstimmen. Somit wirken sich Bewertungen beispielsweise eines Hotels auf die Wahl der Unterkunft aus. Ganz alltägliche Bereiche des Lebens bauen auf Big Data und der Crowd-Kultur auf.

Zur Person:

Ramon Reichert

Universität Wien

Ramón Reichert ist Professor für Neue Medien am Institut für Theater-, Film- und Medienwissenschaft der Universität Wien. Seine Forschungsschwerpunkte sind Internetkultur, Digitale Ästhetik und Datenkritik. 2014 ist das von ihm herausgegebene Buch "Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie" im Transcript-Verlag erschienen.

Veranstaltungshinweis:

Am Mittwoch, 29. Oktober 2014, findet im Theatersaal der ÖAW das 24. Ernst Mach Forum (Wissenschaft im Dialog) mit dem Titel "Big Data. Wie kommt Sinn in die großen Zahlen?" statt.

Ö1 Sendungshinweis:

Dem Thema widmen sich auch die Dimensionen am 3. November 2014 um 19:05.

Die Werkzeuge machen dabei mit User-Informationen aus der Vergangenheit Prognosen für die Zukunft. Wie funktioniert das?

Die Allgemeinheit verliert sich bei diesem Thema sehr schnell in Dystopien, die an Georg Orwells Roman "1984" erinnern. Es wird dann wie bei Rudi Klausnitzer vom Ende des Zufalls gesprochen und den Praktiken eine Mächtigkeit zugeschrieben, die sie bei genauerer Betrachtung nicht haben. Denn der Blick in die Zukunft ist relativ beschränkt.

Konkret zu Ihrer Frage: Es gibt unterschiedliche Modelle, wie Prognosen entwickelt werden. Oft wird mit klassischen Methoden der Textkorpus-Analyse aus der Linguistik gearbeitet. Das verläuft oft sehr naiv und vereinfacht. Es wird etwa untersucht, wer mit wem in welcher Sprache kommuniziert und bestimmte Schlüsselwörter wie "Dschihad" benutzt. Das setzt voraus, dass Terror und Kriminalität immer auch Teil der Alltagskommunikation sind. Es wird nicht bedacht, dass Kommunikation beispielsweise auch kodiert mittels visueller Chiffren geschehen kann. Das zeigt die Fehleranfälligkeit der Big Data Forschung auf.

Gibt es noch andere Ungenauigkeiten dieses Forschungszweigs?

Nur ein Beispiel: Bei politischen Umfragen wird in sogenannten Sentimentanalysen nicht nur die Häufigkeit eines Namens ermittelt, sondern auch dessen Bewertung. Im Fall von Obamas Wahlkampf wäre dies zum Beispiel "Obama" verknüpft mit einem "Smiley :-)". Man muss also schon im Forschungsdesign wissen: Wie kommunizieren Amerikaner, wenn sie sich positiv oder negativ zu einem Kandidaten äußern? Damit werden in die automatische Datenerhebung Unschärfe und Vereinfachungen eingeführt, die eine verlässliche großflächige Analyse erschweren.

Der britische Schriftsteller C.P. Snow hat von zwei Wissenschaftskulturen gesprochen: der naturwissenschaftlich-technischen Kultur und der geisteswissenschaftlichen-literarischen Kultur. Wie wirken diese bei Big Data zusammen?

Sie ergänzen sich. Big Data ist auf der einen Seite eine maschinenbasierte Mustererkennungsarbeit. Auf der anderen Seite müssen diese Daten übersetzt und interpretiert werden. Dazu benötigen wir traditionelle Instrumente der Geisteswissenschaft wie die der Hermeneutik, die aus den Datenbeständen Erkenntnis herausliest. In dieser Sichtweise kann das Objektivitätspostulat der Big Data Studies in Frage gestellt werden.

Computerbasierte Wissensproduktion und Geisteswissenschaften müssen daher nicht als zwei getrennte Sphären aufgefasst werden. Big Data erfordert einerseits eine Einbindung digitaler Methoden in das Wissenschaftsfeld, andererseits aber auch eine politische und historische Perspektivierung von Daten, die in der Lage ist, die Veränderungen in allen Bereichen des Alltags angemessen reflektieren zu können.

Big Data wird auch in der Wissenschaft immer wichtiger, etwa bei den Digital Humanities. Wie schätzen Sie die Entwicklung ein?

Bei den Digital Humanities geht es einerseits darum, der Öffentlichkeit Wissensbestände der Geistes- und Kulturwissenschaften online zugänglich zu machen. Damit verbunden ist die Hoffnung eines Demokratisierungsschubs, da Wissen nun für alle niederschwellig verfügbar ist. Außerdem stellt es aufgrund des computergestützten Vermessens den Anspruch auf mediale Objektivität.

Andererseits wendet sich Big Data auf die Wissenschaft selbst zurück. Forscher können projektbasiert ins Netz gehen und dort zusammenarbeiten. Dies markiert den Übergang zu den "Social Humanities", welche die Möglichkeiten des Web 2.0 zum Aufbau vernetzter Forschungsinfrastrukturen nutzen - so wie das etwa bei Academia.edu der Fall ist. Auf der Plattform können Wissenschaftler ihre Publikationen online anderen verfügbar machen. Sie werden von anderen Teilnehmern bewertet, kommentiert und vielleicht auch gerankt. Dadurch entsteht eine Art von Marktsituation, die über die Universität und lokale Standorte hinausgeht und sich globalisiert. Das hat Vor- und Nachteile: Die Wissenschaft gerät unter Konkurrenzdruck, wobei als positiver Effekt erwartet wird, dass sie effektiver und effizienter wird.

"Verfacebooken" da die Wissenschaften?

Seiten wie academia.edu haben tatsächlich Elemente von Gamification, wie es sie auch auf Facebook gibt. Wenn eine Forschungsarbeit veröffentlicht wird, dann weiß der Autor genau, wer das Paper gelesen hat, es gibt Statistiken zu den "Top-Papers" der Woche. Wir können aber noch einen Schritt weiter gehen: Gutachten waren früher nicht einsehbar, jetzt ist das möglich. Der Gutachter hat eine Art von Kommentarfunktion, die für andere User einsehbar ist. Das führt zu mehr Transparenz. Außerdem können nun auch Laien wissenschaftliche Zeitschriften lesen und kommentieren. Ich denke, das ist ein interessanter Versuch, manche Disziplinen aus der Exklusivität hervorzuholen.

Können Sie ein Beispiel nennen?

Denkbar wäre ein zeitgeschichtliches Projekt, das über die visuelle Kultur des zweiten Weltkrieges arbeitet. Die Bilder könnten auf einer Plattform einsehbar gemacht werden und Zeitzeugen das Material durch Berichte ergänzen: Alle möglichen Details, die im Bild vorkommen, könnten mit Inhalten oder Verweisen versehen werden. Somit käme es zu Synergieeffekten zwischen Experten und Laien.

Spätestens seit der Facebook-Studie zur sozialen Ansteckung von Gefühlen ist klar: Big Data ist auch ein "big problem" in Sachen Datenschutz …

Natürlich. Wenn sich jemand als bei sozialen Netzwerkseiten anmeldet, dann unterschreibt er ein Einverständnis, dass die Daten an Dritte weitergegeben werden dürfen. Die meisten lesen diesen Vertrag aber gar nicht, da er einfach zu lange ist und immer länger wird. Dabei ist völlig unklar, bis wohin die Datenabschöpfung greift: Sind es Daten, die an die Öffentlichkeit gehen, an Freunde in sozialen Netzwerken oder sogar private Korrespondenzen? Oft handelt es sich dabei um Graubereiche ...

Interview: Aaron Salzer, science.ORF.at

Mehr zum Thema: