Und dieses Bild ist nicht schwarz-weiß, sondern enthält auch viele Graustufen - oder wie die Forscher um Abdelberi Chaabane vom Computerwissenschaftlichen Forschungszentrum INRIA in Grenoble schreiben: "Zensur in Syrien findet - verglichen mit China oder dem Iran - relativ heimlich statt, ist deswegen aber um nichts weniger zielgerichtet."
Neun Tage syrisches Internet
Die Studie:
"Censorship in the Wild: Analyzing Web Filtering in Syria" ist am 26. Februar 2014 auf dem Preprint-Server arXiv erschienen (arXiv:1402.3401).
Links:
Die von Telecomix veröffentlichten Daten stammen von sieben syrischen Blue Coat-Servern, die laut Angaben der Netzaktivisten 2011 für die Kontrolle des syrischen Internetverkehrs zuständig waren - das in den USA beheimatete Erzeugerunternehmen Blue Coat bestätigte, Syrien mit entsprechender Infrastruktur versorgt zu haben, ohne - offiziell - den Zweck zu kennen.
Die 600 Gigabyte starken Serverprotokolle dokumentieren für neun Tage im Juli und August 2011 detailgetreu, welche Internet-Verbindungen aufgebaut und welche blockiert wurden bzw. welche aus technischen Gründen nicht zustande kamen. Wegen der riesigen Datenmenge erstellten Abdelberi Chaabane und seine Kollegen ein Teilsample aus 32 Millionen Verbindungsanfragen - das entspricht ca. vier Prozent der Gesamtmenge.
"Nur" ein Prozent zensuriert
Das - auch für die Forscher selbst - überraschendste Ergebnis ihrer Auswertung: 93 Prozent aller Verbindungsanfragen wurden sofort realisiert, ein Prozent kamen aufgrund politischer Zensur nicht zustande. Der Rest entfiel auf technische Fehler. Die Forscher schreiben selbst, dass ein Prozent relativ wenig scheint, bei der Interpretation der Zahl müsse man aber vorsichtig sein: "Wenn ein User eine Website erreichen kann, wird er sie in den kommenden Tagen und Wochen wahrscheinlich immer wieder aufrufen. Eine gesperrte Seite probiert man hingegen meistens nur einmal."
Aus der Menge der erlaubten und zensurierten Verbindungen erstellten die IT-Spezialisten ein Ranking der jeweils zehn meist betroffenen Domains. An der Spitze der erlaubten Zugriffe steht mit 15 Prozent die Suchmaschine Google inklusive der Tracking-Site gstatic.com, gefolgt von der Pornoplattform xvideos.com und Facebook an 4. Stelle. Interessanterweise steht auch beim zensurierten Inhalt facebook.com an der Spitze, skype.com und metacafe.com (eine Plattform zum Austausch von Videos) folgen auf Platz 2 und 3.

arXiv
Keine Kommunikation zwischen Usern
Dass Facebook auf beiden Listen weit oben steht, scheint nur auf den ersten Blick unlogisch. Bei genauerer Analyse zeigt sich, dass Facebook-Inhalte dann zensuriert werden, wenn ein Stichwort auf politisch unerwünschten Inhalt hindeutet. Anhand der Top 10 der zensurierten Websites wird auch die Zielsetzung der Internetüberwachung klar: In erster Linie soll Kommunikation zwischen Usern unterbunden werden - soviel haben die syrischen Behörden vom Arabischen Frühling und der flexiblen Organisation von Demonstrationen über Facebook & Co gelernt.
Dementsprechend konnten die Forscher auch feststellen, dass sich an Tagen mit Unruhen der Anteil der zensurierten Websites verdoppelte, wobei wiederum Skype und Facebook die Rangliste anführten. Auch Websites mit Programmen zum schnellen Nachrichtenaustausch ("Instant Messaging") wurden an solchen Tagen überproportional oft blockiert.
Fünf "böse" Stichwörter
Insgesamt fanden die Forscher fünf Stichwörter, die - egal, ob sie im Domainnamen, in dahinter gelegten Phrasen oder IP-Adressen vorkamen - die Zensurmaschine aktiv werden ließen: "proxy", "hotspotshield", "ultra-reach", "israel" und "ultrasurf". "Proxy" ließ die Alarmglocken läuten, weil eine Suche danach in den Augen der syrischen Behörden die User mit Links zu Servern versorgt hätte, die ihnen die Umgehung der Zensur ermöglicht hätten.
"Hotspot Shield" ist eine Technologie, die User-Identitäten schützt, "Ultrareach" ist eine Firma, die eine Plattform mit freier Software zum anonymen Surfen - ursprünglich für chinesische Dissidenten - entwickelt hat. Bei diesen Stichwörtern wurden Websites immer blockiert, Hinweise auf politisch unliebsame Aktivitäten führten anlassbezogen ebenso zu einer Sperre.
Tor, BitTorrent & Co
"Die syrischen Behörden wollten offenbar Plattformen wie Facebook nicht generell sperren, weil sie den daraus resultierenden Unmut fürchteten. Sie entschieden sich für Stichwort-indizierte Sperren, was die Zensur schwieriger nachvollziehbar macht", schlussfolgern die Forscher. Sie analysierten auch, inwiefern Versuche von Usern, sich vor Überwachung und Zensur zu schützen, erfolgreich waren.
Die Ergebnisse waren durchaus positiv: So wurden 2011 nur 1,38 Prozent aller Versuche blockiert, auf Tor - ein Netzwerk zur Anonymisierung von Netzwerkdaten - zuzugreifen. Auch über Virtual Private Networks - in sich geschlossene Netzwerke - und Peer-to-Peer-Netzwerke wie BitTorrent, mit dem sich Netze zum schnellen Verteilen von Dokumenten aufbauen lassen, ist es Usern gelungen, die Zensur zu umgehen. Sogar über die Cache-Funktion von Google konnte die Zensur ausgehebelt und auf später gesperrte Inhalte zugegriffen werden.
Ethisches Dilemma
Die Analyse ist eine Momentaufnahme des Jahres 2011. Wie Zensur in Syrien heute - nach zwei Jahren Bürgerkrieg - ausgeübt wird, können die Forscher nicht sagen. Ende 2011 investierten die syrischen Behörden noch einmal 500.000 US-Dollar in zusätzliche Überwachungsausrüstung, die Vermutung liegt nahe, dass damit auch die Zensur noch genauer wurde.
Abdelberi Chaabane und seine Kollegen räumen ein, dass ihre Studie auch Hinweise geben könnte, wie Zensur noch treffsicherer funktionieren könnte. Gleichzeitig könnte sie aber auch Ideen zur Entwicklung weiterer Anti-Zensur-Tools liefern. Diesem Dilemma hätten sie nur dann entkommen können, wenn sie ihre Studie nicht veröffentlich hätten - und das, schreiben sie auf arXiv, "wäre in sich wiederum eine Form der Zensur gewesen."
Elke Ziegler, science.ORF.at