[wilhelmtux-discussion] heise online: Mit Distributed Computing gegen Webzensur

Robert Ribnitz robert.ribnitz at unifr.ch
Don Jun 26 14:22:23 CEST 2003


Diese Meldung aus dem heise online-Newsticker wurde Ihnen
von "Robert Ribnitz <robert.ribnitz at unifr.ch>" gesandt.
Wir weisen darauf hin, dass die Absenderangabe nicht verifiziert
ist. Sollten Sie Zweifel an der Authentizität des Absenders haben,
ignorieren Sie diese E-Mail bitte.
--------------------------------------------------------------------
Mit Distributed Computing gegen Webzensur



 Mit weltweit verteilten lokalen Clients, die bei Gelegenheit Webadressen
auf deren Erreichbarkeit abklappern, wollen Forscher einen Atlas über
Zensurmaßnahmen im WWW zusammenstellen. Jonathan Zittrain[1], Professor an
der Harvard Law School[2], sowie sein Kollege Benjamin Edelman[3]
kooperieren zu diesem Zweck mit dem englischen Cambridge Programme for
Security in International Society[4] sowie dem Citizen Lab der Universität
Toronto[5]. 

 Die Aktivisten sind keine Unbekannten: Zittrain und Edelman hatten bereits
mit Erkenntnissen[6] über Zensurmaßnahmen bei Google[7] viel Aufmerksamkeit
erregt[8]. Und die Entwickler in Toronto haben ein Programm geschrieben,
mit dem man die Erreichbarkeit einer Web-Adresse in 15 Ländern überprüfen
kann. Um die oft unbemerkten Auswirkungen von Filtermaßnahmen durch
Internet-Provider, LAN-Administratoren oder staatliche Behörden im gesamten
WWW öffentlich zu dokumentieren, bastelt man jetzt in Harvard an einem
Client-Programm für freiwillige Zuarbeiter.

 Die Software, über deren Entwicklungsfortschritte man sich über die
zugehörige Webseite[9] informieren kann, soll Listen mit zensurgefährdeten
Webadressen von einem zentralen Server entgegennehmen und vom Ort des
Projektteilnehmers aus auf Erreichbarkeit testen. Die Versorgung mit
prüfwürdigen URLs sollen Google und das Webverzeichnis Alexa[10]
übernehmen. "Nicht erreichbar"-Befunde des Clients gelangen zurück zum
Server und lösen dort zusätzliche Nachforschungen aus, um
Nichtzugänglichkeiten auf Grund technischer Probleme oder Netzüberlastungen
auszusondern. Ähnlich wie beim Programm des Projekts SETI at home[11] soll dem
Anwender nur dann Rechenzeit abgezwackt werden, wenn der Computer sowieso
nicht ausgelastet ist. Damit die Client-Betreiber nicht um ihre Intimsphäre
bangen müssen, soll zur Erstellung des Atlasses nicht deren rückverfolgbare
Internetadresse verwendet werden, sondern bloß Daten über die Region des
Zugriffs. Mit Zittrains Worten heißt das: "Wir interessieren uns nur für
die Nachbarschaft, nicht für das Haus". (hps[12]/c't)

URL dieses Artikels:
 http://www.heise.de/newsticker/data/hps-26.06.03-000/

Links in diesem Artikel:
 [1] http://cyber.law.harvard.edu/zittrain.html
 [2] http://www.law.harvard.edu/
 [3] http://cyber.law.harvard.edu/edelman.html
 [4] http://www.intstudies.cam.ac.uk/research/security.html
 [5] http://www.citizenlab.org/index.php
 [6] http://cyber.law.harvard.edu/filtering/google
 [7] http://www.google.de/intl/de/about.html
 [8] http://www.heise.de/newsticker/data/wst-24.10.02-001
 [9] http://cyber.law.harvard.edu/filtering/app/
 [10] http://www.alexa.com
 [11] http://setiathome.ssl.berkeley.edu/
 [12] mailto:hps at ct.heise.de

--------------------------------------------------------------------
Copyright 2003 by Heise Zeitschriften Verlag