Tumblelog by Soup.io
Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

December 20 2013

Zensur-Kollateralschaden: Aufklärungswebseiten in Großbritannien gesperrt

Ab Anfang nächsten Jahres bekommt jeder neue britische Internetanschluss einen voreingestellten Internet-Jugendfilter. Das soll laut einer Kampagne von Großbritanniens Premier Cameron das Surfen im Internet sicherer machen und die Jugend vor gefährlichen Inhalten schützen. Zu den geblockten Themen zählen nicht nur Pornos, wie ursprünglich angesagt, sondern auch andere kritische Inhalte wie Webseiten zu Essstörungen, Alkohol, Suizid, Esoterik und Zensurumgehungstools. Und natürlich Extremismus. Und da alles “freiwillig” ist – so freiwillig wie ein ausdrückliches Opt-Out eben ist – braucht es dafür nichtmal eine gesetzliche Verankerung.

Die vier größten Internetanbieter im Land haben die Filter bereits jetzt umgesetzt, der viertgrößte britische ISP TalkTalk zum Beispiel. Der hatte schon 2011 ein eigenes System zum Blockieren von Inhalten, HomeSafe, im Angebot, das Kunden bisher nachträglich anschalten konnten.

BBC hat nun herausgefunden, dass nicht nur “legale Hardcore-Pornographie” von den Filtern betroffen ist. Geblockt werden auch Seiten zur sexuellen Aufklärung, Beratungsangebote für Opfer sexuellen Missbrauchs und häuslicher Gewalt. Und man kann sich vorstellen, dass auch andere Inhalte betroffen sind, die potentiell auffällige Stichwörter enthalten. Aussteigerangebote für Angehöriger extremistischer Gruppen, Selbsthilfegruppen und Gesundheitsberatung für sexuell übertragbare Krankheiten zum Beispiel.

Neben der naheliegenden Erkenntnis, dass Internetzensur in jeder Ausprägung doof ist, zeigt die Meldung noch etwas anderes: Nämlich wie gefährlich es ist, das Urteil, was wir sehen dürfen, irgendeinem Softwarefilter zu überlassen. Blacklists, auf denen manuell Seiten vermerkt sind, die unerwünscht sind, schränken unsere Freiheit ein. Aber sie sind, auch wenn es das nicht besser macht, bis zu einem gewissen Maß deterministisch.

Noch absurder war ein Vorfall in Australien, über den The Sydney Morning Herald im Juni berichtete: Die australische Finanzaufsichtsbehörde hatte angewiesen, eine Webseite zu blocken. Nicht wie üblich über die Domain – wie www.netzpolitik.org -, sondern über die IP-Adresse. Da aber oftmals mehrere Domains unter einer IP gehostet werden, verschwanden in einem drastischen Fall 250.000 Seiten aus dem Netz, die bis auf den gemeinsamen Hoster in keinerlei Zusammenhang zum eigentlich zensierten Inhalt standen.

Sobald wertvolle Netzinhalte als Kollateralschaden effektiv aus dem Netz verschwinden – also aus Versehen nicht mehr erreichbar sind, obwohl es sie weiterhin gibt und auch offiziell geben sollte – bringt das den freien Zugang zu Wissen in Gefahr, von dem man nicht einmal weiß, dass es nicht mehr verfügbar ist.

Was uns die Große Koalition im Bereich Internetsperren bringen wird, wissen wir noch nicht. CSU-Politiker Norbert Geis, der eine Einführung von Jugendschutzfiltern nach britischem Vorbild vorgeschlagen hatte, findet sich nicht mehr im neuen Bundestag. Und der neue Koalitionsvertrag äußert sich nur sehr unkonkret:

Für einen wirksamen gesetzlichen Kinder- und Jugendschutz ist eine Angleichung der gesetzlichen Regelungen zum Schutz von Kindern unabhängig vom Verbreitungsweg der digitalen Medien anzustreben. Dabei sollten die heute geltenden hohen Jugendschutzstandards für Trägermedien als Orientierung dienen. Im Zentrum für Kinderschutz im Internet (I-KiZ) arbeiten die Beteiligten zusammen an einer Gesamtstrategie, die Regulierung, Anbieterverantwortung und die Stärkung der Medienkompetenz miteinander verbindet und internationale Zusammenarbeit sicherstellt

Aber allein das Auftauchen der Begriffe “Regulierung” und “Anbieterverantwortung” lässt eine weitere dunkle Wolke am Horizont eines freien Internets auftauchen.

Die einzige wirksame Möglichkeit des Widerstandes ist wohl, das Wissen über die Existenz undUmgehung von Netzsperren und  -zensur zu verbreiten und zu versuchen, bereits Jugendliche an den Umgang mit Proxyservern, VPNs und Tor heranzuführen.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

August 07 2013

FBI “hilft” US Internet Providern gerne bei der Datenüberwachung mit “Port Reader”

fbicrest_610x392

Quelle: Getty Images

Wie CNET berichtete, hat die US Amerikanische Bundespolizei – das Federal Bureau of Investigation (FBI) – dank der sogenannten “pen register and trap and trace order” (PRTT) die Möglichkeit jegliche Meta-Daten direkt beim Internet Service Provider abzufangen. Per Verordnung kann das FBI den ISP schon bei dem kleinsten Verdacht oder Hinweis beauftragen diese Daten eines Kunden abzuspeichern. Falls die Infrastruktur des ISPs dies nicht erlaubt, will das FBI eigene Blackboxes und “Port Reader Software” installieren. Hier wehren sich – zum Glück – einige Provider und wollen weder Software noch Blackboxes in ihre Systeme integrieren.

Hier gibt es zwei grundsätzliche Probleme: Zum einen verlangt die “pen register and trap and trace order” (PRTT) nur minimale richterliche Schranken. So “winkt” der Richter diese Anträge einfach durch, da lediglich überprüft wird, ob alle Formalien erfüllt sind und nicht, ob genügend Verdacht besteht. So wurden laut CNET 2010 rund 900 dieser Anträge ausgestellt – 2011 waren es schon über 1600.

Judges have concluded in the past that they have virtually no ability to deny pen register and trap and trace requests. “The court under the Act seemingly provides nothing more than a rubber stamp,” wrote a federal magistrate judge in Florida, referring to the pen register law. A federal appeals court has ruled that the “judicial role in approving use of trap and trace devices is ministerial in nature.”

Außerdem schreibt die Electronic Frontier Foundation in ihrem “Surveillance Self-Defense” Projekt zu den PRTTs, dass es nichtmals Fakten oder Indizien geben muss, sondern das FBI dem Gericht nur beteuern muss, dass sie glauben, die Daten würden den laufenden Ermittlungen behilflich sein.

The police don’t even have to state any facts as part of the Electronic Communications Privacy Act of 1986 — they just need to certify to the court that they think the dialing information would be relevant to their investigation. If they do so, the judge must issue the pen/trap order.

Zum anderen ist unklar, was für das FBI alles unter Meta-Daten fällt. Niemand, außer des FBIs, hat Einsicht in die “Port Reader Software” oder die Blackboxes. So weiß man nur, dass in einem Gerichtsurteil von 2006 (Washington D.C.) beschlossen wurde, dass alles einer E-Mail analysiert werden darf – außer Betreff und Inhalt. Das Gesetz ist hier recht weit auslegbar, da es nur von “dialing, routing, addressing, signaling information” spricht.

The term “pen register” means a device or process which records or decodes dialing, routing, addressing, or signaling information transmitted by an instrument or facility from which a wire or electronic communication is transmitted (18 USC § 3127)

CNET liegen allerdings Informationen vor, dass das FBI zumindest auch Paketgröße, Portname und IPv6 Flussdaten analysiert. Wie so oft bei staatlicher Überwachung ist man auf Insider-Informationen angewiesen, um zumindest Hinweise auf die eigentlichen Wirkungsweisen und Tragweite zu erhalten. So kritisiert auch Alan Butler des Electronic Privacy Information Center, dass es keine offiziellen Aussagen über die genaue Funktionsweise dieses “Harvesting Programs” gibt:

Can you get things like packet size or other information that falls somewhere in the grey area between traditional pen register and content? How does the judge know the box is actually doing? How does the service provider know? How does anyone except the technician know what’s going on?

So ist sich Hanni Fakhoury sicher, dass das FBI die Grenzen des gesetzlich erlaubten ausreize und vielleicht sogar überschreite, falls die Blackboxes auch Informationen speichern und nicht nur weiterleiten.

The bigger fear is that the boxes are secretly storing something, or that they’re doing more than just simply allowing traffic to sift through and pulling out the routing information. For the Feds to try to push the envelope is to be expected. But that doesn’t change the fact that we have laws in place to govern this behavior for a good reason.

Als Randnotiz: Selbst in Twitters Transparency-Report tauchen PRTTs auf. So basierten etwa 5% der richterlichen Verfügungen, die Twitter im ersten Halbjahr 2013 erhielt auf PRTTs.

Nach Veröffentlichung des Artikels bei CNET hat das FBI Declan McCullagh kontaktiert, allerdings lediglich mit einer Null-Aussage:

Pen Register and Trap and Trace orders grant law enforcement the authority to collect dialing, routing, addressing, or signaling information associated with a target’s communications. This information includes source and destination IP addresses and port numbers. In circumstances where a provider is unable to comply with a court order utilizing its own technical solution(s), law enforcement may offer to provide technical assistance to meet the obligation of the court order.

Letztlich ist es sehr bedenklich, dass das FBI verstärkt diese Möglichkeit zur Überwachung und Analyse von Meta-Daten benutzt. Aus Sicht des FBI ist es sehr verständlich, da sie im Gegensatz zu Abhöranträgen (wiretaps) weder verdacht begründen, noch Beweise liefern müssen. Das Gesetz hinkt hier der Realität stark nach – wie viele der amerikanischen Experten anmerkten – es auf der Überlegung beruht, dass Meta-Daten wesentlich weniger über einen Benutzer aussagen. Diese Annahme ist jedoch heutzutage nur noch bedingt richtig, dann Meta-Daten geben heutzutage dank Netzwerk-Analyse und Visualisierung von z.B. Bewegungsgraphen sehr viele Möglichkeiten für Rückschlüsse. So hat Matthew Cole, Journalist bei NBC News, erst letzte Woche auf der Black Hat gezeigt, dass nur anhand von Meta-Daten eine geheime und illegale CIA-Operation in Italien aufgedeckt wurde.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

July 23 2013

FCC Studie: ‘Letzte Meile’ nicht zwangsläufig Flaschenhals für Datenverkehr

In einer US Amerikanischen Studie, die den Datenverkehr in 16 ISP-Netzwerken von rund 10.000 Routern untersucht hat, wird dargelegt, dass die berühmte ‘letzte Meile’ vom ISP zum Kunden nicht notwendigerweise der Flaschenhals und somit die Ursache für ‘Datenstau’ (hohe Latenzen und langsame Übertragungsgeschwindigkeiten) sein muss.

 

2010 hat die amerikanische Federal Communications Commission (FCC) eine 4-jährige Langzeitstudie gestartet, mit dem Ziel, ein besseres Verständnis bzgl. Ausbau, Geschwindigkeit und ‘Datenstau’ auf der ‘letzten Meile’ zu bekommen. In Zusammenarbeit mit dem Unternehmen SamKnows wurden dazu 10.000 Router in Unternehmen und privaten Haushalten installiert, die sich insgesamt auf 16 ISP-Netze verteilen. Die Router sind mit einer speziellen Firmware ausgestattet, die in regelmäßigen Abständen Latenz- und Datendurchsatz-Tests durchführt.

Nun haben Daniel Genin und Jolene Splett vom National Institute of Standards and Technology einen ersten ‘Zwischenbericht’ verfasst und die bisherigen Daten analysiert. Dabei kamen ein paar interessante Erkenntnisse zutage.

  • Netzwerküberlastungen sind unterschiedlich zwischen Kabel- und DSL-Prodivdern
  • Etwa 1/3 der Netzwerküberlastungen bei DSL-Providern treten nicht in der ‘letzten Meile’ auf.
  • Nur ein Bruchteil der Netzwerküberlastungen bei Kabel-Providern liegen in der ‘letzten Meile’.
  • Die Ursache für die meisten Netzwerküberlastungen, unabhängig ob Kabel- oder DSL-Anschluss, scheint nicht in der ‘letzten Meile’ zu liegen.

Taken at face value these numbers seem to suggest that a significant amount of congestion, especially for cable connections, occurs deeper in the network, perhaps, in the “middle mile” or even farther, where the ISP connects to the “public Internet”. This is somewhat contrary to the popular belief that the edge is more congested than the core. (Quelle: Studie S. 6)

Wie jede Studie, hat auch die der FCC Limitationen. Zusätzlich muss man bedenken, dass man die Erkenntnisse aus den US amerikanischen Netzwerken nicht 1:1 auf die deutsche Infrastruktur übertragen kann. Ein Indiz dafür ist schon in den erreichten ‘realen’ Bandbreiten zu finden. Während in der amerikanischen Studie die DSL-Provider die realistischere Einschätzung bzgl. ‘realer’ Geschwindigkeit gegeben haben, ist in Deutschland genau das Gegenteil der Fall:

In this data set, DSL broadband provided connections on average delivering download speeds above 80% of the assigned speed tier more than 80% of the time. By contrast, a significant fraction of cable connections received less than 80% of their assigned speed tier more than 20% of the time. (Quelle: Studie S. 5)

So schreibt die Bundesnetzagentur in ihrer diesjährigen Studie, in der sie die “bis zu”-Taktik der Internetprovider kritisierte, dass nur ein Bruchteil der DSL-Kunden die vermarktete “bis zu”-Geschwindigkeit wirklich erreicht hatten. (Wir berichteten)

Die geringsten Abweichungen von der vermarkteten Download-Datenübertragungsrate traten bei Kabelanschlüssen auf.

Und das Wirtschaftsministerium merkte an:

Die Unternehmen stehen nun in der Pflicht, die Versorgung ihrer Kunden ihren vertraglichen Zusagen entsprechend zu verbessern oder zumindest im Vertrag deutlich zu machen, welche Bandbreiten tatsächlich erreicht werden können.

Hier scheint es also zunächst einen systemischen Unterschied in der Infrastruktur zwischen Deutschland und den USA zu geben, wodurch die (vorläufigen) Ergebnisse nicht direkt Rückschlüsse auf Deutschland zulassen. Warum ist es also dann so interessant? ISPs argumentieren immer wieder, dass aktives Netzwerkmanagement nötig ist, um Netzwerküberlastungen der ‘letzten Meile’ zu verhindern. Gleichzeitig veröffentlicht kein Provider Netzwerkdaten bzgl. Auslastung, Latenz, etc. für sein eigenes Netzwerk mit der Begründung, dass es entweder ein Dienstgeheimnis sei, oder dies aus Datenschutzgründen nicht möglich sei. Somit weiß man schlichtweg nicht, ob das Problem wirklich an der ‘letzten Meile’ liegt.

Genau hier setzt die FCC Studie an und bringt zumindest ein erstes, kleines Licht ins Dunkel. (Die amerikanische Cooperative Association for Internet Data Analysis fordert seit Jahren mehr Offenlegung der Nutzungsdaten seitens der ISPs) Und unter diesem Licht sind die ersten Erkenntnisse der Studie interessant, da sie die stoische Aussage der Provider, die letzte Meile sei der Flaschenhals und deswegen braucht es aktives Netzwerkmanagement, nicht bestätigt.

In the meantime, the results from Genin and Splett should give ISPs something to think about. At the very least, they might want to consider making their traffic data public so that everyone, including the ISP’s themselves, can benefit from the greater insight this should produce.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

September 04 2012

Wie neutral ist das Internet?

netneutralitymap.orgDer Diskussion rund um die Netzneutralität mangelt es nicht an hinkenden Vergleichen, aber oft hapert es an Fakten und ihrer einfachen Aufbereitung. Deshalb haben Aktivisten aus Österreich eine Visualisierung der Mess-Daten des meassurment labs gebaut, und auf netneutralitymap.org veröffentlicht. Fazit der Karte: die Situation ist schlimmer als erwartet und es besteht eindeutig Handlungsbedarf!

In einer farblichen Kodierung zeigt die Karte in welchem Ausmaß die Internetprovider eines Landes in den Datenverkehr ihrer Kunden eingreifen. Basis der Grafik sind die Daten des “Glasnost” Netzwerktests des meassurment labs. Aus den Daten geht hervor ob Provider gezielt gewisse Protokolle verlangsamen. In einem ausführlichen Paper beschreibt das Max-Planck-Institut für Softwareentwicklung wie der Test funktioniert. Es wurde eine sehr konservative Messmethode gewählt um möglichst wenige false-positiv Ergebnisse zu bekommen. Obwohl die Verlangsamung von Datenpacketen aufgrund ihres Dienstes nur eine von mehreren möglichen Verletzungen der Netzneutralität ist, zeigt die Karte klar wie häufig dies Praxis im Internet geworden ist. Diese Tendenz wird durch die bevorstehende Verabschiedung von Dienstklassen durch die ITU Konferenz im Dezember 2012 tendenziell noch steigen.

Entwickler Michael Bauer äußert sich zum Effekt seines Projekts auf ihn:

“Bevor ich netneutralitymap gemacht habe war Netzneutralität für mich ein akademisches Thema. Aber als ich mit eigenen Augen gesehen habe wie weit verbreitet die Eingriffe in die Netzneutralität sind, wurde mir klar: Es gibt ein systematisches und weltweites Problem.”

Der Sourcecode des Projektes findet sich auf github, weitere Visualisierungen sind geplant. Auf dem Österreichischen Netzkongress DNP wird dieses Wochenende auch eine Kampagne zur Netzneutralität vorgestellt. Aktivisten der Initiative für Netzfreiheit und des Vereins für Internetbenutzer Österreich haben dieses Thema auf ihre Agenda gehoben.

Die Karte beschränken sich immer auf Daten des letzten Jahres und wird alle drei Tage aktualisiert, dadurch können auch neue Testergebnisse sichtbar gemacht werden. Mit dem Glasnost Test kann im Browser getestet werden  ob der eigene Provider (ggf. auch Provider auf der Route zu den Testservern) das ausgewählte Protokoll verlangsamt. In den meisten Ländern fehlt es immer noch an Datenmaterial um Aussagen über die nationale Situation treffen zu können. Deshalb rufen die Aktivisten dazu auf den Test im eigenen Browser mit den gängisten Protokollen laufen zu lassen!

flattr this!

February 14 2012

Contentüberwachung im Praxis-Check

Im Blog des mittelständischen IT-Dienstleisters QSC aus Köln findet sich ein lesenswerter Beitrag zum geplanten ACTA-Abkommen und dessen Auswirkungen auf die Internetanbieter.

Neben den schon bekannten Argumenten gegen das Anti-Produktplagiats-Abkommen geht der Pressebeauftragte Dennis Knake vor allem auf die Stellung der Provider ein und unterzieht ACTA einem Praxischeck.

Sollten die Internetanbieter verpflichtet werden, den Datenverkehr ihrer Kunden auf mögliche Urheberrechtsverletzungen zu überwachen, müsste eine Software nicht nur zuverlässig sämtliche Signaturen urheberrechtlich geschützter Werke erkennen, sondern auch gleichzeitig prüfen, ob der Kunde nicht doch Rechte an diesem Werk besitzt. Selbst wenn die Entwicklung einer solchen Software möglich wäre, sei es fraglich, wer die Kosten hierfür übernehmen solle.

Außerdem wird eine interessante Parallele zwischen einer solchen Deep-Packet-Inspection-Software und den schon heute auf nahezu jedem Computer installierten Spamfiltern gezogen: Wenn selbst diese nach langem Training falsch positive Funde meldeten, könne ein solcher Befund bei dem wesentlich anspruchsvolleren Netzwerkmonitoring nicht ausgeschlossen werden. So ein Fall hätte allerdings wesentlich schwerere Konsequenzen.

Genauso könnte man morgen die Post für alles zur Verantwortung ziehen, was ihre Kunden in Briefen und Paketen um den Globus versenden.

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl