Tumblelog by Soup.io
Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 20 2014

February 06 2014

Neues Gesetz in der Türkei: “Es ist offensichtlich, dass sie vorhaben, DPI zu verwenden”

letmesurfHeute wurde in der Türkei ein Gesetz verabschiedet, das der Regierung weitgehende Sperr- und Überwachungsrechte im Internet einräumt. Wir haben uns mit Vertretern der Alternatif Bilişim Derneği (Alternative Informatics Association) über die Situation unterhalten.

Seit 2010 wird die Türkei von Reporter ohne Grenzen auf der Liste der Internetfeinde in der Kategorie “unter Beobachtung” geführt. Was war passiert?

Die Regierung hatte 2007 das Gesetz #5651 für Internetüberwachung und Netzsperren eingeführt. Über 40.000 Webseiten sind derzeit geblockt. Vor einigen Jahren wurde ein neuer Filtermechanismus eingeführt. Ursprünglich war das Filtern obligatorisch und Internetnutzer mussten sich zwischen den Optionen “Standard”, “Familie” und “Kinder” entscheiden. Nach einem Aufschrei in der Bevölkerung und Massendemonstrationen gegen den Filter wurde er optional. Anfang 2014 ließen nur 4-5% der Internetnutzer filtern. Allerdings waren die mehr als 40.000 Websites, die oft auch ohne Gerichtsbeschluss auf der Liste gelandet sind, auch ohne Filter nicht ohne Umwege erreichbar.

Eines unserer Mitglieder, Ahmet Yildirim, zog vor den Europäischen Gerichtshof für Menschenrechte, weil sites.google.com, wo seine wissenschaftlichen Studien gehosted sind, geblockt worden war. Der EGMR entschied, dass das Gesetz #5651 den Artikel 10 der Europäischen Menschenrechtskonvention verletzt:

Noch schlimmer ist das neue Gesetz, das die Einschränkungen von Gesetz #5651 noch verschärft.

Was ändert sich in diesem Bereich durch das neue Gesetz?

Bis vor einigen Monaten wurde durch IP-Sperren geblockt. Dadurch wurde die komplette Seite unzugänglich gemacht, wenn irgendwo Material zu finden war, das der Regierung nicht gefiel. Im Fall von Ahmet Yildirim ging es beispielsweise nicht um das, was er gepostet hatte, sondern um etwas ganz anderes. Jetzt sieht es so aus als hätten sich die technischen Möglichkeiten in letzter Zeit fortentwickelt. Sie können jetzt auch URL-basiert sperren. Das meiste, was zuletzt gesperrt wurde, handelte von Korruption in der Regierung, wovon auf YouTube und Soundcloud berichtet wurde.

Das neue Gesetz sieht vor, dass IP-basiert, URL-basiert oder “durch andere Mittel” geblockt werden kann. Es ist offensichtlich, dass sie vorhaben, Deep-Packet-Inspection-Systeme zu verwenden, die nicht nur blocken können, sondern auch neue Möglichkeiten zur Überwachung liefern. Das neue Gesetz zwingt alle Provider, Mitglied in einer Gesellschaft zu werden, die dazu da ist die Sperr- und Überwachungsanordnungen der Regierung zu übermitteln und die Durchführung zu kontrollieren. Alle 196 Provider sind erbitterte Gegner des Gesetzes, weil sie DPI-Systeme kaufen und installieren müssen wenn es verabschiedet wird. Das ist auch deswegen schlecht für die Nutzer, weil diese Kosten auf die eh schon hohen Zugangskosten aufgeschlagen werden.

Wie sieht es mit Social-Media-Nutzung aus?

Die Massenmedien sind in einem erbärmlichen Zustand und werden nicht dazu genutzt, Nachrichten zu verbreiten, sondern sie zu verstecken. 95% der Massenmedien werden entweder direkt von der Regierung kontrolliert oder von Konzernen, die finanzielle Verbindungen zur Regierung haben, etwa durch Ausschreibungen. Durch diese Situation waren die sozialen Medien essentiell für das, was im Juni 2013 rund um den Gezi-Park passierte und für die Verbreitung von Informationen eine entscheidende Rolle spielte. Premierminister Erdogan nannte Twitter damals “eine Gefahr für die Gesellschaft”. Während der Gezi-Park-Proteste wurden viele Menschen verhaftet, die Informationen über die Geschehnisse verbreiteten oder zum Mitmachen aufriefen. Während Twitter sich weigerte, mit der Regierung zu kollaborieren, gaben Facebook und Microsoft Informationen über ihre Benutzer weiter.

Welche Pläne gibt es jetzt in diesem Bereich?

Erdogan hat seine Einstellung zu Twitter offensichtlich geändert, denn seine Partei hat jetzt eine 6000 Mann starke Armee von Twitter-Nutzern, die Nachrichten auf Kommando posten und sich mit der fundamentalistischen Twitter-Armee der Anhänger von Fethullah Gulen bekämpfen. Gulen ist ein mächtiger Imam, der in den letzten Jahrzehnten eine halb-klandestine Organisation aufgebaut hat. Jetzt liefert er sich einen erbitterten Kampf um die Macht mit der Regierung.

Gibt es Parteien, die sich gegen das Gesetz gewehrt haben? Ist Internetfreiheit ein Gegenstand der politischen Debatte?

Man kann schon sagen, dass das Thema auf der politischen Agenda stand. Allerdings hat die regierende AKP eine absolute Mehrheit im Parlament und in dieser Situation ist es natürlich unwahrscheinlich, dass ein Gesetz noch abgelehnt wird. Wie die Zivilgesellschaft und die Provider ist auch die Opposition gegen das Gesetz, aber ihr Widerstand ist dabei offensichtlich nicht besonders wirksam.

Wie steht es um die Zivilgesellschaft?

Unsere Organisation, die Alternative Informatics Association, und viele andere NGOs setzen sich aktiv für die Freiheit des Internets ein und haben versucht, das neue Gesetz zu verhindern. Einige unserer Mitglieder waren auch im Parlament, um Überzeugungsarbeit zu leisten.

Und die Medien? Welche Position nehmen die ein, wenn es um Zensur und Überwachung geht?

Die von der Regierung kontrollierten Medien haben das neue Gesetz unterstützt und es als Mechanismus gegen Diffamierung dargestellt, also beispielsweise gegen Vorwürfe gegen korrupte Minister und andere Offizielle. Einige Medien haben auch einfach nur über den Prozess der Gesetzgebung berichtet, ohne das Gesetz selbst zu kommentieren. Die meisten Journalisten können nichts sagen, denn die Regierung hat es geschafft, dass sie sich bereits selbst zensieren. Das liegt daran, dass mehr als 70 Journalisten im Gefängnis sitzen und viele ihre Jobs verloren haben. Trotzdem schaffen es manchmal, wenn auch selten, unbeschönigte Berichte über die wahre Natur des neuen Gesetzes in die Mainstream-Medien.

Gemeinsam mit Access ruft Alternatif Bilişim Derneği dazu auf, sich an den türkischen Präsidenten zu wenden. Access hat dafür ein praktisches Tool aufgesetzt.

Wir wollen netzpolitik weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

September 28 2013

Netzneutralität auf EU Ebene

Vor zwei Wochen fand in Wien die DNP13 Konferenz statt. Dort gab es von mir einen Vortrag zur Netzneutralität auf EU Ebene. Mit dem Verordnungsentwurf von Neelie Kroes steht uns in den nächsten Monaten ein sehr zielgerichteter Angriff auf das freie, offene Internet bevor. In diesem Vortrag, drei Tage nach der Veröffentlichung des Entwurfes, habe ich versucht einen ersten Überblick über den Gesetzestext zu liefern. Schwerpunkt ist hier vor allem die Definition und Beispiele von Specialised Services, einem der Knackpunkte der aktuellen Netzneutralitäts-Debatte.

Slides gibt’s hier.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

August 21 2013

Endlich nachgewiesen: Die NSA überwacht sämtlichen Internet-Verkehr, der über amerikanisches Gebiet geht

WSJ-BlarneyDie NSA hat Zugriff auf große Teile des Internet-Verkehrs, der über ihr Staatsgebiet geht und verarbeitet diese Datenmengen in ihren eigenen Systemen. Das berichtet das Wall Street Journal unter Berufung auf eine Reihe von Beteiligten. Jede Internet-Kommunikation über amerikanische Server landet demnach höchstwahrscheinlich bei der NSA – nur ein bisschen rein amerikanische Kommunikation wird wohl rausgefiltert.

Auch wenn die Snowden-Leaks verschiedene Programme zur Massenüberwachung der NSA enthüllt haben: die systematische Überwachung weiter Teile des gesamten Internet-Verkehrs analog zum britischen Program Tempora konnte noch nicht nachgewiesen werden. Vor zwei Monaten hatten wir berichtet, dass die NSA sehr wohl die Nervenzentren der Internet-Kommunikation anzapft, uns dabei aber auf ältere Informationen bezogen. Das Wall Street Journal schließt jetzt diese Lücke und berichtet über die massenhafte Überwachung großer Teile des über die USA fließenden Internet-Verkehrs.

prism-upstreamAuf der Basis von Interviews mit Beamten aus Diensten und Regierung sowie Mitarbeitern der Firmen, die Überwachungstechnologien bauen, erklärt das WSJ die von uns bereits genannten Programme “Blarney, Fairview, Oakstar und Stormbrew” sowie ein neues: “Lithium”. Diese stehen für Deep Packet Inspection Hardware, die an mehr als einem Dutzend zentraler Internet-Knotenpunkte steht und große Teile des Internet-Verkehrs an die NSA weiterleitet.

Blarney ist demnach das Programm, dass Datenströme vom Telekommunikationskonzern AT&T ausleitet. Schon vor den Anschlägen vom September 2001 wurde damit der Internet-Verkehr von interkontinentalen Glasfaser-Leitungen abgehört. 2006 wurde bekannt, dass AT&T den gesamten Internet-Verkehr ihres Knotenpunkts in San Franciso an die NSA weiterleitet. Laut einem ehemaligen Offiziellen wurde eine ähnliche Einrichtung in einem AT&T-Gebäude in New Jersey errichtet.

Als zweite Firma nennt der Artikel Verizon, die Abhör-Schnittstellen in den größten US-Metropolen errichtet haben.

Mit diesen Systemen hat die NSA Zugriff auf weite Teile des Internet-Verkehrs, der über die amerikanisches Gebiet geht. Der Artikel spricht von 75 Prozent, betont aber immer wieder, dass Inhalte zwischen US-Bürgern schon weggefiltert werden. Man sollte also davon ausgehen, dass sämtliche Internet-Inhalte, die zwischen den USA und anderen Staaten übermittelt werden, in den Datenbanken der NSA landen.

Dazu fordert die NSA von den Telekommunikationsanbietern “verschiedenen Ströme von Internet-Verkehr” an, die ihrer Ansicht nach “wahrscheinlich Geheimdienstinformationen über das Ausland enthalten”. Also wohl sämtliche Kommunikation mit Stellen in anderen Staaten. Diese riesigen Datenmengen werden an die NSA geleitet, die sie in einem zweiten Schritt filtert. Das kann nach einzelnen E-Mail-Adressen passieren oder nach ganzen Blöcken von IP-Adressen, also etwa ganze Länder. Diese Inhalte kann die NSA speichern und nach Belieben angucken oder rastern.

Diese Abhörschnittstellen gab es schon vor 9-11, zunächst vor allem bei ausländischen Internet-Providern. Laut ehemaligen Offiziellen gibt es solche Vereinbarungen weiterhin unter anderem im Nahen Osten und in Europa. Seit 9-11 wurde das System auf amerikanische Provider ausgedehnt.

Als Technik kommt dabei mal wieder Deep Packet Inspection Hardware von Narus zum Einsatz, aber auch von Cisco, Juniper und anderen.

WSJ-Blarney-590

Die rechtliche Basis für diese Komplettüberwachung des Internet-Verkehrs sind mal wieder Anordnungen des Foreign Intelligence Surveillance Court, das geheime Gericht, dass aufgrund geheimer Gesetzes-Interpretationen geheime Entscheidungen trifft und dabei in 33 Jahren nur 11 von über 33.900 Überwachungs-Anordnungen abgelehnt hat.

Die wirklichen Entscheidungen, was überwacht wird, trifft die NSA selbst:

Die NSA hat Spielraum für die Einstellung der Filter, und das System setzt deutlich auf Selbstkontrolle. Das kann zu unzulässigen Datensammlungen führen, die jahrelang andauern.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

August 09 2013

XKeyscore: Die Entwicklung des DPI-Tools, das sich “zu Grundrechten verhält wie ein Tyrannosaurus Rex auf Ecstasy”

Sean Gallagher erklärt auf Ars Technica die Entwicklung von XKeyscore, seit den Ursprüngen von Carnivore und Narus:

XKeyscore takes the data brought in by the packet capture systems connected to the NSA’s taps and processes it with arrays of Linux machines. The Linux processing nodes can run a collection of “plugin” analysis engines that look for content in captured network sessions; there are specialized plugins for mining packets for phone numbers, e-mail addresses, webmail and chat activity, and the full content of users’ Web browser sessions. For selected traffic, XKeyscore can also generate a full replay of a network session between two Internet addresses.

Weitere Details gibt’s in den gelekaten Folien.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

July 19 2013

Sambia: Reporter ohne Grenzen kämpfen für Nachrichtenseite zambianwatchdog.com

Wir berichteten gestern über den Einsatz von Deep Package Inspection, im Zusammenhang mit der Sperrung der sambischen Nachrichtenseite zambianwatchdog.com. Um die unabhängige Nachrichtenseite zu unterstützen, hat die NGO “Reporter ohne Grenzen” unter der Domain zambianwatchdog.rsf.org eine Spiegelung der Webseite vorgenommen, um sie für die Einwohner Sambias wieder erreichbar zu machen. Nur wenige Stunden nach der Spiegelung wurde allerdings von Seiten der sambischen Regierung damit begonnen, auch den Zugriff auf die neue Domain aktiv zu blockieren. “Reporter ohne Grenzen” bittet deshalb nun um Mithilfe, zambianwatchdog.com für die Internetnutzer Sambias wieder verfügbar zu machen.

To help end the gagging of independent news and information in Zambia, Reporters Without Borders appeals to Internet users to create many copies of the site.

Eine kompakte Anleitung, wie man selbst eine Kopie von zambianwatchdog.com anfertigt und diese dann auf seinem Server betreibt, liefert “Reporter ohne Grenzen” unter diesem Link.

Unterdessen werde aber auch immer neue Details rund zambianwatchdog.com bekannt. So berichtet “Reporter ohne Grenzen”, dass die drei Journalisten Wilson Pondamali, Clayson Hamasaka und Thomas Zyambo bereits am 9. Juli von der Polizei festgenommen wurden und im Polizeihauptquartier in Sambias Hauptstadt Lusaka festgehalten werden. Alle drei wurden im Zusammenhang mit kürzlich auf zambianwatchdog.com erschienen Artikeln festgenommen. Sie wurden zwar vorläufig wieder freigelassen, doch drohen ihnen Haftstrafen zwischen 2 und 7 Jahren. Die Anklagen lauten auf Volksverhetzung und unrechtmäßigem Besitz geheimer Militärdokumente.

Lloyd Himaambo, Redakteur bei zambianwatchdog.com, sagte gegenüber “Reporter ohne Grenzen” jedoch, man habe keine Verbrechen begangen:

Zambian Watchdog has committed no crime. The only thing we are guilty of is providing the Zambian people with free access to independent information in a country where the state exercises a heavy control over the media.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

July 18 2013

Sambia: Einsatz von Deep Packet Inspection gegen unliebsame Webseiten

Häufig ist in letzter Zeit die Rede von Metadaten oder Verbindungsdaten, welche ganz natürlich bei jeder Kommunikation im Internet anfallen und die genutzt werden können, um Persönlichkeitsprofile von Nutzern zu erstellen. Um allerdings auch Informationen über die verschickten Daten und nicht nur Sender und Empfänger zu erfahren, sind weitere Hilfsmittel nötig. Eines dieser Hilfsmittel ist die sogenannte Deep Packet Inspection (DPI), bei der der Datenteil sowie der Header eines Datenpakets auf bestimmte Merkmale hin untersucht werden kann. DPI wird daher häufig zur Überwachung, Filterung und auch Zensur von Netzinhalten eingesetzt, wie es zur Zeit gerade in Sambia zu beobachten ist. Dort wird nach Recherchen von Mr.T für Open Observatory of Network Interference (OONI) die Webseite zambianwatchdog.com mit Hilfe von DPI für Aufrufe innerhalb Sambias gesperrt.

Zambianwatchdog.com ist nach eigener Aussage, gemessen an den Seitenaufrufen, die 8. größte Webseite in Sambia. Die Nachrichtenseite befasst sich mit inländischen Themen wie Korruption und Drogenschmuggel und wird von der Regierung sehr kritisch betrachtet. Wie OONI berichtet, häufen sich seit dem 24. Juni Beschwerden, dass die Seite nicht mehr aus Sambia erreicht werden kann. Die Analyse der Protokolle auf den Servern zeigten einen enormen Anstieg an Einträgen, bei denen der HTTP-Status Code 200 berichtet wurde, aber keinerlei Daten zurück an den Nutzer geschickt wurden.

41.72.105.x – - [25/Jun/2013:05:03:58 +0000] “GET / HTTP/1.1″ 200 0 “-” “Mozilla/5.0 (Windows NT 6.1; rv:20.0) Gecko/20100101 Firefox/20.0″


Mr.T erklärt diesen Eintrag wie folgt:

The status code 200 indicates that the client’s request was successfully received, understood, and accepted by the server but for some unknown reason no information was send back to the client.

Zu einem späteren Zeitpunkt fanden die Betreiber der Server heraus, dass nur Verbindungen von innerhalb Sambias von diesem Problem betroffen waren und die Verbindung von Außen unterbrochen wurde, nachdem der Client sich mit dem Webserver von zambianwatchdog.com verbunden hatte. Deshalb wurden auch keine Daten mehr an den Client gesendet. Durch die Analyse ihrer eigenen inländischen Verbindungen zu den Server konnte herausgefunden werden, dass die Verbindung jedes mal unterbrochen wird, wenn HTTP Header Host: www.zambianwatchdog.com übermittelt wurde. Dieses Verhalten lässt darauf schließen, dass der HTTP-Header bei der Übertragung untersucht wird die Verbindung gekappt wird, sobald ein bestimmter Wert erkannt wird.

Um das zu überprüfen änderte man den HTTP Header Host zu ähnlichen, aber nicht identischen Werten, wie zum Beispiel www.zambianwatchdog.COM, zambianwatchdog.com, Zambianwatchdog.cOm oder wWw.zambianwatchdog.com. Und tatsächlich wurden die Verbindungen nun nicht mehr unterbrochen, was nach Aussage des Autors auf den Einsatz von DPI deutet:

To our surprise we discovered that the “reset” of the connections was only talking place when we used the header www.zambianwatchdog.com and not when using any of the other combinations. After twelve hours we could confirm that malicious traffic was not generated by the readers but was actively injected into the network when a reader was requesting content from the website www.zambianwatchdog.com and that this behavior could only be explained by the presence of deep packet inspection (DPI) equipment inside Zambia.

Weitere Tests ergaben, dass keine weiteren Seiten der Top 1000 des Alexa-Rakings von Einschränkungen betroffen waren. Um die Seite wieder für die Bevölkerung erreichbar zu machen, erzwang man den Verbindungsaufbau zwischen Client und Server mit SSL zu verschlüsseln, was aber nur kurzzeitig Erfolg brachte. Seit dem 16. Juli werden auch Verbindungen per HTTPS von Außen unterbrochen. Auch ein Umzug auf die neue Domain http://zwd.cums.in wurde frühzeitig erkannt und wird nun aktiv geblockt. Gleichzeitig wurde die Filterung auf das gesamte /24 Netzwerk ausgeweitet, weshalb nun auch hunderte andere Webseiten auf Servern des selben Providers von der Sperrung betroffen sind.

Dass die Regierung hinter der aktiven Sperrung von zambianwatchdog.com steckt ist sehr wahrscheinlich, spätestens auch nach einer Aussage von Guy Scott, dem Vizepräsidenten Sambias, der sagte:

I do not have the details of the blocking of Zambianwatchdog.com, but I
would celebrate.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

June 21 2013

Keep Calm and Spy On: Britischer Nachrichtendienst überwacht systematisch internationalen Internetverkehr

spyonDas britische Government Communications Headquarters (GCHQ) bespitzelt umfänglich die Transatlantikkabel, die einen großen Teil des weltweiten Telefon- und Internetverkehrs transportieren. Das berichtet der Guardian in einer weiteren exklusiven Enthüllung auf Basis der ihm vorliegenden Snowden-Leaks.

Im Rahmen des Programms “Tempora” wird der Datenverkehr für 30 (Metadaten) bzw. 3 Tage (Inhalte) zwischengespeichert, um dann nach Kriterien wie “Organisierte Kriminalität, Sicherheit, Terrorismus und wirtschaftlichem Wohlergehen” [sic!] durchsucht zu werden. Das bedeutet der britische Geheimdienst hat Zugriff auf Telefongespräche, Inhaltsdaten sämtlicher Internetkommunikation und Internetlogs von bis zu 2 Milliarden Internetnutzer*innen!

The documents reveal that by last year GCHQ was handling 600m “telephone events” each day, had tapped more than 200 fibre-optic cables and was able to process data from at least 46 of them at a time.

Die vermeintlich kurzen Zwischenspeicherzeiten beziehen sich dabei auf sämtlichen erfassbaren Traffic. Was aufgrund der breiten Kriterien als verdächtig gilt, wird dann höchst wahrscheinlich länger aufbewahrt. Und das dürfte nicht wenig sein. Die Leistungsfähigkeit des seit 18 Monaten laufenden Programms ist wohl steigend. Mit anderen Worten: Verdachtsmomente werden erst aus den Daten generiert. Was der Guardian da beschreibt, klingt wie Deep Packet Inspection auf der Überholspur.

The first filter immediately rejects high-volume, low-value traffic, such as peer-to-peer downloads, which reduces the volume by about 30%. Others pull out packets of information relating to “selectors” – search terms including subjects, phone numbers and email addresses of interest. Some 40,000 of these were chosen by GCHQ and 31,000 by the NSA. Most of the information extracted is “content”, such as recordings of phone calls or the substance of email messages. The rest is metadata.

Schweigende Komplizen waren neben dem US-amerikanischen Geheimdienst NSA auch private Unternehmen. “Rechtsgrundlage” für dieses gigantische Überwachungsunterfangen ist der “Regulation of Investigatory Powers Act” (RIPA), so etwas wie die britische Version des in letzter Zeit viel diskutierten US-Gesetzes FISA: eine übermächtige Ausnahmeklausel für das Überwachen “ausländischen Datenverkehrs” in weit gefassten Kategorien.

Der GCHQ schreibt mit Tempora seine zweifelhafte Geschichte als Großüberwacher fort. Laut dem NSA-Whistleblower Edward Snowden, ist der GCHQ damit sogar ein schlimmere Scherge als sein amerikanisches Pendant NSA. Das Rennen um die Trophäe des Großüberwachers schlechthin dürfte allerdings eng werden. Schließlich wurde erst vor wenigen Tagen bekannt, dass auch die NSA Internetkabel direkt abschnorchelt.

Einziger Wermutstropfen bei der Geschichte ist laut Guardian, dass immer mehr Internetverkehr über asiatische Kabel läuft. (Ich bin dahingehend kein Experte, nähere Hinweise gerne in den Kommentaren.)

Funfact: Unter den Dokumenten sind auch wieder Präsentationen zur Instruktion von Analyst*innen. Eine dieser Folien motiviert mit den Worten:

You are in an enviable position – have fun and make the most of it.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

April 08 2013

Werbeanzeigen auf Seiten, wo keine sein sollten: Kooperiert amerikanischer ISP mit Werbedienstleister?

Während eines Besuchs bei ihren Eltern entdeckten Robert Silvie und Zachary Henkel, unabhängig voneinander, ungewöhnliche Werbeanzeigen auf den Seiten von u.a. Apple, Bing und eBay. Silvie wusste, dass Bing keine Werbebanner unterhalb der Suchmaske anzeigt und auch ‘Zack’ Henkel war sich sicher, dass Apple auf seiner “sorgfältig gestalteten weiß-grauen Homepage” nicht freiwillig ein neongrünes Banner mit der Aufschrift “File For Free Online, H&R Block” einblendet. Irgendwo zwischen Silvies beziehungsweise Henkels Rechner und den Seiten von Bing und Apple mussten die Werbeanzeigen eingeschleust worden sein – aber wo?

Zack schreibt auf seinem Blog, dass er anfangs davon ausging, dass entweder Apple den “worst cross-promotional deal ever” eingegangen sei, oder sein Computer mit einer Malware infiziert sei.

Neither Silvie and Henkel were going to let a mystery like this go without solving it. Each embarked on a separate investigation and each came to the same conclusion: their parents’ Internet provider was somehow involved in slapping ads onto webpages as they moved over the network.

Der ISP (Internet Service Provider) beider Elternpaare ist CMA Communications, ein Kabel-TV, Internet und Telefon-Anbieter für ländliche Gemeinden in Texas, Louisiana, Mississippi und Nevada.

Nachdem Henkel Werbeanzeigen auf verschiedenen Webseiten gefunden hatte, rief er diese erst mit seinem Android Smartphone, dann mit einem Tablet auf: sie wurden immer noch angezeigt.

I am not great at statistics, but I was fairly certain the probability of identical malware on all of these devices was low. So, I moved to thing that these devices all shared: the same wireless network.

Als er das Wi-Fi am Telefon abschaltete, um das Mobilfunknetz für die Datenverbindung zu nutzen, sah er keine Werbeanzeigen mehr. Als er es wieder anschaltete, kamen auch wieder die Anzeigen. Im HTML Code einer Webseite, welche die Werbung enthielt, fand er folgende Codezeile, die eine JavaScript Datei von r66t.com aufruft:

Screen Shot 2013-03-29 at 3.36.27 PM

Es stellte sich heraus, dass der R66T Code nicht nur Werbebanner hinzufügte, wo vorher keine waren, sondern auch existierende Banner überschrieb, zum Beispiel auf der Seite der Huffington Post.

Henkel wollte ausschließen, dass der Router seiner Eltern kompromittiert ist:

I ran a traceroute to see the route my internet requests were taking. There it was: an extra stop at a private IP address. I was soon able to show that HTTP internet traffic was being routed through a Squid proxy server. The proxy server had been setup by a company, R66T, that specializes in a few things, one being advertisement injection into webpages.

Auch Silvie fand heraus, dass die Banner nur von r66t.com kamen, wenn eine Webseite nicht über HTTPS ausgeliefert wurden. R66T beschreibt sich selbst als “one of the nation’s leading publisher of targeted content, information and advertising to private Wi-Fi and High-Speed Internet Access (HSIA) networks, conducting tens of millions of individual user sessions—approaching one-billion user-minutes per month.” Laut Ars Technica ist eines ihrer Produkte für ein Hotel Wi-Fi Sytem eine “immer präsente Toolbar oder ein Rahmen um die Webseite herum, in dem relevante Inhalte und Informationen angezeigt werden” sowie die Anzeigen von Konkurrenten “während der gesamten Web Session auf die schwarze Liste gesetzt werden”.

Im Gegensatz zu diesem Wi-Fi “Angebot” zahlten die Eltern von Silvie und Henkel für ihren Internetzugang und die Werbeanzeigen waren mitten auf der entsprechenden Seite und nicht in einem Rahmer darum oder einer Toolbar.

In its privacy policy, R66T says that it partners with Internet providers and that end users should love the service it provides. Silvie quickly blocked all access to R66T domains on his machine and the ads disappeared; Henkel did likewise, but his anger drove him further. He suspected that CMA had partnered with R66T in an attempt to make more money from each Internet connection, but he couldn’t prove it.

Henkel rief die CMA Hotline an, dort wurde ihm nicht so recht geglaubt. Er reichte daraufhin eine Beschwerde bei der Federal Communications Commission ein, die ihn jedoch an die Federal Trade Commission verwies.

Mick Hall von R66T antwortete auf sehr direkte Fragen nach der Vderbindung zwischen R66T und CMA, dass er gerade in Mexico City sei, viele Meetings und eine schlechte Internetverbindung habe. Nächste Woche werde er mehr sagen, versprach Hall. Es heißt also warten.

Die ganze Sache erinnert stark an Phorm, einen britischen Werbedienstleister, der durch Kooperation mit ISPs und DPI (Deep Packet Inspection) Predictive Behavioral Targeting anbietet. Das System von Phorm analysiert den kompletten Internetverkehr der Kundinnen und Kunden eines kooperierenden ISP und erstellt anhand dieser Daten individuelle und, laut Phorm, anonyme Werbeprofile, die eine zielgerichtete Platzierung von Werbung ermöglichen. 2009 hatte die Europäische Kommission ein Vertragsverletzungsverfahren gegen das Vereinigte Königreich eingeleitet, sie sah “Probleme bei der Umsetzung der EU-Vorschriften zum Datenschutz in der elektronischen Kommunikation”. Im September 2010 verwies die Kommission den Fall an den Europäischen Gerichtshof. Kurz darauf änderte UK seinen Regulation of Investigatory Powers Act (Gesetz zur Regelung der Telekommunikationsüberwachung) dahingehend, dass Verweise auf “stillschweigende Zustimmung” entfernt wurden. Eine neue Sanktion gegen unrechtmäßiges Abfangen und das Verletzen der Vertraulichkeit in der elektronischen Kommunikation eingeführt. Im Januar 2012 wurde die Anklage schließlich fallen gelassen, da, laut Kommission, “UK law and institutions are now well equipped to enforce the privacy rights of users”.

flattr this!

March 25 2013

Myanmar: Noch ein langer Weg zum freien Internet

Im Februar berichteten wir über Versuche “staatlich unterstützter Angreifer”, die Mail-Accounts myanmarischer Journalistinnen und Journalisten zu hacken sowie Angriffe auf die Webseiten der zwei führenden privaten Nachrichtenportale.

Vor einem Monat erschien ein Report des Open Technology Fund OTF, über “Access and Openness” in Myanmar 2012. Eine ‘technische Delegation’ besuchte im Dezember letzen Jahres Yangon und die Hauptstadt Naypyidaw und untersuchte die Telekommunikationslandschaft der Republik. Denn trotz Reformen der zuvor sehr strikten Medienbeschränkungen und Zensurmaßnahmen in Myanmar war es, wie bei den beiden Nachrichtenportalen, zu Angriffen auf unabhängige Medien gekommen. Die meisten Menschen in Myanmar haben durch internetfähige mobile Geräte Zugang zum Netz, insgesamt sollen es circa 350.000 Bürgerinnen und Bürger sein (bei einer Einwohnerzahl von circa 54 Millionen).

In dem Report des OTF geht es um die technische Analyse des Internet-Zugangs in Myanmar, um Zugang durch mobile Geräte und das Public Access Center bei Naypyidaw. Zu den wichtigsten Erkenntnissen gehören, dass es kaum deutliche Gesetze zu Überwachung und Zensur gibt und dass die drei ISPs entweder komplett oder teilweise in staatlicher Hand sind oder aber Familienangehörigen der politischen Führungsriege gehören. Desweiteren wurden Geäte von der Firma Blue Coat gefunden, die teilweise für Deep Packet Inspection verwendet wurden.

Internationale Unternehmen wie Google, Microsoft und HP starkes Interesse zeigen starkes Interesse an dem “digital wasteland” Myanmar:

With over 90 companies bidding for telco licenses to operate in the country, and companies like Google, Microsoft, HP, Intel, and Cisco visiting and possibly planning to open offices, by the end of 2014 we’ll be looking at a completely different Myanmar.

Google.com.mm machte am 21. März den Anfang.

flattr this!

September 04 2012

Wie neutral ist das Internet?

netneutralitymap.orgDer Diskussion rund um die Netzneutralität mangelt es nicht an hinkenden Vergleichen, aber oft hapert es an Fakten und ihrer einfachen Aufbereitung. Deshalb haben Aktivisten aus Österreich eine Visualisierung der Mess-Daten des meassurment labs gebaut, und auf netneutralitymap.org veröffentlicht. Fazit der Karte: die Situation ist schlimmer als erwartet und es besteht eindeutig Handlungsbedarf!

In einer farblichen Kodierung zeigt die Karte in welchem Ausmaß die Internetprovider eines Landes in den Datenverkehr ihrer Kunden eingreifen. Basis der Grafik sind die Daten des “Glasnost” Netzwerktests des meassurment labs. Aus den Daten geht hervor ob Provider gezielt gewisse Protokolle verlangsamen. In einem ausführlichen Paper beschreibt das Max-Planck-Institut für Softwareentwicklung wie der Test funktioniert. Es wurde eine sehr konservative Messmethode gewählt um möglichst wenige false-positiv Ergebnisse zu bekommen. Obwohl die Verlangsamung von Datenpacketen aufgrund ihres Dienstes nur eine von mehreren möglichen Verletzungen der Netzneutralität ist, zeigt die Karte klar wie häufig dies Praxis im Internet geworden ist. Diese Tendenz wird durch die bevorstehende Verabschiedung von Dienstklassen durch die ITU Konferenz im Dezember 2012 tendenziell noch steigen.

Entwickler Michael Bauer äußert sich zum Effekt seines Projekts auf ihn:

“Bevor ich netneutralitymap gemacht habe war Netzneutralität für mich ein akademisches Thema. Aber als ich mit eigenen Augen gesehen habe wie weit verbreitet die Eingriffe in die Netzneutralität sind, wurde mir klar: Es gibt ein systematisches und weltweites Problem.”

Der Sourcecode des Projektes findet sich auf github, weitere Visualisierungen sind geplant. Auf dem Österreichischen Netzkongress DNP wird dieses Wochenende auch eine Kampagne zur Netzneutralität vorgestellt. Aktivisten der Initiative für Netzfreiheit und des Vereins für Internetbenutzer Österreich haben dieses Thema auf ihre Agenda gehoben.

Die Karte beschränken sich immer auf Daten des letzten Jahres und wird alle drei Tage aktualisiert, dadurch können auch neue Testergebnisse sichtbar gemacht werden. Mit dem Glasnost Test kann im Browser getestet werden  ob der eigene Provider (ggf. auch Provider auf der Route zu den Testservern) das ausgewählte Protokoll verlangsamt. In den meisten Ländern fehlt es immer noch an Datenmaterial um Aussagen über die nationale Situation treffen zu können. Deshalb rufen die Aktivisten dazu auf den Test im eigenen Browser mit den gängisten Protokollen laufen zu lassen!

flattr this!

July 25 2012

Europa und die Cloud: Standard zur Überwachung und Kritik von Datenschützern

Die Auslagerung von Daten in die Cloud bereitet den Behörden Sorge. Um weiterhin Abhören zu können, werden europaweite Standards zur Überwachung von Cloud-Diensten erarbeitet. Falls Verschlüsselung eingesetzt wird, soll die umgangen werden. Datenschützer hingegen kritisieren die Cloud, da nie klar ist in welcher Jurisdiktion die Daten liegen.

Das von der Europäischen Kommission gegründete Europäische Institut für Telekommunikationsnormen (ETSI) arbeitet derzeit an einem Standard zur Überwachung von Cloud-Diensten. Laut dem Entwurf sollen die Cloud-Anbieter Schnittstellen zur Verfügung stellen, mit denen Behörden die Daten und Aktivitäten der Nutzerinnen abhören können – in Echtzeit.

Erich Moechel berichtet auf ORF.at:

Wegen des “nomadischen Zugangs zu Diensten in der Cloud” sei es unwahrscheinlich, dass ein Internet-Zugangsprovider alle Überwachungsanfragen bedienen könne. Um dennoch “die Überwachbarkeit zu gewährleisten, muss der Cloud-Anbieter eine Überwachungsfunktion einbauen”, heißt es einen Abschnitt weiter (4.3)

Mit “nomadischem Zugang” ist gemeint, dass Facebookbenutzer über alle möglichen Wege daherkommen können, ob es das eigene DSL ist, drahtlose Breitbanddienste oder ein offenes WLAN-Netz. Man müsste also die Daten eines Facebook-Benutzers nicht nur bei mehreren Zugangsprovidern einsammeln, was nahe an der Echtzeit unmöglich ist. Zudem würde das nur einen Teil der Informationen bringen, die an einer Schnittstelle direkt bei Facebook abgegriffen werden könnten.

Dazu soll auch die SSL-Verschlüsselung angegriffen werden. Und zwar wollen Behörden mit “Deep Packet Inspection”-Systemen (DPI) “Man-in-the-Middle”-Attacken gegen die Verschlüsselung durchführen. Aus dem Entwurf:

Erich Moechel weiter:

“Deep Packet Inspection wird wahrscheinlich ein konstituierendes Element dieses Systems sein”, heißt es denn auch unter 4.3 im ETSI-Dokument unter den “Herausforderungen der Anforderungen” “(“Requirement Challenges”). Darüber wird als nächstes ebenso berichtet werden, wie über die Szenarien der staatlich sanktionierten Angriffe auf Skype, VoIP und Tauschbörsen, denen sämtlich sogenannte Peer-To-Peer-Protokolle zu Grunde liegen.

Skype hat übrigens gerade wieder auf die Frage, ob sie Gespräche abhören können, geantwortet: Kein Kommentar.

Eine andere EU-Institution sieht das mit dem Cloud-Computing kritischer. Die Artikel 29 Datenschutzgruppe veröffentlichte Anfang des Monats eine Stellungnahme mit ihrer Einschätzung der Cloud.

Die Datenschützer sehen “eine Reihe von Datenschutz-Risiken, vor allem einen Mangel an Kontrolle über persönliche Daten sowie unzureichende Informationen über die Fragen, wie, wo und von wem die Daten (weiter-)verarbeitet werden.” Da in der Cloud nie klar ist, wo die Daten physisch liegen ist auch die Jurisdiktion darüber unklar. Die europäische Datenschutzrichtlinie verbietet es jedoch, personenbezogene Daten in Staaten mit schwächerem Datenschutz auszulagern.

Dass dürfte jedoch bei Cloud-Diensten eher die Regel als die Ausnahme sein. Die existierenden Safe Harbor-Vereinbarung zwischen EU und USA sind daher unzureichend. Hier sehen die Datenschützer dringenden Klärungsbedarf.

Bis dahin sollten europäische Firmen ihre Cloud-Dienstleister ganz genau evaluieren und gegebenenfalls schriftlich versichern lassen, wohin die eigenen Daten übermittelt werden.

flattr this!

February 14 2012

Contentüberwachung im Praxis-Check

Im Blog des mittelständischen IT-Dienstleisters QSC aus Köln findet sich ein lesenswerter Beitrag zum geplanten ACTA-Abkommen und dessen Auswirkungen auf die Internetanbieter.

Neben den schon bekannten Argumenten gegen das Anti-Produktplagiats-Abkommen geht der Pressebeauftragte Dennis Knake vor allem auf die Stellung der Provider ein und unterzieht ACTA einem Praxischeck.

Sollten die Internetanbieter verpflichtet werden, den Datenverkehr ihrer Kunden auf mögliche Urheberrechtsverletzungen zu überwachen, müsste eine Software nicht nur zuverlässig sämtliche Signaturen urheberrechtlich geschützter Werke erkennen, sondern auch gleichzeitig prüfen, ob der Kunde nicht doch Rechte an diesem Werk besitzt. Selbst wenn die Entwicklung einer solchen Software möglich wäre, sei es fraglich, wer die Kosten hierfür übernehmen solle.

Außerdem wird eine interessante Parallele zwischen einer solchen Deep-Packet-Inspection-Software und den schon heute auf nahezu jedem Computer installierten Spamfiltern gezogen: Wenn selbst diese nach langem Training falsch positive Funde meldeten, könne ein solcher Befund bei dem wesentlich anspruchsvolleren Netzwerkmonitoring nicht ausgeschlossen werden. So ein Fall hätte allerdings wesentlich schwerere Konsequenzen.

Genauso könnte man morgen die Post für alles zur Verantwortung ziehen, was ihre Kunden in Briefen und Paketen um den Globus versenden.

January 20 2012

API.Leipzig kooperiert mit Ipoque

Beim Thema Open Data denkt man zuerst einmal an Offenheit, Transparenz, Beteiligung usw. In dem Kontext gibt es eine Reihe von Projekten, die sehr interessant und unterstützenswert sind. Eines dieser Projekte ist eigentlich API.Leipzig, das eine standardisierte Schnittstelle für den Zugriff auf öffentliche Daten der Stadt Leipzig bietet. Deshalb ist die Information sehr irritierend, dass ausgerechnet ein auf Offenheit ausgerichtetes Projekt wie API.Leipzig im Rahmen eines Wettbewerbs mit Ipoque kooperiert.

Die Firma Ipoque, hier in einer merkwürdigen Selbstdarstellung auf Youtube, taucht u.a. in den Wikileaks-Spyfiles auf, bei dem offenbar wird, dass es sich dabei um eine Tochterfirma von Rohde & Schwarz (Kurzinfos bei BuggedPlanet) zu handeln scheint. Im Zentrum des Ipoque-Geschäfts sind, wie Erich Möchel schon vor einiger Zeit dokumentiert hat, einerseits sogenannte “Lawful Interception”-Anwendungen, womit die Firma u.a. auf der ISS in Dubai durch Vorträge und Workshops zum Thema auftraten. Aber auch andere fragwürdige Geschäftszweige sorgen offensichtlich für Umsätze, wie beispielsweise das Geschäft mit Abmahnungen von Filesharern, bei dem Ipoque Daten zu liefern scheint, oder auch die Arbeit an Exploitation von Filesharing-Protokollen und Angriffen auf Nutzer (siehe u.a. ein Whitepaper der Firma).

So ist es eben sehr verwunderlich, dass ein im Kern gutes Open Data-Projekt einen Kooperationspartner wählt, der in einem derart fragwürdigen Umfeld agiert und so nachhaltig Vertrauen verspielt.

Reposted by02mydafsoup-01darksideofthemoonmondkroetesofias

May 13 2011

EU-Datenverkehr: Sperren wg. illegaler Downloads?

In den letzten Tagen durften wir wieder mehrfach von einer “virtuelle Schengen-Grenze” lesen, mit der Europa vor dem bösen Internet beschützt werden sollte.

Der Vorschlag sieht für den sicheren europäischen Cyperspace eine “virtuelle Schengen- Grenze” mit “virtuellen Zugangspunkten” vor, wobei die “Internet Service Provider unerlaubte Inhalte auf Basis einer EU-Blacklist abwehren sollen” (unwatched.org, 6. Mai)

Dass die zur Diskussion stehenden Präsentation (PDF) eines (weiterhin) ungenannten “Experten” für eine Arbeitsgruppe des EU-Ministerrats überhaupt beachtet wurde, ist, bei allem Respekt, aber wohl eher ein medialer Unfall.

Das Mem war einfach zu schön, um nicht thematisiert zu werden. Soweit kein Problem. Was dabei leider weitesgehend auf der Strecke blieb, war eine Einordnung bzgl. seiner Relevanz. Inzwischen gibt es nicht nur ein Dementi, sondern auch eine – leicht alarmistische -  Stellungnahme von EDRi (gestern von Linus übersetzt), die die Präsentation noch einmal in einen anderen Kontext rückt.

Wie auch immer: Ich glaube weiterhin, dass man das Thema nicht zu hoch hängen sollte. Absurde Wünsche und Vorstöße gibt es in der EU immer mal wieder.

Nein, die “Great Firewall of Europe” wird wohl nicht das nächste große Ding auf EU-Ebene. Letztendlich ist die Forderung nämlich weder mehrheitsfähig noch umsetzbar. Und das sind Kriterien, die nicht einmal die besten Spindoktoren ignorieren können.

Deutlicher brisanter ist da schon eine Initiative der EU-Kommision, die Achim Sawall für golem.de zusammenfasst:

Die Europäische Kommission erwägt möglicherweise, die Internet Service Provider dazu anzuhalten, ihre Netzwerke zu überwachen, um illegale Downloads zu bekämpfen. Die umstrittene Maßnahme werde derzeit vom Europäischen Gerichtshof geprüft. Wie das Onlinemagazin Euractiv.com aus kommissionsnahen Kreisen berichtet, werde begutachtet, ob dafür ein bereits existierendes spanisches Gesetz übernommen werden kann. In Spanien wurde das Sinde-Gesetz am 15. Februar 2011 angenommen.

Tatsächlich kommen hier nämlich ein paar Dinge zusammen, die uns wirklich Kopfschmerzen machen sollten. Zum einen vorraussichtliche das Ausspionieren der eigenen Kundschaft durch die Provider. Was der Europäische Gerichtshof von Deep Packet Inspection und Co hält, interessiert sicher nicht nur mich.

Spannend dürfte auch werden, was der Europäische Gerichtshof zur Netzsperren auf Zugangsebene (“Löschen statt Sperren” dürfte insbesondere bei p2p-Indexen nicht greifen) oder “Three Strikes” als mögliche Maßnahmen auf Nutzerseite zu sagen hat.

Wir erinnern uns: Anfang April hatte sich der Generalanwalts am Europäischen Gerichtshof, Cruz Villalón, bereits einmal zum Thema Netzsperren geäussert (PDF). Wenn überhaupt, seien diese nur auf Basis einer “klaren und vorhersehbaren gesetzlichen Grundlage” denkbar, fasste Kai Paterna damals das Statement für Heise Online zusammen.

Bemerkenswert ist der Vorstoß aber vor allem, weil eine starke Lobby hinter ihm stehen dürfte. Sawall schreibt:

Im April 2011 wurde bekannt, dass die EU-Kommission eine frühere hochrangige Mitarbeiterin des Musikindustrieverbandes IFPI (International Federation of the Phonographic Industry) zur neuen Referatsleiterin der Urheberrechtsabteilung machen wolle. [...] Martin-Prat war in der Vergangenheit bereits für die EU tätig, wechselte zur IFPI und kehrte wieder zur EU zurück. Im April war sie Referatsleiterin der Generaldirektion Binnenmarkt und Dienstleistungen (GD Markt) der EU.

Als ein weiterer Befürworter gilt der französische Politiker Michel Barnier, derzeit EU-Kommissar für die Entwicklung des Binnenmarkts (bzw. “Binnenmarkt und Dienstleistungen”) und als solcher auch für Fragen des Urheberrechts zuständig, dem Euractiv gute Kontakte zum französischen GEMA-Äquivalent CISAC attestiert:

Internet providers and collecting societies are at loggerheads on the issue but sources claim that the latter will win because CISAC, the French collecting society, is successfully lobbying their compatriot, Michel Barnier, the commissioner for the internal market responsible for intellectual property policymaking.

Mit anderen Worten: Statt auf eine “virtuelle Schengen-Grenze” dürfen sich Teilnehmer am europäischen Datenverkehr wohl eher auf permanente Kofferraumkontrollen im Inland einstellen.

 

flattr this!

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl