Tumblelog by Soup.io
Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

January 27 2014

UK: Pornofilter blockierte kurzzeitig jQuery.

Seit Beginn des Jahres werden alle Internetanschlüsse in Großbritannien standardmäßig durch die Internet Service Provider mit einem voreingestellten Pornographiefilter ausgestattet. Natürlich aus “Jugendsschutzgründen” (wir berichteten). Diese Filter sind auch fleißig: Nach einer Untersuchung  des BBC Magazins Newsnight blockiert der Filter von TalkTalk beispielsweise Sexualaufklärungs-Websites oder Anlaufstellen für Opfer sexualisierter Gewalt, während BT Infoseiten zu häuslicher Gewalt und der Prävention sexuell übertragbarer Krankheiten herausfiltert. Im Gegenzug blockierte keiner der Filter alle getesteten Pornoseiten, was sie nicht davon abhalten wird im kommenden Jahr 25 Millionen Pfund in eine Marketing-Kampagne zu investieren, die das  Vertrauen von Eltern in die Funktionalität dieser Filter steigern soll.

Nun war für einen halben Tag code.jquery.com durch die Filter vom ISP Sky blockiert. Code.jquery ist ein Content Distribution Network (CDN) für Javascript-Anwendungen. Wollen Webdesigner diese Funktionen nutzen und nicht auf eine eigene lokale Kopie des Scripts zurück greifen, können sie einfach nur den entsprechenden Prozess im Code verlinken um serverseitig darauf zurückgreifen zu können. Diese Praxis hatte zur Folge, dass für die KundInnen von Sky in mehrere Websites nicht korrekt angezeigt und somit in ihrer Funktionsweise eingeschränkt wurden. Die Blockade liegt nach Einschätzung von thinkbroadband darin begründet, dass wahrscheinlich auf einer Phishing-Website auf code.jquery.com verlinkt wurde – und dem Filter von Sky wohl nicht aufgefallen ist, dass diese Seite auf unzähligen Seiten verlinkt wird. Im vergangenen Monat hatte Sky zum Beispiel auch den Imagehoster imgur blockiert, weil er auf die gleichen Cloudserver-Dienst zurück gegriffen hatte wie eine Torrent-Seite

Zwar hat Sky eingegriffen und code.jquery.com gibt es nun auch wieder mit eingeschalteter Kindersicherung, aber diese Vorkommnisse reihen sich nahtlos in eine Reihe von Belegen für die Willkürlichkeit und von “Pornofiltern” genannten Zensurwerkzeugen. Sie arbeiten nicht, wie von Konservativen gerne dargestellt wird, auf inhaltlicher Ebene, sondern müssen zwangsläufig infrastrukturell arbeiten, mit unvorhersehbaren willkürlichen Folgen für die Funktionalität ds Internets. imgur und code.jqery.com sind bei diesem Verfahren Kollateralschäden.

Wir wollen netzpolitik weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

August 06 2013

CSU-Poltiker Geis fordert “Porno-Filter” auch für Deutschland

Es war wohl nur eine Frage der Zeit. Nachdem David Cameron vor rund zwei Wochen den “Porno-Filter” für Großbritannien ankündigte, hat die Idee bereits erste Nachahmer gefunden – nun auch in Deutschland. Der CSU-Poltiker Norbert Geis (74) foderte in der Bild, dass der Zugang zu Online-Pornografie in Deutschland stark eingeschränkt werden müsse.

Kinder und Jugendliche müssen vor der Pornografie im Internet besser geschützt werden. Dafür brauchen wir jetzt dringend spezielle Filter und verbindliche Altersbeschränkungen, sodass man sich für die Nutzung von pornografischen Inhalten im Netz persönlich anmelden muss.

Genau wie David Cameron versucht Geis seinen Vorstoß mit einem besseren Schutz der Jugend zu begründen. Nach Informationen von Golem distanziert sich die Pressestelle der CSU jedoch bereits von den Aussagen von Herrn Geis:

Ich gehe davon aus, dass die Zitate so stimmen, das lief nicht über die Pressestelle der Landesgruppe, das ist über Herrn Geis direkt gelaufen. Er ist eher ein Rechtspolitiker. Es ist ein Vorschlag von Cameron, ich nehme an, die Bild-Zeitung hat sich gedacht, wer sagt uns etwas dazu, und dann hat sich Herr Geis angeboten.


Was vom Einsatz jeglicher Filtertechnologien im Internet zu halten ist, zeigte sich bereits eine Woche nach Bekanntwerden der britische Pläne. Damals deckte die Open Rights Group auf, dass es bereits Pläne gibt, den “Porno-Filter” auch auf andere Inhalte im Internet auszuweiten, darunter Esoterik, Alkohol, Rauchen und Web-Foren.

Das der Zugang zu Pornografie durch das Internet erleichtert wird und so auch Jugendliche bereits früh mit Pornografie in Kontakt kommen können, ist sicherlich ein Fakt. Eine Zensur des Internets ist aber sicherlich nicht der Weg, dieses Problem zu lösen. Cindy Gallop beispielsweise möchte mir ihrer Webseite MakeLoveNotPorn.com (sie stellte das Projekt auch auf der re:publica 2012 vor) sensibilisieren und aufzeigen, dass Pornos kein “real world sex” sind. Sie möchte dafür sorgen, dass wieder über Sex geredet wird und so auch Jugendlichen ein anderen Verständnis für Pornografie und Sex geben, wie sie der Huffington Post sagte:

My entire message with MakeLoveNotPorn boils down to one thing: talk about it. Talk about sex. Talk about it generally, openly, publicly, but also personally, intimately.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

Reposted bykrekk02mydafsoup-01

July 23 2013

DNA und Tagesdecken im Kampf gegen Kindesmissbrauchs-Dokumentation Online

Twitter ist nun also auch dabei. Wie das Unternehmen nun bekanntgegeben hat, wird es bald Microsofts PhotoDNA System benutzen, um Bilder in Tweets auf Kindermissbrauchs-Dokumentation zu untersuchen. Neben Twitter benutzen auch Facebook, die Dänische und die Neuseeländische Polizei und natürlich Microsofts Bing, Skydrive und Hotmail Dienste das System. Was wird da gemacht?

Hany Farid, Professor am Dartmouth College und Entwickler von PhotoDNA, startete 2008 die Entwicklung mit der Idee, dass man sich darauf konzentrieren sollte, bereits bekannte Bilder von Kindermissbrauchs-Dokumentation wiederzuerkennen.

“My idea was, don’t try to go after things you haven’t seen before — go after the things you have seen before,” Farid said. “Go after the images that you know are child porn, that you know are horrible, that you know who the victims are and that you know people keep trafficking.”

flowchart_webUm ein Bild wiederzuerkennen erstellt PhotoDNA einen ‘digitalen Fingerabdruck’ des Photos. Hierzu wird das Bild in ein 12×12 Raster aufgeteilt und in Graustufen umgerechnet. Dann wird für jede Zelle der Hash (Prüfsumme) errechnet. Durch dieses ‘Robust Hashing’ kann PhotoDNA auch Bilder wiederkennen, selbst wenn diese skaliert oder anderweitig bearbeitet wurden. Von jedem Bild was zu Twitter hochgeladen oder verlinkt wird, wird auch selbiger Hash erstellt und gegen eine Hash-Datenbank abgegleicht. Hat das hochgeladene Bild denselben Hash, wie eines aus der Datenbank ist die Wahrscheinlichkeit sehr hoch, dass es sich um Kindermissbrauchs-Dokumentation handelt. Nach eigenen Aussagen ist die Chance auf einen False Positive (das System sagt, es ist Kindermissbrauchs-Dokumentation, obwohl es gar keine ist) 1/Milliarde. Außerdem erkenne es ein Bild zu 98%, wenn es in der Datenbank ist. Microsoft hat PhotoDNA dann vor einigen Jahren dem National Center for Missing & Exploited Children (NCMEC) gespendet. Seitdem kooperieren rund 13 Unternehmen freiwillig mit NCMECs Datenbank um die Verbreitung von Kindermissbrauchs-Dokumentation zu verhindern.
Google hat ein ähnliches System, den ‘Bedspread Detector’ (Tagesdecken Aufspürer). Der Name spielt darauf an, dass eine NCMEC-Mitarbeiterin zwei Kindesmissbrauchs-Fälle auf denselben Täter zurückführen konnte, da auf verschiedensten Bildern immer dieselbe Tagesdecke zu sehen war. So ist Googles Ansatz auch, nach markanten Mustern und anderen Besonderheiten (Tattoos, Räumlichkeiten, etc.) zu suchen, um dasselbe Opfer oder denselben Täter in verschiedenen Bildern wiederzuerkennen.

Von der Idee her klingen beide Systeme zunächst sehr sinnvoll und unterstützenswert im Kampf gegen Kindesmissbrauchs-Dokumentation online. Vor allem, wenn man zum einen bedenkt, dass die ‘manuelle’ Analyse der Bilddaten schier unmöglich ist und emotional sehr strapaziös für die Beamten sein kann.

[NCMEC] found 17.3m images of abuse in 2011 – and since 2002 has reviewed more than 65m images and videos of child sexual exploitation reported by the authorities.

Und zum anderen, dass ‘Notice and Takedown’ – also das Benachrichtigen des Administrators oder Providers, dass auf einem bestimmten Server Bilder und Videos von Kindesmissbrauch liegt – alleine nicht mehr ausreicht, da nach kurzer Zeit die Inhalte einfach an einem neuen Standort hochgeladen werden.

A senior FBI agent described notice and take down as “wackamole”. A notice is issued, the hosting company removes the image then, sometimes within minutes, the same picture will pop up somewhere else. And so on ad infinitum.

Wenn man sich dazu vergegenwärtigt, dass NCMEC schon 2009 jede Woche 250.000 Bilder potentiellen Kindesmissbrauchs beurteilen musste, ist es verständlich, dass Ernie Allen (Präsident und CEO von NCMEC) diese graphischen Analyse-Systeme als wichtiges Mittel im Kampf gegen die Verbreitung von Kindermissbrauchs-Dokumentation sieht.

While there won’t be miraculous changes overnight, the bottom line is, because of these tools, we’re making headway.

Klingt gut, oder? Fast. Wodurch sich diese Systeme noch auszeichnen, ist die Tatsache, dass sie so wenig wie möglich über die internen Mechanismen preisgeben – aus Angst, dass Pädophile versuchen die Schwachstellen in den Algorithmen auszunutzen. So warnt European Digital Rights (EDRI) davor diese stark eingreifende Technik unkritische als ‘Best Practice’ zu übernehmen. Es gibt keine unabhängigen Analysen zur Effizienz dieser Systeme. Außerdem wurde bisher nicht untersucht, ob es nicht auch negative Auswirkungen geben könnte.

What happens when somebody tries to do this? [kinderpornographische Bilder hochladen] Nobody knows. What happens if a criminal tries to upload innocent parts of images as a way of filtering his/her own collection of illegal images to identify images unknown to the police? We don’t know. How big is the risk that this could lead to incentives to creating new illegal images and new abuse? We don’t know.

Diese Bedenken sind mehr als berechtigt, bei einem System bzw. einer Technik, die bei immer mehr Diensten und Ländern zum Einsatz kommt. Es ist verständlich, dass für die schiere Masse an Bilddaten heutzutage automatisierte Systeme zum Einsatz kommen müssen. Außerdem scheint der Ansatz, nach bekannten Bildern von Kindesmissbrauch zu suchen, sinnvoll, da so – im besten Falle – aktuelle Fälle schneller erkannt werden. Gleichzeitig muss man kritisch bleiben und Nachfragen dürfen nicht unterbunden werden, nur weil es “um unsere Kinder geht”. Bei Filtersystemen besteht immer die Gefahr, dass – einmal etabliert – der Fokus ausgeweitet wird und nicht mehr nur Kindermissbrauchs-Dokumentation blockiert wird. Gerade deswegen sollte es eine neutrale Instanz geben, die diese Systeme evaluiert, denn bisher handelt es sich lediglich um ‘Best Practice’ von Microsoft, Google und Co. Außerdem muss unterschieden werden, ob so ein System bei einem Dienst, wie Twitter oder Facebook eingesetzt wird, oder gar auf ISP-Ebene, wo es wesentlich eingreifender wäre.

Microsofts PhotoDNA und Googles Bedspread Detector sind gute und sinnvolle Systeme, die ein wichtiges Problem versuchen zu lösen. Nun sollte es aber auch darum gehen, diese Systeme nicht ‘im Dunkeln’ einzusetzen, sondern Effizienz, mögliche nachteilige Auswirkungen und sinnvolle Implementationen kritisch zu hinterfragen. Und wie EDRI verdeutlicht, sind uns NCMEC, Microsoft und Google vielleicht noch ein paar Antworten schuldig – es geht schließlich um unsere Kinder.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

September 05 2012

July 23 2012

Muss Google in Frankreich bald Begriffe zensieren?

Die französische Musikindustrievereinigung SNEP und Google streiten sich schon seit geraumer Zeit vor französischen Gerichte darum, ob die Autovervollständigung von Google auch Begriffe wie “torrent”, “megaupload” oder “rapidshare” vorschlagen darf. Die SNEP sieht darin eine Unterstützung von Copyrightverletzungen und verlangt von Google die Begriffe zu zensieren. Das oberste französische Gericht kassierte nun das letzte Urteil in dem, wie in den Urteilen zuvor, Google das Recht die Vervollständigungen anzuzeigen zugesprochen worden war. Eine endgültige Entscheidung wird nun im Berufungsprozess gefällt.

Allerdings filtert Google bereits seit über einem Jahr pirateriebezogene Begriffe freiwillig aus:

We will prevent terms that are closely associated with piracy from appearing in Autocomplete.

Die Vermutung liegt nahe, dass Google den Prozess führt, um weiterhin selbst entscheiden zu können, welche Begriffe zensiert werden und welche nicht.

flattr this!

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl