Tumblelog by Soup.io
Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 18 2014

February 13 2014

Regierungskommission empfiehlt Australien Einführung von ‘Fair Use’ im Urheberrecht

Australien-Law-Reform-CommissionAuch außerhalb Europas gibt es in vielen Staaten Diskussionen darüber, wie sich das Urheberrecht mit neuen digitalen Technologien und Nutzungsformen besser in Einklang bringen lässt. Als eines der zentralen Probleme wird in den meisten Fällen die mangelnde Flexibilität und Enge von Ausnahme- und Schrankenbestimmungen gesehen.

In Australien hat jetzt die Law Reform Commission der Regierung nach zweijährigem und umfassenden Konsultationsverfahren einen 478-Seiten starken Bericht zum Thema “Copyright and the Digital Economy” (PDF) vorgelegt (eine kurze Zusammenfassung gibt es ebenfalls). Die zentrale Empfehlung des Berichts ist eindeutig: Australien soll eine Fair-Use-Klausel nach Vorbild des US-Copyrights einführen. In der Zusammenfassung (S. 12f.) werden exemplarisch folgende Gründe für diese Empfehlung aufgelistet (meine Übersetzung):

  • Fair use ist flexibel und technologieneutral.
  • Fair use fördert das öffentliche Interesse und transformative Nutzung.
  • Fair use unterstützt Innovation.
  • Fair use passt besser zu nachvollziehbaren Erwartungshaltungen von Konsumenten.
  • Fair use hilft die Märkte von Rechteinhabern zu schützen.
  • Fair use ist ausreichend rechtssicher und prognostizierbar.
  • Fair use is kompatibel mit Urheberpersönlichkeitsrechten und internationalem Recht.

Für den Fall, dass sich das Parlament gegen eine Einführung von Fair Use entscheidet, empfiehlt die Kommission zumindest den Schrankenkatalog auszudehnen und zu flexibilisieren – etwas, das die Initiative rechtaufremix.org auch in Europa erreichen möchte. Die klare und eindeutige Empfehlung der Regierungskommission für Fair Use, vor allem auf derart solider Grundlage, sollte jedenfalls auch den Verantwortlichen in Europa zu denken geben.

Wir wollen netzpolitik weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

January 13 2014

New America Foundation: NSA-Massenüberwachung nicht maßgeblich bei Terrorbekämpfung

Das Argument, Überwachung sei notwendig, um Terroristen und andere Bösewichte zu bekämpfen, hängt uns mittlerweile gewaltig zum Hals heraus. Damit hat man schon zig Male versucht, die Vorratsdatenspeicherung und andere Datensammeleien durchzusetzen und auch im Rahmen des NSA-Skandals wurde uns mehrmals ins Gewissen geredet. Die USA seien ja nur besorgt um die Sicherheit der Welt und man habe ja mindestens 50 Terroranschläge verhindert, auch für Europa. Leider schürt eine solche Rhetorik Unsicherheit und macht viele glauben, ohne das schützende allgegenwärtige Auge des Staates breche spontan eine terroristische Apokalypse ein. Dabei gab es ja auch eine Verbrechensbekämpfung vor dem Internet und den günstigen technischen Möglichkeiten, alles und jeden im Blick zu haben.

Deshalb freuen wir uns immer über handfeste Beweise gegen solche Propaganda. Heute ist eine Studie der New America Foundation erschienen. In Do NSA’s Bulk Surveillance Programs Stop Terrorists? werden 225 Fälle von Terrorplänen unter die Lupe genommen, bei denen die Person von al-Qaeda oder ideologisch ähnlichen Organisationen rekrutiert und später unter Terrorvorwurf verurteilt wurde.

Nur in 7,5% der Fälle wurde mit Hilfe von NSA-Maßnahmen die Ermittlungsarbeit initiiert, den Rest übernahmen traditionelle Ermittlungsmethoden wie Hinweise von Familie und Freunden, Informanten und auffälliges Verhalten, bzw. war in 27,6% der Fälle der Anfang der Ermittlungen nicht ermittelbar. Hier kann man sich die Ergebnisse grafisch aufbereitet anschauen und sich die einzelnen Fälle, die untersucht wurden, in Kurzzusammenfassung durchlesen.

Es wäre gut, viele glaubwürdige Studien wie diese zu sammeln, mit denen sich die Ineffizienz von Massenüberwachung bei der Verbrechensbekämpfung demonstrieren lässt, auch für die deutsche Debatte um Vorrats- und Bestandsdaten. Wenn ihr also ähnliche und seriöse kennt freue ich mich über Linkhinweise.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

January 10 2014

Leseempfehlung: Die Kosten von Überwachung

Dank moderner Kommunikationstechnologie ist Überwachung einfacher geworden. Das fällt schon auf, wenn man sich beim Schauen eines Tatorts aus den 80ern dabei ertappt, dass man bei umständlichen Ermittlungsarbeiten denkt: “Wieso orten sie nicht einfach das Handy vom Mörder?” oder “Warum schauen sie nicht nach, mit wem er telefoniert hat?”

In Zahlen gefasst hat das jetzt eine Studie, die gestern im Yale Law Journal Online publiziert wurde. Kevin S. Bankston und Ashkan Soltani haben untersucht, wie viel die Überwachung des Aufenthaltsortes einer Person kostet, basierend auf repräsentativen Gerichtsfällen. Die Autoren kommen zu dem Schluss, dass Mobilfunküberwachung bei einem Zeitraum von einem Monat  weniger als ein Tausendstel der persönlichen Überwachung durch Polizeibeamte kostet. Interessanter Fakt ist hier auch der Preisunterschied zwischen den Mobilfunkprovidern. Während man bei T-Mobile 2.800$ pro Monat für ein Mobilfunktracking hinlegt, gibt es das bei Betreiber Sprint schon zum attraktiven Festpreis von 30$. Wenn das keine Überwachungs-Flatrate ist…

thecostofsurveillance

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

October 28 2013

EU-Studie über Massenüberwachung in den Mitgliedsstaaten

In der Studie National programmes for mass surveillance of personal data in EU Member States and the compatibility with EU law für das LIBE-Komittee (Ausschuss für bürgerliche Freiheiten, Justiz und Inneres) des Europaparlaments wird die Präsenz von Massenüberwachung in Großbritannien, Schweden, Deutschland, Frankreich und den Niederlanden unter die Lupe genommen. Über den Ausschuss hatten wir auch schon im Zusammenhang mit den Anhörungen im Untersuchungsausschuss zum NSA-Skandal und der EU-Datenschutzreform berichtet.

Der Bericht macht deutlich, dass Überwachung nicht nur gegenüber Datenschutzbestimmungen abgewogen werden muss, sondern im Gesamtzusammenhang bürgerlicher Freiheiten und Demokratie. Unter dieser Prämisse werden die Geheimdienstprogramme der fünf Länder untersucht. Die Studie kommt zu dem Schluss, dass in allen der Länder außer den Niederlanden weitreichende Abhörung durch Geheimdienste bekannt ist; Deutschland, Frankreich und Schweden sind aber den Kapazitäten und Möglichkeiten von Großbritanniens GCHQ oder auch den amerikanischen Geheimdiensten deutlich unterlegen. Es wird auch auf eine intensive Verflechtung verschiedener europäischer Geheimdienste untereinander und mit den USA hingewiesen. Das erschwert eine rechtliche Überprüfung und eine Rechtsaufsicht noch weiter, die sowieso schon durch mangelnde Kapazitäten und Regelungen voller Uneindeutigkeiten und Schlupflöcher geschwächt ist.

Aus diesen konkreten Untersuchungen formulieren die Autoren zwei Kernfragen:

  1. Was bzw. wer ist das eigentliche Ziel der ganzen Überwachungsmaschinerie?
  2. Wie werden die Daten gesammelt, verarbeitet, gefiltert und analysiert?

Als Konsequenz aus der Situation fordert die Studie die EU dazu auf, nicht untätig zu bleiben. Auch wenn Geheimdienstaktivitäten in nationaler Hand liegen, habe die EU immer noch die Europäische Menschenrechtskonvention und die Charta der Grundrechte, die für alle verbindlich seien. Es folgen neun konkrete Handlungsvorschläge für den LIBE-Ausschuss:

  1. Verlangen einer Erklärung von den USA und Prüfung der weitere Zusammenarbeit (z.B. Aussetzung der Verhandlungen zum geplanten Freihandelsabkommen)
  2. Ein Gesetzesrahmen für die transnationale Handhabung des Zugriffs auf europäische Daten
  3. Prüfung von Internetrouting durch vorwiegend europäische Staaten und einer European Privacy Cloud
  4. Sicherstellung, dass Kernpunkte der geplanten Datenschutzverordnung in den Verhandlungen mit dem Europäischen Rat verteidigt werden (wie z.B. Regelungen zur Weitergabe von Daten an Dritte)
  5. Bessere Richtlinien, um eine effektive Untersuchung von Geheimdienstenthüllungen zu ermöglichen
  6. Konsequente Durchsetzung der Minimalstandards aus der Europäischen Menschenrechtskonvention
  7. Effektivere Prüfung und Überwachung der EU Home-Affairs-Behörden hinsichtlich Sicherheit und Informationsaustausch
  8. Prüfung des Schutzes von Whistleblowern auf EU-Ebene
  9. Fortführung der Untersuchungen über Massenüberwachung in den Mitgliedsstaaten.

Die Studie erkennt die Bedeutung einer wirksamen Regulierung und Einschränkung der Ausspäh- und Überwachungsapparate und appelliert an die EU, tätig zu werden. Hoffen wir, der LIBE-Ausschuss zieht geeignete Konsequenzen, denn, wie ein Satz aus der Einleitung es auf den Punkt bringt:

Es ist der Zweck und das Ausmaß von Überwachung, die den Kern dessen ausmachen, was demokratische Regierungen von Polizeistaaten unterscheidet.

 

 

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

October 22 2013

Remix hilft Originalen: Studie zu ökonomischen Folgen von Sampling

In der Serie “Remixer/in” erzählen Menschen über ihre Erfahrungen und Einstellungen zum Thema Remix und Remix-Kultur. Dieses Mal: Eine Studie zum ökonomischen Verhältnis von Remix und Original.

Bislang gibt es kaum empirische Studien darüber, welche Folgen ein Remix für das Original hat – und zwar weder was die (möglicherweise: veränderte) Rezeption eines Werkes noch was die ökonomischen Auswirkungen betrifft. Nur anekdotisch lässt sich auf bekannte Beispiele verweisen, in denen erst der Remix eines Werkes auch dem Original und damit dessen Urheber zum Durchbruch verholfen hat. Eines der bekanntesten Beispiele dafür ist mit Sicherheit der Song “Thank You” der britischen Sängern Dido. Nachdem “Thank You” bereits 1998 erstmals veröffentlicht worden war, avancierte er erst 2000 zu Didos bislang größtem Hit, nachdem Eminem die erste Strophe in seinem Song “Stan” gesampelt hatte.

Während in diesem Fall die Rechte geklärt waren und Dido teilweise sogar gemeinsam mit Eminem bei Konzerten auftrat, war das bei einem anderen prominenten Beispiel nicht der Fall. Wie DIE ZEIT im April diesen Jahres in einem ausführlichen Porträt berichtete, war Asaf Avidan ursprünglich überhaupt nicht von dem Wankelmut-Remix (siehe auch Embed-Video) seines Songs “One Day” begeistert, der ihm letztlich zu weltweitem Erfolg verhelfen sollte:

Reckoning Song, so heißt das Lied in seiner Originalversion von 2008, es war eigentlich ein Stück mit schlichter Akustikgitarrenbegleitung, das Avidan und seine alte Band The Mojos in ihrem ersten Repertoire hatten, mit dem sie durch Israel und kleine Bars in Europa tourten. Bis ein Fan, der bis dahin unbekannte Berliner DJ Wankelmut, sich das Stück nahm und elektronisch daran herumexperimentierte. Wankelmut unterlegte Avidans melancholisch-markante Stimme mit House-Musik, Beats, die tanzbar waren. One Day, wie er den Remix nannte, verbreitete sich online wie ein Virus. Von unten stürmte er innerhalb weniger Wochen die internationale Clubszene und, als er schließlich offiziell bei Sony herausgebracht wurde, auch die Charts – ein kometenhafter, ein unfreiwilliger Erfolg.

[…]

“Das war einfach nicht mein Stil”, sagt Avidan über den Wankelmut-Remix, der ihm noch immer nicht gefällt und dessen Veröffentlichung er zunächst verhindern wollte.

Neben solchen (Sonder-)Fällen, in denen ein Remix maßgeblich für den kommerziellen Erfolg des Originals verantwortlich ist, hat der US-Juristen Michael Schuster jetzt auch systematisch die kommerziellen Folgen von Sampling für die Originale an Hand des Albums “All Day” des Künstlers Girl Talk untersucht. In seinem bei SSRN als PDF verfügbaren Beitrag “Fair Use, Girl Talk, and Digital Sampling: An Empirical Study of Music Sampling’s Effect on the Market for Copyrighted Works” analysiert er die Verkaufszahlen von über 350 von Girl Talk gesampelten Werken und kommt zu dem statistisch signifikanten Ergebnis, dass

“sich die urheberrechtlich geschützten Songs in dem Jahr, nachdem sie gesampelt worden waren, besser verkauft haben, als im Jahr davor.” (meine Übersetzung)

Die Ergebnisse sind für die USA relevant, weil Sampling nach verschiedenen richterlichen Entscheidungen nicht unter die dortige Fair-Use-Klausel des Copyrights fällt. Das Album von Girl Talk eignet sich nicht nur wegen der großen Zahl an Samples besonders für die Untersuchung, sondern auch weil der Künstler hinter Girl Talk, Gregg Gillis, sich unter Berufung auf Fair Use bewusst einer Lizenzierung der Samples verweigert (vgl. Artikel bei Torrentfreak).

In Deutschland ist Sampling zwar auch eine “weitverbreitete Schattenpraktik“, schon die Übernahme kleinster Teile erfordert aber auf Grund von Leistungsschutzrechten der Tonträgerhersteller aufwändige Rechteklärung (vgl. „Zwei Takte Leistungsschutzrecht“). Dass damit Remix-Künstler/innen das Leben schwer gemacht wird, ist klar. Die Studie von Schuster liefert aber erste Indizien dafür, dass diese Rechtsprechung auch den Plattenfirmen selbst einen Bärendienst erweisen könnte.

Das ist ein Crosspost vom Blog der Initiative ‘Recht auf Remix‘, die in einer Petition um Unterstützung samt Link zum persönlichen Lieblingsremix bittet.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

October 07 2013

Geheimdienstgesetze der USA, Großbritannien und Deutschland fast identisch: Ähnliche Befugnisse für NSA, GCHQ und BND

ELB_0002A1AF

BND Gebäude in Berlin

In einer neuen Studie untersuchten Ben Scott der New America Foundation und Stefan Heumann der Stiftung Neue Verantwortung die rechtlichen Rahmenbedingungen der Geheimdienste in den Vereinigten Staaten, Großbritannien und Deutschland. Dabei fokussierten sie auf drei Fragen:

  1. Welche Gesetze ermächtigen die Geheimdienste zu ihrer Tätigkeit?
  2. Wie und in welchem Ausmaß findet Überwachung statt?
  3. Wem obliegt die Aufsicht und welche Kontrollmechanismen gibt es?

Our findings do not support the conclusion that foreign signals intelligence programs in the US represent a fundamentally different policy choice than two of its most important European allies… there appear to be more similarities than differences between three countries when it comes to how these programs are autho-rized, how they function, and what oversight mechanisms exist to control them.

Nachdem den drei Fragen für USA, Großbritannien und Deutschland nachgegangen wurde, kommen die Autoren zu den folgenden Erkenntnissen:

Gesetze

  • Die Gesetze aller drei Länder erlauben eine sehr breite Auslegung durch schwammige Definitionen und stellen so eine Überwachung in praktisch jedem Szenario sicher.
  • Auflagen für die Überwachung von Bürgern sind deutlich schärfer, als die für Ausländer.
  • Es wird zuerst erfasst und dann gefiltert und analysiert. Durch dieses Vorgehen wird sichergestellt, dass relevante Daten garantiert benutzt werden können, selbst wenn sie eigentlich nicht hätten erfasst werden dürfen – weil sie z.B. Kommunikation eines Staatsbürgers betreffen.

In other words, all communications swept up from the Internet that have relevance to foreign intelligence are kept and disseminated regardless of what legal regime technically governs their collection.

Ausmaß und Auflagen

  • Jedes Land nutzt so viele Daten wie möglich – vor allem durch Kooperation mit den USA.
  • Der britische GCHQ wird durch die US amerikanische NSA teil-finanziert und Daten werden direkt ausgetauscht.
  • Kooperation zwischen NSA und BND gehen zurück auf Zeiten des Kalten Krieges.
  • Ziel der Kooperationen ist offensichtlich: Fremde Geheimdienste werden genutzt, um geheimdienstliche Informationen über eigene Bürger zu erhalten – da man diese per Gesetz nicht selbst erheben darf.

However, it is clear that the opportunity exists through such cooperation to rely on other intelligence agencies to monitor domestic communications that would be legally impermissible for national intelligence agencies to process.

Aufsicht und Kontrolle

  • Aufsicht und Kontrollmöglichkeiten sind sehr begrenzt in allen drei Ländern – meist nur gegenüber der Exekutive.
  • Großbritannien ist hier am schwächsten, da weder Gerichte noch die Legislative involviert sind.
  • USA ist das einzige Land mit richterlicher Kontrolle der Geheimdienste. (FISA Gerichtshof)
  • FISA Gericht und deutsche G-10 Kommission operieren sehr ähnlich.
  • In keinem der Länder beschränken die Kontrollmechanismen die Arbeit der Geheimdienste ernsthaft.

In none of the countries studied does any form of oversight appear to have created a significant barrier to the expansion of these programs. And in all cases, the proceedings of the oversight bodies are almost entirely secret and the results of any internal conflicts over policy or implementation remain unknown.

Die Autoren enden damit, dass man sich ihrer Meinung nach auf internationaler Ebene über Ausmaß, Möglichkeiten und Kontrolle der Geheimdienste einigen muss. Die jetzigen technischen Möglichkeiten zur Überwachung überschreiten jedenfalls die ehemals angedachten Szenarien, auf denen alle Geheimdienstgesetze beruhen, bei weitem. Scott und Heumann identifizieren den größten Schaden, der durch die umfassende Überwachung durch USA, Großbritannien und Deutschland angerichtet wurde: Völliger Vertrauensverlust. Dieser muss wiederhergestellt werden und dies gelingt nur durch offenen Diskurs auf internationaler Ebene. Sonst droht die ‘Balkanisierung’ des Internets.

The global Internet relies upon a relatively fragile system of cooperative technocratic governance and a mutual commitment among nations to maintain an open market for ideas and commerce despite the risks to privacy and security that are tied to open communications. It is a system that depends on trust.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

Reposted by02mydafsoup-01schwa

September 11 2013

Studie: Die widersprüchlichen Vorstellungen von US Amerikanern zu ihrer Privatsphäre im Internet

anonymous-largeLetzte Woche veröffentlichte das US amerikanische Pew Research Center eine neue Studie zum Thema Anonymität und Privatsphäre im Internet. Hierzu wurden rund 1.000 US AmerikanerInnen per Telefon befragt. Begraben unter einigen Widersprüchen und Unsinnigkeiten liegen eine Hand voll interessanter Erkenntnisse.

  • Lediglich 14% nutzen (irgendeine Art von) Verschlüsselung
  • 33% haben Angst vor kriminellen Hackern, aber nur 5% haben Bedenken wegen staatlicher Überwachung
  • Meta-Daten des Mailverkehrs (Empfänger) werden als ähnlich sensibel empfunden, wie der eigentliche Inhalt
  • Etwa 2/3 der Befragten denken, dass bisherige Gesetze Bürger nicht adäquat schützen.
  • Datenschutz ist letztlich Handlungsfreiheit.

Privacy is not an all‐or‐nothing proposition for internet users. People choose different strategies for different activities, for different content, to mask themselves from different people, at different times in their lives. 

Gerade da die Studie Mitte Juli durchgeführt wurde, darf hinterfragt werden, warum lediglich ein Bruchteil (5%) der Befragten Bedenken bzgl. staatlicher Überwachung hatte. Weiterhin kann man nur hoffen, dass mittlerweile mehr Menschen Verschlüsselung einsetzen.

Die Studie verdeutlicht jedoch auch, dass viele Menschen ‘Privatsphäre im Internet’ als das Preisgeben oder Zurückhalten bestimmter Informationen begreifen. So fragte die Studie, welche Informationen der Befragten womöglich im Internet für andere auffindbar sind: Bilder, Name, Adresse, Telefonnummer, Videos, etc. Dies zeigt jedoch, wie antiquiert unser Verständnis davon ist, wie Dritte Informationen über uns erhalten. Diese Daten spielen natürlich eine Rolle, doch ist es viel entscheidender und für die Erstellung eines Profils wesentlich wichtiger Aktivitäten zu analysieren: Mit wem wird kommuniziert, wie lange und zu welcher Zeit? Welche Webseiten werden besucht? Welche Nachrichten werden gelesen, welche ignoriert? Wie groß ist und aus wem besteht das soziale Netzwerk? Diese aggregierten Informationen sind wesentlich aussagekräftiger, als ein Geburtsdatum oder ein Familienfoto – finden jedoch erst langsam Einzug in die öffentliche Debatte und somit in das Bewusstsein der Bevölkerung.

graphZwei andere erwähnenswerte Zusammenhänge: Personen, die versuchen ihre Privatsphäre im Netz zu schützen sind sich gleichzeitig eher darüber bewusst, dass es keine absolute Anonymität gibt. Und interessanterweise geben diejenigen signifikant mehr über sich preis, die gleichzeitig versuchen Überwachung zu entgehen. (siehe Grafik) Dies unterstützt die Aussage vom Anfang, dass es bei Anonymität letztlich um Handlungsfreiheit geht: Die Freiheit selbst zu bestimmen, wie viel man über sich preisgeben möchte – diese informationelle Selbstbestimmung wird jedoch leider immer utopischer.

graph2Ein weiterer offensichtlicher Zusammenhang besteht zwischen dem Einkommen einer Befragten und der Wahrscheinlichkeit, dass sie negative Erfahrungen in Bezug auf Anonymität hatte. So kam es in Haushalten mit weniger als 30.000USD jährlichem Einkommen signifikant öfter zu gestohlenen Accounts, Online Mobbing / Stalking oder Reputationsverlust. Dies kann als Indikator dafür genommen werden, dass es bei der digitalen Spaltung vorrangig nicht um bloßen Zugang geht, sondern auch um Aufklärung bzw. Bildung.

Es wäre interessant zu sehen, inwieweit sich die Auffassung der Befragten in den kommenden 2-3 Monaten geändert hat. Dank Edward Snowdens Enthüllungen schreiben nun auch die ‘großen Zeitungen’ über Themen wie Verschlüsselung, staatliche Internet-Überwachung, Profilerstellung und den zunehmend vollständigen Verlust der Privatsphäre im Netz.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

August 06 2013

Arbeitsbedingungen in China? Good! Very good! Very, very good!

iheartfoxconn

Quelle: AP Photo/Kin Cheung

Über die miserablen Arbeitsbedingungen in chinesischen ‘Sweat Shops’, wie Foxconn oder Pegatron, wurde schon viel berichtet – spätestens seitdem 2010 insgesamt 18 junge Menschen Suizid als einzigen Ausweg aus dem Arbeitsalltag bei Foxconn gesehen haben. Ein neuer wissenschaftlicher Artikel beleuchtet nun die grundlegenden Probleme und Wechselwirkungen, basierend auf 42 Interviews mit Arbeitern bei Foxconn und der drei-jährigen Begleitung der Suizid-Überlebenden Tian Yu.

Mit 1.4 Millionen Mitarbeitern ist Foxconn, als Teil der taiwanischen Hon Hai Precision Industry Company, Chinas größter privater Arbeitgeber und weltweit eines der größten Unternehmen. Seit 1988 hat Foxconn aggressiv vor allem im Süden Chinas expandiert, dank niedriger Gewerbesteuern und günstigem Bauland. Dabei ist das Unternehmen auf den konstanten Strom von jungen Arbeitsuchenden zwischen 16 und 25 angewiesen, die aus überwiegend ländlichen Gebieten Erfolg und Freiheit in Städten wie Shenzhen suchen. So verspricht Foxconns Handbuch, das jeder neue Mitarbeiter erhält, dass man durch die Arbeit bei Foxconn seine Träume verfolgen kann, Wissen und Erfahrung gewinnt und sich neue Möglichkeiten eröffnen.

Hurry toward your finest dreams, pursue a magnificent life. At Foxconn, you can expand your knowledge and accumulate experience. Your dreams extend from here until tomorrow.

In Foxconns Fabrik in Longhua, in der allein 400.000 Arbeiter beschäftigt sind, um rund um die Uhr zu produzieren, findet man allerdings andere Grundsätze und Ideale an den Wänden. So beschreibt Tian Yu im Artikel, dass überall Poster an den Wänden hängen, die die Arbeiter dazu antreiben sollen, noch schneller, effizienter und fehlerfrei zu arbeiten. Terry Gou, CEO von Foxconn, besteht auf bedingungslosen Gehorsam innerhalb der Foxconn Hierarchie und so lauten seine Grundsätze, die an den Wänden der Produktionshallen zu finden sind:

Growth, thy name is suffering.
A harsh environment is a good thing.
Execution is the integration of speed, accuracy and precision.
Outside the lab, there is no high-tech, only execution of discipline.

article-0-152D17F8000005DC-313_638x394

Quelle: n/a

Was Jenny Chans Arbeit, im Gegensatz zu den meisten bisherigen Artikeln, sehr gut aufdeckt, ist das Zusammenspiel der verschiedenen Faktoren, die letztlich dazu führen, dass immer wieder junge Menschen Suizid begehen, nachdem sie bei Foxconn angefangen haben zu arbeiten. So geht es nicht nur um schlechte Löhne und lange Arbeitszeiten. Junge Menschen kommen aus den ländlichen Gebieten Chinas nach Shenzhen oder anderen ‘Hubs’, um die ‘große weite Welt’ zu erleben und Geld zu verdienen. Oft landen sie dann bei Foxconn oder einer der zahllosen anderen Fabriken. Diese Unternehmen setzen vollständig auf Taylorismus – jeder Arbeitsschritt ist bis ins Detail koordiniert und systematisiert, sodass kein Vorwissen nötig ist. Dies wird in 12-Stunden Schichten ausgeführt. In Tian Yus Fall hieß das, iPhone Displays auf Kratzer untersuchen. 12 Stunden am Tag. 6 Tage die Woche. Immer dieselbe Beschäftigung.

Yu confirmed that while preparing to start work on the production line, frontline managers demand workers respond to the question, ‘How are you?’, by shouting in unison, ‘Good! Very good! Very, very good!

Nach diesem morgendlichen Ritual darf nicht gesprochen werden bis zum Ende der Arbeitsschicht. Einige der Arbeiter leben direkt auf dem Foxconn Campus in Unterkünften – zu 8 je Zimmer. Intuitiv würde man denken, dass sich hier Freundschaften bilden, allerdings wechseln Schichten ständig. Nach wenigen Wochen Frühschicht, wird man der Spätschicht zugeteilt. Außerdem wird die Zusammensetzung der Zimmer immer wieder willkürlich geändert und nach einem Arbeitstag sind die meisten so müde, dass man direkt schlafen geht. Zusätzlich ist die offizielle Sprache in China zwar Mandarin, regionale Dialekte sind aber so unterschiedlich, dass man sich oft nicht versteht, wenn man nicht aus derselben Provinz kommt. All diese Faktoren führen dazu, dass sich bei vielen der Angestellten ein Gefühl der Isolation einstellt.

Yu’s experience illustrates the difficulty of forming meaningful social relationships in a mega-factory where workers are individualised and pitted against each other to achieve incessant and excessive production demands… Yu’s desperation is emblematic of myriad labour problems at ‘the electronics workshop of the world’.

Unter diesen Bedingungen ist es wenig verwunderlich, dass jeden Monat rund 24.000 Mitarbeiter Foxconn kündigen – etwa 5% der Beschäftigten. Das ist allerdings noch nicht das gesamte Bild. Ein Aufbegehren der Arbeiter gegen die schlechten Arbeitsbedingungen wird zusätzlich dadurch erschwert, dass es zwar eine Gewerkschaft gibt, diese aber praktisch keine Macht hat - u.a. da sie nicht unabhängig ist. Erst seit kurzem kommt es hin und wieder zu Aufständen, die dann auch oft in Gewalt eskalieren.

In spite of impressive Chinese union membership, operational and financial dependence on management severely undermines the capacity of enterprise unions to represent the workers.

C608N0027H_2010資料照片_N71_copy1

Quelle: File Photo/CNS

Auf die Suizid-Fälle reagierte Foxconn mit verschiedenen “Maßnahmen”: Die Schuld wurde den Opfern zugeschoben, die “psychisch-labil” waren. Es wurde eine Telefonseelsorge eingerichtet, die allerdings direkt mit dem Management zusammengearbeitet hat: Wenn sich jemand über zu harte Arbeitsbedingungen beschwert hat, wurde ihm gekündigt. Gegen weitere Suizid-Fälle wurden die Fenster der Unterkünfte vergittert, es wurden Sicherheitsnetze an allen Gebäuden angebracht und jeder neue Mitarbeiter musste unterschreiben, dass er – im Falle eines Suizid – Foxconn von jeglicher Verantwortung freispricht.

Letztlich zieht Jenny Chan die Schlüsse, dass die Suizid-Fälle und die Aufstände als Aufschrei und Symptom eines grundsätzlicheren Problems gesehen werden sollten. Diese Vorfälle sollte man nicht als “notwendiges Übel” des wirtschaftlichen Wachstums Chinas sehen. Sie sind nicht reduzierbar auf Apple, Dell oder Foxconn sondern müssen in einem globalen Kontext betrachtet werden.

Chinese sociologists have warned that the Foxconn tragedies should be seen as ‘loud cries for help from the new generation of migrant workers’… To achieve lasting changes, it can never be sufficient to limit the discourse to corporate employers and the Chinese state. Ultimately, it is essential that workers find their voices and participate directly in monitoring and negotiating their working and living conditions.

Daher ist es nicht nur falsch und arrogant, sondern auch kurzsichtig, wenn einige die Suizid-Fälle einfach damit abtun, dass 18 von 1.4 Millionen deutlich weniger sind, als die durchschnittliche Suizid-Rate in China von 23 je 100.000. Genauso, wie wir es geschafft haben global gegen ACTA vorzugehen und sich jetzt auch wieder globale Initiativen gegen staatliche Überwachungsprogramme bilden, müssen wir auch hier anfangen zu begreifen, dass dies nicht isolierte Probleme eines Landes sind. Zur Zeit beschränkt sich die Diskussion darauf, Verantwortung immer weiterzureichen: Apple ist nicht Schuld, da sie Foxconn strikte Auflagen gegeben haben – so deren Begründung. Wir kämpfen dafür, dass wir mit dem iPhone in unserer Hand machen dürfen, was wir wollen – Pornos anschauen, Dateien tauschen, skypen, usw. Warum also nicht auch dafür kämpfen, dass an dem iPhone, das wir in der Hand halten, kein Blut klebt? Es ist dasselbe iPhone. Von alleine werden das Apple, Dell & Co. nicht machen.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

Reposted by02mydafsoup-01santaprecariaRKjagger

July 25 2013

Freihandelsabkommen TTIP/TAFTA: Ökonomischer Nutzen zweifelhaft

IMK-logoDem Titel dieses Blogs entsprechend ging es in der bisherigen Berichterstattung über das geplante Freihandelsabkommen  TAFTA/TTIP zwischen den USA und der EU vor allem um netzpolitisch problematische Aspekte wie Datenschutz, Immaterialgüterrecht und allgemein Transparenz im Verhandlungsprozess. Wenig hinterfragt wurden jedoch die behaupteten ökonomischen Vorteile des Freihandelsabkommens. Diese Aufgabe haben jetzt die beiden Wirtschaftswissenschaftler Jan Behringer und Nikolaus Kowall am gewerkschaftsnahen Institut für Makroökonomie und Konjunkturforschung (IMK) übernommen.

In einem Report über den “Außenhandel der USA” (PDF) kommen sie zu dem Schluss, dass

von einem Freihandelsabkommen mit der EU keine kurzfristigen konjunkturellen Impulse für die USA zu erwarten [sind].

Zur Veranschaulichung relativieren Behringer und Kowall die versprochenen jeweils 400.000 neuen Arbeitsplätze für die EU und die USA:

Selbst wenn man unterstellt, dass in den USA ebenfalls 400.000 zusätzliche Arbeitsplätze geschaffen würden, entspräche dies bei aktuell 143 Millionen Erwerbstätigen lediglich einem Beschäftigungseffekt von weniger als 0,3 %. Geht man davon aus, dass die Beschäftigungseffekte im Verlauf der nächsten 10 bis 20 Jahren wirksam werden, ist dieser Effekt marginal.

Generell halten sie die Bedeutung von Freihandelsabkommen für überschätzt:

Wie der rasante Handelszuwachs der USA (und der EU) mit China zeigt, wird die Handelsintensivierung von unterschiedlichen Faktoren getrieben, nicht zuletzt von Nachfragedynamiken und technologischen Aufholprozessen. Die Wirkungen eines Freihandelsabkommens sind verglichen mit diesen makroökonomischen Faktoren sicherlich als zweitrangig einzuschätzen.

Die Welt verweist in ihrem Artikel über die Studie von Behringer und Kowall schließlich sogar auf mögliche negative Auswirkungen des Abkommens:

Henning Klodt, Leiter des Zentrums für Wirtschaftspolitik am Kieler Institut für Weltwirtschaft, will auch negative Auswirkungen des TTIP nicht ausschließen: So habe Mexiko aufgrund seiner Nachbarschaft zu den USA bislang profitiert, weil sich viele Zulieferfirmen, etwa für die Automobilindustrie, in der Nähe der US-Grenze angesiedelt hätten. Mit einem Freihandelsabkommen würde diesen Firmen in Süd- und Osteuropa eine neue Konkurrenz von Zulieferern erwachsen, so Klodt.

Ein Vorteil des Abkommens könne jedoch sein, dass dadurch eine Plattform für die Beilegung von Handelsstreitigkeiten geschaffen werde.

Zusammengefasst zeigt sich, dass die ökonomischen Auswirkungen des geplanten Freihandelsabkommens keineswegs eindeutig positiv sind. Im Gegenteil, zu den netzpolitischen Kritikpunkten im Bereich Datenschutz und Urheberrecht kommen auch grundlegende Zweifel an der ökonomischen Sinnhaftigkeit des Abkommens. Von dem intransparenten Verhandlungsprozess ganz zu schweigen.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

Reposted by02mydafsoup-01schwa

July 24 2013

Bundesnetzagentur startet erneut bundesweiten Bandbreitentest

Die Bundesnetzagentur hat erneute eine Studie zur “Dienstequalität von Internetzugängen in Deutschland” gestartet. In der bundesweite Messkampagne kann jeder deutsche Internetnutzer die Geschwindigkeit seines Breitbandanschlusses überprüfen lassen und so automatisch an der Studie teilnehmen. Der Test ist bereits der zweite seiner Art und lässt sich auf der Internetseite www.initiative-netzqualitaet.de durchführen.

In der Pressemitteillung der Bundesnetzagentur heißt es:

Auch die zweite Messstudie untersucht, wie häufig und wie stark die tatsächlich erreichte Datenübertragungsrate von der im Vertrag angegebenen “bis zu”-Bandbreite abweicht. Dabei werden auch verschiedene Technologien und regionale Unterschiede betrachtet. Die Bundesnetzagentur erhofft sich von den erneuten Messungen Rückschlüsse auf mögliche Verbesserungen seit dem vergangenen Jahr. Die Ergebnisse der Studie werden im Anschluss an die Messungen veröffentlicht.


Die Ergebnisse aus der ersten Qualitätsstudie die im April 2013 veröffentlicht wurden zeigen vor allem, dass die von den Internetanbietern erreichten Bandbreiten nur in seltensten Fällen erreicht werden wie auch Jochen Homann, der Präsident der Bundesnetzagentur, noch einmal zusammenfasste:

“Die Ergebnisse der damaligen Messungen haben die Vielzahl der Kundenbeschwerden über Abweichungen zwischen der vertraglich vereinbarten und der tatsächlichen Bandbreite bestätigt. Über alle Technologien, Produkte und Anbieter hinweg haben die teilnehmenden Nutzer oft nicht die Bandbreite gemessen, die ihnen als maximal mögliche Bandbreite von ihrem Anbieter in Aussicht gestellt wurde. Der ersten Messstudie lag mit knapp einer Viertelmillion ausgewerteter Messungen eine äußerst umfangreiche Datenbasis zugrunde. Ich hoffe, dass sich die Internetnutzer auch in diesem Jahr wieder rege beteiligen und wir dadurch ein zuverlässiges Bild der tatsächlich verfügbaren Leistungen überall in Deutschland erhalten.”

Auch wir haben die Studie einmal ausführlich untersucht.

Bis zum Ende diesen Jahres kann an der neuen Studie teilgenommen werden. Die Ergebnisse sollen im Anschluss der Öffentlichkeit präsentiert werden. Leider scheint die Webseite der Studie noch nicht angepasst zu sein, was der Funktionalität aber sicherlich nicht im Wege stehen wird.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

Reposted byacidIrrbertkissalonecomplex

July 08 2013

Wie Copyright Bücher und Musik verschwinden lässt: Studie von Paul Heald

Im März vergangenen Jahres veröffentlichte der US-amerikanische Copyright-Forscher Paul Heald Ergebnisse einer laufenden Untersuchung über die Verfügbarkeit von Büchern bei Amazon, die eindrucksvoll die sogenannte “Lücke des 20. Jahrhunderts” illustrieren: Die Länge urheberrechtlicher Schutzfristen von 70 Jahren nach dem Tod des Autors führt dazu, dass ein großer Teil der Werke schon bald gar nicht mehr verfügbar ist, weil sich deren kommerzielle Verwertung nicht mehr lohnt. Diesen Umstand hatte Heald mit Hilfe eines Zufallssamples von bei Amazon erhältlichen Büchern in Form folgender Graphik illustriert:

Heald-Abbildung1

Verteilung von bei Amazon verfügbaren neuen Büchern nach Erscheinungsdekade (Zufallsstichprobe von 2317 Büchern)

Seit kurzem liegt jetzt die Studie als Arbeitspapier mit dem Titel “How Copyright Makes Books and Music Disappear (And How Secondary Liablity Rules Help Resurrect Old Songs)” vor. Darin findet sich neben der Analyse von bei Amazon erhältlichen Büchern auch eine Untersuchung der Verwendung von Musik in Filmen auf Basis von Soundtrack-Daten der International Movie Database. Die zahlreichen Herausforderungen bei der Datenerhebung und bei der Feststellung der Erstveröffentlichungsdaten von Musik und Büchern werden in dem Aufsatz sehr detailliert dargelegt.

Hinsichtlich der Verfügbarkeit von Büchern liefert Heald noch eine zweite Graphik, in der die Zahl der erhältlichen Bücher mit der Gesamtzahl der im jeweiligen Jahrzehnt erschienenen Bücher ins Verhältnis gesetzt – und damit der Umfang der Lücke des 20. Jahrhunderts noch deutlicher wird (leider fehlt in der Graphik die Y-Achse mit den Prozentangaben, die Verhältnisse werden aber klar):

Heald-Abbildung2

Anteil bei Amazon verfügbarer Bücher im Verhältnis zur Gesamtzahl in der jeweiligen Dekade erschienener Bücher

Im Bereich der Musik ist das Muster einer höheren Verfügbarkeit nach Ablauf des Urheberrechtsschutzes ebenfalls erkennbar und statistisch signifikant, wenn auch weniger stark als im Buchbereich:

Heald-Abbildung4

Veröffentlichungsdatum von Filmmusik aus den 100 Filmen mit den höchsten Einspielergebnissen

Die große Zahl der Musik mit demselben Veröffentlichungsjahr wie dem des Films folgt aus Auftragswerken speziell für den jeweiligen Film. In einer weiteren Analyse vergleicht Heald die Verwendung von Songs in Filmen vor und nach der Verlängerung der Copyright-Schutzdauer in den USA 1977 und kommt dabei zum Ergebnis, dass die Verlängerung mit einem deutlichen Rückgang der Verwendung in Filmen einhergeht:

Heald-Abbildung5

Alter von Songs in Filmen vor und nach der US-Copyright-Reform 1977

Der statistisch signifikante Unterschied zwischen den vor und nach 1977 veröffentlichten Filmen unterstreicht, dass die Schutzdauer einen erheblichen Einfluss auf die Verfügbarkeit von Songs in Filmen hat. Denn vor dem 1977 in Kraft getretenen Copyright Act of 1976 mussten Werke registriert werden und waren für 28 Jahre geschützt, mit der Möglichkeit noch ein weiteres Mal um 28 Jahre zu verlängern. Nach 1977 galt in den USA eine Schutzdauer von 50 Jahren nach dem Tod des Urhebers bzw. 75 Jahre nach Veröffentlichung für Auftragswerke. Die längere Schutzdauer macht die Verwendung von Musik in Filmen also erheblich schwieriger; bis zu einem gewissen Grad könnte hier tatsächlich eine innovationsfördernde Wirkung von sehr langen Schutzfristen bestehen: Rechteklärung wird dadurch so schwer, dass stattdessen lieber neue Musik in Auftrag gegeben wird.

Im vierten Abschnitt seines Aufsatzes widmet sich Heald schließlich der Auswirkung von Haftungsbeschränkungen für Plattformen wie YouTube auf die Verfügbarkeit von Musikinhalten. Weil Plattformbetreiber wie Google oder Facebook erst bei Kenntnis einer Urheberrechtsverletzung durch einen ihrer Nutzer einschreiten müssen, sind mangels Einsprüchen oder auf Grund von expliziter Duldung der Rechteinhaber im Rahmen des Content-ID-Verfahrens viele zusätzliche Werke online zugänglich.

Um hier zu untersuchen, in welchem Ausmaß dieses Potential auch tatsächlich realisiert wird, vergleicht Heald die Verfügbarkeit der Nummer-1-Songs der Charts aus den USA, Frankreich und Brasilien zwischen 1930 und 1960, die sämtliche nach 1923 veröffentlicht wurden und damit noch unter US-Copyright fallen. Mit Stand Mai 2013 liefert Heald folgende Ergebnisse:

  • Mindestens 95% der verfügbaren Songs wurden offensichtlich nicht von den Rechteinhabern selbst hochgeladen, also de-facto von Urheberrechtsverletzern.
  • Mehr als 70% der US-amerikanischen, über 60% der französischen und knapp 40% der brasilianischen Nummer-1-Songs auf YouTube werden monetarisiert, d.h. es wird Werbung eingeblendet, an deren Erlösen in der Regel die Rechteinhaber beteiligt werden.
  • Die nicht-monetarisierten Videos waren nur unwesentlich weniger aktuell als die monetarisierten Interviews und im Mittel (Median) bereits seit knapp vier Jahren via YouTube verfügbar.
  • Die Unterschiede zwischen USA, Frankreich und Brasilien im Bereich der Monetarisierung dürften mit der Anzahl an Views zusammenhängen, die ein Indiz dafür sind, ob sich eine Monetarisierung lohnt:
Heald-Abbildung7

Anzahl von Views bei monetarisierten Nummer-1-Songs auf YouTube

  • Unter den nicht-monetarisierten Videos dominieren Ausschnitte aus TV- oder Filmproduktionen, was der Anforderung von Google für Monetarisierung auf YouTube geschuldet sein dürfte, die sowohl die Rechte an Bild- als auch an Tonmaterial erfordert; interessanterweise könnte aber jeder einzelne der Rechteinhaber eine Sperrung des jeweiligen Clips veranlassen, was offensichtlich in vielen Fällen nicht getan wird. Hinzu kommt, dass viele ältere Video-Ausschnitte von Fernsehsendungen verwaiste Werke darstellen, deren Rechtesituation nur noch schwer zu klären ist.
Heald-Abbildung9

Video-Typ nicht-monetarisierter Nummer-1-Songs auf YouTube

Angesichts dieser Situation lobt Heald die Haftungsregeln des oft gescholtenen Digital Millennium Copyright Acts (DMCA), weil sie im Fall von YouTube “die Bildung eines ziemlich effizienten Marktes” (S. 35) erlauben (meine Übersetzung):

Diese Regeln […] helfen dabei den Zugang zu Kulturgütern zu fördern, während die finale Entscheidung darüber in den Händen der Rechteinhaber verbleibt.

Zusammengefasst zeigt Healds Studie, dass es durchaus (auch: kommerziell relevante) Nachfrage für ältere Werke gibt, die aber zu großen Teilen bereits nach wenigen Jahren über klassische Vertriebskanäle wie Amazon nicht mehr zugänglich sind. Zumindest für den Musikbereich bietet YouTube sowohl bessere Verfügbarkeit als auch bessere bzw. überhaupt wieder Möglichkeiten zur Monetarisierung. Ironischerweise ist diese Monetarisierung nur auf Basis der auch in Deutschland von Seiten der Rechteinhaber heftig kritisierten Haftungsprivilegien möglich.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

May 29 2013

BSA-Piraterie-Studie: Leerstelle freie Software

Die Business Software Alliance (BSA) zählt zu den finanzstärksten und umtriebigsten Lobby-Verbänden im Urheberrechtsbereich. Ihr Hauptbetätigungsfeld ist der Kampf gegen Softwarepiraterie. Auf der deutschen Homepage werden derzeit beispielsweise Mitarbeiter/innen mittels Video aufgefordert, das eigene Unternehmen wegen des Einsatzes illegaler Software unter einer gebührenfreien Nummer zu verpfeifen. (Dass das ein Kündigungsgrund sein kann, wird nicht dazugesagt.)

Notorisch sind auch die zahlreichen “Studien”, die von der BSA in Auftrag gegeben werden, um vermeintliche volkswirtschaftliche Schäden von Softwarepiraterie zu belegen. In der deutschen Presseerklärung zur jüngsten Studie “Competitive Advantage: The Economic Impact of Properly Licensed Software” heißt es beispielsweise: Die “Deutsche Volkswirtschaft profitiert viermal mehr von lizenzierter Software als von Raubkopieren” weil “[f]ür jeden Euro, der in korrekt lizenzierte Software investiert wird, die Wirtschaft in Deutschland um 55 Euro [wächst], verglichen mit 19 Euro für unlizenzierte Software.” Für ärmere Länder werden noch höhere Zahlen kalkuliert, wonach die Investition von 1 Dollar in eine Microsoft-Lizenz zu 437 Dollar zusätzlichem BIP führen würde.

Die gewählten Berechnungsmethoden sind jedoch, trotz Kooperation mit der renommierten INSEAD Business School, haarsträubend. Glynn Moody hat das in einem Blogeintrag detailliert herausgearbeitet und kommt zu dem Schluss (meine Übersetzung):

Wie üblich basieren die Aussagen der BSA über Piraterie auf übertriebenen Behauptungen abgeleitet aus simplistischen Modellen mit beschränkter Datenbasis, deren wichtigste Teile von der BSA selbst bereitgestellt werden. Aber natürlich sind die Schwächen der Studie noch viel tiefgehender, weil sie komplett die Folgen – oder auch nur die Existenz – von freier Software übersieht.

Das “Übersehen” von freier Software ist alles andere als ein Zufall. Die BSA hat beispielsweise noch 2010 beim Handelsvertreter der Vereinigten Staaten (USTR) dafür lobbyiert, dass Entwicklungsländer mit Handelssanktionen bestraft werden, wenn sie verstärkt auf freie Software setzen (vgl. Bericht bei Keionline).

In der aktuellen Studie ist das Ausblenden von freier Software aber vor allem deshalb brisant, weil die angeführten Gründe für volkswirtschaftlich positive Effekte proprietär-lizenzierter Software in noch höherem Maße für freie Software gelten. Die Studie verweist auf versteckte Kosten illegaler Kopien und zitiert diesbezüglich eine Microsoft-Studie (PDF). Diese listet u.a. folgende Gründe für Produktivitätsvorteile proprietärer Software auf:

  • Sicherheit, vor allem wegen geringerer Anfälligkeit für Schadsoftware
  • Geringere Ladezeiten und schnelleres Hochfahren
  • Höhere Energie-Effizienz
  • Häufigere Updates

Wie Moody in seinem Blogeintrag ausbuchstabiert, treffen diese und andere Vorzüge in noch höherem Maße auf freie und Open Source Software zu. Für die Berechnung von fantastischen Zuwächsen im Bereich des BIP taugt freie Software aber dennoch weniger als proprietäre Software, wie ich in einem Rückblick auf die beiden Enquete-Kommissionen im deutschen Bundestag schon einmal ausgeführt habe:

Kaum ein Unternehmen, kaum eine digitale Innovation, die nicht auf irgendeine Weise Freie Software einsetzt. Im BIP scheinen aber nur begleitende Dienstleistungen oder bezahlte Open-Source-Programmierer auf; Beiträge der Open-Source-Community? Fehlanzeige.

Den gesellschaftlichen Wohlstandsgewinn freier Software deutlich zu machen, scheitert also nicht nur am Verzicht auf unseriöse Berechnungsmethoden, sondern auch weil das BIP ein denkbar schlechter Indikator zur Wohlstandsmessung ist.

 

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung, auch um weiterhin einen Full-RSS-Feed anbieten zu können. Investiere in digitale Bürgerrechte.

flattr this!

May 15 2013

Britische Studie: Wer viel illegal herunterlädt, kauft auch viel

In der Urheberrechtsdebatte melden sie gerne unterschiedliche Unternehmen aus der Unterhaltungsbranche zu Wort und beklagen sich lautstark über das illegale herunterladen von Musik, Filmen oder Videospielen aus dem Internet. Diese sei nicht nur unmoralisch, auch würden den Unternehmen wichtige Umsätze verloren gehen. Sie fordern daher oftmals die Sperrung von Internetseiten, welche Zugang zu illegalen Inhalten anbieten – siehe Internet-Zensur: mehrere griechische Torrent-Seiten vor Sperrung.

Eine Studie, welche nun von der britischen Medienaufsichtsbehörde Ofcom veröffentlicht wurde, zeichnet aber nun ein anderes Bild. Zusammengefasst ist das Fazit der Studie an der knapp 10.000 Personen teilnahmen, dass die Personen die am meisten illegale Inhalte aus dem Internet herunterladen, gleichzeitig am meisten Geld für Unterhaltungsmedien ausgeben.

The Top 10% Infringers accounted for just 1.6% of the 12+ internet user population, but were responsible for 79% of infringed content. The Top 20% infringers, accounting for 3.2% of 12+ internet users, were responsible for 88% of infringements.

sowie

Despite their high levels of infringement, the Top 20% Infringers also accounted for 11% of the legal content consumed.

Die Studie besagt also, dass 3,2% der über 12 Jahre alten Internetnutzer für 11% des Umsatzes von Unterhaltungsmedien verantwortlich seien. Weiter in der Studie:

The Top 20% Infringers also spent significantly more across all content types on average than either the Bottom 80% Infringers or the non-infringing consumers (£168 [$250] vs. £105 [$160] vs. £54 [$83] over the six month period covered).

Als Gründe für da illegale herunterladen von Inhalten nannten die Top 20% der Downloader vor allem, dass es kostenlos sei, es schnell ginge und darüber hinaus nicht kompliziert sei. Im Gegenzug sagten sie das sie nicht auf legale Inhalten zugreifen würden, da sie zu teuer seien, nicht alle gewünschten Inhalte verfügbar wären und dass die Nutzung nicht komfortabel genug sei.

Zu ähnlichen Ergebnissen kamen auch schon Studien aus dem Jahr 2009, wie wir berichteten. Die komplette Studie ist als pdf direkt bei Ofcam herunterzuladen.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung, auch um weiterhin einen Full-RSS-Feed anbieten zu können. Investiere in digitale Bürgerrechte.

flattr this!

April 14 2013

April 13 2013

Open Source Software: exponentielles Wachstum, weniger Copyleft

Vor einiger Zeit berichtete Matthew Aslett am 451 CAOS Theory Blog in einer Serie von Einträgen über den zwischen 2008 und 2012 sinkenden Anteil an Open-Source-Software, der unter der GNU General Public License (GPL) veröffentlicht wird (siehe Abbildung).

GPLusage_08-12

Anteil GPL-lizenzierter Open-Source-Software in ausgewählten Datensätzen zwischen 2008 und 2012 (Quelle: Aslett 2012, 451 CAOS Theory)

Die Besonderheit der GPL ist ihr auch als “Copyleft” bezeichneter “viraler” Charakter: Weiterentwicklungen auf Basis von GPL-lizenzierter Software dürfen nur unter derselben Lizenz weiterverbreitet werden; das bekannteste Beispiel für GPL-lizenzierte Software ist der Linux-Kernel. Aber auch jenseits von Software findet das Copyleft-Prinzip Anwendung – so ist zum Beispiel die Creative-Commons-Lizenz der Wikipedia eine Copyleft-Lizenz.

Im Bereich von Open-Source-Software ist allerdings Aslett zu Folge ein relativer Anstieg der Nutzung solcher Lizenzen zu beobachten, die auf eine Copyleft-Klausel verzichten (z.B. Apache-, BSD- oder MIT-Lizenz). Wichtig ist zu betonen, dass es sich dabei um relative Verschiebungen handelt, in absoluten Zahlen wächst auch der Pool an GPL-lizenziertem Software-Code weiterhin.

In einem Aufsatz für die 9th International Conference on Open Source Systems (OSS 2013) haben sich Gottfried Hofmann, Dirk Riehle, Carsten Kolassa und Wolfgang Mauerer jetzt noch einmal eingehend die Lizenz-Entwicklung in der Zeit vor 2008 – konkret zwischen 1995 und Juni 2007 -vorgenommen (siehe Abbildung).

Untersuchungszeitraum der Studie von Hofmann u.a. (2013, S. 2)

Der am Blog von Dirk Riehle im Volltext (PDF) verfügbare Beitrag bestätigt auf Basis eines Samples, das ca. 30 Prozent des Source-Codes aller aktiven Open-Source-Projekte umfasst, den Trend hin zu Lizenzierung ohne Copyleft in den letzten Jahren. Außerdem identifizieren die Autoren die Zeit rund um 2000/2001 als Wendepunkt in der Entwicklung: seit damals wächst Open-Source-Software ohne Copyleft stärker als Copyleft-Open-Source, (siehe Abbildung, außen vor blieben in der Analyse Mischformen wie die LGPL-Lizenz).

log-scale-SLoC-95-07

Logarithmisch skaliertes Wachstum von nicht-Copyleft- (links) und Copyleft-lizenzierten (rechts) Zeilen von Open-Source-Softwarequelltext zwischen 1995 und 2007 (aus: Hofmann u.a. 2013, S. 8)

Die Ergebnisse der Studie belegen darüberhinaus für den Untersuchungszeitraum ein ungebrochen exponentielles Wachstum des Pools an Open-Source-Software-Quellcode. Nicht kontrolliert wird in der Studie jedoch für Copy-Paste von Quellcode zwischen unterschiedlich lizenzierten Projekten; da ein solches Copy-Paste aber vor allem in eine Richtung möglich ist (von nicht-Copyleft zu Copyleft-Projekten), dürfte der Anteil von Copyleft-Software in der Studie deshalb eher noch überschätzt werden.

Was die Erklärung für den beobachteten Wandel im Lizenzierungsverhalten betrifft, so führen die Autoren diesen in erster Linie auf eine Zunahme an kommerziell finanzierter Open-Source-Softwareentwicklung zurück. Sie verweisen in diesem Zusammenhang auf weitere, noch unpublizierte Forschungsergebnisse, die eine solche Erklärung stützen würden.

Übrigens ist auch jenseits von Software im Bereich von Creative Commons ein leichter Trend hin zu weniger restriktiven Lizenzversionen zu beobachten, die letzten Daten stammen hier allerdings aus dem Jahr 2010 (siehe Abbildung; als “fully free/libre/open” zählen hier jedoch auch Copyleft-Lizenzen, die vor allem von NonCommercial- und NoDerivatives-Lizenzen abgegrenzt werden).

Zahl Creative-Commons-lizenzieter Werke und Anteil frei lizenzierter Werke zwischen 2003 und 2010 (Quelle: http://wiki.creativecommons.org/Metrics)

Zahl Creative-Commons-lizenzieter Werke und Anteil frei lizenzierter Werke zwischen 2003 und 2010 (Quelle: http://wiki.creativecommons.org/Metrics)

Jenseits von der Suche nach den Ursachen für diese Entwicklung hin zu weniger restriktiven Lizenzbedingungen bei offen lizenzierten Inhalten stellt sich die Frage, ob diese Entwicklung zu begrüßen ist? Einerseits führt sie dazu, dass die Rekombination unterschiedlich lizenzierter Inhalte tendenziell einfacher möglich ist. Andererseits, vor allem im Softwarebereich, besteht beispielsweise bei BSD-Lizenzen die Möglichkeit, dass Firmen sich an Open-Source-Quellcode bedienen aber nicht zu dessen Weiterentwicklung beitragen bzw. eigene Weiterentwicklungen nicht zurückspeisen.

Vielleicht ist es aber inzwischen so, dass die Bedeutung von Copyleft-Klauseln im Softwarebereich einfach nicht mehr so groß ist wie noch in den 1990er Jahren, weil auch auf Seite kommerzieller Akteure Open-Source-Prinzipien besser verstanden werden. Hinzu kommt, dass selbst bei Fehlen einer Copyleft-Klausel die simple “Privatisierung” des Quellcodes oft keine Option ist – im Gegenteil: was passieren kann, wenn sich die Community der freiwillig Beitragenden von einem Unternehmen mit Zugriff auf den Quellcode unfair behandelt fühlt, ließ sich 2010 am Beispiel der Spaltung zwischen OpenOffice.org und Libre Office beobachten. Wichtiger als die Frage Copyleft oder nicht sind offensichtlich transparente und als fair empfundene Governance-Strukturen.

flattr this!

Reposted byreaditlaternunatak

April 11 2013

Studie der Bundesnetzagentur: Internet-Anschlüsse liefern oft nicht die Bandbreite, die verkauft wird

Die verkauften Bandbreiten von Breitbandanschlüssen werden in der Realität oft nicht eingehalten. Das geht aus einer Studie im Auftrag der Bundesnetzagentur hervor, die knapp eine Viertelmillion Internet-Anschlüsse gemessen hat. Auch beim Anbieterwechsel gibt es Probleme wie langwierige Ausfälle – die eigentlich gesetzlich verboten sind.

Wie wir bereits berichtet haben, hat die Bundesnetzagentur mit der Initiative Netzqualität eine Studie zur Dienstqualität von Internetzugängen durchgeführt. Mehr als 200.000 Messungen von DSL-, Kabel- und Mobil-Anschlüssen haben Freiwillige beigesteuert. Heute wurde der 144-Seiten starke Abschlussbericht veröffentlicht.

In dieser großen Datenbasis hat man jetzt auch ganz offiziell festgestellt, dass die verkauften Bandbreiten selten eingehalten werden. Aus der Pressemitteilung:

Die Messstudie bestätigt die Vielzahl der Kundenbeschwerden über Abweichungen zwischen der vertraglich vereinbarten “bis zu”-Bandbreite und der tatsächlichen Bandbreite. Über alle Technologien, Produkte und Anbieter hinweg haben die teilnehmenden Nutzer oft nicht die Bandbreite gemessen, die ihnen als maximal mögliche Bandbreite von ihrem Anbieter in Aussicht gestellt wurde.

Die Lösung dagegen sind transparente, unabhängige Messungen sowie Transparenz gegenüber den Kunden. Jochen Homann, Präsident der Bundesnetzagentur:

Der Kunde weiß so nur vage, mit welcher Leistung er konkret rechnen kann. Auch nach Vertragsabschluss und erfolgter Schaltung besteht kein überschwängliches Bemühen, dem Endkunden aktiv einen transparenten Überblick über die Leistungsfähigkeit des konkreten Anschlusses zu bieten.


Spannender als die Bandbreite dürfte der Teil zur Netzneutralität sein. Das wird noch nachgeliefert:

Die Studie ist dabei auch der Frage nachgegangen, ob Datenpakete je nach Anwendung, Ursprung, Ziel oder Inhalt systematisch unterschiedlich behandelt werden (Netzneutralitätsthematik). Die Untersuchungen dauern hierzu noch an; ihre Ergebnisse werden in einem separaten Dokument dargestellt werden.

Genau da wird es problematisch, wenn Internet-Anbieter bestimmte Dienste ausbremsen, bevorzugen oder eine Extra-Gebühr verlangen. Oder wie die Telekom die Flatrates abschaffen und Bandbreiten drosseln will. Michael Horn, Netzwerk-Techniker und Mitglied im Chaos Computer Club, dazu gegenüber netzpolitik.org:

Flatrates sind immer eine Mischkalkulation. In einem gewissen Rahmen ist das auch kein Problem, da zu keiner Zeit alle Kunden gleichzeitig ihren Anschluss voll ausnutzen. Ein guter Anbieter zeichnet sich dadurch aus, dass diese Mischkalkulation dem Kunden nicht auffällt, weil immer die gewünschte Bandbreite zur Verfügung steht. Ein schlechter Anbieter gängelt seine Kunden mit Volumenpaketen und spart sich den Netzausbau. Wenn dies einhergeht mit der Begünstigung eigener Dienste wie im Fall der Telekom und Spotify, dann stellt das eine eklatante Verletzung der Netzneutralität dar. Während die Messungen und Statistiken der Bundesnetzagentur ein guter Anfang sind, fehlen derzeit noch gezielte Messungen inwieweit Anbieter im Einzelnen wirklich einen diskriminierungsfreien Zugang zum gesamten Internet ermöglichen.

Eine andere Erkenntnis der aktuellen Studie überrascht ebenso wenig: “Leider gibt es trotz der neuen gesetzlichen Regelungen aktuell Probleme beim Anbieterwechsel.”

“Der Gesetzgeber wollte mit den Neuregelungen den Endkunden vor langwierigen Ausfällen beim Anbieterwechsel schützen. Seit Dezember des vergangenen Jahres muss der abgebende Anbieter im Falle eines Scheiterns des Wechselprozesses die Versorgung wieder aufnehmen. Die Unterbrechung darf zudem nicht länger als einen Kalendertag andauern“, erläuterte Homann. Die Beschwerdezahlen zeigen, dass es in der Praxis bei einem Anbieterwechsel allerdings nach wie vor zu länger dauernden Unterbrechungen des Telefon- und Internetanschlusses kommen kann. “Ich appelliere noch einmal eindringlich an die Unternehmen, die gesetzlichen Vorgaben entsprechend umzusetzen. Wie die eingeleiteten Bußgeldverfahren zeigen, werden wir die für Endkunden nicht hinnehmbare Situation nicht länger akzeptieren. Der unkomplizierte Anbieterwechsel ist eine Voraussetzung für funktionierenden Wettbewerb.”

Bisher war auch die Bundesnetzagentur immer der Auffassung, dass der freie Markt und die Möglichkeit zum Anbieterwechsel uns die Wahlfreiheit für ein echtes Netz garantieren. Schön, dass man einsieht, dass das in der Praxis nicht funktioniert.

Hier noch die Zusammenfassung der Studie aus dem PDF befreit:

Kurzzusammenfassung

Im Rahmen der Studie wurde die Datenübertragungsrate stationärer Internetzugangsdienste qualitätsgesichert durch Endkundenmessungen erhoben. Dabei wurden mit Hilfe einer Software Applikation 226.543 valide Einzelmessungen durchgeführt. Das statistische Monitoring zeigte, dass die Bevölkerung in ganz Deutschland gleichmäßig durch die Teilnahmeaufrufe erreicht wurde.

Dabei konnten zunächst Unterschiede bei den prozentual erreichten Datenübertragungsraten beobachtet werden, die die untersuchten stationären Anschlusstechnologien erreichen konnten. Die geringsten Abweichungen von der vermarkteten Download-Datenübertragungsrate traten bei Kabelanschlüssen auf. Gleichzeitig liegen die Datenübertragungsraten für Upload und Download bei diesen Anschlüsse vergleichsweise weit auseinander. Dabei ist jedoch zu berücksichtigen, dass die erreichte Upload-Datenübertragungsrate durchaus der für den Upload vermarkteten Datenübertragungsrate entsprechen kann.

Bei der Betrachtung der Bandbreitklassen zeigten sich ebenfalls erkennbare Unterschiede bei den prozentual erreichten Datenübertragungsraten. Die geringsten Abweichungen sind technologie- übergreifend in der untersten Bandbreiteklasse (<= 2 Mbit/s) aufgetreten. Demgegenüber sind die größten Abweichungen in der obersten Bandbreiteklasse 50-100 Mbit/s für Kabelanschlüsse und 25-50 Mbit/s für LTE-Anschlüsse, bzw. in der Bandbreiteklasse zwischen 8-18 Mbit/s für DSL-Anschlüsse gemessen worden.

Zwischen ländlichen, halbstädtischen und städtischen Regionen zeigten sich hingegen nur geringe Differenzen, wobei jedoch bei Anschlüssen städtischer Regionen in der Regel geringere Abweichungen aufgetreten sind. Eine Ausnahme hiervon bilden die stationären LTE-Anschlüsse, bei denen in Ballungszentren deutlich niedrigere Datenübertragungsraten gemessen wurden.

Eine Analyse der zeitlichen Verteilung der Datenübertragungsrate ergab für DSL-Anschlüsse keine Abhängigkeit von der Tageszeit. Im Gegensatz dazu zeigten Kabelanschlüsse und stationäre LTE-Anschlüsse eine leichte Verringerung der Datenübertragungsrate in den Abendstunden (um bis zu 10%).

Im Rahmen der Laufzeitmessungen wurde festgestellt, dass die Laufzeiten bei Kabel-Anschlüssen über den gesamten Tagesverlauf unter denen von DSL-Anschlüssen und stationären LTE-Anschlüssen lagen. Jedoch wiesen die Kabelanschlüsse in den Abendstunden eine etwas erhöhte Laufzeit auf (bis zu 10%).

Auch bei der Untersuchung von Web Browsing als ein typisches Nutzungsszenario lagen die Webseiten-Downloadzeiten von Kabel- Anschlüssen unter denen von DSL-Anschlüssen und stationären LTE- Anschlüssen. Für alle Technologien verschlechterten sich die Werte jedoch um bis zu 15% in den Abendstunden.

Die Interdependenzmessungen haben ergeben, dass technologie- übergreifend bei paralleler Inanspruchnahme von Bündeldiensten eine Verringerung der Download Datenübertragungsrate auftrat.

Mobile UMTS-Anschlüsse wurden im Rahmen eines Bewegungstests stichpunktartig untersucht. Die dabei festgestellten prozentual erreichten Datenübertragungsraten waren regional sehr unterschiedlich. Dies legt den Schluss nahe, dass ein Bewegungs-/Drivetest zwar insbesondere für die exakte räumliche Analyse der Ende-zu-Ende Qualität einzelner Dienste zu einem gegeben Zeitpunkt angewendet werden kann, aber keinen von Ort und Zeit unabhängigen Rückschluss auf die Qualität der mobilen Internetzugänge zulässt.

Zuletzt wurden ausgewählte technische Ansätze für Endnutzermessungen miteinander verglichen. Insgesamt überwiegen dabei grundsätzlich die Vorteile von qualitätsgesicherten Softwarelösungen; allerdings ist darauf hinzuweisen, dass die konkrete Ausgestaltung und damit die wesentlichen Vorteile essenziell von den privatwirtschaftlichen bzw. regulatorischen Rahmenbedingungen abhängig sind.

vgwort pixel

flattr this!

April 09 2013

Studie im Auftrag der Bundesregierung findet heraus: Netzaktivisten halten nichts von den Unionsparteien

Politische Netzaktivisten tendieren “überdurchschnittlich zu den Grünen, unterdurchschnittlich dagegen zu den Unionsparteien.” Zu diesem Ergebnis kommt eine repräsentative Umfrage des Instituts für Demoskopie Allensbach aus dem Jahr 2011. Knapp 10 Prozent der Bevölkerung zählen demnach dazu, “überdurchschnittlich unter-40-jährige Männer mit höherer Schulbildung.”

Im Januar berichteten wir über eine Studie von TNS Infratest mit dem Titel “Politisch Netzaktive und Politik in Deutschland”. Darin stellte das Marktforschungs-Unternehmen fest, dass Menschen, die das Internet aktiv zur politischen Meinungsäußerung und Beteiligung in Deutschland benutzen, eine “starke Ausrichtung auf das linke Parteienspektrum” haben. Das wird jetzt durch eine zweite Umfrage nochmal bestätigt.

Das Presse- und Informationsamtes der Bundesregierung beauftragte auch das Institut für Demoskopie Allensbach mit einer Studie zum Thema “Veränderungen im politischen Informationsverhalten und Interesse der Bevölkerung”. Im September berichtete Hans-Martin Tillack auf stern.de darüber.

Informationsfreiheit: Studie erhalten, aber nicht veröffentlichen

Auch diese Studie haben wir nach Informationsfreiheitsgesetz beantragt – natürlich auf FragDenStaat.de. Wir haben die Studie auch erhalten, aber nur in ausgedruckter Form. “Vertraulich!” steht in der Tat auf dem Titelblatt, und:

Nachdruck, Vervielfältigung oder Veröffentlichung dieser Daten, ganz oder teilweise, nur mit Genehmigung des Instituts für Demoskopie Allensbach

Das ist schade, da wir gerne die kompletten 282 Seiten als PDF zum Download angeboten hätten. Immerhin haben wir mit unseren Steuergeldern ja auch für die Studie bezahlt. Doch die rechtliche Lage lässt das leider nicht zu. Aber auch hier könnt ihr die komplette Studie einfach und schnell per Mausklick selbst anfordern und bekommt sie zugeschickt.

Im Folgenden ein paar Auszüge:

Vorbemerkung

Das Ziel der Umfrage mit 1,792 Interviews:

Das Informationsverhalten der Bevölkerung befindet sich unverändert in einem dynamischen Veränderungsprozess. Die Gewichte der Mediengattungen verschieben sich weiter, wie auch die Nutzungsgewohnheiten der Rezipienten, deren Informationsverhalten heute wesentlich spontaner, ereignisgetriebener ist und weniger von festen Gewohnheiten bestimmt wird, als dies noch vor einigen Jahren der Fall war. Zudem haben sich generationenspezifische Informationskulturen entwickelt, so dass junge Zielgruppen über andere Kanäle angesprochen werden müssen als die mittlere und ältere Generation.

Diese Entwicklungen verändern generell die Voraussetzungen für politische Kommunikation. Vor diesem Hintergrund beauftragte das Presse- und Informationsamt der Bundesregierung das Institut für Demoskopie Allensbach mit einer aktuellen Bestandsaufnahme des Informationsverhaltens der Bevölkerung und insbesondere der Nutzung und Bewertung von Informationsquellen für die politische Information.

Bedeutungsgewinn des Internet

Die Ergebnisse klingen, als ob Captain Obvious bei Allensbach Praktikum gemacht hat. Das Internet ist auf dem Vormarsch, immer mehr Menschen nutzen das Netz und das immer öfter! Und erst die Jugend heutzutage:

In der jungen Generation, die sich allerdings weitaus weniger für das aktuelle Geschehen interessiert als die über-30-jährige Bevölkerung, ist das Internet bereits heute die wichtigste Informationsquelle über das aktuelle Geschehen, knapp vor dem Fernsehen: 47 Prozent der Unter-30-Jährigen stufen das Internet als ihre wichtigste Informationsquelle ein, 43 Prozent das Fernsehen, 10 Prozent die Tageszeitung.

allensbach-gewichtung-medien-junge

Und weiter mit den Überraschungen:

Für die Unter-30-Jährigen ist die Zeitung das Medium, auf das sie am ehesten verzichten könnten, während ihnen das Internet im Vergleich der anderen Mediengattungen mit großem Abstand als das wichtigste Medium erscheint.

allensbach-bedeutung-mediengattung

In der bundesdeutschen Gesamtbevölkerung war aber auch im Jahr 2011 das Internet noch das Medium, auf das man am ehesten verzichten würde.

Informationsquellen über Politik: Fernsehen, Zeitungen, persönliche Gespräche

Trotz des kontinuierlichen Bedeutungsgewinns des Internet und sinkenden Reichweiten der Tagespresse gehören die Zeitungen neben dem öffentlich-rechtlichen Fernsehen zu den wichtigsten Informationsquellen über Politik, während das Internet in der politischen Information nach wie vor eine untergeordnete Bedeutung hat. Das gilt selbst für die junge Generation, die mittlerweile das Internet als ihre wichtigste Informationsquelle über das aktuelle Geschehen bezeichnet. Der Ausschnitt des aktuellen Geschehens, für den sich die junge Generation besonders interessiert, hat jedoch in weiten Teilen nur wenig mit Politik zu tun. Dies erklärt die Diskrepanz zwischen der Bewertung des Internet und der Tagespresse in Bezug auf ihre Bedeutung als Informationsquelle über das aktuelle Geschehen und ihre Bedeutung als politische Informationsquelle.

Das Internet dient zwar auch als Informationsquelle über Politik, aber im Durchschnitt viel weniger:

Lediglich 19 Prozent aller Internetnutzer informieren sich im Internet täglich oder fast täglich über politische Ereignisse, weitere 16 Prozent zwei- bis dreimal in der Woche; 23 Prozent nutzen das Internet als politische Informationsquelle höchstens einmal die Woche, 41 Prozent selten oder nie.

allensbach-frequenz-information-internet

Die Erklärung: Man muss 20 Uhr nicht mehr die Tagesschau einschalten, sondern kann auch andere Dinge tun.

Das Internet generiert andere Nutzungsmuster als andere Mediengattungen. Durch den großen, jederzeit und überall zugänglichen Informationsvorrat wird ein weniger habituelles, stärker anlass- und bedarfsgetriebenes Informationsverhalten anerzogen. Während die Tagespresse und auch die Fernsehnachrichten in hohem Maße habitualisiert und täglich genutzt werden, haben Internetnutzer selten die Sorge, etwas zu verpassen, wenn sie ein oder mehrere Tage auf die Information via Internet verzichten.

Wenn man aber gezielt Informationen zum aktuellen Geschehen sucht, scheint das Internet gut zu sein:

allensbach-aktivierter-informationsbedarf

Unter-40-jährige Männer mit höherer Schulbildung

Im Teil “Auswirkungen des Internet auf die politische Information der Bürger” geht es auf einmal um Social Networks und Facebook, was auch immer das damit zu tun hat. Das lasse ich mal raus, da die Daten schon eineinhalb Internet-Jahre alt sind.

Dann geht’s kurz um politisches Engagement in “klassisch” (offline) und “online” (ja, wirklich in Anführungszeichen) und dann endlich um die “Political Net Activists”:

Insgesamt knapp 10 Prozent der Bevölkerung zählen zu den Political Net Activists, die das Internet auf mehrere verschiedene Arten nutzen, um sich politisch zu beteiligen. Diese Gruppe rekrutiert sich überdurchschnittlich aus unter-40-jährigen Männern mit höherer Schulbildung. In Bezug auf ihre parteipolilischen Orientierungen tendieren Political Net Activists überdurchschnittlich zu den Grünen, unterdurchschnittlich dagegen zu den Unionsparteien.

Political Net Activists sind überdurchschnittlich auch außerhalb des Internet politisch aktiv und zeichnen sich durch überdurchschnittliche Kommunikationsfreude, Selbstbewusstsein und das Vertrauen in die Einflussmöglichkeiten der Bürger aus.

allensbach-political-netactivists-parteipraeferenz

Glaubwürdigkeit der Mediengattungen und Informationsquellen

Zum Schluss gibt’s nochmal einen Teil zum Vertrauensverlust der Medien sowie zur Verständlichkeit und Glaubwürdigkeit von Berichterstattung:

Angesichts der immer komplexeren Themen und volatilen ökonomischen wie politischen Entwicklungen wächst die Ratlosigkeit der Rezipienten. Bei vielen Ereignissen sind sich die meisten nicht sicher, ob sie die Zusammenhänge und Beschaffenheit der Probleme richtig erfassen und dem Tenor der Berichterstattung trauen können. So hat die große Mehrheit den Eindruck, dass sie sich auf der Basis der Berichterstattung der Medien weder ein Urteil über Energiepolitik und die Zukunft der Energieversorgung machen kann noch über die Schuldenkrise in der Euro-Zone, die Lage in Afghanistan oder die Steuerpolitik der Bundesregierung.

Schuld sind nicht nur die Medien, sondern auch die Komplexität der Themen. Aber unabhängig sind die Medien auch nicht:

Weite Bevölkerungskreise bezweifeln auch die Ausgewogenheit der Berichterstattung. Dies gilt für die Berichterstattung über Parteien und noch mehr bei Personen. Nur 23 Prozent der Bürger haben den Eindruck, dass die Medien mit den verschiedenen Politikern ähnlich kritisch oder auch ähnlich wohlwollend umgehen, 55 Prozent machen deutliche Unterschiede aus; von den politisch Interessierten teilen 64 Prozent diese Auffassung.

Zum Glück gibt es eine Rettung: das öffentlich-rechtliche Fernsehen:

allensbach-glaubwuerdig-oer-tv

Am wenigsten Vertrauen gibt es “in Radio und Internet”. Deutschland im 21. Jahrhundert.

(Meinungsforschungsinstitute sind aber glaubwürdig. Sagt Allensbach.)

vgwort pixel

flattr this!

March 28 2013

Studie der EU-Kommission: Unerlaubte Musik-Downloads haben positive Auswirkung auf Kaufverhalten

JRC-reportFilesharing und Streaming von Musik führen nicht zu geringeren Verkaufszahlen im Netz. Zu diesem Ergebnis kommen immer mehr Untersuchungen, jetzt auch die Forschungsstelle der EU-Kommission. Das Fazit der Forscher lautet daher: Die Rechteinhaber sollten unerlaubtes Kopieren nicht länger als Problem ansehen.

Die Europäische Kommission hat mit der Gemeinsamen Forschungsstelle eine Generaldirektionen nur für Forschung. Eins der sieben Institute ist zuständig für Technologische Zukunftsforschung, das gerade eine interessante Studie über Konsum Digitaler Musik im Internet veröffentlicht hat (PDF).

Die Autoren Luis Aguiar und Bertin Martens haben das Surf-Verhalten von 16.000 Europäer/innen untersucht, um “die Auswirkungen von illegalen Downloads und legalem Streaming auf den legalen Erwerb von digitaler Musik” zu ergründen. Das Ergebnis ist ziemlich deutlich: Unerlaubtes Downloaden ist kein Ersatz für den legalen Erwerb digitaler Musik. “Unsere Ergebnisse zeigen keine Anzeichen von Umsatzeinbrüchen.”

Im Gegenteil: Es gibt sogar einen leichten positiven Zusammenhang. Je mehr Menschen “unerlaubt” downloaden, desto mehr kaufen sie auch. Oder andersrum: Gäbe es kein Filesharing und Streaming, würden die Verkaufszahlen sinken. Das Fazit der Forscher:

All diese Ergebnisse deuten darauf hin, dass unsere Probanden die überwiegende Mehrheit der Musik nicht legal gekauft hätten, wenn sie diese vorher nicht “illegal” herunterladen könnten.


Damit kommt die EU-Kommission zu ähnlichen Ergebnisse wie weitere Forscher-Teams an den Unis Telecom ParisTech in Frankreich und North Carolina State University, USA. Auch diese Papers zeigen, dass unerlaubte Downloads nur geringe oder gar keine Auswirkungen auf legale Musikverkäufe im Internet haben.

Aus ihren Ergebnissen schlussfolgern die Forscher, dass unerlaubte Downloads dem legalen Musikmarkt nicht schaden:

Unsere Ergebnisse deuten darauf hin, dass Rechteinhaber digitale Musik-Piraterie nicht als wachsendes Problem ansehen sollten. Darüber hinaus zeigen unsere Ergebnisse, dass neue Musik-Hör-Dienste wie Online-Streaming die Urheberrechte der Eigentümer positiv beeinflussen.

Kein Wunder, dass der Weltverband der Phonoindustrie das anders sieht. In einer Mitteilung kritisiert IFPI die EU-Studie als “fehlerhaft, irreführend und realitätsfremd”. Lustigerweise hat der Industrieverband den Streaming-Dienst Spotify im Boot, der besonders “die Nicht-Beobachtung von Streaming-Diensten in der Studie” bemängelt, die unfaire Konkurrenz von kostenlosen Downloads bekämen.

Komisch, bei mir tauchen in der Studie “Streaming” 109 mal und “legales Streaming” 40 mal auf. Vielleicht sollte auch Spotify die Studie mal lesen?

vgwort pixel

flattr this!

March 26 2013

Einzigartig in der Masse: Aus Mobilfunk-Bewegungsdaten können ganz einfach Einzelpersonen identifiziert werden

Die Art und Weise, wie sich Menschen bewegen, ist sehr einzigartig. Einem Forscherteam ist es gelungen, Einzelpersonen in großen Datensätzen von Bewegungsdaten zu identifizieren, wie diese von Mobilfunk-Anbietern gespeichert werden. Statt immer weitere Datenberge anzuhäufen, plädieren sie für weitere Forschung, da Bewegungsdaten nur noch wichtiger und aussagekräftiger werden.

unique-in-the-crowd-590

Gestern wurde im Open Access Journal Scientific Reports die Studie Unique in the Crowd: The privacy bounds of human mobility (PDF) veröffentlicht. Vier Forscher vom MIT Media Lab und der Katholischen Universität Löwen untersuchen darin einen großen Datensatz an Bewegungsdaten und de-anonymisieren Einzelpersonen aus dem Datenhaufen.

Bewegungsdaten fallen beispielsweise für jedes einzelne Mobilfunk-Gerät bei den Mobilfunk-Betreibern an. Smartphones übertragen ihren Standort aber auch an Internet-Dienste, so verarbeitet allein der Anbieter Skyhook mehr als 400 Millionen Anfragen nach Ortsdaten pro Tag und Werbe-Netzwerke bekommen Ortsdaten von der Hälfte aller Smartphones. Mal ganz abgesehen von Diensten, denen man den eigenen Standort ganz freiwillig mitteilt, wie Foursquare oder Ingress.

Die Forscher haben jetzt einen Datensatz erhalten, der die Bewegungsdaten von 1,5 Millionen Menschen über 15 Monate enthielt. Das ist ein “bedeutender und repräsentativer Teile der Bevölkerung eines kleinen europäischen Landes”. Diese Daten kamen von einem Mobilfunk-Anbieter, der Zeitraum umfasste April 2006 bis Juni 2007. Mit diesem “Big Data” Datensatz konnten sie zeigen, dass die räumliche Bewegung einzelner Menschen “sehr einzigartig” ist.

In einem Datensatz, wie er bei jedem Mobilfunk-Anbieter anfällt (also relativer Abstand der Funkzellen-Antennen und ein Orts-Eintrag etwa alle Stunde), kann man mit nur vier bekannten Datenpunkten Zeit/Ort circa 95 Prozent aller Menschen identifizieren. Das könnten beispielsweise die Adresse von Privatwohnung, Arbeitsplatz und Geo-Tags von Tweets oder Bildern sein. Mit nur vier solcher Daten kann man in einem riesigen Datensatz die Bewegungen einer Person zuordnen über mehrere Monate nachvollziehen, genau wie das Malte Spitz demonstriert hat.

Das Fazit der Forscher:

These results should inform future thinking in the collection, use, and protection of mobility data. Going forward, the importance of location data will only increase and knowing the bounds of individual’s privacy will be crucial in the design of both future policies and information technologies.

Diese neue Studie reiht sich nahtlos in weitere Forschung zum Thema Geodaten ein:

Auch Polizeibehörden nutzen solche Datenberge, wie die Enthüllungen zur Funkzellenabfrage gezeigt haben. Und spätestens nach der Bundestagswahl wird es auch in Deutschland wieder Forderungen geben, diese Daten anlasslos monatelang zu speichern.

vgwort pixel

flattr this!

Reposted bykrekkurfinn0g02mydafsoup-01
Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl