Einfluß der neuen Informations- und Kommunikationstechnologien auf die Medienfinanzierung

Balázs Bárány, 9606800

609433 Marie-Luise Kiefer: Seminar zum Praxisfeld Medienökonomie, iG-7.3/8.5.3

Handout fürs Referat | Referatsfolien (bzipped PostScript) | LaTex Source | LyX Source

Zusammenfassung:

Es ist im Internet üblich, Inhalte kostenlos anzubieten. Abonnement-basierte Angebote können nur in Ausnahmefällen profitabel betrieben werden. Deswegen dominiert im World Wide Web die Werbefinanzierung; neue Formen der Finanzierung, aber auch der Herstellung der angebotenen Medienprodukte entstehen.

Die Inhaltsanbieter kämpfen energisch gegen die zunehmende Verbreitung unlizenzierter digitaler Kopien, derzeit mit wenig Erfolg. Als Reaktion bereiten sie sich darauf vor, Technologien einzuführen, die die Freiheit und Privatsphäre der KonsumentInnen beschränken. Es ist ungewiß, ob diese Bemühungen Erfolg haben werden.

Für die Untersuchung der Finanzierung und die Folgen der Digitalisierung können häufig Erfahrungen aus dem Bereich der Computer-Software herangezogen werden, da die hierfür relevanten Rahmenbedingungen sehr ähnlich sind.


Inhalt

Heutige Finanzierungsstrategien im Internet

Die Kommerzialisierung des Internet wird durch das Fehlen eines allgemein akzeptierten und verbreiteten Zahlungsmittels aufgehalten. Am häufigsten wird bei Zahlungsvorgängen die Kreditkarte verwendet, aber sie hat einige Nachteile: meist haben sie nur Erwachsene; der Zahlungsvorgang ist kompliziert; für beide Seiten bestehen Risiken. Für Kleinbeträge, wie sie beim Medienkonsum üblich sind, ist die Kreditkartenzahlung daher nur schlecht geeignet.

Das Internet verringert die Kosten der Übermittlung publizierter Inhalte so stark, daß es üblich ist, die meisten Inhalte gratis anzubieten. Was nicht gratis zu haben ist, muß eine bestimmte Preis- und Wertschwelle übersteigen, damit die Kreditkartenzahlung sich lohnt. Für Angebote, deren Preis oder Wert die Schwelle nicht erreicht, kann auf Fremdfinanzierung zurückgegriffen werden.

Diese Fremdfinanzierung kommt meist aus der Werbung; in besonderen Fällen sind aber auch andere Quellen verfügbar.

Werbung

Klassische Bannerwerbung

Praktisch alle Sites, die gratis zugänglich sind und Medien ähneln, verwenden diese Finanzierungsmethode.

Die Werbung wird nur in wenigen Fällen selbst akquiriert: es gibt stattdessen Banner-Netzwerke, die mit den Inhalts-Anbietern Verträge abschließen, die Werbung auf deren Seiten einblenden und z.B. monatlich anhand der vereinbarten Erfolgskriterien (,,Page views'', ,,Click-throughs'') bezahlen.

Die Vielfalt der Webseiten und der Computereinsatz ermöglichen effektivere Zielgruppenorientierung. Während eine Tageszeitung in ihrer Papier-Ausgabe meist Werbung schaltet, die für möglichst große Zielgruppen interessant ist, kann sie online bei jedem Artikel je nach dessen Thema Werbebanner zeigen.

Die ,,fortschrittlichste'' Technologie verwendet die US-amerikanische Firma DoubleClick, eines der ersten Banner-Netzwerke. Hier wird (im Normalfall erfolgreich) versucht, MedienkonsumentInnen eindeutig zu identifizieren, ihre Interessen zu ermitteln und ihnen dann immer Werbung zu zeigen, die sie ,,interessiert''. Diese Methode wird heftig kritisiert, da sie die im Netz übliche Anonymität unterwandert. Als DoubleClick die Abacus-Datenbank mit Daten von 100 Millionen US-Haushalten gekauft hat1, war die Aufregung besonders groß, und sogar die US-Handelsaufsichtsbehörde FTC wurde eingeschaltet.

Die Erfolgsrate von Bannerwerbung (häufig gemessen in ,,Click-throughs'', also der Anteil der BenutzerInnen, die den Banner sehen und darauf klicken) nimmt vielen Untersuchungen zufolge ständig ab und ist bereits 1999 auf 0,15 % gefallen. Die Werbebanner heben sich auffällig vom Inhalt der Seite ab, die BenutzerInnen gewöhnen sich daran und beachten sie unbewußt gar nicht mehr, weil sie lange darauf trainiert wurden, daß das der irrelevante, uninteressante Teil der Seite ist. Die Werber antworten auf diese Gefährdung ihrer Einnahmen mit Untersuchungen, die beweisen sollen, daß die Online-Bannerwerbung Markenbewußtsein aufbauen kann und die fallenden bis kaum vorhandenen Klickraten sowieso irrelevant seien.

Bannerwerbung ist auf Benutzerseite überraschend einfach, fast trivial zu umgehen: da die Werbebilder meist vom Banner-Netzwerk und nicht von der Seite des Informationsanbieters stammen, kann die Software sie leicht ignorieren. Diese Funktionalität ist in einigen, noch nicht sehr populären Browsern bereits eingebaut (iCab und Mozilla). Für die gängigen Browser kann einfach eine lokale Filtersoftware (z.B. JunkBuster oder WebWasher) installiert werden, die die Werbebanner anhand ihrer Adresse oder anderer Eigenschaften ausfiltert. Diese Lösung funktioniert nicht nur für einzelne Computer, sondern auch für ganze Netzwerke.

Natürlich würde es die Finanzierung vieler Gratis-Angebote stark gefährden, wenn solche Methoden sich in großem Maßstab durchsetzen. Dafür gibt es jedoch bis heute keine Anzeichen, obwohl die Werbefilter-Technologie seit mehreren Jahren zur Verfügung steht.

Abonnement

Die Informationsmenge im Web ist so groß, daß es für praktisch alle Inhalte mehrere konkurrierende Anbieter gibt. Die Wahrscheinlichkeit, daß die Konkurrenz nichts kostet, ist groß - abonnement-finanzierte Dienste konnten sich daher nur in Einzelfällen durchsetzen; viel öfter sind sie mit dem Versuch gescheitert und haben auf Werbefinanzierung umgestellt.

Die Chancen stehen vor allem dann gut für die Abo-Finanzierung, wenn es sich um ein bekanntes Medium handelt oder wenn das Angebot tatsächlich einzigartig ist.

Do-it-yourself-Medien

Einige Angebote im Netz schaffen es mit geringsten Kosten, ihr Publikum so einzubinden, daß es sich sozusagen selbst unterhält.

Slashdot2 ist auf diesem Sektor sehr erfolgreich. Es handelt sich um eine ,,News-Site'', die interessante Seiten im Netz sucht und eine Diskussion über die Inhalte ermöglicht. Der Fokus liegt auf Nachrichten zu Internet-, Computer-, Technik- und verwandten Themen. Slashdot versucht gar nicht, objektiv zu erscheinen: der Hang zum Betriebssystem GNU/Linux und die Abneigung gegen Microsoft sind auf den ersten Blick zu erkennen.

Der Aufwand für den redaktionellen Betrieb ist minimal: das Publikum schickt die Adressen zur Veröffentlichung selbst ein; jemand von der Slashdot-Crew schreibt einige Zeilen dazu und setzt sie auf die Hauptseite. Zu erfolgreichen Themen kommen über 2000 Reaktionen3. Um mit der Flut der Kommentare Schritt zu halten, hat Slashdot ein eigenes System zur kooperativen Bewertung von Kommentaren erfunden: die LeserInnen können entscheiden, eine eigene Reaktion zu verfassen oder andere nach ihrer Qualität zu beurteilen (,,moderieren''). Slashdot kam in den ersten weniger als zwei Jahren seines Bestehens (zwischen Herbst 1997 und Frühjahr 1999) auf 100 Millionen Page Views.

Der Effekt der Einbindung der LeserInnen ist sehr interessant und eventuell für den zukünftigen Journalismus richtungsweisend: meist wird im Zuge der Diskussion auf Tatsachen hingewiesen, die im ursprünglichen Artikel falsch oder nicht vollständig ausgeführt sind. ,,Gute'' Kommentare (also ausführliche, rationale, informative, gut durchdachte usw.) werden mit entsprechenden Kennzeichen und/oder Punkten versehen. Nach einigen Stunden reicht es meist, die 5-10 Kommentare mit der höchsten Punktezahl zu lesen, um deutlich besser und umfassender informiert zu sein als aus kommerziellen Medien. Hierfür wird quasi auf das Wissen des Publikums zurückgegriffen, ähnlich dem Modell des ,,peer review'' der Wissenschaft.

Die Idee der LeserInnenbeteiligung wird mittlerweile gerne kopiert, auch von herkömmlichen Medien. Die Online-Ausgabe des Standard4 ermöglicht zum Beispiel auch, die Artikel zu kommentieren. Das ist fürs Medium deswegen interessant, weil es ohne eigenen Aufwand die Attraktivität der Site, die LeserInnenbindung und die Zugriffszahlen erhöht.

Finanzierung über den Kapitalmarkt

Internet-bezogene Aktien sind seit ca. 1998 an den Börsen sehr beliebt (auch wenn es im Frühjahr 2000 zu deutlichen Kurskorrekturen nach unten kam). Der Wert der Anteilspapiere ist wegen der Spekulation vielfach überbewertet, er entspricht nicht den realen Erlöspotentialen der Firmen. So ist es z.B. America Online möglich gewesen, Time Warner aufzukaufen.

Bis in die ersten Monate des Jahres 2000 ist es anscheinend relativ leicht gewesen, eine originelle Idee für ein Web-Angebot vorzulegen, auf die zukünftigen Wachstumschancen und die Werbefinanzierung hinzuweisen und so eine Ausstattung mit Risikokapital und anschließendem Börsengang zu erreichen.

Reine Internet-Firmen sind meistens nicht profitabel, sondern schreiben große Verluste. Das beeinflußt jedoch nicht die Kurse an der Börse; die Verluste werden als Investition in die Zukunft gesehen. Die Argumentation ist, daß ein jetzt erreichter großer Marktanteil später, wenn viel mehr Leute das Internet benutzen, große Gewinne abwerfen wird.

Diese Art der Finanzierung hat interessante Konsequenzen für die angebotenen Inhalte. Ein Medium, das zur richtigen Zeit mit den richtigen Begriffen operiert (z.B. im Sommer 1999 MP3, im Spätherbst 1999 Linux), kann auf der Börse eine enorme Menge Geld aufbringen. Dabei kommt es überhaupt nicht auf Zielgruppen, Tätigkeiten, Erlösstrukturen usw. an; der Börsenkurs von MP3.com explodierte im Sommer 1999 für kurze Zeit: er stieg vom Ausgabepreis 28 US$ am selben Tag auf 105 US$, ist jedoch seitdem ständig gefallen5. Das Unternehmen hatte kurzzeitig einen Wert von 1,8 Milliarden US-Dollar, mit nur 1,9 Millionen Dollar Einnahmen und 6,5 Millionen Verlust im zweiten Quartal 19996. MP3.com bietet nach eigenen Angaben eine Viertelmillion Musikstücke von über 50.000 KünstlerInnen - mit ihrer Erlaubnis - zum freien Download im Internet an und erzielt pro Tag eine Million Besuche von SurferInnen. Geld fließt nur dann, wenn KünstlerInnen für die Promotion ihrer Werke zahlen oder KonsumentInnen sich CDs aus dem Angebot von MP3.com zusammenstellen, sowie aus Banner-Werbung.

Die GNU/Linux-Firmen, die ebenfalls mit Rekord-IPOs (Initial Public Offering, Börsengang) auffielen, verschenken ihre Software und verdienen ihr Geld mit Dienstleistungen (zum Beispiel Red Hat) oder Hardware-Verkäufen (VA Linux Systems). Damit fällt jedoch der für große Gewinne notwendige Multiplikator-Effekt herkömmlicher Software-Entwicklung weg, jeder Dollar muß erarbeitet werden.

Durch den irrationalen Anstieg des Börsenwertes können erfolgreiche Internet-Firmen Mittel aufbringen, aus denen sie ,,echte'' Unternehmen erwerben können: der Aufkauf von Time Warner durch America Online ist ein gutes Beispiel dafür.

Der Hype um die Internet-Werte scheint seit Frühjahr 2000 abzuflachen. Trotzdem wurden Unternehmen, die noch nie in ihrer Geschichte profitabel waren und es wahrscheinlich auch nie werden, mit reichlich Kapital (z.B. für den mehrjährigen völlig unabhängigen Betrieb des Mediums) ausgestattet.

Freie Inhalte als Folge der verringerten Übertragungskosten

Wenn im folgenden über ,,freie'' Inhalte die Rede ist, ist damit mehr als ,,gratis'' gemeint. Freie Inhalte zeichnen sich dadurch aus, daß sie explizit zum Kopieren freigegeben sind; das ist bei ,,einfachen'' Gratisprodukten nicht immer der Fall.

Der Kaufpreis eines Medienprodukts deckt dessen Entstehung und Verbreitung ab. Die ,,Entstehung'' des Medienprodukts ist die kreative Leistung einer Person oder einer Gruppe. Da Kreativität Spaß machen kann, sind Leute manchmal auch ohne finanzielle Vergütung kreativ und schaffen Werke. Wenn es nun (praktisch) nichts mehr kostet, die Werke zu vertreiben, und die Kreativen von ihren Werken überzeugt sind, ist es für sie logisch, sie ohne Einschränkungen zu verbreiten. (Die daraus gewonnene Popularität kann später manchmal finanziell ausgewertet werden.)

Natürlich beeinflussen auch die Produktionskosten die ,,Verschenkbarkeit'' der Werke. Deswegen gibt es viel freie Literatur und Software, aber nur wenige freie Filme - für einen Film ist der Aufwand viel größer und mehr Leute müssen mitmachen.

Es gibt noch einen Grund für die Herstellung freier Inhalte: die Abwendung von kommerzieller Massenkultur. Leute, deren Bedürfnisse am Markt nicht erfüllt werden, haben mit dem Internet die Möglichkeit, sich miteinander auszutauschen und so ihre Kreativität zusammen zu entfalten. Freie Software ist ein verbreitetes Beispiel; es gibt aber auch Initiativen wie ,,kooperatives Schreiben'' ,,Netzkunst'' und ,,Open Law''.

Für werbefinanzierte Medien, die ihrer zahlenden Kundschaft (der Werbewirtschaft) ja nur die Aufmerksamkeit und Zeit der KonsumentInnen anbieten können, sind freie Inhalte (eigentlich jede andere Freizeit-Beschäftigung) eine große Bedrohung: die Werbung ist nur an Kontakten interessiert; wenn deren Zahl abnimmt, wird den Medien die Finanzierung entzogen. (In Aldous Huxleys ,,Brave New World'' ist aus ähnlichen Gründen die Ausübung von Freizeit-Beschäftigungen, die nichts kosten, streng verboten.)

Es ist extrem schwierig, am Markt mit freien Inhalten zu konkurrieren. Sie halten sich sozusagen nicht an die Regeln des Marktes. Das führt mittel- oder langfristig zu einer Art Lohndumping: diejenigen setzen sich am Markt durch, die für weniger Geld (oder kein Geld) bereit sind, Inhalte anzubieten. Für Leute, die aus dem Verkauf geistigen Eigentums leben, sind das schwierige Bedingungen, aber sie haben keine Handhabe dagegen.

Oft wird behauptet, daß freie Inhalte qualitativ besser sind als ihre kommerzielle Konkurrenz. Für freie Software scheint das zu gelten: unabhängige Untersuchungen zeigen häufig, daß Zuverlässigkeit und Leistungsfähigkeit z.B. von GNU/Linux höher sind als von Microsoft Windows. Das liegt einerseits daran, daß für die Free-Software-AutorInnen genau dies die wichtigen Kriterien sind (Marketing dafür weniger), andererseits an der höheren Transparenz des Systems - alle Interessierten können Verbesserungen beisteuern und Fehler verbessern.

Bei Kunst ist es natürlich nicht möglich, die Qualität nach objektiven Kriterien zu messen. Es scheint jedoch einleuchtend, daß die Vielfalt freier Inhalte höher ist als am kommerziellen Markt - der Markt orientiert sich an finanziellen Kriterien; ,,mehr vom selben'' ist anscheinend meist ertragreicher als die Förderung der Vielfalt.

Freie Computersoftware

Computersoftware war das erste ,,digitale Medienprodukt'', dessen Verbreitungskosten gegen 0 gingen. Es gab daher schon ziemlich früh einzelne Programme, die zum Kopieren freigegeben waren (zum Beispiel Projekte von Universitäten, die sie gemeinsam zu Unterrichtszwecken entwickelt hatten). 1984 wurde die Free Software Foundation gegründet7, um die Entwicklung Freier Software systematisch anzugehen.

Es kann heute gar keinen Zweifel mehr geben, daß Freie Software existiert und für den Markt relevant ist. Mehr als 60 % der Webserver weltweit laufen mit einem Programm namens Apache8, selbst Branchenführer Microsoft verwendet das freie Betriebssystem FreeBSD für seinen Dienst ,,Hotmail''9. Diese Arbeit entsteht auch vollständig mit freier Software.

Es gibt viele Gründe, warum freie Software angeboten wird: das klassische Beispiel sind Universitäten; dann kommen Privatpersonen, denen das Programmieren einfach Spaß macht. In einzelnen Bereichen haben sogar Firmen festgestellt, daß es in ihrem finanziellen Interesse liegt, ihre Software zu verschenken.

Im Markt für EndverbraucherInnen hat sich Freie Software noch nicht durchgesetzt: da Quasi-Monopolist Microsoft und die anderen großen Anbieter über enorme Geldmengen für Werbung verfügen, ist die ,,Sichtbarkeit'' der freien Lösungen am Markt viel geringer.

Leute, die Freie Software entwickeln, werden entweder direkt dafür bezahlt (z.B. an Universitäten oder bei GNU/Linux-Firmen) oder sie erwerben mit ihrer Freizeit-Beschäftigung Fähigkeiten, die sie in der Industrie gewinnbringend anwenden können. Es ist nicht bekannt, daß auch nur eineR von ihnen hungern müßte.

Freie Texte

Es gab schon immer frei kopierbare Texte: bei manchen Textformen (z.B. Flugblätter) ist es sogar erwünscht, sie weiterzugeben.

Viele Leute möchten ihre Gedanken äußern, werden aber von kommerziellen Publikationsformen wegen fehlender Markttauglichkeit nicht bedient. Mit dem Abnehmen der Verbreitungskosten haben sie Computernetzwerke für ihre Bedürfnisse entdeckt.

Klassiker, die nicht mehr urheberrechtlich geschützt sind, stehen zum Beispiel im Projekt Gutenberg zum freien Herunterladen bereit.

Wissenschaftliche Veröffentlichungen

WissenschaftlerInnen sind normalerweise daran interessiert, ihre Arbeit der Öffentlichkeit zur Verfügung zu stellen, das ist ja schließlich der Sinn von Forschung. Wissenschaftliche Verlage leben vom Verkauf solcher Information, sie können aber nur (wie am Buchmarkt) eine bestimmte Menge davon veröffentlichen und verkaufen. Was übrigbleibt, geht heute immer öfter ins Internet, anstatt in einem Archiv zu verschwinden (vgl. z.B. die internationalen Bestrebungen, Diplomarbeiten und Dissertationen im Netz zu publizieren).

Freie Musik

Musik hat als alte, unaufwendige und sehr beliebte Kunstform gute Voraussetzungen für die freie Verbreitung. MP3.com bietet nach eigenen Angaben10 über 250.000 Songs von 50.000 KünstlerInnen gratis zum Herunterladen an und beteiligt die erfolgreicheren MusikerInnen (gemessen in Downloads) auch an den Einnahmen, die die Werbung auf den Seiten einbringt.

Auch berühmte Vertreter einiger Musikrichtungen (z.B. Punk und Rap) haben sich bereits für die freie Verbreitung ihrer Musik ausgesprochen. Das liegt daran, daß sie wegen ihrer systemkritischen Texte von den Plattenfirmen sehr schwer angenommen und nicht gefördert werden - sie wollen aber ihre Inhalte verbreitet wissen. Das hat in Vergangenheit zur Gründung eigener Plattenfirmen durch RapperInnen geführt; heute gibt es auch die Möglichkeit, sich übers Internet bekannt zu machen und dann aus Merchandising, Konzerten usw. Geld zu verdienen.

Software als Parallele zu digitalisierten Medieninhalten

Wenn wir nur den Markt für Ton- und Videoaufzeichnungen betrachten, können wir über die Folgen der Digitalisierung nur raten. Es gibt jedoch einen Bereich, der seit Jahrzehnten existiert und von Anfang an mit digitalen Inhalten und Computern konfrontiert war: die Software-Industrie.

Software war schon immer auf Computer angewiesen und mußte maschinenlesbar existieren. Sie war daher im Normalfall frei kopierbar.

Anfangs gab es z.B. in den USA gar keinen Copyright-Schutz für Software und nicht einmal ein Bewußtsein dafür: Programme wurden als mathematische Formeln angesehen, die keine eigene intellektuelle Leistung darstellen. (Genauer gesagt: die ersten Programme waren tatsächlich umgesetzte mathematische Formeln.) Außerdem waren sie nur Beigabe zu den (damals sehr teuren) Computern und liefen nicht ohne sie; niemand kam auf die Idee, die Software auf andere Computer zu bringen, da mensch gar keinen Computer ohne Software kaufen konnte.

Der Schutz ist natürlich später in den meisten Ländern eingeführt worden, sogar stärker als bei anderen urheberrechtlich geschützten Werken: bei Software ist auch privates Kopieren verboten, das bei Audio und Video ja unter Fair Use fällt und explizit erlaubt ist.

Die Software-Industrie kämpft gegen das Kopieren ihrer Produkte, seit Software für Privatleute interessant geworden ist. Einige ihrer Methoden können für die digitale Verbreitung von Ton- und Videowerken herangezogen werden.

Gemeinsame Eigenschaften von Medien und kommerzieller Computersoftware

Wenn Inhalte digitalisiert werden, können wir also - unter Beachtung der Unterschiede - aus den Erfahrungen mit dem Verkauf von Software ausgehen.

Folgen der Digitalisierung ,,analoger'' Medieninhalte

Die Digitalisierung benötigt Computer in der einen oder anderen Form (auch wenn es von außen nicht sichtbar ist, sind digitale Wiedergabegeräte in ihrem Inneren spezielle Computer). Computer lassen sich immer mit endlichem Aufwand durch andere Computer nachbilden. Deswegen gelten für alle Geräte mit Computer-Kern die selben Voraussetzungen.

Eigenschaften digitaler Dokumente

Duplizierbarkeit

Jede von einem Computer lesbare Datei kann innerhalb des Systems frei kopiert werden - das ist Voraussetzung für ihre Benutzung. Üblicherweise wird die Datei ganz oder teilweise von einem permanenten Massenspeicher (Festplatte) in den ,,flüchtigen'' Arbeitsspeicher kopiert.

Da die Duplizierbarkeit in der Funktionsweise von Computern begründet ist, läßt sie sich nicht einfach vermeiden. Kopierschutzmaßnahmen müssen daher auf einer anderen Ebene ansetzen.

Übertragbarkeit

Daten, die im Computersystem vorliegen, können über standardisierte Wege (zum Beispiel übers Internet) identisch an andere Computer übertragen werden.

Fürs Internet sind unzählige Übertragungsmechanismen (sogenannte ,,Protokolle'') entwickelt worden, die sich jeweils für ein Aspekt des Datenaustausches eignen.

Die meisten Protokolle können optional verschlüsselt werden. Das bedeutet, daß übers Kabel nur zufällige Bitfolgen übertragen werden; die einzigen Computer, die den Inhalt lesen können, sind die beteiligten Kommunikationspartner an den Enden der Leitung. Mit guten Verschlüsselungsalgorithmen und ausreichender Länge der kryptographischen Schlüssel ist die Kommunikation für Dritte nicht (mit vernünftigem Aufwand) zu entziffern. Es ist daher nicht möglich, z.B. an Staatsgrenzen eine Überwachung der übertragenen Inhalte einzuführen, wie es z.B. die Schallplattenindustrie in Deutschland mit dem ,,Rights Protection System'' forderte11.

Konvertierbarkeit

Als Konvertierung bezeichnet mensch das Umwandeln von Daten von einem ,,Format'' in ein anderes. Datenformate sind Definitionen der Form und Bedeutung von einzelnen Bereichen einer Computer-Datei. Die Voraussetzung für die Konvertierung ist die Kenntnis beider Datenformate (Ausgangs- und Ziel-Format).

Computer-Dateien können neben ihren Nutzdaten (z.B. Musik in einer MP3-Datei) und Metadaten (z.B. Informationen über den Inhalt: Titel, AutorIn, Bezugsquelle, Copyright-Bestimmungen) auch Daten über die zugelassenen Nutzungsarten enthalten, z.B. ,,nicht kopierbar'' oder ,,nicht ausdruckbar''. Solche Daten werden üblicherweise mit kryptographischen Methoden (Verschlüsselung) geschützt.

Im Zuge einer Konvertierung muß für jede Datenart eine eigene Behandlung geschrieben werden. Die konvertierende Software (bzw. ihre AutorInnen) entscheidet, welche Daten wie berücksichtigt werden. Zum Beispiel ist im MP3-Format ein ,,Copyright-Bit'' vorgesehen, das von verbreiteter MP3-Abspielsoftware jedoch ignoriert wird.

Es gibt ,,standardisierte'' und ,,proprietäre'' Datenformate:

standardisierte Formate
basieren auf veröffentlichten Algorithmen und Beschreibungen. Sie sollen verhindern, daß das Rad jedes Mal neu erfunden werden muß. Da alle technischen Details offen stehen, können mehr Leute an der Weiterentwicklung mitarbeiten und eventuelle Fehler finden und beheben.
AnwenderInnen profitieren von standardisierten Formaten: sie können zu anderen Programmen oder Computersystemen wechseln; sie können die Dateien besser nach den eigenen Bedürfnissen verwenden; sie können sich darauf verlassen, daß es später möglich sein wird, die Daten in neuentwickelte Formate zu konvertieren.
proprietäre Formate
sind Geheimnisse ihrer Hersteller. Manchmal steckt in der Entwicklung auch etwas Innovation, zum Beispiel Patente oder eigene Forschung; häufig handelt es sich jedoch nur um den Versuch, einen Markt zu monopolisieren.
Proprietäre Formate haben gelegentlich den Vorteil, daß sie besser arbeiten als standardisierte, z.B. lassen sich Videodaten mit dem proprietären Sorensen-Verfahren (ausschließlich im QuickTime-Videoabspielprogramm der Firma Apple verwendet) besser komprimieren und somit schneller übers Internet übertragen.
Dem stehen große Nachteile für die KonsumentInnen gegenüber: Sie sind auf die Abspielprogramme des Herstellers angewiesen und können nicht wählen, unter welcher Computerplattform und wie sie mit den Dateien arbeiten. Zum Beispiel kann ein DVD-Hersteller festlegen, daß die Schnell-Vorwärts-Funktion des Abspielers deaktiviert ist - Werbeblöcke können so nicht übersprungen werden.
Vor allem für Archive, aber auch für die Wissenschaft und private Verwendung ist problematischer, daß Dokumente in proprietären Formaten auf ein System festgelegt sind; sie können nur dann (z.B. auf moderneren Systemen) weiterbenutzt werden, wenn der Hersteller eine Konvertierfunktion anbietet. Wenn es den aber nicht mehr gibt, sind die Inhalte entweder unwiederbringlich verloren oder im besten Fall mit großem Aufwand rekonstruierbar.
Wenn ein proprietäres Format sich zu sehr verbreitet, versuchen andere, es zu entschlüsseln und zu dokumentieren. Zum Beispiel sind Textdokumente im Microsoft Word-Format lange Zeit nicht auf Computern benutzbar gewesen, die nicht die neueste Version von Word hatten. Für Microsoft war das natürlich sehr bequem, ihre heute auch gerichtlich verfolgte Monopolstellung ist zum Teil auf proprietäre Datenformate zurückzuführen.

Da Word-Dokumente sehr verbreitet sind, gab es mehrere voneinander unabhängige Versuche, das Format zu entschlüsseln. Sie waren letztendlich erfolgreich, Textverarbeitungsprogramme auf diversen Computersystemen können heute das Word-Format lesen und oft auch schreiben.

Für die längerfristige Archivierung von Dokumenten sind proprietäre Formate völlig ungeeignet. Zum Beispiel können die Dateien von Word 2.0 aus 1991 heute nur mehr mit einem gesondert zu installierenden Konverter in aktuelle Versionen von Word eingelesen werden.

Beim reverse engineering eines proprietären Formats werden häufig dessen Beschränkungen umgangen, wenn sie nicht klug genug implementiert oder nur durch die Geheimhaltung geschützt waren. Zum Beispiel bietet das verbreitete Dokumentanzeigeprogramm Adobe Acrobat die Möglichkeit, das Drucken oder das Kopieren aus einem Dokument zu unterbinden - freie Implementierungen aus anderen Quellen (die zudem noch für mehr Computersysteme existieren) kümmern sich jedoch nicht um diese Beschränkungen. In diesem Fall sind also die AnwenderInnen des Originalprogramms stark benachteiligt - die ErstellerInnen, weil ihre Schutzinteressen nicht erfüllt werden, und die KonsumentInnen, weil sie unnötig beschränkt werden.

Ebenso existiert Software von Drittherstellern, die die (völlig unzulängliche) Verschlüsselung von Word-Dokumenten aufhebt.

Gründe für die Digitalisierung

Sowohl der professionelle als auch der Amateur-Markt verlangen nach immer besserer Qualität bei der Ton- und Bildwiedergabe, auch nach vielen Kopieraktionen, die für die Endaufbereitung der Medieninhalte nun einmal notwendig sind. Die Digitaltechnologie garantiert das, weil die Daten genau reproduzierbar und vergleichbar sind. Die unbeschränkte Kopierbarkeit, die für die Produktion der Inhalte unerläßlich ist, macht jedoch die unkontrollierte Verbreitung derselben leichter. Bei digitalen Kopien ist auch die tausendste Kopie-Generation noch mit der ersten identisch; bei den analogen Musik- und Videokassetten ist die Qualität schon nach wenigen Kopieraktionen deutlich schlechter.

Auf den ersten Blick wäre es der Inhalts-Industrie möglich, für die Produktion Digital- und für die Verbreitung Analogtechnologie zu verwenden. Aber das würde nichts nützen: ab einem (technischen) Qualitätsniveau ist die Digitaltechnologie einfacher herzustellen und zu handhaben, analoge Geräte sind nicht mehr konkurrenzfähig; und der Fortschritt der Computertechnologie erfordert sowieso die Digitalisierung. Die Content-Anbieter haben daher keine Wahl: sie müssen auf Digitaltechnologie umsteigen, sonst tut es jemand anderer, der dann aber die Formate und Rahmenbedingungen der Verbreitung kontrolliert.

Selbst wenn die Industrie den Rückschritt wagt und nur mehr analoge Medienformen anbieten würde (z.B. wieder Kassette statt der CD), gäbe es genügend Leute, die die Inhalte digitalisieren würden. Analoge Aufzeichnungen lassen sich kaum schützen, die Technologie ist aber gut genug, um eine (und in Folge unendlich viele) digitale Kopie(n) herzustellen.

Unauthorisiertes Kopieren digitaler Dokumente in Computernetzen

Netzwerke wie das Internet wurden geschaffen, um zwischen Computersystemen Informationen zu übertragen. Dabei wird die Information meistens vervielfältigt, d.h. sie verbleibt auf dem Ursprungsrechner, am Zielrechner entsteht eine Kopie.

Die Entwicklung der Technologie ermöglicht, immer mehr Daten immer schneller zu kopieren. Die Publikationskosten gehen Richtung Null, egal ob nur eine Kopie oder Millionen davon verbreitet werden.

Es gibt auch keine technische Beschränkung der verbreitbaren Inhalte. Der Computer kann nicht unterscheiden, ob ich meine eigene Proseminararbeit oder Shakespeare's King Lear übers Netz verschicke.

Es war in Computernetzwerken (z.B. Bulletin Board Systemen) von Anfang an, also noch bevor das Internet seine heutige Popularität erreicht hat, üblich, urheberrechtlich geschütztes Material zu verbreiten. (Ich werde auch im Folgenden das Wort ,,illegal'' vermeiden. Die Urheberrechtsgesetze des vordigitalen Zeitalters regeln in vielen Fällen nicht eindeutig, was erlaubt und nicht erlaubt ist. Genauso werde ich ,,Piraterie'' und ,,miteinander teilen'' in bezug auf Information nicht verwenden, da beide der Rhetorik parteiischer Gruppen entstammen. Sie sind für einen Text mit wissenschaftlichem Anspruch nicht geeignet. Die Wörter, die die Verbreitung digitaler Information genau beschreiben, sind ,,Kopieren'' und ,,Vervielfältigen''.)

Kopiert wurden immer die Daten, die dem Stand der Informationstechnologie entsprachen. Anfangs waren das also Programme und Textdateien mit Information; für andere Arten von Dokumenten waren die damaligen Computer (mangels Grafik- und Tonfähigkeiten) nicht geeignet.

Bis zur Mitte der 90er Jahre trafen sich zwei Entwicklungen: einerseits wurden die Computer so leistungsfähig, daß sie auch Material, das für einen Großteil des Publikums interessant war (also Bilder und Musik), verarbeiten konnten; andererseits wurden sie zunehmend vernetzt.

Alle zur Informationsübertragung geeigneten Verfahren wurden und werden für die Verbreitung urheberrechtlich geschützten Materials verwendet; aber auch komplett neue Verfahren zu diesem Zweck wurden entwickelt. Im Folgenden gebe ich einen Überblick über die wichtigeren Bereiche und ihre speziellen Eigenschaften, die sie für die Verbreitung urheberrechtlich geschützten Materials mehr oder weniger geeignet machen.

FTP, File Transfer Protocol

Das FTP-Protokoll wurde 1985 entwickelt12. Es ist trotz seines Alters und einiger ungeschickter Design-Überlegungen heute noch sehr beliebt und häufig in Verwendung.

Eine der interessanten Eigenschaften ist die Möglichkeit, anonymen Zugriff zu erlauben. Mit der Einrichtung von Anonymous FTP Servern begann überhaupt das ,,Publizieren'' im Internet. Damals wurden, dem Schwerpunkt des Netzes entsprechend, vor allem forschungsbezogene Informationen, Publikationen, Papers, Entwürfe, aber auch Software und deren Quellcode ausgetauscht. Zu dieser Zeit waren (außer Software) sehr wenige urheberrechtlich geschützte Werke in digitaler Form vorhanden, und die Übertragungsgeschwindigkeiten waren niedrig; die BenutzerInnen beschränkten sich auf Inhalte, die sie brauchten.

Heute arbeiten viele FTP-Server, die urheberrechtlich geschütztes Material enthalten, nicht mehr mit anonymem Zugriff, da die Übertragungskapazität meist teuer ist (wer beliebte und gesuchte Inhalte zum Herunterladen anbietet, bekommt sehr viele Anfragen) und es sich nur wenige Leute leisten können, solche Server zu betreiben und gleichzeitig das Risiko der Entdeckung zu tragen.

Statt des einfachen anonymen Zugriffs hat sich daher das ,,Ratio''-System durchgesetzt. Das Ratio ist das Verhältnis zwischen herunter- und hinaufgeladenen Bytes. Wer vom Server Material bekommen will (zum Beispiel Kopien kommerzieller Software oder von Musikdateien), muß vorher aus dem eigenen Bestand etwas raufladen. Das ist eine Art Tausch-Ökonomie, beide Beteiligten haben etwas davon. Natürlich läßt sich schummeln, indem jemand beliebigen Daten einen wohlklingenden Namen gibt und diese rauflädt, aber offensichtlich passiert das nicht in so großem Maßstab, daß das System daran kaputtgehen würde.

FTP-Server haben eine ,,Schwäche'': sie müssen physisch irgendwo stehen, ihre Adresse läßt sich nicht verbergen. Die Patrouillen der Copyright-Agenturen können sie daher leicht finden; und Internet-Provider leiden unter dem konzentrierten Datenverkehr, also kooperieren sie gerne, wenn solche Server auffliegen. Deswegen bestehen Server mit kopierten Inhalten häufig nur einige Stunden lang unter einer Adresse und gehen dann wieder offline, um mit einer anderen Adresse wieder aufzutauchen.

Usenet News

Das Usenet13 wurde eingeführt, um Diskussionen über alle möglichen Themen zu ermöglichen. Es bietet thematisch geordnete, sogenannte Diskussionsforen (Newsgroups), zum Beispiel ,,sci.chemistry'' oder ,,at.univie.publizistik''. Das Protokoll ist so definiert, daß die beteiligten Server automatisch Nachrichten untereinander austauschen. Die Endbenutzer haben meist die Newsserver in ihrer (netzwerktechnischen) Nähe und können relativ schnell auf die weltweit geschriebenen Nachrichten zugreifen.

So wie e-mails können News-Beiträge auch beliebige Dateianhänge enthalten. Daher sind einige Newsgroups schon 1995, also relativ früh, aufgefallen, weil sie (für damalige Verhältnisse) viel pornographisches Material enthielten - völlig ohne Zugangskontrolle.

Newsgroups sind auch heute sehr beliebte Träger copyrightgeschützten Materials, es gibt Gruppen, die offen auf ihren Inhalt zuweisen, zum Beispiel die mp3- oder warez-Gruppen. (,,Warez'' ist Slang für kopierte Software.)

Theoretisch sind die Leute, die Material ins Usenet stellen, meistens identifizierbar. Das ist jedoch auch für ExpertInnen arbeitsintensiv, also werden nur die größten Copyright-Verletzungen verfolgt.

Hypertext Transfer Protocol, HTTP

HTTP14 wurde um 1990 entwickelt. Es war anfangs für die Verbreitung von verbundenen Dokumenten, eben Hypertext, gedacht, aber das Konzept konnte so erweitert werden, daß das World Wide Web heute (neben e-mail) die dominierende Anwendung im Netz ist.

HTTP ist sehr einseitig orientiert: im Vordergrund steht das Publizieren; Übertragung in die andere Richtung (,,Heraufladen'') ist möglich, wird aber selten verwendet. Die Beschränkungen von FTP, also der starke Datenverkehr und die Auffindbarkeit des Servers gelten auch hier, aber meist ohne Upload-Möglichkeit. Daher gibt es meiner Erfahrung nach nicht so viel unauthorisiert kopiertes Material im World Wide Web wie in Newsgroups oder auf FTP-Servern.

Es gibt allerdings eine Nische: Gratis-Webspace-Anbieter. Einige Unternehmen bieten Privatpersonen die kostenlose Möglichkeit, bei ihnen eine Homepage zu publizieren; die Finanzierung erfolgt über eingeblendete Werbung. Diese Server verfügen meist über starke Internet-Anbindungen und sind daher für die massenhafte Verbreitung von Daten interessant. Die AnbieterInnen des kopierten Materials legen sich daher anonym Homepages an und platzieren ihre Daten dort. Die Anbieter können jedoch, wenn sie über gute Werkzeuge verfügen, relativ schnell die Ursache des gestiegenen Datenverkehrs eruieren und die (gegen ihre Richtlinien verstoßenden und sie in Gefahr bringenden) Dateien löschen.

Napster

Napster wurde Mitte 1999 entwickelt, mit dem kaum verborgenen Zweck, MP3-Dateien (digitale Kopien von Musik, kaum vom CD-Klang unterscheidbar) auszutauschen. Das Programm erlaubt tatsächlich nur, Dateien mit der Endung .mp3 zu übertragen. Es funktioniert mit einem proprietären (aber nach kurzer Zeit entschlüsselten) Datenübertragungsprotokoll. Die NutzerInnen bieten ihre eigenen MP3-Dateien zum Herunterladen an und können dafür von anderen runterladen. Außerdem gibt es eine Funktion, mit anderen BenutzerInnen in Kontakt zu treten und zu ,,chatten''.

Beim Anmelden überträgt das Napster-Programm die Liste der eigenen Dateien an den Server. Beim Suchen greift der Server auf diese Datenbestände zurück und kann so schnell Suchergebnisse liefern.

Napster wurde sehr schnell populär und schon nach einigen Monaten wurde die RIAA (Recording Industry Association of America) aufmerksam und verklagte Napster (eine Firma mit einem einzigen Gratisprodukt) auf Schadenersatz in Milliardenhöhe. Der Ausgang des Verfahrens ist noch offen. Napster verteidigt sich damit, selbst keine urheberrechtlich geschützten Inhalte anzubieten und nur das besonders effizient zu machen, was mit anderen Technologien vorher schon möglich war.

Die Kontroverse wird von großem Medieninteresse begleitet und bietet kostenlose Werbung für Napster. Die Anzahl der BenutzerInnen ist nicht leicht zu eruieren, bewegt sich aber mit größter Wahrscheinlichkeit in Millionenhöhe. Anfang Mai 2000 wurden 317.37715 NutzerInnen vom Dienst ausgeschlossen, weil sie Lieder der Hard-Rock-Band Metallica zum Tausch anboten. Es gibt jedenfalls Hunderte von Servern, manche mit über 5.000 gleichzeitigen BenutzerInnen.

Das Original-Napster-Programm hat eine große Schwäche: es ist von den zentralen Napster-Servern abhängig. Diese werden jedoch mit höchster Wahrscheinlichkeit abgedreht, sobald eine Gerichtsentscheidung Napster dazu zwingt. Diese Gefahr wurde von anderen schnell erkannt und sie riefen nach Entschlüsselung des Napster-Protokolls die Initiative OpenNap ins Leben. Heute gibt es ein Netzwerk von Napster-kompatiblen Servern in verschiedenen Ländern, der (in der Informatik unbeliebte) ,,single point of failure'' ist daher ausgeschaltet.

Die BenutzerInnen sind nicht anonym; ihre Verbindungsdaten, z.B. die Adresse ihres Computers werden zum Server-Betreiber übertragen. Napster und auch die Betreiber von offenen Servern in einigen Ländern können wahrscheinlich gerichtlich gezwungen werden, diese Daten für Strafverfolgung herauszugeben.

Schon am Beginn der gerichtlichen Verfolgung wurde vorhergesagt, daß der Druck auf Napster nur dazu führen wird, daß entsprechend motivierte Leute Programme schreiben, die die Schwächen von Napster nicht mehr haben.

Juristische Probleme waren nicht die Einzigen, mit denen Napster konfrontiert war: an amerikanischen Universitäten, deren Studierende offensichtlich besonders eifrige Napster-BenutzerInnen sind, haben die AdministratorInnen in einigen Fällen den Einsatz blockiert. Begründet wurde das neben dem Druck der Plattenindustrie mit dem exorbitanten Datenverkehr: manche Unis fielen plötzlich in eine höhere Übertragungskategorie und mußten für ihren Internet-Zugang mehr zahlen. Napster hat dann angekündigt, das Programm in einer nächsten Version so zu modifizieren, daß (netzwerktechnisch) ,,nähere'' Computer gesucht werden, auf denen die gewünschte Datei liegt.

Gnutella

Gnutella16 begann als Privatprojekt von Angestellten einer Firma, die früher ein erfolgreiches MP3-Musik-Abspielprogramm geschrieben hat und dann von America Online/Time Warner (Besitzer von mehreren Plattenfirmen) aufgekauft wurde. Am 14. März 2000 wurde eine größere Öffentlichkeit informiert und die AOL-Führung aufs Programm der eigenen Angestellten aufmerksam. Nur zwei Tage später entschied AOL, Gnutella vom Original-Server zu nehmen und die Original-Autoren zu verpflichten, die Sache nicht mehr zu verfolgen. Das hat aber nur zu noch mehr Publizität geführt. Der Quellcode (Befehle in einer für Menschen verständlichen Programmiersprache) war mittlerweile hinreichend verbreitet und andere17 haben die Weiterentwicklung umgehend aufgenommen. Ende Mai 2000, also nur 10 Wochen später, gibt es schon Versionen für unterschiedliche Computersysteme und ein Netz von tausenden TeilnehmerInnen (die genaue Zahl läßt sich wegen der Funktionsweise des Programms nicht ermitteln).

Das Gnutella-System verfolgt einen anderen Ansatz als Napster. Es gibt keine zentralen Server mehr, jedes Gnutella-artige Programm ist gleichzeitig Server und Client. Die Suchfunktion ist so realisiert, daß jede Suche an alle bekannten ,,Partner'', also andere Computer mit Gnutella, weitergereicht wird; diese geben zurück, was sie finden und leiten die Suchanfrage weiter. Suchanfragen belasten das Netz deshalb relativ stark, dafür fällt der Bedarf an zentralen Servern weg. Es wird sich noch zeigen müssen, ob Gnutella skalierbar genug ist, um viel mehr TeilnehmerInnen als heute zu unterstützen.

Gnutella ist nicht auf MP3s beschränkt, es kann z.B. auch digitalisierte Videos, Textdokumente, Bilder oder Software übertragen. Für Leute, die sich nicht ausschließlich für Musik interessieren, ist es daher besser geeignet als Napter. (Es gab auch schon relativ früh Berichte, daß Kinderpornographie aufgetaucht ist - aber sie ist nur durch gezieltes Suchen zugänglich.)

Die konkrete Übertragung der gefundenen Dateien passiert mit dem HTTP-Protokoll vom Server, der die Datei bereithält. Das bedeutet, daß die Adresse des Computers, der die Daten anbietet, bekannt ist: dies ist eine Möglichkeit, an die Identität der Person heranzukommen und sie gegebenenfalls gerichtlich zu verfolgen.

Gnutella scheint derzeit deutlich weniger verbreitet zu sein als Napster, hat aber wegen der erwähnten technischen Vorteile, der weltweiten Entwicklung, der Unabhängigkeit von einer zentralen Firma und des großen Medieninteresses großes Potential. Praktisch jeder Medienbericht erwähnt es als unkontrollierbare Alternative zu Napster.

Andere Napster- und Gnutella-artige Systeme

Napster hat das Anbieten von MP3s nicht als erster erfunden. Es gab teilweise schon vorher Systeme, die das ermöglicht haben, z.B. Scour.Net. Seit dem Erfolg von Napster wurden auch andere ähnliche Programme im Freeware-Bereich geschrieben.

Diese Alternativen haben sich jedoch anscheinend (genaue Statistiken gibt es natürlich nicht, wir können nur das Medieninteresse als Kriterium heranziehen) nicht so weit verbreitet. Und niedrige Verbreitung bedeutet, daß im Netz weniger Daten zur Verfügung stehen und es daher nicht so attraktiv ist wie die ,,erfolgreichen'' Napster und Gnutella.

Technisch funktionieren sie meist ähnlich wie Napster und Gnutella bzw. mischen die Ideen von beiden.

Große Verbreitung könnte eventuell ein Programm finden, das auf bequeme Weise Zugriff auf Napster- und Gnutella-Inhalte bietet; andere Alternativen werden vermutlich mangels Interesse verschwinden.

Es gibt auch schon Lösungen, die über eine World Wide Web-Schnittstelle das Beziehen von Dateien aus Napster- oder Gnutella-Netzen erlauben - damit entfällt sogar die Installation der Client-Software und die damit verbundene Identifizierbarkeit der eigenen IP-Adresse.

FreeNet

FreeNet begann als Diplomarbeitsthema18 eines irischen Studenten: Er wollte ein System schaffen, das Zensur völlig unmöglich und die Informationsverbreitung möglichst effizient macht. Die konkreten Ziele sind:

FreeNet ist noch in Entwicklung (als Freie Software19). Wegen des frühen Status sind noch nicht alle Ziele vollständig erreicht (zum Beispiel werden die Dateien noch nicht verschlüsselt gespeichert), aber das Programm ist schon benutzbar und mit jeder Version näher an der Spezifikation.

Die Philosophie hinter FreeNet ist, daß alle Informationen effizient und ohne Möglichkeit der Unterdrückung weitergegeben werden können. Dabei wird bewußt in Kauf genommen, daß darunter auch Copyright-Verletzungen und fragwürdiges Material wie Bombenbastel-Anleitungen fallen können - für den Computer ist das alles nur Information; es soll jedem Menschen frei stehen zu entscheiden, welche Informationen er/sie haben will und sie dementsprechend abrufen oder ignorieren. Aus dieser Sicht ist Copyright auch nur eine Art Zensur (im Sinne der staatlichen Beschränkung der Informationsübermittlung).

Für die Erreichung der einzelnen Ziele werden einige interessante technische Neuerungen eingesetzt:

Anonymität der publizierenden Person:
Wenn ein Dokument ins FreeNet eingespeist wird, wird es sofort benannt, mit seinem Namen verschlüsselt und auf einem zufällig ausgewählten Computer abgelegt. Die Verschlüsselung dient dem Zweck, die Inhalte nicht oder nicht einfach zugänglich zu machen - damit die BesitzerInnen der Computer, die sie dem FreeNet zur Verfügung stellen (,,Knoten'', ,,Nodes''), glaubwürdig abstreiten können, den Inhalt der gespeicherten Dateien zu kennen. (Das ,,Paßwort'' zur Verschlüsselung der Datei ist sein Name. Wer nach genau diesem Namen sucht, ,,kennt'' das Paßwort, kann die Daten also entschlüsseln. Der Name wird im FreeNet nicht gespeichert, nur ein davon mit kryptographischen Methoden abgeleiteter sogenannter ,,Hash'', eine sehr lange Zahl, aus der nicht wieder auf den ursprünglichen Namen geschlossen werden kann.)
Die Entscheidung, wo das Dokument zu speichern ist, wird anhand des zufälligen Hash-Wertes gefällt. Das hilft, die Information später effizient wiederzufinden; gleichzeitig garantiert es, daß die Information mit sehr hoher Wahrscheinlichkeit recht schnell vom Ursprungsort verschwindet - es ist daher nicht nachweisbar, wer die Information eingespeist hat.
Keine Publikationskosten:
Im herkömmlichen Netz zahlen die Informationsanbieter ihre Speicher- und Übertragungskosten. Diese können relativ hoch sein, wenn die Inhalte häufig nachgefragt werden (Slashdot-Effekt20).
Redefreiheit sollte idealerweise auch mittellose Leute einschließen. FreeNet löst dieses Problem so, daß die Leute, die die Knoten betreiben, ihre Kosten für Speicherplatz und Übertragungskapazität selbst zahlen; da das Netz die (teure) Übertragung effizient löst, sind diese (allgemein fallenden) Kosten für immer mehr Menschen akzeptabel.
Anonymität der abrufenden Person:
Die Daten werden - anders als bei Napster und Gnutella - nicht direkt vom Ursprungs- zum Zielcomputer übertragen, sondern über mehrere Zwischenstationen. Diese Stationen wissen nur, wer ihre ,,Nachbarn'' in der Kette sind; selbst wenn sie wollten, könnten sie nicht feststellen, wer an den Enden der Kette steht (Prinzip: nur so viel Vertrauen wie unbedingt notwendig). Da die Daten verschlüsselt sind, können die Zwischen-Nodes (oder auch eine Überwachungs-Instanz) auch nicht mitlesen; die Daten werden erst am Ende der Übertragung am Computer der abrufenden Person entschlüsselt.
Nicht-Verfälschbarkeit:
Sobald ein Dokument unter einem Namen ins FreeNet eingespeichert wurde und an seine endgültige Stelle gewandert ist, kann nichts mehr unter dem selben Namen eingespeichert werden. (Es wird aber für zukünftige Versionen an der Möglichkeit gearbeitet, daß die publizierende Person mit ihrer digitaler Unterschrift eine neue Version einspeist.)
Keine Verantwortung:
Es ist sehr wichtig, daß Leute, die ihre eigenen Ressourcen FreeNet zur Verfügung stellen, dafür (unter zumindest halbwegs rechtsstaatlichen Verhältnissen) nicht rechtlich zur Verantwortung gezogen werden können. Das bedeutet, daß sie weder beeinflussen noch erkennen können, was auf ihrem Computer gespeichert oder übermittelt wird. (In demokratischen Staaten ist es mittlerweile gesicherte Rechtssprechung, daß Internet-Provider nicht für die übertragenen illegalen Inhalte haften, wenn sie davon nicht wissen.) Die beteiligten Netzwerkknoten wissen nur von ihren Nachbarn und ,,vertrauen'' ihnen nur, soweit es unbedingt notwendig ist.
Es ist sehr unwahrscheinlich, daß demokratische Staaten den Einsatz von FreeNet generell verbieten, da es eine Menge legale und sinnvolle Funktionen erfüllt, zum Beispiel die Verfügbarkeit beliebter Daten erhöht.
Ein Verbot wäre auch sehr schwer durchzusetzen, da die Übertragung verschlüsselt und damit schwer bis unmöglich zu erkennen ist.
Effiziente Übertragung:
Während die Knoten eine Datei weitergeben, behalten sie nach bestimmten Kriterien eine Kopie. Wenn ein Dokument irgendwo besonders häufig nachgefragt wird, ist es beim zweiten Nachfragen schon (netzwerktopologisch) näher und kann schneller und billiger geliefert werden. Das führt im Endeffekt dazu, daß häufig nachgefragte Inhalte ,,näher'' an den KonsumentInnen liegen. (Zum Beispiel hat die Publizierung des Starr-Reports in den USA das Internet teilweise lahmgelegt, weil sehr viele Leute gleichzeitig auf die selbe Information zugreifen wollten. FreeNet hätte die Netzwerkbelastung aufs normale Maß verringert.)
FreeNet könnte sich im Zuge seiner ständigen Weiterentwicklung weiter verbreiten als Napster und Gnutella.

Es hat den Vorteil der Unabhängigkeit von zentralen Servern (gegenüber Napster), die Nicht-Identifizierbarkeit und die Effizienz des Datenverkehrs, die das Datenaufkommen häufig verringert. Diese Eigenschaften sind Wettbewerbsvorteile: rechtliche Sicherheit und geringere Übertragungskosten.

FreeNet stellt nach dem derzeitigen Stand der Technologie die höchste Entwicklungsstufe von Computernetzwerken dar. Seine Eigenschaften, die speziell gegen die Blockade der Übermittlung entwickelt wurden, gewährleisten, daß es (außer in einem totalitären Regime) nicht mehr möglich sein wird, die Übertragung von digitalen Inhalten zu blockieren - weder technisch noch juristisch.

Eignung verschiedener Medienformen für die Verbreitung im Netz

Verschiedene Arten von Information können unterschiedlich effizient im Internet verbreitet und am Computer (oder außerhalb) benutzt werden. Die Entwicklung der Computer und die stetig wachsende Übertragungskapazität sowie neue Geräte führen dazu, daß immer mehr Medienformen kopiert werden.

Dem bekannten Gesetz von Riepl zufolge verdrängen neue Medienformen nicht die alten, sondern ergänzen sie oder führen zu zusätzlichem Konsum. Das bedeutet, daß die herkömmlichen Medien noch für lange Zeit neben der digitalen Verbreitung existieren werden.

Medienformen, die sich gut für Werbung eignen, haben das Problem, daß die Werbung häufig mit einfachen technischen Mitteln blockiert werden kann.

Medienformen, die eher oder ausschließlich aus dem Kaufpreis finanziert werden, sind zunehmend leicht zu kopieren.

Kommerzielle Medien stehen daher vor dem Dilemma, daß ihre Erlöse durch die Digitalisierung verringert werden - aber sie müssen ins Internet, weil die Konkurrenz auch dort ist.

Computersoftware

Software kann den Nutzwert eines Computers erheblich steigern; sie besteht jedoch letztendlich nur aus einer bestimmten Anordnung von Bits. Seit es vom Computer getrennt erwerbbare Software gibt, wird sie daher auch kopiert. Daran hat sich trotz intensiver Medienkampagnen und staatlicher Eingriffe nichts geändert. Es ist daher zu erwarten, daß der Software-Markt immer einen bestimmten Anteil unberechtigter Nutzung in Kauf nehmen muß - die Gewinne der großen Marktteilnehmer deuten jedoch darauf hin, daß es trotzdem möglich ist, profitabel zu arbeiten.

Texte

Bei weitem die meiste Information steht in unserer Gesellschaft als Text zur Verfügung.

Texte eignen sich perfekt zur digitalisierten Übertragung und Verarbeitung; der Inhalt eines Buches läßt sich über eine normale Internet-Leitung innerhalb von Minuten übertragen.

Es wird allerdings meist als unbequem (zumindest im Vergleich zu echten Büchern) betrachtet, längere Texte direkt am Bildschirm zu lesen. Meist wird der Text also ausgedruckt.

In der analogen Welt wird Text meist in Form von Büchern und Zeitungen/Zeitschriften verkauft. Je nach Aktualität und Länge des Textes macht es mehr oder weniger Sinn, ihn digital zu verbreiten.

Tageszeitungen haben mittlerweile meist Online-Ausgaben, für die sie verschieden großen Aufwand treiben. Manchmal steht tatsächlich die ganze Ausgabe in elektronischer Form zur Verfügung - finanziert durch Werbung. Oft werden die Inhalte auch untertags aktualisiert, z.B. mit den neuesten Nachrichten.

Das macht insofern Sinn, daß die Vorteile der elektronischen Verbreitung (niedrige Kosten, Schnelligkeit) ausgenutzt werden, und die Druck- und Vertriebskosten entfallen.

Inhalte der Online-Auftritte von Zeitungen werden im Netz kaum kopiert: es macht einfach keinen Sinn, da sowieso alles gratis und mit einem Mausklick erreichbar ist. Außerdem sind kopierte Inhalte zwangsläufig älter, somit unaktueller und damit weniger attraktiv als das Original.

Bei Zeitschriften ist keine so eindeutige Betrachtung möglich: oft ist es einfacher, zu frei verfügbaren Inhalten zu verknüpfen, als sie komplett zu duplizieren. Wenn die Inhalte jedoch nicht frei zur Verfügung stehen (z.B. wenn Registrierung erforderlich ist), werden sie bei Bedarf kopiert.

Bücher im Netz zu verbreiten ist derzeit eigentlich nicht sinnvoll: nur wenige Menschen wollen stundenlang am Bildschirm lesen. Mit der Entwicklung und Verbreitung von buchähnlichen elektronischen Lesegeräten (,,e-book reader'') kann sich diese Situation aber ändern.

Es gibt mittlerweile sehr viele Bücher in digitaler Form im Internet. Es handelt sich um solche Texte, deren Urheberrechte bereits abgelaufen sind; das Projekt Gutenberg21 hat sich zum Ziel gemacht, solche Literatur zu sammeln und digital zur Verfügung zu stellen.

Aktuelle (urheberrechtlich geschützte) Literatur wird derzeit noch selten angeboten. Der Versuch, Stephen Kings Novelle ,,Riding the Bullet'' gratis bis billig elektronisch im Internet zu verbreiten, ist spektakulär gescheitert22: zuerst brachen die Server unter dem großen Interesse zusammen, dann tauchten ungeschützte, frei kopierbare Versionen vom Buch im Netz auf. (Die Publikation sollte eigentlich zeigen, daß es möglich ist, digitale Texte zu publizieren und trotzdem den Markt zu kontrollieren. Nach dem Fiasko versprachen die beteiligten Firmen, in Zukunft noch besseren Schutz zu verwenden.)

Für viele Anwendungen sind elektronische Bücher jedoch hervorragend geeignet, zum Beispiel in der Forschung: Es ist leicht möglich zu zählen, wie oft Shakespeare ein bestimmtes Wort verwendet hat, oder auch nur um Textstellen zu suchen und um zu zitieren. Und für Blinde gibt es Computerprogramme, die elektronischen Text vorlesen können.

Bilder

Computer sind schon seit Längerem grafikfähig und können Bilder verarbeiten und anzeigen. Bilder sind in der Speicherung und Übertragung deutlich aufwendiger als Texte, aber das ist heute kaum noch ein Problem.

Bilder allein, ohne Kontext, sind für die EndverbraucherInnen eher selten interessant (außer vielleicht Pornographie); für Medien und Veröffentlichungen allgemein als Illustration und gestalterisches Element jedoch essentiell. Diese Märkte sind aber gewohnt und einverstanden, die Rechte an der Reproduktion der Bilder zu kaufen und zu bezahlen. (Eine Ausnahme stellen private Webseiten dar: hier werden oft Bilder von anderen Seiten kopiert und verwendet.)

Musik

Digital aufgenommene Musik ist normalerweise zu umfangreich, um am Computer massenweise gesammelt zu werden und auch für die Übertragung.

Es gibt jedoch Verfahren (,,Perceptual Audio Coding'': Weglassen der für Menschen unhörbaren Teile), die die Musikdateien auf ein Zehntel ihrer ursprünglichen Größe reduzieren, ohne die Qualität merkbar zu verschlechtern (jedenfalls besser als Musikkassette). Damit sind diese sogenannten MP3-Dateien vernünftig speicher- und kopierbar.

Auf einem entsprechend ausgestatten Computer Musik zu hören ist viel praktischer als von CDs: eine CD dauert meist nur etwas mehr als eine Stunde und muß nachher getauscht oder wieder angehört werden; der Computer kann auf alle gespeicherten MP3-Lieder zugreifen und alle in beliebiger Reihenfolge abspielen. (Ich habe CDs, die ich noch nie im CD-Player angehört habe: ich habe sie sofort im Computer ausgelesen und in MP3 umgewandelt. Das Übertragen von einer legal gekauften CD auf den eigenen Computer ist unbestritten legal.) Mensch ist auch nicht gezwungen, weniger gelungene oder nervende Lieder, die auf manchen CDs enthalten sind, zu hören - sie werden einfach nicht auf die Festplatte gespeichert.

Leute, die diese Vorteile kennen, werden nicht mehr CDs benutzen wollen; die Industrie zögert jedoch noch, diesen Wunsch zu erfüllen: das Problem des Kopierschutzes ist nämlich nicht gelöst. In der Zwischenzeit wird das Kopieren jedoch weitergehen, und mittelfristig wird ein Großteil der veröffentlichten Musik in offenen Formaten existieren.

Ca. 1997-98 hätte die Musikindustrie vermutlich anfangen können, eigene Formate einzuführen und Musik übers Internet zu verkaufen; notfalls in nicht kopiergeschützten Formaten. Gäbe es die Musik billig und ohne Schwierigkeiten legal zu kaufen, wären die Infrastrukturen für die Weitergabe eventuell nicht im heutigen Ausmaß entstanden.

Video

Von allen Medienformen braucht Video den meisten Speicherplatz: es besteht nämlich aus Audio und 25-30 Bildern pro Sekunde. Aus diesem Grund ist es noch immer nicht selbstverständlich, Videodaten übers Netz zu verbreiten. Es gibt zwar ganze Kinofilme in Newsgroups, aber sie sind nur für Leute mit sehr schneller Internet-Verbindung sinnvoll und auch da schaut die Berechnung der Opportunitätskosten sehr schlecht aus - ins Kino oder in die Videothek zu gehen wäre billiger. Das Kopieren hält sich daher heute noch in Grenzen. Eine schnelle Überprüfung einschlägiger Newsgroups ergab, daß einige wenige Kinofilme (aber nur mit viel Glück und Geduld über mehrere Tage vollständig), Musikvideos und einige Minuten lange Porno-Clips zugänglich sind.

Allerdings optimiert die Filmindustrie ihre Erlöse, indem sie die Welt in Verwertungszonen einteilt und die Filme zeitlich versetzt spielt. Dies wird durch die Verbreitung übers Internet unterlaufen: so waren im Sommer 1999 in Europa noch vor dem Kinostart Kopien von ,,Star Wars 1'' auf zwei CD-ROMs im Umlauf. Natürlich war die Qualität schlechter als im Kino, aber der Film war zugänglich (wahrscheinlich gingen aber die meisten Leute, die die schlechte Kopie angeschaut haben, trotzdem noch ins Kino).

Wenn die Übertragungs- und Speicherkapazitäten weiter so zunehmen wie in den letzten Jahren, wird das Kopieren von DVDs in einigen Jahren zum Problem für die Filmindustrie.

Das Anschauen am Computer kann in den meisten Fällen den Kinobesuch nicht ersetzen. Das bedeutet, daß nur ein Teil der Vermarktungserlöse, nämlich der Videomarkt, in Gefahr ist. Dazu ist jedoch notwendig, daß mit der derzeitigen Praxis gebrochen wird, Filme zu unterschiedlichen Zeiten in die Kinos zu bringen - sonst werden InteressentInnen in Europa und Asien lieber auf die schlechten Gratis-Kopien ausweichen und schlechte Filme nicht mehr im Kino ansehen.

Überlegungen zum Urheberrecht

,,Geistiges Eigentum'' ist eine relativ neue Entwicklung der Rechtsgeschichte. Natürlich wurde die Problematik erst akut, als die Technologie zur Vervielfältigung erfunden wurde.

Drei Gruppen sind in der Situation zu berücksichtigen: die AutorInnen; die BesitzerInnen von Vervielfältigungstechnologie (Verlage, Schallplattenfirmen usw.) und die KonsumentInnen.

Ursprünglich verfügte nur die zweite Gruppe über Mittel zur Vervielfältigung. Sie war vor der Einführung der Copyright-Gesetze in der Lage, die AutorInnen auszubeuten, weil sie mit den Werken Geld verdienen konnte, ohne die AutorInnen zu kompensieren. Das Urheberrecht (es heißt ja schon so) war also gedacht, um die Rechte der UrheberInnen als Personen zu verteidigen sowie durch das exklusive Kopierrecht den Verlagen genügend Einnahmen zu bieten, damit sie überhaupt bereit sind, der Öffentlichkeit Werke zur Verfügung zu stellen. (Die AutorInnen haben auch ohne Copyright jahrtausendelang Werke geschaffen, die Verlage hätten aber ohne Exklusivrecht nicht in die teuren Druckmaschinen investiert.)

Heute ist die Situation anders. Die Mittel zum Kopieren (in kleinem oder mittelgroßem Maßstab) stehen mit Computern und Digitaltechnologie auch den KonsumentInnen und den AutorInnen zur Verfügung - die dritte Gruppe, die Verlage, wäre daher überflüssig. Allerdings nehmen die AutorInnen ihre Rechte üblicherweise gar nicht mehr selbst wahr, sondern sie stehen unter Vertrag mit einem Verlag oder einer Plattenfirma usw. Verlage und andere Vermittler verteidigen ihre Position gegenüber den KonsumentInnen mit dem Urheberrecht, das sie von den AutorInnen erworben haben.

Zu erwarten ist, daß KünstlerInnen in Zukunft lieber solche Verträge abschließen werden, die die Verwertungsrechte bei ihnen behalten und die Verlage nur mehr für deren Leistungen (Vertrieb, Sammlung der Einnahmen) bezahlen.

Es ist umstritten, ob ,,geistiges Eigentum'' ein natürliches Recht oder eine künstliche Einrichtung zum Schutz einflußreicher Gruppen ist.

Verletzungen des Urheberrechts werden von interessierten Gruppierungen routinemäßig als Diebstahl bezeichnet. Das ist jedoch auch nach der Definition des Gesetzgebers nicht korrekt: Diebstahl physischer Objekte (z.B. Nahrung) ist auch strafbar, wenn sie zum Überleben gebraucht werden; das Kopieren für den eigenen Bedarf und im Privatbereich ist jedoch ausdrücklich erlaubt - es entsteht ja kein meßbarer Schaden, nur ein potentieller Gewinnentgang, der nur wegen des Urheberrechtsschutzes überhaupt angenommen werden kann. (Z.B. bei einer Diebstahl entsteht hingegen meßbarer Schaden, und zwar unabhängig vom Rechtssystem.)

Es gibt zwei einander widersprechende Interpretationen des Kopierens im privaten Bereich - da es sich letztlich um Ethik handelt, kann nicht entschieden werden, welche ,,richtig'' ist:

Die verbreitetere (sie ist den Eigentümern von Medien lieber, also wird sie häufiger publiziert) ist die Annahme, daß privates Kopieren eine Form des Diebstahls ist und nur deswegen toleriert wird, weil es nicht praktikabel ist, die Bevölkerung zu kriminalisieren.

Die andere Sichtweise geht davon aus, daß veröffentlichte Information einen Wert hat (sonst würde ja niemand dafür zahlen). Der ,,gesellschaftliche Wohlstand'' wird daher erhöht, wenn beliebte oder notwendige Dinge kopiert werden. Schließlich wird die erste (angebliche) größere Kopieraktion der Geschichte, als Jesus Christus Brot und Fische vervielfältigt haben soll, allgemein als Wohltat und nicht als unethisch (z.B. gegenüber der lokalen Nahrungsindustrie) betrachtet.

Wegen der allgemeinen technischen Entwicklung wird in Zukunft nicht mehr das eigentliche Copyright, sondern das Recht der Umgehung technischer Schutzmaßnahmen umstritten sein - die Industrie will sich nicht auf die unkalkulierbaren ethischen Entscheidungen der KonsumentInnen verlassen, sondern nach Möglichkeit technisch sicherstellen, daß ihre Inhalte nicht kopiert werden.

Maßnahmen der Unterhaltungsindustrie gegen unlizenzierte Kopien

Wie schon ausgeführt, sind Computerdateien normalerweise nicht vor dem Kopieren schützbar. Um einen Schutz zu gewährleisten, muß besonderer Aufwand getrieben werden.

Bei teuren Computerprogrammen ist die Bindung an einen besonderen Hardware-Baustein (,,Dongle'') üblich. Dieses muß an den Computer angesteckt werden; jedes Exemplar der Software funktioniert nur mit dem dazupassenden Dongle. Dieser Schutz ist für die ComputerbesitzerInnen unbequem und stört manchmal die anderen Funktionen des Computers. Für verbreitete Software ist dieser Mechanismus daher nicht praktikabel.

Manchmal werden die Installationsmedien (Disketten, CD-ROMs) so präpariert, daß sie nicht einfach kopierbar sind; gelegentlich (vor allem bei Computerspielen) kommt eine ,,Handbuchabfrage'' dazu: die Theorie ist, daß es viel umständlicher ist, das Handbuch zu fotokopieren, als ins Geschäft zu gehen und dort das Spiel zu kaufen.

Alle Schutzmaßnahmen wurden bereits gebrochen; für genügend motivierte Leute mit entsprechenden Kenntnissen ist ein Kopierschutz eine Herausforderung und die Frage ist nur, wie lang sie für die Überwindung brauchen. Sie daran zu hindern, ist auf den herkömmlichen Computerplattformen nicht möglich: Der/die AnwenderIn des Computers hat auf seinem/ihren Rechner die totale Kontrolle, er/sie kann den Ablauf der Programme beliebig betrachten und verändern. Und wenn aus dem Programm die Kopierschutzroutine selbst entfernt wurde, ist es egal, wie sie funktioniert hat.

Das Kopieren von Computerprogrammen ist auf der Welt sehr ungleich verteilt - es hängt vor allem von zwei Faktoren ab: dem Preisniveau und dem Respekt des Urheberrechts. Der Anteil der unlizenzierten Software bewegte sich im Jahr 1999 nach Angaben des Industriekonsortiums BSA23 durchschnittlich bei 36 %, zwischen ca. 25 % (Nordamerika) und 70 % (Osteuropa).

Die genannten technischen Kopierschutzmaßnahmen sind nur für Programme, nicht für reine Daten anwendbar. Die Unterscheidung ist wichtig: ein Programm besteht aus Anweisungen an den Computer und kann mit dem Rechner praktisch alles tun; Daten sind nur Beschreibungen von Sachverhalten in einer definierten Form.

Für Daten (z.B. Texte, Musik, Video) wurde bisher kein Verfahren entwickelt, das nicht gebrochen wurde. Meist wird eine Form von Verschlüsselung versucht, aber um die Daten verwenden zu können, müssen diese entschlüsselt werden - der dazu notwendige Schlüssel muß entweder im Anzeigeprogramm eingebaut oder übers Netz bezogen werden. Beide Methoden sind angreifbar: für Computersoftware gibt es fertige Methoden, nach kryptographischen Schlüsseln zu suchen (diese zeichnen sich durch extrem hohe Entropie, ,,Zufälligkeit'' aus); die Übertragung übers Netzwerk kann leicht abgehört werden.

Diese Verfahren werden heute teilweise schon eingesetzt, kämpfen aber mit technischen, rechtlichen oder Akzeptanz-Problemen:

Aus diesen Gründen wird die Inhalts-Industrie in Zukunft wahrscheinlich versuchen (Überlegungen laufen bereits in diese Richtung), geschlossene Geräte, sogenannte ,,Trusted Clients'', zu entwickeln, die ihre ,,Computerhaftigkeit'' verbergen und ausschließlich der Kontrolle der Urheber unterliegen.

Trusted Clients

Ein Trusted Client ist in der Theorie (es gibt noch keine vollständigen Implementationen) eine Art Computer mit speziellen Eigenschaften: eingebauter Identität und Verschlüsselungsmethoden sowie Netzwerkanschluß. Er hat alle Funktionen eingebaut, die ihn für einen Zweck geeignet machen (z.B. ,,Musik abspielen''), und keine Möglichkeiten, von außen einzugreifen. Analog dazu wäre zum Beispiel ein Auto, dessen Motorhaube nicht zu öffnen ist, und das nur mit speziellem Benzin eines Herstellers und auf speziellen pay-per-kilometer-Straßen fährt.

Der bereits verfügbare e-book-reader funktioniert so: er wird ans Internet angeschlossen; verbindet sich mit dem ,,digitalen Buchladen'' und weist sich aus; erlaubt die Auswahl aus den angebotenen Inhalten und realisiert die Zahlung; überträgt stark verschlüsselt die Inhalte und kann sie dann anzeigen. Je nach Ausstattung des Readers und den Vorgaben der Urheber kann dann der Inhalt ausgedruckt, kopiert, angezeigt usw. werden oder nicht.

Trusted Clients können neue Verwertungsmöglichkeiten für die Rechteinhaber schaffen. Die Identität der KäuferInnen kann abgefragt werden; die Benutzung ist beliebig zu regeln, zum Beispiel können auch Bücher und Musikstücke im pay-per-use-Verfahren angeboten werden.

Um Trusted Clients in den Markt einzuführen, muß die inhaltsproduzierende Industrie viel Aufwand treiben: zuerst müssen die Geräte entwickelt, getestet und in ausreichender Zahl hergestellt werden. Sie müssen natürlich sehr billig und leicht bedienbar sein, um die KonsumentInnen zum Umstieg zu bewegen. Irgendwann werden dann die Inhalte ausschließlich für die Trusted Clients zur Verfügung stehen. All diese Schritte müssen von teuren Werbekampagnen begleitet sein, da die KonsumentInnen überzeugt werden müssen, ihr Verhalten zu ihrem eigenen Nachteil zu ändern. Das wird natürlich zunehmend schwieriger, da immer mehr Leute die offene Welt des Internet kennenlernen (in den USA schon über 50 %).

Die Akzeptanz wird auch deswegen schwer durchzusetzen sein, weil Trusted Clients den allgemeinen Trends der Computertechnologie entgegenlaufen: dieser Trend ist, immer mehr Funktionen in einem Gerät anzubieten. MP3 hat sich gerade deswegen durchgesetzt, weil es vorteilhaft (bequem, effizient usw.) ist, am Computer Musik zu hören.

Es ist noch nicht abzuschätzen, ob die Industrie diese Pläne verwirklichen kann. Eines ist sicher: je länger es dauert, desto unwahrscheinlicher ist der Erfolg.

Eine Welt, in der Medienprodukte nur mehr in Trusted Clients zur Verfügung stehen, wäre für die Verwertungssituation der Content-Industrie natürlich sehr bequem. Allerdings würde das die heute zur Verfügung stehenden Möglichkeiten des Fair Use komplett vernichten (was für die Industrie natürlich kein vorrangiges Problem darstellt): Bibliotheken könnten die Bücher nicht mehr verleihen, da diese an einzelne e-book-reader gebunden wären - Bildung wäre wieder nur kaufkräftigen Schichten vorbehalten; KonsumentInnen müßten dasselbe Musikstück für jede Stereoanlage in ihrer Wohnung und fürs Auto gesondert erwerben; wer einen Film zu Hause öfter ansehen will, müßte ihn jedes mal neu bezahlen; alle wären letztlich den gewinnoptimierenden Maßnahmen der Inhaltsanbieter ausgesetzt. (Daß die Inhalte nachher wegen der niedrigen Kosten und größerer Verbreitung billiger würden, darf aufgrund der Erfahrungen mit der Compact Disc bezweifelt werden.)

Für die Konservierung von Wissen, wie es heute in Archiven geschieht, wäre das ein Horrorszenario: Bücher stünden plötzlich nur in einem elektronischen Gerät zur Verfügung, das jederzeit kaputtgehen kann; ihr Inhalt könnte eventuell nur jedes einzelne Mal mit der Erlaubnis des Herstellers angesehen werden - aber was passiert, wenn der Hersteller in Konkurs geht und nicht mehr existiert? Im Software-Bereich ist genau dieser Fall schon öfter passiert: die AnwenderInnen der nicht mehr unterstützten Software hatten hohe Kosten mit der Migration der Daten zu einem anderen System, wenn das überhaupt möglich war.

Die technische Entwicklung hat KonsumentInnen schon einmal dazu gezwungen, bereits erworbenes Material noch einmal zu bezahlen: beim Umstieg von der Langspielplatte auf die CD. Die heutige Computertechnologie würde sicherstellen, daß das nicht mehr notwendig ist - wenn Trusted Clients sich durchsetzen, müßten alle Aufnahmen noch einmal teuer erworben werden, und wahrscheinlich auch bei jedem neuerlichen (von der Industrie willkürlich kontrollierten) Formatwechsel.

Die Wissenschaft, die ja auch auf dem freien Austausch von Wissen basiert, würde auch leiden. Veröffentlichungen, die für jedes einzelne Anschauen bezahlt werden müssen, sind der scientific community viel weniger zugänglich; es wäre viel schwieriger, die Arbeit anderer weiterzuverwenden. Eine solche Zukunft - die logische Weiterentwicklung der Zielsetzungen der Inhalts-Industrie - beschreibt Free-Software-Guru und Philosoph Richard Stallman in seinem Essay ,,The Right to Read''24.

Spezielle Anwendungen, wie z.B. Ausgaben in Blindenschrift, wären vom Willen der Hersteller und somit ausschließlich von ökonomischen Überlegungen abhängig.

Die heute erwerbbaren e-book-reader vermeiden elegant, die ,,unbequemen'' Bestimmungen der Urheberrechtsgesetze einzuhalten: Sie bieten keine Schnittstelle nach außen. Das heißt, daß ihr Inhalt sich nicht kopieren läßt, auch wenn es sich um nicht mehr geschützte Inhalte wie Goethe handelt - die Hersteller unterbinden in diesem Fall das legale Kopieren. Es ist auch nicht sichergestellt, daß die Inhalte (theoretisch - so groß ist die Lebensdauer der Geräte gar nicht) nach 70 Jahren, wenn ihre Schutzzeit abläuft, freigegeben werden.

Es hat sich immer wieder gezeigt, daß Kopierschutzmaßnahmen auch die normale Verwendung des Produktes behindern: z.B. die Macrovision-Kodierung von Verleih-Videokassetten oder die jüngsten Versuche, kopiergeschützte Audio-CDs zu verkaufen: viele alte Stereoanlagen konnten die CDs nur teilweise abspielen25.

Maßnahmen zur Beeinflussung der öffentlichen Meinung

Die Software-Industrie kämpft schon lange gegen das unlizenzierte Kopieren: der ,,Offene Brief an Computerbastler'' von Microsoft-Chef Bill Gates aus dem Jahre 1976, in dem er Computerclubs der Piraterie bezichtigt und das unlizenzierte Kopieren für die langsame Entwicklung der Software verantwortlich gemacht hatte26, ist heute noch in Erinnerung.

Seit das Kopieren für sie zum Problem wurde, folgte auch die Musikindustrie27, und die Filmindustrie beginnt auch mit der Meinungsbildung28, obwohl ihre Inhalte noch nicht im nennenswerten Maßstab digital kopiert werden. Beide Industrien haben große Beteiligungen an praktisch allen kommerziellen Medien in den USA und Europa, es fällt ihnen also nicht schwer, ihre Meinungen kundzutun.

Die Kampagnen sind ein Drahtseilakt zwischen Public Relations, Zynismus und Demagogie. Die Verluste werden zum Beispiel berechnet, indem der Verkaufspreis der Produkte (inklusive Steuern und Abgaben, Transportkosten, Gewinn des Einzelhandels) mit der geschätzten Anzahl unlizenzierten Kopien (=potentielle Verkäufe aus Sicht der Verkäufer) multipliziert wird; diese Zahlen werden dann als tatsächliche Verluste bezeichnet und verwendet, um auf Steuerausfälle und Gefährdung der Arbeitsplätze hinzuweisen. Oder unlizenzierte Abspielsoftware für Computerplattformen, für die es keine offiziellen Programme gibt, wird als Einbruchswerkzeug bezeichnet. Oder Leute, deren Monatseinkommen niedriger ist als der Preis der Software und diese gar nicht kaufen könnten, werden als Piraten und Diebe bezeichnet.

Es ist zweifelhaft, ob solche Kampagnen Erfolg haben werden: die kommerziellen Medien haben den KonsumentInnen jahrzehntelang eingeredet, daß nur Besitz und der eigene Vorteil wichtig sind, Moral und Rücksichtnahme weniger. Wenn jetzt Werbebotschaften (deren Glaubwürdigkeit und moralische Authorität sowieso schon niedrig sind) anderes suggerieren, kann leicht eine kognitive Dissonanz entstehen, die wahrscheinlich zum Ignorieren der neuen Botschaft führt.

Gerichtliche Aktionen gegen Urheberrechtsverletzungen

Da ein Großteil der Verstöße gegen das Urheberrecht im privaten Bereich passiert, werden die (zahlenmäßig) meisten VerletzerInnen gar nicht verfolgt. Die Industrie konzentriert sich lieber auf die gewerbsmäßigen Copyright-Verletzungen. Diese werden jedoch immer seltener, da die Mittel zum Kopieren auch Privatpersonen zur Verfügung stehen.

Die Industrie hat es bisher nicht gewagt, Privatpersonen für ,,einfache'' Urheberrechts-Verstöße (z.B. mit Napster) zu belangen - das hätte schwer berechenbare Konsequenzen fürs Bild der betroffenen Firmen in der öffentlichen Meinung.

Die Metallica-Aktion gegen Napster hat sehr gut die Grenzen der gerichtlichen Verfolgung aufgezeigt: keine Entität kann es sich leisten, 300.000 Leute oder auch nur die ca. 100.000 in Amerika lebenden zu verklagen: einerseits sind die Gerichte auf diesen Ansturm nicht vorbereitet, andererseits wäre es auch nach Public Relations-Maßstäben eine schlechte Idee. Außerdem dürften die Kosten der Verfahren aus den Strafen kaum zu decken sein, da Napster sehr häufig von Kindern, Jugendlichen und StudentInnen benutzt wird.

Das Dilemma bei gerichtlicher Verfolgung ist, daß die Künstler eine relativ genau definierte Fan-Basis haben: die Leute, die Metallica hören. Die Napster-Aktion hat genau diese Leute getroffen: Das Thema wurde in allen Metallica-Foren diskutiert und führte zu einem schwer meßbaren Image-Schaden.

Einer Studie29 der amerikanischen Firma ,,Pew Internet & American Life Project'' zufolge haben allein in den USA bereits 13 Millionen Leute Musik aus dem Netz heruntergeladen, ein Großteil davon war unlizenziert. Diese (wegen des enormen Medieninteresses stark wachsende) Zahl ist auch als Wählerpotential schon interessant: die traditionell PR-orientiert vorsichtigen US-PolitikerInnen werden wahrscheinlich in Zukunft nicht versuchen, diese Gruppe zu kriminalisieren.

Einflußnahme auf die Gesetzgebung

Die Lobbies großer Konzerne versuchen routinemäßig, die Rechtssysteme der Länder zu ihren Gunsten zu ändern.

Ein Beispiel dafür ist der ,,Sonny Bono Copyright Term Extension Act''30, in dem der Kongreß für viele Werke die Schutzdauer um 20 auf bis zu 95 Jahre verlängerte. Der Gesetzesvorschlag wurde von Unterhaltungskonzernen und einzelnen KünstlerInnen unterstützt, Bibliotheken und Archive haben protestiert. Als Begründung des Gesetzes wurde angeführt, daß die Kreativität der Kulturschaffenden steige, wenn weniger urheberrechtlich nicht mehr geschützte Werke (,,public domain'') existierten. (In Deutschland und Österreich beträgt der Schutz einheitlich 70 Jahre, in Großbritannien 50 oder 70, für Werke der Krone bis zu 125 Jahre.)

Das World Intellectual Property Organization WIPO ist eine Organisation der Vereinten Nationen und zuständig für die Entwicklung von Richtlinien zum Schutz der Urheberrechte. Die einzelnen Mitgliedsstaaten entsenden ExpertInnen, die dann die Richtlinien erarbeiten. Diese Richtlinien sollen dann in nationales Recht umgesetzt zu werden - erst an diesem Punkt kommt demokratische Kontrolle überhaupt ins Spiel.

Im Urheberrechtsvertrag von 199631 fordert die WIPO die unterzeichnenden Länder unter anderem auf, gesetzliche Strafen für die Umgehung von Kopierschutzmaßnahmen einzuführen, was eine Verschärfung der individuellen Gesetze der einzelnen Länder darstellt.

Die USA haben als erstes Land im Digital Millennium Copyright Act (DMCA)32 den WIPO-Vertrag umgesetzt. Ende 1999 entstand eine Kontroverse um ein Computerprogramm, das unter GNU/Linux DVD-s abspielt33: die DVD Copy Control Association hat behauptet, daß das Programm eine (seit dem DMCA) unzulässige Umgehung des Schutzes darstelle und dem Gesetz widerspreche. In zwei Bundesstaaten hat sie einstweilige Verfügungen erreicht und damit die Verbreitung des Programms in den betreffenden Bundesstaaten gestoppt. Endgültige gerichtliche Entscheidungen über die Legalität des Programms stehen noch aus.

Die EU-Mitgliedsstaaten haben sich angeblich geeinigt, den WIPO-Vertrag nicht vollständig umzusetzen und nichtkommerzielle Nutzung im Interesse der Privatpersonen und der Bildung zu erlauben. Auch das Verbot der Umgehung technischer Kopierschutzmaßnahmen dürfte in der Richtlinie nicht enthalten sein.34

Finanzielle Folgen des Kopierens für die Inhaltsanbieter

Software-Industrie

Von der Software-Industrie stehen systematisch erhobene Daten über die potentiellen Verluste durch nicht lizenzierte Kopien zur Verfügung. Die absoluten Zahlen sind zwar etwas zweifelhaft, weil die erhebende Gruppe stark an ihrer Beschönigung interessiert ist, aber die Anteile und Trends können wohl als halbwegs genau angenommen werden. Die Zahlen werden von der Business Software Alliance, dem Branchenverband kommerzieller Software-Anbieter publiziert.

Den bereits zitierten Zahlen der BSA35 zufolge geht das Kopieren sowohl anteils- als auch wertmäßig zurück: zwischen 1994 und 1999 von fast 50 % auf 36 %. Der Vorstand des Verbandes spricht trotzdem davon, daß das Internet das Kopieren verstärke und von einem ,,sehr ernsten und wachsenden Problem''36.

Den Rückgang des Kopierens führt der Bericht einerseits auf mehr lokale Präsenz und Gewissensbildung, andererseits auf niedrigere Verkaufspreise der Softwareprodukte zurück.

Der Branche entgehen also nach eigenen Angaben 12 Milliarden US$ pro Jahr an potentiellen Einnahmen, und jedes Jahr werden Tausende Arbeitsplätze vernichtet. (Gegen letzteres Argument sprechen allerdings die Arbeitsplatzdaten: kaum eine Firma baut InformatikerInnen ab, dafür suchen andere verzweifelt nach qualifizierten Leuten.)

Trotz der angeblich hohen Verluste gehören Softwarefirmen zu den profitabelsten - Microsoft ist die wertvollste Firma der Welt, wenn ihre Aktien hoch stehen. Die Einnahmen betrugen im Jahr 1999 fast 20 Milliarden US$ und der Gewinn 7,7 Milliarden US$37.

Da das Kopieren der Software auch für die Urheber selbst sehr wenig kostet, zählen für das Geschäftsergebnis nur die Verkäufe (illegal kopierte Software verringert nicht die Einnahmen, erhöht sie nur nicht). Wenn der Break-Even-Punkt erreicht ist, ist die Firma profitabel - wegen der extrem hohen Fixkostendegression ist jeder weitere Verkauf sehr profitabel.

Es scheint also durchaus möglich zu sein, in einem Markt, in dem ein Drittel bis die Hälfte der zu verkaufenden Inhalte kopiert wird, noch finanziellen Erfolg zu haben. Das liegt an der speziellen Eigenschaft des angebotenen Gutes ,,Information'': der Duplizierbarkeit.

Musik-Branche

Seit Musik übers Internet kopiert wird, beklagt sich auch die Plattenindustrie über Verluste. Doch dieser Effekt ist umstritten.

Ein Blick auf die Zahlen des amerikanische Branchenverbandes RIAA38 zeigt, daß die Erträge der Industrie 1998 und auch 1999, also in den Jahren mit immer mehr unlizenzierten MP3-Kopien, gestiegen sind, und zwar noch mehr als die stückmäßigen Verkäufe (was wohl höhere Preise bedeutet). Eine umstrittene Studie39 einer Firma, die Kopierschutztechnologie herstellt und daher eventuell nicht völlig objektiv ist, will jedoch nachgewiesen haben, daß die Einnahmen aus Musikverkäufen in der Nähe amerikanischer Universitäten, die als Hochburgen unerlaubten Kopierens gelten, entgegen dem allgemeinen Trend zurückgegangen sind.

Die deutsche Phono-Industrie gibt40 für 1999 einen 2,6 %igen Rückgang der Stückzahlen und 2,9 %igen Rückgang des Umsatzes gegenüber 1998 an. Sie beklagt ,,massive Schäden durch CD-Brennen und eine wachsende Internet-Piraterie''.

Eine andere Studie41, die auf der Befragung von fast 17.000 AmerikanerInnen basiert, kommt zu einem anderen Ergebnis: ihr zufolge kaufen die Leute, die im Netz Musik angehört haben, mit höherer Wahrscheinlichkeit nachher die CD.

Schlußfolgerungen

Das Internet eignet sich sehr gut zur Informationsübermittlung. Das verringert aber die so schon geringe Marktfähigkeit der Medieninhalte. Dadurch verlieren die herkömmlichen kommerziellen Medien Marktanteile an frei zugängliche und kopierbare Inhalte, weil diese sich besser fürs Internet eignen.

Es wird wahrscheinlich immer schwieriger, für Medieninhalte Geld zu verlangen, weil technische und andere Kopierschutzmaßnahmen nur beschränkt funktionieren. Die Inhalts-Industrie muß mit zunehmenden Umsatzausfällen aus privater und halbprivater Vervielfältigung rechnen. Neu auf den Markt kommende Kreative begeben sich nicht mehr in Abhängigkeit von Vermittlern (Verlagen, Plattenfirmen), sondern nehmen die Distribution in die eigenen Hände. Dadurch sind sie am Markt konkurrenzfähiger, weil sie einen großen Apparat und dessen Gewinne nicht mitfinanzieren müssen. Als Folge werden die Verlage und andere Vermittler an Bedeutung verlieren.

Das alternative Szenario kann nur mit großer Beschränkung der persönlichen Freiheit der MedienkonsumentInnen und starker staatlicher Kooperation zustande kommen: In diesem Fall wären die Erlöse der Industrie zu Ungunsten der Bildung, Wissenschaft und Unterhaltung ärmerer Bevölkerungsteile gesichert.



Fußnoten

... hat1
WILL RODGER: Activists charge DoubleClick double cross. In: USA TODAY, 2000-01-26, zitiert 2000-06-11.

http://www.usatoday.com/life/cyber/tech/cth211.htm

...Slashdot2
http://slashdot.org
... Reaktionen3
Slashdot Hall of Fame. 2000-05-11, zitiert 2000-06-11.

http://slashdot.org/hof.shtml

... Standard4
http://derstandard.at
... gefallen5
Wall Street Research Net: 3 Year Weekly Price Chart mp3.com, zitiert 2000-06-03.

http://www.wsrn.com/apps/charts/index.xpl?s=MPPP&data=D

... 19996
E-Commerce Times Breaking News 1999-08-10, zitiert 2000-06-03.

http://www.ecommercetimes.com/news/articles/990810-stock.shtml

... gegründet7
RICHARD STALLMAN: The GNU Project. 2000-04-25, zitiert 2000-06-13.

http://www.fsf.org/gnu/thegnuproject.html

... Apache8
The Netcraft Web Server Survey. Mai 2000, zitiert 2000-06-06.

http://www.netcraft.com/survey/

... ,,Hotmail''9
The FreeBSD Project: Gallery - Commercial. 1999-09-06, zitiert 2000-06-06.

http://www.freebsd.org/gallery/cgallery.html

... Angaben10
MP3.com: About MP3.com. (1996-2000), zitiert 2000-06-08.

http://www.mp3.com/aboutus.html

... forderte11
PATRICK GOLTZSCH: Nationales Internet. In: Telepolis, 2000-02-24, zitiert: 2000-05-28.

http://www.heise.de/tp/deutsch/inhalt/te/5833/1.html

... entwickelt12
J. POSTEL, J. REYNOLDS: FILE TRANSFER PROTOCOL (FTP). Oktober 1985, zitiert 2000-05-28.

ftp://ftp.isi.edu/in-notes/rfc959.txt

... Usenet13
BRIAN KANTOR, PHIL LAPSLEY: Network News Transfer Protocol. Februar 1986, zitiert 2000-05-28.

http://www.ietf.org/rfc/rfc0977.txt

...HTTP14
TIM BERNERS-LEE, R. FIELDING, H. FRYSTYK: Hypertext Transfer Protocol - HTTP/1.0. Mai 1996, zitiert 2000-05-30.

http://www.w3.org/Protocols/rfc1945/rfc1945

... 317.37715
Quelle: http://www.napster.com/metallica-notice.html (zitiert 2000-06-03)
...Gnutella16
Die ursprünglichen Seiten der Autoren wurden vom Netz genommen.

Slashdot-Diskussion vom 14. 3. 2000, zitiert 2000-05-29:

http://slashdot.org/articles/00/03/14/0949234.shtml

Der Name ist angeblich ein Wortspiel aus GNU, einer Gruppe, die Freie Software entwickelt, und dem bekannten Brotaufstrich.

... andere17
http://gnutella.wego.com (zitiert 2000-05-29)
... Diplomarbeitsthema18
IAN CLARKE: A Distributed Decentralised Information Storage and Retrieval System. 1999, zitiert: 2000-06-03.

http://freenet.sourceforge.net/Freenet.ps

... Software19
http://freenet.sourceforge.net (zitiert 2000-06-19)
... (Slashdot-Effekt20
STEPHEN ADLER: The Slashdot Effect. An Analysis of Three Internet Publications.

Februar 1999, zitiert 2000-06-03.

http://ssadler.phy.bnl.gov/adler/SDE/SlashDotEffect.html

... Gutenberg21
In deutscher Sprache: http://gutenberg.aol.de/
... gescheitert22
SANDEEP JUNARKAR: Horrors for publishing industry: King's e-book cracked.

2000-03-31, zitiert 2000-06-16.

http://news.cnet.com/news/0-1005-200-1618243.html

... BSA23
BUSINESS SOFTWARE ALLIANCE: 1999 Global Software Piracy Report. Mai 2000, zitiert 2000-06-05.

http://www.bsa.org/statistics/piracystats99.html

... Read''24
RICHARD STALLMAN: The Right to Read. (Fiktion) 1996, zitiert 2000-06-06.

http://www.gnu.org/philosophy/right-to-read.html

... abspielen25
CARSTEN MEYER: Audio-CD-Kopierschuzt verärgert Kunden und Händler.

In: c't, Magazin für Computertechnik, 4/2000, Seite 83.

... hatte26
JAMES WALLACE, JIM ERICKSON: Mr. Microsoft - Die Bill-Gates-Story.

Verlag Ullstein, Frankfurt am Main/Berlin, 1993. Seiten 103-104.

... Musikindustrie27
Beispiel: die ,,Copy Kills Music''-Initiative in Deutschland.

http://www.copykillsmusic.de

... Meinungsbildung28
Beispiel: DVD CCA Frequently Asked Questions

http://www.dvdcca.org/dvdcca/faq.html

... Studie29
Pew Internet & American Life Project: 13 Million Americans 'Freeload' Music on the Internet.

2000-06-08, zitiert 2000-06-13.

http://63.210.24.35/reports/pdfs/MusicReportFull.pdf

... Act''30
Sonny Bono Copyright Term Extension Act. 1998-01-27, zitiert 2000-06-12.

http://frwebgate.access.gpo.gov/cgi-bin/getdoc.cgi?dbname=105_cong_bills&docid=f:s505enr.txt.pdf

... 199631
WIPO Copyright Treaty. Genf, 1996-12-20. Zitiert 2000-06-12

http://www.wipo.org/eng/general/copyrght/wct.htm

... (DMCA)32
H.R. 2281 ,,Digital Millennium Copyright Act'' der USA. 1998-10-28, zitiert 2000-06-21.

http://www.dfc.org/assets/images/2281enrolled.pdf

... abspielt33
,,css_auth'', z.B. von http://tud.at/mirrored/
... sein.34
KONRAD LISCHKA: Ausnahmen beim Schutz von Musikrechten. 2000-06-12, zitiert 2000-06-12.

http://www.heise.de/tp/deutsch/inhalt/te/8240/1.html

... BSA35
BUSINESS SOFTWARE ALLIANCE: 1999 Global Software Piracy Report. Mai 2000, zitiert 2000-06-05.

http://www.bsa.org/statistics/piracystats99.html

... Problem''36
Business Software Alliance: Software Industry Suffers from 5-year Cumulative Impact of Global Software Piracy.

2000-05-24, zitiert 2000-06-09.

http://www.bsa.org/pressbox/enforcement/959190119.html

...1#137
Microsoft 1999 Annual Report. 1999, zitiert 2000-06-11.

http://www.microsoft.com/msft/ar99/downloads/ar99.doc

... RIAA38
Recording Industry Association of America: Industry Ends Millenium with Solid Growth Pattern.

2000-02-18, zitiert 2000-06-10.

http://www.riaa.org/PR_Story.cfm?id=13

... Studie39
Entertainment Marketing Solutions: Measuring the Influence of Music File Sharing.

2000-05-24, zitiert 2000-06-11.

http://www.reciprocal.com/pdf/Reciprocal_VNU_report.pdf

... gibt40
Deutsche Landesgruppe der IFPI e.V.: Tonträgermarkt 1999. 2000-03-21, zitiert 2000-06-20.

http://www.ifpi.de/news/news-42.htm

... Studie41
Digital Media Association: Web Music. 2000-06-15, zitiert 2000-06-20.

http://www.digimedia.org/whatsnew/web_music.html



Balázs Bárány 2000-06-20