Home | english  | Impressum | Datenschutz | Sitemap | KIT

E. Becker, W. Buhse, D. Günnewig, N. Rump (Hrsg.): Digital Rights Mangement. Technological, Economic, Legal and Political Aspects sowie A. Picot (Hrsg.): Digital Rights Mangement

E. Becker, W. Buhse, D. Günnewig, N. Rump (Hrsg.): Digital Rights Mangement. Technological, Economic, Legal and Political Aspects sowie A. Picot (Hrsg.): Digital Rights Mangement
Autor: K. Böhle Link:
Quelle: Nr. 1, 13. Jahrgang, S. 97-107
Datum: März 2004

Rezensionen und Kurzvorstellungen von Büchern

Digital Rights Management - ein Fall für TA?

Becker, E.; Buhse, W.; Günnewig, D.; Rump, N. (Eds.):
Digital Rights Management. Technological, Economic, Legal and Political Aspects. Berlin: Springer, 2003 (Lecture Notes in Computer Science 2770), 805 S., ISBN 3-540-40465-1, 83,46 €

Picot, A. (Hrsg.):
Digital Rights Management. Berlin: Springer, 2003, 152 S., ISBN: 3-540-40598-4, 34,95 €

Rezension von Knud Böhle, ITAS

1     Einleitung

Die Besprechung von Büchern zum Digital Rights Management (DRM) in einer Zeitschrift für Technikfolgenabschätzung sollte angesichts der Bedeutung des Themas, der komplexen Verschränkung technischer, wirtschaftlicher, rechtlicher und politischer Aspekte, beträchtlicher Unsicherheit der weiteren Entwicklung und vieler noch offener Gestaltungsfragen nicht verwundern. Dazu kommt, dass ITAS seit dem 1. März dieses Jahres das europäische Projekt INDICARE (INDICARE - The Informed Dialogue about Consumer Acceptability of Rights Management Solutions in Europe) leitet, in dem es wesentlich darum gehen wird, einen Dialog über offene und kontroverse Punkte zu dem Themenkomplex DRM, insbesondere zu Fragen der Nutzung und des Nutzens aus Sicht von Anwendern und Konsumenten, zu organisieren (siehe dazu S. 154 ff. in diesem Heft).

Besprochen werden zwei Sammelbände, die im vergangenen Jahr mit identischem Haupttitel „Digital Rights Management“ vom Springer-Verlag auf den Markt gebracht wurden. Der eine Band enthält 35, der andere 3 Beiträge. Die Lektüre vermittelt einen guten Einblick in den gegenwärtigen „DRM-Diskurs“. In der Besprechung kann es nicht darum gehen, die 38 Beiträge einzeln vorzustellen. Beabsichtigt ist vielmehr - aus den verschiedenen Beiträgen schöpfend -, das Thema vor allem auch als TA-Thema zu profilieren. Vorangestellt wird ein kurzer, eher formaler Überblick über die beiden Publikationen.

2     Kurze Beschreibung der Publikationen

Das voluminösere Werk der beiden, das als Band 2770 der „Lecture Notes in Computer Science“ in Englisch vorliegt, ist aus dem Projekt „Digital Rights Management - Technologische, wirtschaftliche, rechtliche und politische Strategien und Interessen“
( http://www.digital-rights-management.de) hervorgegangen, das vom Ministerium für Schule, Wissenschaft und Forschung des Landes Nordrhein-Westfalen gefördert wurde. Im Rahmen des von Prof. Dr. Eberhard Becker, Fachbereich Mathematik der Universität Dortmund, geleiteten Projekts, das im Juni 2003 zu Ende ging, wurden im Wesentlichen zwei Konferenzen ausgerichtet, die eine im Jahre 2000, die andere 2002, und es wurde der hier besprochene Sammelband herausgegeben.

Der Anspruch des Buches ist es, Wissenslücken zu schließen und den ersten interdisziplinären Überblick über DRM zu geben (vgl. im Vorwort S. V). Im Zentrum stehen Fragestellungen im Zusammenhang mit dem veränderten Urheberrecht und DRM-Systemen. Der inhaltliche Fokus liegt auf „entertainment content“, wie es in der Einleitung (S. 1 f.) heißt. Andere Fragestellungen, etwa nach den Konsequenzen des veränderten Urheberrechts für die Bereiche Wissenschaft und Bildung oder für die Softwareentwicklung, werden in einigen Beiträgen durchaus mit bedacht. Geographisch oder geopolitisch werden die Verhältnisse in Deutschland, Europa und den USA berücksichtigt.

Der Sammelband ist in drei Teile eingeteilt: er arbeitet sich zunächst an den technologischen Aspekten ab, geht dann den ökonomischen und schließlich den rechtlichen und politischen Aspekten nach. In Anhängen werden der Bezug zu den erwähnten DRM-Konferenzen hergestellt, Informationen zu den einzelnen Autoren geliefert und auf fast 100 Seiten werden die Literaturhinweise aller Beiträge zu einer für sich schon interessanten Bibliographie zusammengetragen. Die Autoreninformationen zeigen, dass es gelungen ist, Beiträge sowohl aus der öffentlichen Forschung als auch aus der Industrie (Nokia, Ericsson, Microsoft, HP u. a.) einzuholen. Weitere Autoren kommen aus der Medienwirtschaft oder sind als Interessenvertreter und Industrieberater kenntlich. Verbraucher- und Nutzerinteressen sowie Bürgerinitiativen kommen dagegen nicht direkt zu Wort, sieht man von Barbara Simons ab, die für das US Public Policy Committee der Association for Computing Machinery (USACM) spricht. Tabelle 1 zeigt die Zuordnung von Beiträgen zur Herkunft der Autoren.

Tab. 1: Autorenzuordnung

Autorenkategorie * Teil des Buches
Technologie Ökonomie Recht & Politik
Öffentliche Forschung 5 4 8
Industrieforschung 5 2  
Beratung 2 1 2
Medienwirtschaft / Interessenvertreter 2 1 1
Interessenvertreter der Wissenschaft     1
Politik     1

*   Bei mehreren Autoren erfolgte der Eintrag nach dem Erstgenannten

Der Band ist insgesamt relativ sorgfältig redigiert. Erfreulich ist auch, dass er mit einem Sachregister ausgestattet wurde. Dass in einem Sammelband Redundanzen vorkommen, einige Beiträge bei einem insgesamt recht hohen Qualitätsstandard abfallen, und der Band vor der Verabschiedung der jüngsten Urheberrechtsnovelle abgeschlossen wurde, tut dem Gesamteindruck eines nützlichen Mosaiks, aus dem sich ein Überblick über den Stand der Diskussion gewinnen lässt, keinen Abbruch. Leidig ist nur, dass in einzelnen Beiträgen, vor allem im letzten Teil, die Textverarbeitung verrückt gespielt zu haben scheint (besonders auffällig in den Beiträgen von Günnewig und Hoeren, in denen beispielsweise statt from - form erscheint, statt if - it, oder aus tool - toll oder fool wurde).

Das zweite, schmalere Buch geht auf die Mitgliederkonferenz des Münchner Kreises, eine „gemeinnützige übernationale Vereinigung für Kommunikationsforschung“ (Klappentext; s. a. http://www.muenchner-kreis.de), vom 20. November 2002 zurück. Auf dieser Tagung referierte Thomas Hoeren zu den Chancen des Urheberrechts im Internet-Zeitalter, Rüdiger Grimm zu technisch-organisatorischen Lösungsansätzen für DRM und Rainer Kuhlen griff die Kontroverse zwischen Kommerzialisierung und freiem Zugang auf. Die Publikation weist indes einige Merkwürdigkeiten auf: erst in einer Fußnote auf Seite 107 erfährt der Leser, wann die Konferenz stattgefunden hat und statt des erwarteten Redebeitrags von Thomas Hoeren findet man ohne weitere Erklärung auf 88 Seiten ausgebreitet Teile seines (ohne Frage informativen) Skripts zum Internet-Recht, womit mehr als die Hälfte des Buches bestritten wird (im Internet ist das Skript, Stand Februar 2004, unter http://www.uni-muenster.de/Jura.itm/hoeren/material/Skript/ Skript_Februar2004.pdf abzurufen). Die Zahl der Schreibfehler ist über Erwarten groß und wie schon im anderen angezeigten Band gibt es wieder vermeidbare Wortverdrehungen (etwa Hardt statt Hartz; Intention statt Invention) - diese vor allem im Transkript der lebendigen Diskussion, die dankenswerterweise mit in den Band aufgenommen wurde. Diese Kritik schmälert freilich den Wert der Originalbeiträge nicht.

Was also ist DRM?

Auf die Frage, was denn Digital Rights Management genau meint, gibt es unterschiedliche Antworten, die in der Regel nicht widersprüchlich sind, aber doch ein unterschiedliches Begriffsfeld abstecken. Drei Zugänge lassen sich nach der Lektüre unterscheiden:

Erstens lässt sich der Akzent auf das Management von Rechten setzen, die in Bezug auf digitale Informationsgüter bestehen. Wichtig ist hier darauf hinzuweisen, dass das Management dieser Rechte nicht automatisch mit dem Einsatz informationstechnischer DRM-Systeme zusammenfällt, sondern auch nicht-technische, organisatorische Lösungen für das Management in Frage kommen. Ein ebenso einschlägiges wie kontrovers diskutiertes Praxisbeispiel ist hier die kollektive Rechtewahrnehmung durch Verwertungsgesellschaften. Abgaben auf „Kopiergeräte“ i. w. S. (Scanner, CD-Brenner etc.) und Leermedien, die an Verwertungsgesellschaften fließen, werden nach bestimmten Schlüsseln an Urheber und andere Rechteinhaber ausgezahlt (vgl. ausführlich mit Zahlenmaterial zu den Verwertungsgesellschaften Ulmer-Eilfort in Becker et al, S. 447-461; vgl. zur Diskussion auch Hoeren in Picot, S. 57-67).

Das Spektrum der Rechte, das sich in dieser Perspektive auftut, ist nicht auf das Urheberrecht beschränkt. In unserem Zusammenhang kommt es darauf an, DRM nicht vorschnell auf das „Copyright“ einzuengen. Stefan Bechtold erinnert, „that the acronym DRM does not stand for 'digital copyright management', but for the management of rights in general“ (Bechtold in Becker et al., S. 618, Herv. im Original). Man darf bei DRM also auch an den Schutz der Privatsphäre, den Datenschutz, den Verbraucherschutz etc. denken. In die gleiche Richtung geht das Konzept eines „User Rights Management“, das Rainer Kuhlen als Gegengift zum Copyright Management etabliert sehen möchte (Kuhlen in Picot, S. 127 f.). Der relevante Rechtsbereich kann vielleicht am besten als Informationsrecht bezeichnet werden.

Zweitens lässt sich der Akzent auf das Management von Rechten mittels digitaler informationstechnischer Hilfsmittel setzen. Hier ist in anderer Hinsicht einem zu engen Verständnis von DRM als „Endnutzerkontrollsystem“ zu begegnen. Zum Management der Rechte gehört z. B. auch, dass die Anbieter digitaler Inhalte sich der Rechte versichern. Thomas Hoeren weist auf die besonderen Schwierigkeiten von Multimedia-Produzenten hin, die vielfältigen Urheber- und Leistungsschutzrechte festzustellen und einzuholen. Als Beispiel zieht er eine CD-ROM Produktion zum 100. Geburtstag des Komponisten Carl Orff heran, bei der der Schott-Verlag mehr als 800 Rechte einholen musste (vgl. Hoeren in Picot, S. 65). Technische Hilfsmittel zum Lizenzmanagement sind nichts anderes als eine bestimmte Facette des DRM.

Während die beiden genannten Zugänge um das Recht kreisen, gibt es einen dritten Ansatz, der vom Management digitaler Inhalte (von „content management“ oder „content distribution“) zu kommerziellen Zwecken ausgeht. An die Stelle des Rechts treten ökonomische Regeln, deren Durchsetzung u. a. mittels digitaler informationstechnischer Hilfsmittel bewirkt werden soll. Im DRM-Zusammenhang geht es genauer um Regeln, die Vertriebs- und Nutzungskonzepte für digitale Güter, egal ob copyright-geschützt oder nicht, ausdrücken. Richard Gooch von der International Federation of Phonographic Industry (IFPI) macht sehr deutlich, dass es bei DRM nicht nur darum geht, illegale Massenkopien zu verhindern, sondern um die Bedingung der Möglichkeit, elektronische Dienste bzw. Angebote überhaupt differenziert anbieten zu können, um nicht nur alles oder nichts liefern zu müssen („... without DRM, access is literally all-or-nothing...“, Gooch in Becker et al., S. 16). DRM implementiert folglich Vertriebs- und Nutzungsmodelle, die Produktdifferenzierung (etwa: Preview, Verleih, Kauf) und Preisdifferenzierung ermöglichen (vgl. Gooch in Becker et al., S. 17; vgl. auch Bauckhage in Becker et al, insbes. S. 238 ff.). Ob die Regeln, die damit implementiert werden, sich in Übereinstimmung mit dem geltenden Recht befinden, ist eine der kritischen Fragen, die sich daraus fast zwangsläufig ergibt.

Ausgehend von einem ad hoc-Verständnis von Management als Methoden zur Durchsetzung von Regeln für bestimmte Zwecke, lassen sich Regeln des Rechts und der Ökonomie unterscheiden. Die Bereiche, um deren Management es bei der DRM-Diskussion geht, lassen sich genauer bestimmen als Informationsrecht (und darin enthalten das Urheberrecht) einerseits und als Vertrieb digitaler Informationsgüter andererseits. Beide Bereiche sind aufeinander bezogen. Schließlich lässt sich unterscheiden, welche Mittel das Management einsetzt, ob organisatorische nicht-technische und/oder organisatorisch-technische Mittel, an die man bei DRM vielleicht zuerst denkt. Damit ist der Kernbereich der DRM-Diskussion umrissen, der in der Abbildung 1 veranschaulicht wird.

Abb. 1: Der Kernbereich der DRM-Debatte

Abb. 1: Der Kernbereich der DRM-Debatte

4     Auf der Suche nach der verlorenen Balance im Recht

Die Grundannahmen von Dreier und Nolte (in Becker et al., S. 479-481; 487-489) und vieler anderer teilend, darf davon ausgegangen werden, dass die Digitaltechnologie mit ihren Speicher-, Reproduktions- und Verbreitungstechniken das „Copyright“ in eine Krise gestürzt hat. Ökonomisch betrachtet gibt es grundsätzlich einen trade-off zwischen dem öffentlichen Interesse daran, die private Produktion von Informationsgütern zu stimulieren und gleichzeitig ihre gesellschaftliche Verbreitung, den freien Informationsfluss, zu befördern (dazu Baukhage in Becker et al., S. 237 f.). Im Urheberrecht wird versucht, beide Ziele auszubalancieren, indem Urhebern geistigen Eigentums unter bestimmten Bedingungen (z. B. Originalität) exklusive Rechte für eine bestimmte Zeit (temporäres Monopol) zuerkannt werden, und gleichzeitig über bestimmte Schrankenregelungen das Interesse der Allgemeinheit gewahrt bleibt. Der Prinzipienstreit, ob das „Copyright“ eine Ausnahmeregelung darstellt, die weiterer Rechtfertigung bedarf, oder ob die Verwertungsrechte die allgemeine Regel bilden, zu der über Schrankenbestimmungen Ausnahmen gestattet werden (vgl. dazu Hoeren in Becker et al., S. 584-586) ist für die politischen Auseinandersetzungen relevant, soll an dieser Stelle aber nicht weiterverfolgt werden. Im Kern erlaubten die Schrankenregelungen für bestimmte Zwecke Kopien von Werken ohne vorherige Autorisierung durch die Rechteinhaber herstellen zu dürfen. Unbestritten ist, dass die für die analoge Welt angenommene Balance durch digitale Kopien ins Wanken geraten ist, da digitale Kopien nicht vom Original zu unterscheiden sind, mit vernachlässigbaren Kosten ohne Zeitverzug hergestellt und weltweit angeboten und verbreitet werden können. Nicht zuletzt von Seiten der „content industries“ wurden Anpassungen des Rechts an die neue Lage gefordert, insbesondere die Anerkennung des Einsatzes von TPM (Technical Protection Measures) und DRM. Da diese Schutzmaßnahmen aller Erfahrung nach mehr oder weniger leicht umgangen werden können, gehören das strafrechtliche Verbot der Umgehung von Schutzmaßnahmen und von Techniken und Geräten, mit denen dies bewerkstelligt werden kann, dazu.

Inzwischen wurden in vielen Ländern entsprechende Anpassungen vorgenommen. Zwei Abkommen der World Intellectual Property Organisation (WIPO) aus dem Jahre 1966, der „Copyright Treaty“ und der „Performance and Phonograms Treaty“, gaben dabei die Richtung vor. In den USA wurde 1998 der „Digital Millennium Copyright Act“ (DMCA) verabschiedet und in der Europäischen Union drei Jahre später die Richtlinie 2001/29/EG zur „Harmonisierung bestimmter Aspekte des Urheberrechts und der verwandten Schutzrechte in der Informationsgesellschaft“. Ihre Umsetzung in nationales Recht führte im letzten Jahr in Deutschland zur Novellierung des Gesetzes über Urheberrecht und verwandte Schutzrechte. Die Richtlinie ist damit umgesetzt, die Novellierung des Urheberrechtsgesetzes aber noch nicht abgeschlossen. Am 16. September 2003 wurden die Arbeiten zum so genannten „Zweiten Korb“ der Novelle des Urheberrechts offiziell aufgenommen.

In dem vorliegenden Band von Becker et al. werden die angesprochenen Gesetzgebungsprozesse und ihre Implikationen ausführlich und differenziert dargestellt. Für das DMCA übernimmt es der Anwalt Mathias Lejeune, den Werdegang nachzuzeichnen und das Erreichte einzuschätzen. Er gelangt zu einer verhalten kritischen Einschätzung, dass das DMCA „has provided legal rules, safe enough to guarantee the survival of the entertainment industries. Apparently the rights of users suffer, because in order to have effective anti-circumvention rules, the exceptions were tailored narrow, probably too narrow“ (Lejeune in Becker et al., S. 379 f.). Interessant ist auch der Hinweis, dass sich die Lage in den USA und der EU vor allem dadurch unterscheidet, dass es Verwertungsgesellschaften, wie man sie in Europa kennt, in den USA nicht gibt. Barbara Simons von der USACM kritisiert das Gesetz dagegen scharf. Ihrer Meinung nach bleiben die „fair use“-Regelungen auf der Strecke, die Wissenschaft würde beeinträchtigt, und insgesamt verfehle das Gesetz das eigentliche Übel: „wholesale illegal copying and sales of copyrighted material by factories operating outside the U.S.“ (Simons in Becker et al., S. 403). Der Beitrag geht auch auf die wichtigsten Rechtsstreitigkeiten ein, die es seit in Kraft treten des DMCA gab.

Die europäische Richtlinie und der Prozess, der zu ihr führte, wird von Jörg Reinbothe von der Europäischen Kommission, dem „intellectual father“ der Richtlinie, wie es an anderer Stelle in dem Band heißt (vgl. Becker et al., S. 674), selbst vorgestellt. Den Gegenpart übernimmt Séverine Dusollier, die der Richtlinie entgegenhält, sie habe keine neue Balance zwischen Rechteinhabern und Nutzern und gesellschaftlichem Interesse hergestellt. Ihr zentrales Argument ist, dass durch die Ausformulierung des Umgehungsverbots technischer Schutzmaßnahmen die auf dem Papier gewährten Ausnahmen nichts als leere Versprechungen wären („empty promise“, Dusollier in Becker et al., S. 462).

Die deutsche Urheberrechtsgesetzgebung wird mit ihren Änderungen differenziert und wissenschaftlich nüchtern von Thomas Dreier und Georg Nolte rekapituliert. Bezogen auf die aktuelle Novellierung wird vor allem auf den umstrittenen („fiercely fought over“, Dreier und Nolte in Becker et al., S. 495) Paragraphen 52a (Ausnahme für Lehre und Forschung) und den „second most controversial part“ (Dreier und Nolte in Becker et al., S. 497), den Paragraphen 95a-c (technische Schutzmaßnahmen und der rechtliche Schutz vor Umgehungsmaßnahmen) ausführlich eingegangen. Ein gewisses Unbehagen lässt sich herauslesen, dass der Rechtsraum für Privatkopien zu stark eingeengt wird. Wenn es praktisch unmöglich sein sollte, effektive technische Schutzmaßnahmen zu garantieren und gleichzeitig Ausnahmeregelungen zu versprechen (auf den Widerspruch stellen auch Lejeune, Dusollier und Simons ab, s. o.), dann mag eine ausbalancierte Lösung vielleicht gar nicht innerhalb des Urheberrechts zu formulieren sein. Nötig werden könnte letztendlich „a new body of information law to safeguard the public domain“ (Dreier und Nolte in Becker et al., S. 501). Das entspricht ihrer Eingangsdiagnose: „The current 'crisis' of copyright may be explained by the fact that copyright as a body of law is currently overloaded with information policy issues, which - like a ship carrying a too heavy load - it has never been designed for“ (Dreier und Nolte in Becker et al., S. 480).

Der Politologe Dirk Günnewig bietet eine interessante Ergänzung zu der rechtlichen Betrachtung. Er untersuchte nämlich die politischen Konflikte, die bei der Umsetzung der Richtlinie in deutsches Recht auftraten in Form einer Diskursanalyse. Sein Beobachtungszeitraum reichte von Dezember 1996 bis Juli 2003 und umfasste 20 Etappen. Von den, wie er schreibt, etwa 100 Gruppen, die von der Gesetzgebung tangiert werden, wählte er die 35 aus, die als Akteure - vor allem Lobbyisten, aber auch politische Parteien - bezeichnet werden können. Der Diskurs wird mit allen Kontroversen genau dokumentiert. Zu den für mich interessantesten Einzelergebnissen gehört der Schwenk der Interessenvertreter der IT-Industrie (BITKOM), die zunächst darum stritten, welche Geräte dem Kopieren dienen und mit einer Abgabe belegt werden dürften und welche nicht, dann aber nach einem Gerichtsurteil, in dem CD-Brenner als Kopiergeräte eingestuft wurden, ihre Strategie änderten und ganz auf technische Schutzmaßnahmen setzten (vgl. Günnewig in Becker et al., S. 549; kritisch auch Hoeren in Picot, S. 148). Schlagender noch kommt meines Erachtens der Zusammenhang von Interesse und Erkenntnis der Akteure bei der schlichten Frage zum Ausdruck, ob man denn die gegenwärtigen DRM-Systeme schon für einsetzbar und ausreichend ausgereift halte: Autoren, Inhalteanbieter (außer dem Musikverleger-Verband) und Verwertungsgesellschaften halten die Systeme noch für unausgereift, während BDI, DIHK, BITKOM und „Druck gegen Abgaben“ die gegenteilige Auffassung vertreten (Günnewig in Becker et al., S. 556 f.). Die komplette Untersuchung soll übrigens dieses Jahr als Dissertation erscheinen.

Die rechtliche Materie ist natürlich komplexer als sie bisher in dieser Rezension wiedergegeben werden konnte. Einige zusätzliche in den Bänden behandelte Topoi sollen deshalb wenigstens ergänzend noch angerissen werden.

  1. Digital Rights Management ist nicht zureichend als Kombination des Urheberrechts und technischer Schutzmaßnahmen zu erfassen. Nutzerverträge, die im ungünstigsten Fall die legitimen Rechte der Nutzer weiter einschränken, sind mit in Betracht zu ziehen. Stefan Bechtold macht zusätzlich noch auf die DRM-Technologie Lizenzabkommen aufmerksam, die in der Diskussion kaum beachtet würden („... in Europe, the matter has not been tackled at all“, Bechtold in Becker et al., S. 611).
  2. Manche Beobachter sehen insgesamt eine zunehmende Veränderung des Rechts im Interesse der „big player“ der Medienindustrie. Kriterien sind die Verlängerung der zeitlichen Dauer des Copyrights, aber auch die Ausweitung des Copyrights hin zu einem Kontrollrecht, wo vorher eine finanzielle Kompensation ausreichte. In den Kontext gehört auch die Auseinandersetzung von Thomas Hoeren mit Jane Ginsburg, die Copyright als „Access Right“ aufgefasst sehen will. Dem widerspricht Hoeren. Der Terminus „access right“ sei da angebracht, wo es um den freien Zugriff der Öffentlichkeit auf Informationen geht. Er verwahrt sich gegen eine Umdeutung: „ It is therefore misleading to use that term in a sense which is clearly the opposite of freedom of information: an exclusive right to restrict public access“ (Hoeren in Becker et al., S. 577).
  3. Ein weiterer Diskussionspunkt ist „code as code“, um die von Lawrence Lessig geprägte Formel zu benutzen. Es geht mit anderen Worten um die Durchsetzung des Rechts qua Computertechnik. Nahe liegende Befürchtungen sind, dass Inhalteanbieter zu einer Art Selbstjustiz greifen, dass die Regeln, die durch den Computercode gesetzt werden, nicht unbedingt rechtskonform sind, dass nicht copyright-geschützte Inhalte wie geschützte behandelt werden und der Computercode bestehende Rechte (etwa auf Privatkopie) aushebelt. Hinzu kommt, dass Recht nicht statisch ist, sondern sich z. B. mit der Rechtsprechung ständig verändert (besonders in Ländern mit case law).
  4. Zu den bekannten Sorgen gehört des Weiteren, dass DRM-Systeme den Schutz der Privatsphäre beeinträchtigen könnten. Daraus leiten sich Ansprüche an die Verträglichkeit von DRM und PET (Privacy Enhancing Technologies) ab, ein Thema, das in dem Beitrag von Lee A. Bygrave (Bygrave in Becker et al., S. 418 ff) behandelt wird. 8.
  5. 9.
  6. Verschiedentlich gibt es auch Hinweise, dass das Urheberrecht anachronistisch wird angesichts von “team-creativity“, industrieller Massenfertigung geschützter Werke und neuer Produkttypen, die bestehende digitale Inhalte neu kombinieren, wie in vielen Multimediaprodukten oder, wie man hinzufügen kann, zunehmend auch als Ergebnisse digitaler Informationsverarbeitung entstehen werden.
  7. Die Aufzählung abschließend wäre zu fragen, ob die Justiz nicht tendenziell überfordert ist, wenn sie DRM-Systeme auch technisch beurteilen können muss, um z. B. feststellen zu können, welche Rechte ein bestimmtes DRM-System in der Anwendung möglicherweise einschränkt.

5     Warum DRM mehr als ein digitaler Steifknopf im Ohr ist

Es wird Zeit, zu den technologischen Aspekten zu kommen, die in dem Band in 14 Beiträgen erläutert werden. Der einleitende Beitrag von Niels Rump erklärt, dass an DRM-Technologien seit den 90er Jahren gearbeitet wird, dass die Innovation aber immer noch in den Anfängen steckt. Es wird in diesem Beitrag, wie auch in dem von Susanne Guth deutlich, dass es schon rein technisch gesehen nicht um eine Innovation geht, sondern um eine Vielzahl von technischen Komponenten, die zusammenspielen müssen: Verschlüsselungstechniken, Identifizierungs-, Authentisierungs-, Autorisierungsverfahren, Beschreibungssprachen für Inhalte und Rechte, Nutzungskontroll-, Abrechnungs- und Zahlungskomponenten etc. (vgl. Rump in Becker et al., S. 4, Guth in Becker et al., S. 151-153).

DRM lässt sich auch nicht wie ein Steifknopf an einen Teddybär am Ende des Produktionsprozesses anbringen, sondern die ganze Wertschöpfungskette und sogar der ganze Produktlebenszyklus von Informationsprodukten ist betroffen. Die digitalen Güter, die später DRM unterworfen werden sollen, müssen von Anfang an daraufhin ausgerichtet werden, und im Systemdesign muss bereits berücksichtigt werden, was nach Ablauf des Copyrights passiert, wie die Langzeitarchivierung aussehen kann und anderes mehr.

Man kann weiter von einer systemischen, interdependenten Innovation sprechen, was Niels Rump in das Bild des dreibeinigen Hockers gebracht hat, der nur gerade steht, wenn sein technisches, rechtliches und ökonomisches Bein gleich lang sind (Rump in Becker et al., S. 5). Johannes Ulbricht verschärft diese Einsicht in seinem Beitrag noch, wenn er argumentiert, dass DRM-Entwicklung praktisch ein konzertiertes Voranschreiten von Technikentwicklung, Recht und Geschäftsmodellen zwingend erfordert. Die systemische Innovation hat von der Ambition her Infrastrukturcharakter, zum einen weil globale, interoperable und standardisierte Lösungen angestrebt werden müssen, da Insellösungen nur begrenzt akzeptabel sein werden und große weiße DRM-freie Zonen auf der Landkarte die Effektivität der Schutzmaßnahmen verringern. Zum anderen scheinen die Autorisierungs- und Authentisierungstechniken für Geräte, Nutzer und Inhalte auf eine globale Infrastruktur zuzusteuern, die an den schwierigen und langwierigen Aufbau von Public-Key-Infrastrukturen denken lassen. Schließlich gehören DRM und Entwicklungen des Trusted Computing sehr eng zusammen. Erst die Durchsetzung solcher Computer scheint ein ausreichend hohes Maß an Schutz gegen die Umgehung der Schutzmaßnahmen zu bieten.

Dirk Kuhlmann und Robert A. Gehring gehen genauer auf die Trusted Computing Platform Architecture (TCPA) im Verhältnis zum DRM ein. TCPA Komponenten agieren zwischen der Systemhardware und dem Betriebssystem und können Zustände und Veränderungen im Betriebssystem und in Anwendungen kontrollieren. Nach Einschätzung der Autoren können zwar TCPA-Komponenten und -funktionalitäten für DRM-Systeme genutzt werden und damit die Effektivität der DRM-Systeme gegen Angriffe erhöhen (Kuhlmann und Gehring in Becker et al., S. 203) - „grabbing“ z. B. (insbesondere das Aufzeichnen von Daten am Ausgang von Video- oder Sound-Karten) ließe sich durch TCPA-basiertes DRM leichter verhindern. TCPA ist aber selbst kein DRM-System: “DRM technology, by definition, is policy-specific, built 'to police copyright', while TCPA technology is conceptually policy-neutral“ (Kuhlmann und Gehring in Becker et al., S. 198). Das wird Kritikern entgegengehalten, die TCPA als DRM ansehen. Andersherum streiten die Autoren die Gefahren von TCPA nicht ab und fordern sogar eine breite gesellschaftliche Debatte darüber: „A broad qualified, political debate about how the information society is shaped by technology like TCPA and Palladium is urgently needed“ (Kuhlmann und Gehring in Becker et al., S. 205).

Tobias Hauser und Christian Wenz gehen in ihrem Beitrag grundsätzlich davon aus, dass alle DRM-Systeme entscheidende Sicherheitslücken aufweisen. Für die Entwickler von DRM-Systemen sei es wichtig, die Schwächen ihrer Systeme zu kennen, wozu diejenigen, die „Cracking Tools“ entwickeln, letztlich beitragen. Interessant ist die Trendaussage, dass DRM-Systeme, die Angreifer ständig zu „knacken“ versuchen, zu kurzen Update-Zyklen führen werden. Man darf sich diesen modus vivendi vielleicht wie beim Virenschutz vorstellen, den man auch in engen Zeitabständen erneuern muss.

Weitere Beiträge in dem technischen Teil behandeln die Identifikation von Inhalten, Metadaten, Authentifizierung, digitale Wasserzeichen, Fingerprinting, Rights Expression Languages, elektronische Zahlungssysteme, Standardisierungsfragen und die von Frank Hartung, Ericcson, günstig eingeschätzten Voraussetzungen, DRM auf mobilen Endgeräten einzuführen. Was man in dem technischen Teil etwas vermisst, ist eine stärkere Differenzierung nach den Medien, die der Einteilung von Marc Fetscherin folgen könnte in: physikalische Medien (wie CD und DVD), geschlossene Netze (Kabelnetze, Satelliten, mobile Netze) und Verbreitung digitaler Formate über offene Netzwerke (vgl. Fetscherin in Becker et al., S. 314).

6     Der Geist ist aus der Flasche

„Der Geist ist aus der Flasche“. Diese Redewendung geht auf eine Geschichte aus Tausend und eine Nacht zurück (Geschichte des Fischers mit dem Geiste, kostenfrei nachlesbar etwa im Projekt Gutenberg im Internet unter http://gutenberg.spiegel.de/weil/1001/band1/fischer.htm), in der es dem frommen Fischer gelingt, den böse gewordenen Geist auszutricksen, so dass er wieder in der Flasche verschwindet. Aber nicht jeder Geist ist wieder in die Flasche zu bekommen. Jedenfalls ist das die Annahme der meisten Autoren, die sich mit den ökonomischen Fragen und den Geschäftsmodellen für Inhalteanbieter befassen - vor dem Hintergrund der „Napsterization“, der P2P-Netzwerke und der Ubiquität zur Verfügung stehender Kopiertechniken in zahllosen Haushalten. Auch die Analysen der Technik sprechen dafür, nicht zuviel und jedenfalls nicht alles von technischen Schutzmaßnahmen zu erwarten. Der Geist aus der Flasche meint also die nicht von der Industrie und den Rechteinhabern kontrollierte (und als Piraterie bezeichnete) Verbreitung digitaler Informationen. Peter Biddle et al. von Microsoft sprechen in diesem Zusammenhang vom „darknet“ und sind ebenfalls überzeugt, dass „the darknet genie will not be put back into the bottle“ (vgl. Peter Biddle et al. in Becker et al., S. 344).

In gewisser Weise lässt sich bei allen Autoren dieses Bandes, die sich mit den Geschäftsmodellen für digitale Inhalte befassen, ein Konsens dahingehend feststellen, dass die Produkte und Dienstleistungen der kommerziellen Anbieter in Konkurrenz zu den alternativen Anbietern stehen und sie diese Konkurrenz annehmen müssen, indem sie für Kunden attraktive Geschäftsmodelle entwickeln. In den Worten von Marc Fetscherin: „content providers must accept electronic theft of their intellectual property as the unchangeable reality and learn to compete with pirated versions of their own products“ (Fetscherin in Becker et al., S. 302); in den Worten der Microsoft-Autoren: “Darknets are a competitor to legal commerce, and the normal rules of competition apply“ (Peter Biddle et al. in Becker et al., S. 364). In beiden Bänden gibt es zu diesem Zusammenhang weitere Einsichten, die im Folgenden aufgegriffen werden.

Stuart Haber et al., die für HP arbeiten, fragen “If piracy is the problem, is DRM the answer?“. DRM ist nach Auffassung der Autoren nicht die Lösung. DRM-Systeme setzen voraus, dass Inhalte und Lizenzen assoziiert sind; ist das der Fall, können DRM-Systeme die autorisierte Nutzung zulassen und die nicht-autorisierte verweigern. Das eigentliche Problem, der unerlaubte Erwerb von „copyrighted content“ würde damit aber nicht gelöst. Solange es einigen Experten gelänge, Inhalte zu dissoziieren und neu zu verteilen, ließe sich das Problem nicht durch „ordinary DRM“ beheben. Die Autoren spielen dann die Idee „drakonischer“ DRM-Systeme durch: alle Inhalte wären geschützt und müssten lizenziert werden und alle Abspielgeräte spielten ausschließlich lizenzierte Inhalte ab. Dieses Szenario wird als unmöglich verworfen.

Zur „Piraterie“ ließe sich ergänzen, dass es letztlich nicht so klar ist, welcher Schaden der Medienindustrie wirklich entstanden ist. Selbst im Fall Napster gibt es keine eindeutige Schadensbilanz. Einige Autoren weisen darauf hin, dass alternative Distributionsformen keineswegs immer als Feind angesehen werden müssten, wie Bibliotheken im Verhältnis zum Buch und Video im Verhältnis zum Film gezeigt hätten. Interessant ist eine Statistik der IFPI, die Kuhlen heranzieht, wonach in den reichen Ländern der „domestic music piracy level“ ausnahmslos unter 10 % liegt, während er in ärmeren Ländern häufig über 50 % liegt (Kuhlen in Picot, S. 119; siehe auch oben das Argument von Simons, dass das „wholesale copying“ durch DRM nicht getroffen wird). Am Rande sei bemerkt, dass die Industrie keine einheitliche DRM-Linie verfolgt, was sich an der Produktion von MP3-Playern und der Unterstützung von Tauschbörsen durch Werbung ablesen lässt.

Peter Biddle et al. setzen sich in ihrem lesenswerten Beitrag mit dem von ihnen so genannten „Darknet“ auseinander, indem sie systematisch die Möglichkeiten überprüfen, durch rechtliche und technische Maßnahmen das „Darknet“ zu bekämpfen mit dem Ergebnis, dass solche Maßnahmen die Attraktivität des Darknet und seine Verbreitung zwar eindämmen, es aber nicht zum Verschwinden bringen können.

Rüdiger Grimm macht auf einen weiteren Geburtsfehler heutiger DRM-Systeme aufmerksam. Die Inhalteanbieter können ihre Rechte zwar formulieren, aber sie können sie nicht durchsetzen, denn die „Instrumente der Durchsetzung liegen in den Endnutzergeräten, d. h. sie sind letztlich in der Hand der Nutzer“ (Grimm in Picot, S. 98), die aber gar kein Interesse an der Durchsetzung der Rechte haben, solange die Systeme ihre Handlungsmöglichkeiten einschränken. Was also wäre zu tun, damit die technischen Schutzmaßnahmen auch von den Nutzern akzeptiert werden?

Marc Fetscherin unternimmt den höchst interessanten (und seltenen) Versuch, das Nutzerkalkül bezogen auf den Erwerb geschützter und ungeschützter „illegaler“ Inhalte zu formalisieren. Am Ende, wenn es ein gangbares Geschäftsmodell geben soll, muss der Erwerb des Originals günstiger sein als Stehlen (vgl. Fetscherin in Becker et al., S. 319). Parameter wie Preis, Nutzwert, Risiko und andere werden in das Kalkül einbezogen. Seine Grundaussage lautet, dass es ein strukturelles Problem gibt, solange der Einsatz von Schutztechnologien nur die illegale Nutzung im Auge hat, die Folgen für die legale Nutzung aber, d. h. die verursachten Behinderungen, nicht in den Blick kommen. Die Frustrationen (vgl. S. 315) könnten sogar so hoch sein, dass die Schutztechniken letztlich die Piraterie fördern. In der Tat erscheint die Gerätefreiheit eingeschränkt, das Nutzerverhalten wird verfolgt, das Teilen und Weitergeben wird verhindert, Dateien werden ungültig und dazu kommen womöglich noch Anmeldeprozeduren u. ä. Das Gegenteil also wäre gefordert: Flexibilität, Portabilität, Benutzerfreundlichkeit, Schutz der Privatsphäre, niedrige Preise und hoher Nutzwert.

Interessant in diesem Zusammenhang sind auch die Vorschläge von Grimm und Kuhlen. Beide denken an Geschäftsmodelle, in die die Nutzer einbezogen sind, etwa über Provisionen. Sie verstehen P2P-Netzwerke als Boden für genuine Geschäftsmodelle (vgl. Grimm in Picot, S. 103-106; Kuhlen in Picot, S. 129). Insgesamt darf man sagen, dass nicht nur in diesem Buch genauere Analysen zu den Nutzern, ihrem Verhalten und ihren Motiven fehlen. Annahmen über fehlendes Unrechtsbewusstsein, Piraterie, Hackerkultur etc. schwirren durch den Raum, aber gründlich untersucht wurden die Lebenswelten, auf die da angespielt wird, meines Wissens noch nicht.

Ein Thema, das auch noch weiterer Untersuchungen bedarf, sind die Innovationseffekte von DRM. Das Thema ist komplex, und die folgende These von Rainer Kuhlen doch sehr gewagt. Mit Hinweis auf die „new growth theory“ stellt er den Satz auf: „Je freizügiger der Umgang mit Wissen jeder Art ist, desto größer die Chancen für einen hohen Innovationsgrad der Wirtschaft, für einen hohen Inventionsgrad der Wissenschaft und einen hohen Demokratisierungs-/Transparenzgrad des politischen Systems ohnehin“ (Kuhlen in Picot, S. 109). Arnold Picot und Mariana Fiedler gehen differenzierter an das Thema heran. Sie sehen z. B., dass Schutzmechanismen gegen eine volkswirtschaftlich optimale Allokation von Ressourcen gehen können, weil unterbliebene Kooperationen negative Effekte haben (Picot und Fiedler in Becker et al., S. 289); sie sehen aber auch, dass gerade bei riskanten und kostspieligen Produktionen technischer Schutz nötig sein kann, um die Investitionen zu schützen. In der Tat kommt es auf Differenzierung nicht nur zwischen individueller Effizienz und sozialer Effizienz an, sondern auch auf den Blick für die spezifischen Innovationsbedingungen, einschließlich der Motive der Urheber. Kreation, Invention und Innovation in der Wissenschaftsproduktion, der Filmproduktion oder der Entwicklung von Softwarekonzepten und -anwendungen wie „file-sharing“ oder „open source“ gehorchen je spezifischen Bedingungen und deshalb differiert das, was DRM jeweils leistet oder verhindert, entsprechend.

7     Zum Schluss: DRM und TA

Die Publikationen haben die Komplexität der Materie deutlich werden lassen und eine Reihe von Beiträgen verdienten eine minutiösere Einlassung als sie hier möglich ist. Deutlich geworden sind aber auch Wissenslücken, die freilich nicht den Sammelbänden anzulasten sind, sondern in erster Linie Schwächen des gegenwärtigen Diskurses spiegeln dürften. Offene Fragen sind meinem Eindruck nach: Was leisten DRM-Systeme heute in der Praxis? Wo und in welchem Umfang sind sie überhaupt im Einsatz? Wie haben DRM-Systeme in der Praxis die jeweilige Praxis schon verändert? Wie ist der state of the art in den Labors? Sind technische Durchbrüche zu erwarten? Wie wird sich die DRM-Technologie in den nächsten Jahren weiterentwickeln? Wie werden Rechtsetzung und Rechtssprechung in den kommenden Jahren gestaltet? Wäre es nicht dringend nötig, von der allgemeinen DRM-Debatte zu spezielleren Analysen für bestimmte Wissensformen (etwa Fachinformationen, Unterhaltung), Medientypen und Vertriebskanäle zu kommen? Ist nicht dringend weiterer Differenzierungsbedarf geboten, was den Verwendungskontext angeht (etwa private, berufliche Nutzung)? Wäre es nicht dringend angezeigt, die Motive, Erfahrungen und Wünsche von Anwendern und Endnutzern einzubeziehen?

Wäre es nicht an der Zeit, eine TA zu DRM durchzuführen? Das lässt sich so ad hoc nicht sagen. Wer sich diese Frage aber stellt, sollte auf jeden Fall die Beiträge von Rainer Kuhlen (in Picot, S. 107 ff.) und den von Stefan Bechtold (in Becker et al., S. 597 ff.) zur Kenntnis nehmen.

Rainer Kuhlen selbst fordert einen „vernetzten Governance-Ansatz“ (S. 111) und einen „umfassenden gesellschaftlichen Diskurs“ (ebd.). Er argumentiert normativ und versteht seinen Ansatz als „informationsethisch“ begründet; seine Perspektive ist die Nachhaltigkeit bezogen auf Wissen und Information. Weitere zentrale Konzepte sind „Wissensökologie“, „User Rights Management“, „politische Ökonomie des Umgangs mit Wissen und Information“. Theoretische Bezüge werden zur „new growth theory“ (Joseph Cortright) hergestellt und zur „Theorie des akteurszentrierten Institutionalismus“ des Max-Planck-Instituts in Köln. In Kuhlens Beitrag werden die Konzepte und Bezüge zwar mehr angedeutet als wirklich benutzt, aber eine größere Arbeit zu dem Thema, auf die man gespannt sein darf, wurde auf der letztjährigen Tagung der DGRI von Kuhlen bereits angekündigt.

Eine andere Herangehensweise verfolgt Stefan Bechtold, dessen Interesse auf Technikgestaltung geht: „Instead of taking DRM systems as given constants that are exogenous to the policy process, this article joins an emerging scholarship which asks how DRM systems could be altered in a value-centered design process so that important policy and legal values are preserved“ (Bechtold in Becker et al., S. 599). Das bedeutet explizit, DRM-Systeme auch gegen ihre Verächter zu verteidigen und die technischen Optionen aufzuzeigen - man denke an „light weight DRM“, die zwar Massenpiraterie verhindern sollen, aber nicht die Einzelkopie, oder an die Integration von DRM und „Privacy Enhancing Technologies“ (PET).

Einige der offenen Fragen werden wir - und damit komme ich zum Anfang der Rezension zurück - selbst im Projekt INDICARE aufgreifen und hoffentlich mit Interessierten diskutieren können.

Kontakt

Dipl.-Soz., M.A. Knud Böhle
Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Karlsruher Institut für Technologie (KIT)
Karlstr. 11, 76133 Karlsruhe
Tel.:+49 721 608-22989
E-Mail: knud boehle∂kit edu