Home | english  | Impressum | Datenschutz | Sitemap | KIT

Äquivalente Risiken - mit und ohne Gentechnik?

Äquivalente Risiken - mit und ohne Gentechnik?
Autor: Arnim von Gleich
Quelle: Nr. 1, 5. Jahrgang
Datum: März 1996
Diskussionsforum

Äquivalente Risiken - mit und ohne Gentechnik?

Ein Kommentar zum 'Verfahren zur Technikfolgenabschätzung des Anbaus von Kulturpflanzen mit gentechnisch erzeugter Herbizidresistenz'

von Arnim von Gleich

Mit der Veröffentlichung des Heftes Nr. 18 der Materialien des TA-Verfahrens ist seit kurzem die Möglichkeit auch für Nichtbeteiligte gegeben, sich ein weitgehendes Bild von Inhalt, Verlauf und Ergebnissen zu machen. Da auf der anderen Seite die abschließende Konferenz [siehe Ankündigung] und der Endbericht noch ausstehen, besteht für die unmittelbar am Verfahren Beteiligten die Möglichkeit, sich noch mit den hier vorzutragenden Anmerkungen auseinanderzusetzen.

1. Gleiche Risiken - keine 'besondere Qualität' des gentechnischen Eingriffs?

Im 'Verfahren zur Technikfolgenabschätzung des Anbaus von Kulturpflanzen mit gentechnisch erzeugter Herbizidresistenz' am WZB in Berlin ging es in einem wesentlichen Argumentationsstrang um zwei Fragen:

1. Ob "sich die Risiken transgener Pflanzen von den Risiken neuer Pflanzen, die durch klassische Züchtung erzeugt worden sind, unterscheiden",

2. wie "die Annahme eines besonderen Risikos bei gentechnisch veränderten Pflanzen begründet werden kann" (van den Daele 1994, S. 20). Die Möglichkeit zu einer solchen Begründung wurde in der Darlegung der 'besonderen Qualität des gentechnischen Eingriffs' gesehen.

Als 'Ergebnis' des Verfahrens wird in den Unterlagen dargestellt und auch inzwischen allgemein verbreitet, daß die "erkennbaren Risiken äquivalent" (van den Daele u.a. 1995, S. 142) also gleichwertig, und daß die Annahme eines besonderen Risikos bei gentechnisch veränderten Pflanzen wissenschaftlich nicht begründbar sei. "Der Vergleich mit konventionell gezüchteten Kulturpflanzen 'normalisiert' nicht nur die erkennbaren Risiken transgener HR-Pflanzen; er 'normalisiert' auch die Prognoseunsicherheit und die Ungewissheiten über die möglichen Risiken. Dieses Ergebnis widerspricht dem zentralen Argument, mit dem in der Öffentlichkeit gegen die Gentechnik Stellung bezogen wird: der Annahme besonderer Risiken und Unsicherheiten bei gentechnischen Eingriffen" (van den Daele u.a. 1995, S. 129). Konsequent wird gefolgert, daß, wenn die wissenschaftliche Begründung unmöglich ist, nur noch politischer Voluntarismus bliebe: "Es scheint an dieser Stelle nur noch politische Präferenzen zu geben, sich auf die eine oder andere Seite dieser Risikovermutung zu schlagen und diese dann der Bewertung der HR-Technik zugrundezulegen" (ebd. S. 131).

Die mit Technikbewertungsverfahren etwas Vertrauten überrascht schon auf den ersten Blick das Ergebnis eines 'gleichen' bzw. vergleichbaren Risikos. Nicht vergleichbare Risiken, die im Endbericht nebeneinander dargestellt, aber nie gegeneinander verrechnet werden können, gehören zum täglichen Brot der Technikbewertung. Vergleichbare oder gar 'gleiche' Risiken zweier konkurrierender Technologien gehören sicher zum unwahrscheinlichsten aller denkbaren Ergebnisse. Aber selbst extrem unwahrscheinliche Ergebnisse können natürlich richtig sein.

Ein genauer Blick auf das Verfahren zeigt allerdings sehr schnell, wie ein solches Ergebnis zustande kommen konnte. Beim Verfolgen der ersten Frage, ob "sich die Risiken transgener Pflanzen von den Risiken neuer Pflanzen, die durch klassische Züchtung erzeugt worden sind, unterscheiden", wurde eine folgenschwere - soweit aus den Unterlagen hervorgeht, allerdings nirgendwo explizit begründete - Voraussetzung gemacht, nur solche Risiken zu behandeln, für die ein wissenschaftlich akzeptiertes bzw. akzeptierbares Wirkungsmodell vorliegt (van den Daele u.a. 1994, S. 200; van den Daele u.a. 1995, S. 133 und 153). Ein solcher Schritt hat weitreichende Konsequenzen:

1. 'Noch unbekannte Risiken' bzw. 'Risiken, für die bisher noch kein plausibles Wirkungsmodell' vorliegt, werden damit aus der Untersuchung und aus dem Risikovergleich ausgeschlossen.

2. Die argumentativen Ansprüche (die Beweislast) zwischen 'Machern' und 'Mahnern' verschieben sich stark zugunsten der 'Macher', weil diese einseitig vom Ausmaß unseres Nicht-Wissens profitieren.

3. Mit steigendem Ausmaß des Nicht-Wissens über mögliche Folgen wird das in die Bewertung einfließende Risiko kleiner statt größer.

Liest man die Texte, wird deutlich, daß die Moderatoren des Verfahrens davon ausgingen, daß es gar keine Möglichkeit gebe, Risiken, für die (noch) kein Wirkungsmodell vorliegt, angemessen zu berücksichtigen, weil man eben über diese noch unbekannten Risiken nichts weiß und auch nichts aussagen könne: "Im TA-Verfahren wurde vorgeschlagen, von hypothetischen Risiken nur dann zu sprechen, wenn ein Risikoverdacht auf Mechanismen gestützt werden kann, die im Prinzip bekannt sind, wenn man also weiß, daß die Schadensereignisse überhaupt möglich sind und nachvollziehbar ist, wie es zu ihnen kommen könnte. Dagegen sollte man von spekulativen Risiken sprechen, wenn solche Mechanismen nicht benannt werden können oder der Risikoverdacht darauf gestützt wird, daß es mehr und andere Typen von Ereignissen oder Mechanismen geben könnte, als uns bisher bekannt sind. Die Vermutung, daß transgene Pflanzen generell ein besonderes Risikopotential darstellen, wäre demnach keine Hypothese, sondern eine Spekulation" (van den Daele u.a. 1995, S. 134).

Sollte im Folgenden jedoch gezeigt werden können, daß das Reden über 'noch unbekannte Risiken' nicht, wie im Verfahren geschehen, in den Bereich der unbegründeten Spekulation verwiesen werden muß, und daß zudem das Ausmaß des Nicht-Wissens über mögliche Folgen bei den beiden verglichenen Technologien der Pflanzenzüchtung nicht einfach als unbestimmbar angesehen und deshalb auch nicht als 'gleich' angesetzt werden darf, wie ebenfalls im Verfahren geschehen, wenn vielmehr wissenschaftlich nachvollziehbare Gründe dafür angegeben werden können, daß das Ausmaß des Nicht-Wissens über mögliche Folgen und damit auch das Ausmaß der 'noch unbekannten Risiken' sich sehr wohl zwischen verschiedenen Technologien signifikant unterscheidet, und es auch wissenschaftlich begründbare Kriterien zur Bestimmung dieser Unterschiede gibt, dann wird das Ergebnis des Verfahrens hinsichtlich der Aussage, 'die Risiken der beiden Verfahren der Pflanzenzüchtung seien vergleichbar bzw. gleich', schlicht hinfällig.

Beim Verfolgen der zweiten Frage, "wie die Annahme eines besonderen Risikos bei gentechnisch veränderten Pflanzen begründet werden kann", war einerseits im Verfahren offenbar klar, daß es hier um eine Begründung für die "besondere Qualität des gentechnischen Eingriffs geht", andererseits wurde aber ganz entgegen dieser Einsicht davon ausgegangen, daß diese Frage adäquat nur auf der Ebene der Wirkungsmodelle zu bearbeiten sei, indem man sie als Frage nach der 'Besonderheit bzw. Exklusivität von Positions- bzw. Kontexteffekten' (van den Daele u.a. 1995, S. 130) bei der gentechnisch (vektorvermittelten) Erzeugung von Herbizidresistenz bei Pflanzen bearbeitet. Die Frage nach der 'besonderen Qualität des gentechnischen Eingriffs' wurde also in die Frage nach der 'Geltung eines bestimmten Wirkungsmodells' umgewandelt.

Aus der Sicht der Technikbewertung, die sich inzwischen mit mehr oder minder großem Erfolg um eine 'Normierung' von Technikbewertungsverfahren, zumindest aber um die Formulierung von methodischen Mindeststandards bemüht, die in solchen Verfahren eingehalten werden müssen, ist diese vollständige Verschiebung von Risikofragen auf die Ebene der Wirkungsmodelle ausgesprochen problematisch.

2. Die Verwechslung von Wirkungsbilanz und Bewertung

Man kann in Anlehnung an derzeit laufende Normierungsbemühungen für Ökobilanzen (DIN) vier bis fünf Phasen bzw. Elemente von Technikbewertungsverfahren unterscheiden:

1. Definition und Strukturierung des Problems

Hierzu gehört insbesondere die Beschreibung und Abgrenzung der (möglichst vergleichend) zu bewertenden Systeme (von der Wiege bis zur Bahre) einschließlich der Begründung ihrer Vergleichbarkeit, die Darlegung des Erkenntnisinteresses, der gewählten Bewertungsmethoden und Bewertungskriterien.

2. Sachbilanz

Hier geht es um die Beschreibung und Analyse der für die Untersuchung relevanten Sachverhalte (z.B. Leistungs- bzw. Ertragsdaten, Flächenverbrauch, Input-Output-Analyse mit dem Ziel möglichst vollständiger Material- und Energieflußdiagramme).

3. Wirkungsbilanz

Darlegung der erwartbaren Wirkungen, die von den in der Sachbilanz beschriebenen Sachverhalten ausgehen. Für die Wirkungsbilanz sind Wirkungsmodelle wichtig, d.h. Vorstellungen und Modelle über (mehr oder minder empirisch und experimentell gesicherte) Ursache-Wirkungsbeziehungen (z.B. Treibhauseffekt, Grundwasserbelastung, horizontaler Gentransfer, Ausrottung von Wildkräutern).

4. Bewertung

Hier kommen gesellschaftliche Werte ins Spiel. Dieser Schritt ist also nicht allein empirisch (natur)wissenschaftlich zu behandeln. Das größte Problem ist hier die Nicht-Vergleichbarkeit und Nicht-Gegeneinander-Verrechenbarkeit verschiedener Probleme und Risiken (z.B. reale Freisetzung von x Tonnen CO2 vs. möglichen horizontalen Gentransfer) sowie der Umgang mit unterschiedlichen Aussageformen. Einige Chancen, Risiken, Probleme, Vor- oder Nachteile lassen sich gut, andere weniger gut empirisch-wissenschaftlich fassen, formalisieren oder quantifizieren und damit besser in der Bewertung handhaben, aber bekanntlich muß das Quantifizierbare nicht immer auch das 'Wesentliche' sein.

(ggf.) 5. Fazit und Aufzeigen von Handlungsmöglichkeiten

Hier geht es um Hinweise auf Schwachstellen, um Optimierungsvorschläge und um die mögliche Wahl zwischen technischen Alternativen.

Wichtig für die oben aufgeworfenen Fragen ist insbesondere die Unterscheidung zwischen Sachbilanz, Wirkungsbilanz und Bewertung. Risikofragen sind Bewertungsfragen. Die empirisch-wissenschaftlichen Grundlagen dafür werden in der Sach- und Wirkungsbilanz gelegt. Wie wichtig Wirkungsmodelle in Technikbewertungsverfahren sind, zeigt sich gerade dann, wenn sie uns fehlen, wie dies z.B. derzeit immer noch bei der Bewertung der Risiken von Elektrosmog für den menschlichen Körper der Fall ist. Weil ein plausibles Wirkungsmodell fehlt, können wir selbstverständlich nicht sagen, daß kein Risiko vorhanden ist. Andererseits sind wir eher geneigt, an ein womöglich vorhandenes Risiko zu glauben, wenn ein plausibles (und wenigstens im Prinzip empirisch überprüfbares) Wirkungsmodell vorliegt.

Wirkungsmodelle sind für den Risikodiskurs also wichtig, aber er erschöpft sich nicht in ihnen. Auf keinen Fall sollten Fragen nach der Geltung von Wirkungsmodellen, die wie gesagt, ebenso wie die Fragen der Sachbilanz noch zu den empirisch-wissenschaftlich zu bearbeitenden 'Sachfragen' gehören, mit Fragen aus der Bewertungsphase verwechselt werden.

Nur durch die Nichtabgrenzung, Verwechslung bzw. Vermischung von Wirkungsbilanz und Bewertung im Verfahren dürfte der für das Zustandekommen des Ergebnisses so folgenreiche Irrtum möglich gewesen sein, der in folgendem Fazit der Moderatoren zum Ausdruck kommt: "Wenn in bezug auf mögliche Kontextänderungen im Pflanzengenom kein Unterschied zwischen Transgenen, Transposonen, Chromosomentranslokationen und Chromosomenbrüchen gemacht werden kann, entfällt die behauptete 'besondere Qualität' des gentechnischen Eingriffs. Damit entfällt auch die angegebene Begründung für die besonderen hypothetischen Risiken transgener Pflanzen. Daß es bei ihnen mehr verborgene Risiken geben könne als bei konventionell gezüchteten Pflanzen, wird eine Vermutung ohne Begründung. ... Man müßte schon eine andere Begründung für hypothetische Risiken anbieten, als die 'besondere Qualität' des gentechnischen Eingriffs (van den Daele u.a. 1994, S. 232 f.).

Richtig ist an dieser Kette logischer Fehlschlüsse nur, daß eine Begründung für die 'besondere Qualität' des gentechnischen Eingriffs' notwendig ist. Dazu muß aber über die 'Qualität des Eingriffs' bzw. über den 'Charakter der Technologie' geredet werden, was in diesem Verfahren den Unterlagen zufolge aber nur auf einer sehr prinzipiellen Ebene der 'ethischen Zulässigkeit' der Fall war, nicht aber im Hinblick auf einen möglichen Zusammenhang zwischen dem 'Charakter des Eingriffs' und Art und Umfang der Risiken. Über einen möglichen Zusammenhang zwischen dem Charakter der Technologie bzw. des Eingriffs und der Art, Menge und Reichweite ihrer Konsequenzen ist soweit erkennbar überhaupt nicht diskutiert worden.

Völlig unzulässig war auf jeden Fall der Schluß, daß die im Verfahren möglicherweise sogar zurecht erfolgte Zurückweisung der Geltung eines bestimmten Wirkungsmodells (in diesem Fall Kontexteffekte auf genetischer Ebene) als exklusiv für gentechnische Verfahren, auch die Debatte über die Geltung von der These einer 'besonderen Qualität' des gentechnischen Eingriffs' gleich miterledigt habe.

Die Frage, ob sich 'besondere Risiken' aus der 'besonderen Qualität' des Eingriffs' ergeben, muß eine Betrachtung des Eingriffs selbst zum Inhalt haben und nicht (allein) eine Betrachtung seiner möglichen Wirkungen. Ziel einer solchen 'Charakterisierung' eines Eingriffs bzw. einer Technologie ist es dann, aus dem 'Charakter' des Eingriffs bzw. der Technologie auf das erwartbare Wirkungsspektrum (bzw. Risikopotential) schließen zu können. Dies scheint die einzige Möglichkeit zu sein, im Sinne des Vorsorgeprinzips, auch noch unbekannte Risiken, bzw. das Ausmaß unseres Nicht-Wissens über mögliche Folgen, angemessen in Technikbewertungsverfahren berücksichtigen zu können.

Für ein solches Vorgehen wurden im Verfahren offenbar Kriterien zur 'Charakterisierung von Technologien' bzw. Eingriffen angemahnt (van den Daele u.a. 1995, S. 132 f.), aber nicht gefunden. Im Wesentlichen werden derzeit im deutschsprachigen Raum vier solche Kriterien zur Charakterisierung von Technologien zum Zwecke der Integration des Vorsorgeprinzips in Technikbewertungsverfahren diskutiert. Da ist zum einen die Material- und Energieeffizienz zu nennen, sodann das Kriterium 'Eingriffstiefe' und die eng damit zusammenhängende 'Fehlerfreundlichkeit' (vgl. von Weizsäcker 1986), beide mit dem Anspruch, damit technische Risiken bestimmen bzw. 'Risikotechnologien' identifizieren zu können. Und schließlich gehört auch der auf Perrow zurückgehende Versuch hierher, aus der 'Architektur' komplexer technischer Systeme Risikopotentiale zu bestimmen, mit besonderem Augenmerk auf 'feste bzw. enge Kopplung von Komponenten' (vgl. Perrow 1987 und Halfmann; Japp 1990).

Auf das Kriterium 'Eingriffstiefe', das die Anforderungen zur Bestimmung 'der Besonderheit des gentechnischen Eingriffs' im vorliegenden Fall vermutlich am ehesten erfüllt, wird hier näher einzugehen sein. Vorher muß allerdings noch begründet werden, inwiefern es möglich sein kann, mehr über das 'Nicht-Wissen' auszusagen, als daß man hier eben 'nichts weiß', insbesondere, wie es möglich sein soll, über das 'Ausmaß des Nicht-Wissens' Sinnvolles auszusagen. Im TA-Verfahren wurde ja davon ausgegangen, daß genau dies nicht möglich sei, daß "im Schatten des Nichtwissens gewissermaßen alle Katzen grau werden, also ununterscheidbar" (van den Daele u.a. 1995, S. 115).

3. Vorsorgeprinzip, Umgang mit dem Nicht-Wissen und Verantwortbarkeitslücke

Vorsorge darf sich nicht auf die Verringerung und Vermeidung schon bekannter Risiken beschränken, sie muß auch die Reflexion auf die Verantwortbarkeit des Handelns vor dem Hintergrund des Nichtwissens einbeziehen, die Reflexion auf möglicherweise noch unbekannte Risiken.

3.1 Das Beispiel FCKW

Eines der drastischsten Beispiele für das nicht rechtzeitige Erkennen 'noch unbekannter Risiken' war sicher die Einführung von FCKWs als Treibmittel und Kühlmittel. Die FCKWs waren seinerzeit immerhin einer toxikologischen Prüfung unterzogen worden, und sie haben diese - wegen ihrer Reaktionsträgheit - mit Bravour bestanden. Vollhalogenierte FCKWs werden vereinfacht betrachtet ein- und ausgeatmet wie der Luftstickstoff. Welche denkbare Testmethode oder Versuchsanordnung hätte darüber hinaus auch zeigen können, daß diese Stoffe in die Stratosphäre aufsteigen und dort extrem effektiv die schützende Ozonschicht zerstören? Wer seinerzeit auch nur die Hypothese aufgestellt hätte (wie es Rowland und Molina 1975 ja dann auch taten, ohne ernst genommen zu werden), diese Stoffe würden in die Stratosphäre aufsteigen, sie würden dort durch die ungefilterte harte UV-Strahlung schließlich doch chemisch zerlegt, und die Spaltprodukte würden dann extrem effektiv in einer fast unendlichen Kettenreaktion die Ozonmoleküle zerstören, der hätte sich sicher folgendem Verdikt der Moderatoren des TA-Verfahrens über HR-Technik ausgesetzt: "Dieses Gedankenexperiment ist interessant, weil es zeigt, daß man einen katastrophalen Schaden konstruieren kann, wenn man Denkmöglichkeit auf Denkmöglichkeit häufen darf, ohne Mechanismen angeben zu müssen, die verstehbar machen, warum das, was man sich denken kann, unter geeigneten Umständen auch tatsächlich passieren könnte" (van den Daele u.a. 1995, S. 138).

Viel interessanter als solche Gedankenspiele ist jedoch die Frage, ob man seinerzeit auch ohne das Vorhandensein derartiger Wirkungsmodelle, die ja auf eine ungeheure Phantasie des Möglichen angewiesen sind, allein schon durch eine Betrachtung der Technologie (durch 'Charakterisierung des Eingriffs') zur Vorsicht hätte gemahnt werden müssen. Soviel war immerhin seinerzeit schon klar, daß es sich erstens um chemisch-synthetisch hergestellte 'naturfremde' (xenobiotische) Substanzen handelt. Und daß es sich zweitens um sehr persistente Stoffe handelt, die auf natürliche Weise kaum abgebaut werden können. Diese extreme Persistenz (natürlicher Abbau auf ein Drittel in bis zu über hundertsechzig Jahren) war die Voraussetzung dafür, daß diese Substanzen überhaupt die Chancen hatten, über mehr als zehn Jahre in diese Höhen aufzusteigen. Die u.a. von Greenpeace ins Spiel gebrachten alternativen Kühlmittel auf der Basis Propan/Butan werden dagegen innerhalb von sieben Tagen photochemisch abgebaut. Vorsorge des Handelns, im Sinne eines Rückgriffs auf naturnahe, weniger langlebige Stoffe, auf Technologien mit geringerer Wirkmächtigkeit (mit kürzeren relevanten raum-zeitlichen Wirkungsketten und damit auch mit einem geringeren Ausmaß des Nicht-Wissens über mögliche Folgen) wäre also möglich gewesen.

Wenn wir bei der Technikbewertung also auch in Zukunft allein wirkungsmodellbezogen und nicht auf die Charakterisierung der Technologie bezogen vorgehen und damit die 'noch unbekannten Risiken' völlig unberücksichtigt lassen, werden sich Fälle wie 'der Fall FCKW' noch vielfach wiederholen - gerade auch in dem erst am Anfang seiner massiven industriellen Umsetzung stehenden Gebiet der Gentechnologie. Womit hier beileibe nicht behauptet werden soll, solche unerwarteten Katastrophen ließen sich durch ein technologiebezogenes Vorgehen bei der Bewertung gänzlich vermeiden. Aber mit einer beträchtlichen Verminderung des Gefährdungspotentials durch Rückgriff auf weniger riskante und wirkmächtige Technologien wäre ja auch schon viel erreicht.

3.2 Zwei Arten von Nichtwissen: Noch-Nicht-Wissen und Nicht-Wißbarkeit

Unser Wissen über mögliche Wirkungen von Techniken bzw. Eingriffen in natürliche und gesellschaftliche Systeme ist auf zweierlei Weise begrenzt:
1. Es ist relativ begrenzt, insofern es sich um noch nicht vorhandenes, durch weitere Forschungsanstrengungen aber prinzipiell zugängliches Wissen handelt (Noch-Nicht-Wissen). Der limitierende Faktor ist hier also quantitativer Art (Ressourcen, z.B. Zeit, Geld, manpower). Die Konsequenz in Richtung auf eine Verringerung des Nicht-Wissens ist hier mehr Erfahrung, mehr Forschung, auch mehr Risikoforschung. Auch hier gibt es schon ein Ungleichgewicht zwischen 'Machern' und 'Mahnern', weil es viel weniger Aufwand an Geld und manpower bedarf, um eine neue Chemikalie oder einen gentechnisch veränderten Organismus herzustellen, als diese auf ihre möglichen Folgen hin zu testen. Ein synthetisierender Chemiker beschäftigt z.B. locker sechzig Ökotoxikologen.

2. Unser Wissen ist absolut begrenzt dort, wo Aussagen über erwartbare Wirkungen von Eingriffen in komplexe, evoluierende, nichtdeterministische Systeme an die Grenzen des Wißbaren stoßen. Der Ökosystemtheoretiker Holling spricht hier mit Blick auf die Abschätzung der Wirkungen von Eingriffen in komplexe und dynamische Ökosysteme von "inherent unknowability" (vgl. Holling 1994, S. 60, vgl. auch Breckling 1990, Harwell; Harwell 1989). Angesichts dieser Situation können die Konsequenzen zur Verringerung der Unsicherheit nicht auf der Wissensebene liegen. Für eine Verringerung des Ausmaßes des Nichtwissens sind vielmehr Konsequenzen auf der Verhaltensebene nötig: eine größere Behutsamkeit bei Eingriffen in Systeme bzw. der Übergang zu weniger wirkungsmächtigen Technologien.

Um ein plakatives Beispiel zu nennen: Man kann bei archäologischen Ausgrabungen mit Sprengungen, mit dem Bagger, mit dem Spaten oder mit Spatel und Pinsel arbeiten. Bei allen vier Technologien bleibt ein Faktor von Unsicherheit und Risiko, das Wesentliche - das wir noch nicht kennen - zu zerstören. Das Risiko für eine solche Zerstörung ist aber in Abhängigkeit von 'Mächtigkeit' der Technologie, in Abhängigkeit von der Länge der jeweils ausgelösten relevanten Wirkungsketten in Raum und Zeit, unterschiedlich groß. Um Mißverständnisse zu vermeiden: Ein am Vorsorgeprinzip orientiertes Vorgehen kann nicht auf vollständiges Wissen bzw. auf ein Null-Risiko setzen. Beides kann es gar nicht geben. Es zielt aber auf die Verkleinerung des Ausmaßes des Nicht-Wissens (und der noch unbekannten Risiken) und zwar sowohl durch den Versuch der möglichst weitgehenden Ausdehnung des Wissens, als auch - und das dürfte angesichts extrem wirkmächtiger Risikotechnologien viel wichtiger werden - durch Verhaltensänderung, durch den Rückgriff auf weniger wirkmächtige Technologien.

Jedes Handeln ist also mit Nichtwissen konfrontiert. Aber in Folge des technischen Fortschritts, der Entwicklung immer mächtigerer Technologien, gibt es in modernen Industriegesellschaften ein 'hausgemachtes Problem' bezüglich der Dimensionen. Schon immer hat eine Kluft bestanden zwischen der Reichweite unseres Handelns und der Reichweite unseres Wissens, aber diese Kluft ist insbesondere durch moderne verwissenschaftlichte Techniken wesentlich größer geworden (vgl. Abb. 1).

Abbildung 1 konnte noch nicht übernommen werden.

Die Industriegesellschaften haben ihre Eingriffsmöglichkeiten in gesellschaftliche und natürliche Systeme in einem ungeheuren Ausmaß gesteigert, und sie sind - nicht zuletzt weil sie bei Eingriffen in komplexe und dynamische Systeme an die Grenzen der Wißbarkeit stoßen - nicht in der Lage, ihr Wissen über die möglichen Wirkungen solcher Eingriffe in gleichem Maße zu steigern. Da wir aber unser Handeln, unsere Eingriffe in gesellschaftliche und natürliche Systeme nur insoweit verantworten können, als wir auch einigermaßen deren Folgen zu überschauen in der Lage sind, sind wir - insbesondere angesichts besonders wirkungsmächtiger Technologien wie z.B. Atomtechnik, synthetische Chemie und Gentechnik - mit einer Verantwortbarkeitslücke konfrontiert (vgl. Jonas 1979 und 1985).

Es ist zu vermuten, daß dieses für besonders wirkmächtige Technologien spezifische Dilemma den offensichtlich im WZB-Verfahren nicht zur Sprache gebrachten rationalen Kern der Bedenken der Kritiker darstellt. Noch problematischer ist, daß diesen Bedenken dort von den Moderatoren stattdessen eine prinzipielle 'Innovationsfeindlichkeit' gegenüber jedweder 'neuen' Technik unabhängig von ihrer Wirkmächtigkeit unterstellt wurde (van den Daele u.a. 1995, S. 118). Etwas Sensibilität für die Technikdebatten der vergangenen Jahrzehnte hätte dagegen auch ohne den aufklärenden Blick auf unterschiedliche Wirkmächtigkeiten von Technologien zeigen müssen, daß sich Bedenken und Widerstand der 'Kritiker' nicht gegen jede Technik und gegen jede Innovation wenden, sondern 'nur' gegen einen vergleichsweise kleinen Ausschnitt aus dem großen Angebot gegenwärtiger und möglicher zukünftiger Technologien, insbesondere gegen Atomtechnik, synthetische Chemie und Gentechnik.

Die Ausdehnung der Reichweite und Wirkmächtigkeit von Technologien und die Unmöglichkeit, die Reichweite unseres Wissens über mögliche Folgen in gleichem Ausmaß auszudehnen, hat die für besonders wirkmächtige Technologien spezifische Wissenslücke und damit die Verantwortbarkeitslücke aufgerissen. Im Zentrum dieser Verantwortbarkeitslücke steht das Problem einer systematischen Verkürzung des ethischen bzw. gesellschaftlichen Abwägungsprozesses zwischen verschiedenen technischen Optionen und den mit ihnen jeweils verbundenen Chancen bzw. Risiken durch Nicht-Wissen und Nicht-Wißbarkeit. Bestimmte für den Abwägungsprozeß notwendige Informationen können prinzipiell nicht in den Prozeß einfließen. Auch dieses Problem ist an sich durchaus bekannt. Wir müssen und mußten immer entscheiden, ohne vollständiges Wissen zu besitzen, d.h. uns auf unsere Erfahrung und Intuition verlassen. Nie stehen uns alle notwendigen Informationen für rationale Entscheidungen zur Verfügung. Dieses bekannte Problem haben wir allerdings durch die technologische Entwicklung selbst extrem verschärft. Mit Blick auf die modernen verwissenschaftlichten Techniken wie Atomtechnik, synthetische Chemie und Gentechnik stellt sich das Problem in einem qualitativ neuen, bisher nicht gekannten Ausmaß. Entscheidend ist dabei, das zeigen insbesondere die Beispiele der genannten Technologien, daß das Problem mit der Eingriffstiefe und Handlungsmächtigkeit und damit mit der raumzeitlichen Ausdehnung relevanter Wirkungsketten bis hin zu globalen und irreversiblen Wirkungen zunimmt. Beim Einsatz dieser Technologien ist es sicher nicht in gleicher Weise angemessen, sich auf Erfahrung und Intuition zu verlassen, wie wir das seit Jahrhunderten bei handwerklich-hauswirtschaftlichen Techniken praktizieren. Wenn jemand 'die halbe Welt' riskiert und meint, das könne er schon verantworten, dann klingt das nur noch lächerlich.

Wenn unsere Eingriffe in die Natur verantwortbar bleiben sollen, empfiehlt sich somit eine Konzentration auf weniger wirkungsmächtige Techniken, auf Techniken mit in Raum und Zeit einigermaßen überschaubaren Wirkungsketten. Und es empfiehlt sich der behutsame Einsatz solcher sanfterer Techniken in einer Strategie der kleinen je für sich reversiblen Schritte, begleitet von einem intensiven Monitoring der dabei auftretenden ökologischen Effekte.

Mit diesem an sich ganz banalen Hinweis auf die Unterschiede in der Wirkmächtigkeit von Technologien ist der erste Schritt zur oben geforderten 'Charakterisierung' von Technologien getan (vgl. Abb. 2). Die Grundüberlegung ist ganz einfach: Mächtige Technologien haben mehr relevante Nebenwirkungen und längere relevante raumzeitliche Wirkungsketten als weniger wirkmächtige. Als Kriterium der Technikbewertung würde sich hier also ein 'Maß' für die 'Reichweite der relevanten raum-zeitlichen Wirkungsketten' anbieten. Mit Blick auf das Ziel der 'Charakterisierung' einer Technologie dürfte es allerdings fruchtbarer sein, nicht bei der 'Messung' des Ergebnisses (der Wirkmächtigkeit von Technologien) anzusetzen, sondern bei der Art und Weise ihres Zustandekommens. Das führt uns zur Betrachtung des Kriteriums 'Eingriffstiefe' und dort zunächst zur Betrachtung der Technikgenese.

Abbildung 2 konnte noch nicht übernommen werden.

4. Eingriffstiefe als Technikbewertungskriterium

Das Kriterium Eingriffstiefe wurde in der wissenschafts- und technikkritischen Debatte entwickelt (vgl. von Gleich 1988). Damals wurde versucht, das gemeinsam Problematische der drei im ökologischen Diskurs am kritischsten diskutierten Technologielinien zu fassen, der Atomtechnik, der synthetischen Chemie und der Gentechnik. Der historische und logische Grund für die Eingriffstiefe dieser Techniklinien wurde dabei auf den spezifischen Ansatz der ihnen zugrunde liegenden Wissenschaftsdisziplinen zurückgeführt (vgl. von Gleich 1989).

Alle drei Technologien sind wissenschaftliche Technologien, genauer Technologien, die auf der Herangehensweise einer ganz spezifischen Form von Naturwissenschaft basieren, den sogenannten exakten, den mathematisch-experimentellen Disziplinen.

Diesen Disziplinen eigentümlich ist ein ganz spezifisches Verhältnis zu ihrem Gegenstand, der Natur. Die mathematisch-experimentell arbeitenden Naturwissenschaftler gehen nicht von dem aus, was unmittelbar wahrnehmbar ist, von der Natur, wie wir sie im Alltagsbewußtsein verstehen, und von der auch alle bisherigen (empirischen) Techniken ausgingen, bzw. an der sie technisch ansetzten. Für die mathematisch-experimentellen Naturwissenschaftler verwandelte sich die unmittelbar wahrnehmbare Natur in die 'bloßen Phänomene', die sie nicht eigentlich interessierten. Sie interessierten sich für das, was hinter den Phänomenen steckt. Die mathematisch-experimentellen Naturwissenschaftler interessierten sich für die Gesetze, die diese Phänomene hervorbringen und steuern, für das, was die Welt im Innersten zusammenhält, für den Archimedischen Punkt, von dem aus die Welt aus den Angeln gehoben werden kann. Alle drei großen Naturwissenschaften waren sehr erfolgreich bei ihrer 'Suche' nach solchen Strukturen bzw. Gesetzen, die die Phänomene sehr weitgehend steuern: Die Physiker 'fanden' die Atome, indem sie sie spalteten und sie bestimmten diese atomaren bzw. elementaren Strukturen als verantwortlich für die physikalischen Eigenschaften der Dinge. Die Chemiker bestimmten die Molekülstruktur als verantwortlich für die chemischen Eigenschaften der Stoffe, und gingen dazu über, Stoffe zu konstruieren, die es bisher in der Natur noch gar nicht gab. Die Biologen schließlich bestimmten die Gene als verantwortlich für die biologischen Eigenschaften und z.T. auch Verhaltensweisen von Organismen. Auch für sie lief die Erkenntnis dieser Strukturen über deren Manipulation, zunächst völlig ungerichtet durch Chemikalien und Strahlen und inzwischen mit Hilfe der Gentechniken auch sehr gezielt. Auch die Biologen sind den Schritt von der Zerlegung (Analyse) zur gezielten Neusynthese gegangen und sind jetzt dabei, Organismen mit ganz neuen Eigenschaften zu konstruieren, Organismen, die auf natürlichem Wege nie hätten zustandekommen können. Als erste qualitative 'Definition' von 'Eingriffstiefe' kann deshalb formuliert werden: Eine besonders eingriffstiefe Technologie ist eine, bei der nicht mehr nur an den Phänomenen, sondern direkt an Strukturen technisch angesetzt wird, die die Phänomene sehr weitgehend steuern (gezielte technische Manipulation an atomaren bzw. elementaren Strukturen, an der Molekülstruktur und am Genom).

Damit ist der Grund bestimmt für die extreme Wirkmächtigkeit dieser Technologien.

Mit dem Kriterium Eingriffstiefe kann und soll also zwischen dem Spalten von Steinen und dem Spalten von Atomen, zwischen der Alkoholdestillation und der Synthese xenobiotischer Substanzen, zwischen der Züchtung durch Auslese und der gentechnischen Konstruktion von Organismen, zwischen dem irreversiblen Töten von Schweinen und ihrer in ganz anderer Weise irreversiblen genetischen Manipulation, zwischen klassischer und moderner Biotechnologie einerseits und neuer Biotechnologie (also Gentechnik) andererseits unterschieden werden (vgl. zu dieser Unterscheidung, die inzwischen auch vom BMBF übernommen wurde, OECD 1989 sowie zu u.a. auf dieser Unterscheidung aufbauenden ersten Ansätzen für konkurrierende biotechnologische Entwicklungspfade von Gleich; Grimme 1994 und von Gleich 1995), und es können auf der Basis dieser Charakterisierung Aussagen zum erwartbaren Wirkungsspektrum, zur erwartbaren Länge der relevanten raumzeitlichen Wirkungsketten und zum erwartbaren Verhältnis von relevanten Haupt- und Nebenwirkungen gemacht werden, Aussagen also zur 'besonderen Qualität des gentechnischen Eingriffs' und zu erwartbar damit verbundenen Unsicherheiten und Risiken, wie sie im WZB-Verfahren verlangt wurden.

Das Kriterium 'Eingriffstiefe' muß noch weiter operationalisiert werden, insbesondere ist eine 'Gradualisierung' anzustreben, damit nicht mehr nur zwischen einem technischen Ansetzen an der 'Logik' der Phänomene und einem technischen Ansetzen an den Phänomenen selbst, sondern darüber hinaus vergleichend auch zwischen einer sehr hohen und einer weniger hohen Eingriffstiefe unterschieden werden kann. Elemente für eine solche Gradualisierung bietet auf unterschiedlichen 'Phänomenebenen' die Unterscheidung zwischen technischem Ansetzen an 'Steuerungsstrukturen' (z.B. am Gehirn oder an den Hormonen), auf genetischer Ebene die Unterscheidung zwischen 'gezielten' und 'nicht-gezielten' Manipulationen, die Frage, ob wirklich 'Neues', 'Naturfremdes' geschaffen wird (Xenobiotika und Xenobiota) und die Unterscheidung zwischen 'bloßer' Deletion, und Amplifikation (PCR) einerseits und echter Neukombination mit Übertragung von genetischem Material über Artschranken hinweg andererseits.

4.1 Konsequenzen der Eingriffstiefe

Die Eingriffstiefe, das technische Ansetzen an der 'Logik' der Phänomene, hat spezifische Konsequenzen, die hier noch einmal kurz zusammengefaßt werden sollen:

_ Die Wirkungen derartiger Eingriffe sind meist irreversibel und global, genauer: die Wirkungsketten erreichen eine bisher nicht gekannte raumzeitliche Dimension (bspw. Plutonium Halbwertszeit 25.000 Jahre, PCBs nach kurzer Zeit in Organismen der Arktis und Antarktis nachzuweisen, gentechnisch manipulierte Mikroorganismen nach Freisetzung nicht rückholbar).

_ Die Macht über die Phänomene steigt in einem ungeheuren Ausmaß. Es verkehrt sich z.B. das Machtverhältnis zwischen Mensch und Natur. Mußten sich frühere Gesellschaften gegen eine übermächtige Natur zur Wehr setzen, so ist uns heute, nicht zuletzt durch diese drei Techniklinien, die ganze Natur in die Hand gegeben: zur Zerstörung, aber auch zur grundlegenden Umgestaltung. Daß diese Möglichkeiten zur grundlegenden Umgestaltung ein größeres gesellschaftliches und ökologisches Problem werden können, als die ungewollten Neben-, Folgewirkungen und Unfälle, darauf hat Jonas wiederholt hingewiesen (vgl. Jonas 1979 und 1985). Fallende technische Grenzen der Machbarkeit müßten jetzt nämlich wenigstens zum Teil durch gesellschaftlich-ethische Grenzen ersetzt werden.

_ Mit der extremen Wirkmächtigkeit sind auch extreme Risikopotentiale verbunden, die uns von den bisherigen handwerklich-hauswirtschaftlichen Techniken nicht bekannt waren.

Und schließlich, das könnte das größte Problem sein:

_ vergrößert sich die Kluft zwischen unserer Handlungsmächtigkeit und unserer Wissensmächtigkeit, zwischen dem, was wir bewirken (machen/anrichten) können und dem, was wir über mögliche Folgen unserer Eingriffe wissen können (vgl. auch dazu schon Jonas 1985). Durch diese 'hausgemachte' Kluft zwischen der Reichweite unseres Handelns und der Reichweite unseres Wissens reißt eine Verantwortbarkeitslücke auf, mit der adäquat umzugehen bisher keine gesellschaftlichen Strategien in Sicht sind.

All diese Aspekte konnten offensichtlich im WZB-Verfahren nicht angemessen berücksichtigt werden.

4.2 Drei Wege zu irreversiblen und globalen Umweltproblemen

Da mit dem Kriterium Eingriffstiefe nicht von Wirkungen auf Technologien, sondern von Technologien auf erwartbare Wirkungen geschlossen werden soll, kann naheliegender Weise nicht davon ausgegangen werden, daß die Eingriffstiefe der einzige Weg ist zu den angesprochenen Konsequenzen: 'irreversible und globale Umweltwirkungen', 'ungeheure Macht über die Phänomene', 'extreme Risikopotentiale' und 'Auseinanderklaffen zwischen der Reichweite unserer Handlungen und der Reichweite unseres Wissens'. Im Gegenteil, sie ist sicher nur einer von mindestens drei Wegen zu diesen Ergebnissen. Man kann bekanntlich globale und irreversible Umweltwirkungen auch durch extreme quantitative Steigerung je für sich relativ harmloser Eingriffe verursachen. Hier sei nur auf den Treibhauseffekt durch CO2-Emissionen verwiesen oder auf die Möglichkeit der irreversiblen Zerstörung von Tropenwäldern durch Brandrodung und Axt. Was mit diesen Technologien aber nur durch die immense quantitative Steigerung 'erreicht' werden kann, ist mit den extrem eingriffstiefen Technologien 'auf einen Schlag' (mit vergleichsweise geringem Aufwand) möglich. Auch auf eine dritte Möglichkeit muß noch verwiesen werden. Sie ist mit der Eingriffstiefe in gewissem Sinne 'verwandt', nur daß es sich dabei nicht um die besondere Qualität des Eingriffs dreht, sondern um einen besonderen 'Zustand' des Systems, in das eingegriffen wird. In der Dynamik von Systemen kann es Zustände höchster Instabilität (bzw. Sensibilität) geben. Während solcher Zustände kann selbst der schon sprichwörtlich gewordene 'Schmetterlingsflügelschlag' den 'nächsten Tornado auslösen'.

Ein insbesondere auf die Vermeidung globaler und irreversibler Umweltprobleme bedachtes Vorsorgeprinzip gebietet deshalb neben der Betrachtung der 'Quantität der Eingriffe' und der Betrachtung der 'Qualität des Eingriffs' auch noch die Betrachtung des 'Zustands (und der Architektur) des Systems', in das eingegriffen wird. Verallgemeinerbare Kriterien sind hierfür - über den sicher wichtigen Hinweis auf die Beachtung enger Kopplungen hinaus (vgl. Japp 1990) - bisher meines Wissens noch nicht in Sicht.

Für eine vorsorgliche Strategie angesichts der Möglichkeit globaler und irreversibler Effekte durch quantitative Steigerung je für sich vergleichsweise harmloser (wenig eingriffstiefer) Eingriffe bietet sich schließlich das trial and error-Prinzip an, das behutsame schrittweise Vorgehen mit je für sich reversiblen Schritten, begleitet durch ein intensives Monitoring etwaiger Neben- bzw. langfristiger Folgewirkungen. Zu achten ist dabei allerdings auch - darauf hat die Enquete-Kommission 'Schutz des Menschen und der Umwelt' hingewiesen - auf das Zeitmaß der Reaktionsmöglichkeiten von z.B. Ökosystemen (Enquete-Kommission 1994, S. 53).

5. Alte und neue Gentechnik verglichen

Wenn man sich mit dem Kriterium Eingriffstiefe nun noch einmal der Fragestellung des WZB-Verfahrens nähert, stellt sich zusätzlich auf einer gänzlich unerwarteten Ebene Verblüffung ein. Wenn dort die 'gentechnische' mit der 'konventionellen' Züchtung von herbizidresistenzen Nutzpflanzen verglichen wurde, war das in keinster Weise ein Vergleich eines 'gentechnischen' Verfahrens mit einem 'nicht-gentechnischen' Verfahren, sondern allenfalls ein Vergleich zwischen einem Verfahren der 'alten', nicht gezielten und nicht Artschranken überschreitenden Gentechnik (Mutagenese) mit einem gezielten und Artgrenzen überschreitenden Verfahren der 'neuen' Gentechnik (vektorvermittelter Gentransfer). Das bedeutet, daß die Frage nach einem 'besonderen Risiko bei gentechnisch veränderten Pflanzen', nach einem besonderen Risiko der Gentechnik im Vergleich zu anderen Techniken schon durch die Auswahl der Beispiele im Verfahren prinzipiell nicht mehr angemessen zu beantworten war. Um so fragwürdiger ist es, daß nun in der Öffentlichkeit der Eindruck erweckt wird, das Verfahren hätte gezeigt, daß 'die Gentechnik' keine anderen Risiken birgt als jede andere Technik.
Wenn man wirklich diese Frage hätte klären wollen, wenn man wirklich ein gentechnisches Verfahren mit einem nicht-gentechnischen Verfahren der Pflanzenzüchtung hätte vergleichen wollen, hätte man die gentechnische Züchtung mit einer traditionellen Züchtung durch Auslese ohne künstliche Erzeugung von Mutationen vergleichen müssen. Meines Wissens arbeiten nur noch die Züchter des biologisch-dynamischen Landbaus auf diese Weise.

Ein Vergleich zweier gentechnischer Verfahren könnte nun tatsächlich, wenn man zudem, wie im Verfahren geschehen, die noch unbekannten Risiken gänzlich außer Acht läßt, die Risiken eher 'vergleichbar' erscheinen lassen, als der Vergleich zwischen Gentechnik und Züchtung durch Auslese ohne technisch induzierte Mutagenese. Das Ergebnis wird aus den Ungereimtheiten des Verfahrens heraus sogar einigermaßen verständlich.

Trotzdem ist, wenn man die oben skizzierte 'Gradualisierung' innerhalb des Kriteriums der Eingriffstiefe zugrunde legt, auch bei einem Vergleich zwischen 'alter' und 'neuer' Gentechnik in der Pflanzenzüchtung mit deutlichen Risikounterschieden in den Bereichen Wirkungstiefe (scale, Länge der relevanten raum-zeitlichen Wirkungsketten) und Wirkungsbreite (scope, Anzahl relevanter Nebenwirkungen) zu rechnen, weil die Tatsache der Übertragung genetischer Information über Artschranken hinweg, die auf natürliche Weise nie hätte zustande kommen können, und die Gezieltheit der Übertragung die grundsätzliche Problematik eines technischen Ansetzens auf der Genomebene deutlich verschärft.

Das Problematischste am Beispiel 'herbizidresistente Nutzpflanzen' könnte darüber hinaus die Tatsache darstellen, daß wir es hier mit einer Kombination zweier extrem eingriffstiefer Technologien zu tun haben, die Kombination von gentechnischen Verfahren mit Verfahren der synthetischen Chemie, und das Ganze noch in einer von vornherein beabsichtigten 'umweltoffenen' Anwendung. Wie sich diese Kombination zweier Risikotechnologien insgesamt auf das Ausmaß unseres Nicht-Wissens über mögliche Folgen auswirkt, wie sich die Unsicherheiten zusammensetzen, ob sie sich addieren, gegenseitig aufheben oder gar multiplizieren, muß vorerst offen bleiben. Wir stehen schließlich erst am Anfang eines 'rechnerischen' Umgangs mit Unsicherheit bei der Technik- und Stoffbewertung.

Literatur

Breckling, B.: Singularität und Reproduzierbarkeit in der Modellierung ökologischer Systeme, Diss, Universität Bremen 1990.

Enquete-Kommission 'Schutz des Menschen und der Umwelt': Die Industriegesellschaft gestalten - Perspektiven für einen nachhaltigen Umgang mit Stoff- und Materialströmen. Bonn: Economica Verlag, 1994.

Gleich, A. von: Werkzeugcharakter, Eingriffstiefe und Mitproduktivität als zentrale Kriterien der Technikbewertung und Technikwahl, in: Rauner, F. (Hrsg.), 'Gestalten' - eine neue gesellschaftliche Praxis. Bonn: Verlag Neue Gesellschaft, 1988.

Gleich, A. von: Der wissenschaftliche Umgang mit der Natur - Über die Vielfalt harter und sanfter Naturwissenschaften. Frankfurt/New York: Campus Verlag, 1989.

Gleich, A. von; Grimme, L.H.: Sanfte Biotechnik für die Region Bremen - Eine Studie im Rahmen des Programms Arbeit und Umwelt des Senats der Freien Hansestadt Bremen, in: Schriftenreihe des Instituts für ökologische Wirtschaftsforschung Nr. 76/94, Berlin 1994.

Gleich, A. von: Mögliche Pfade der Rebiologisierung der gesellschaftlichen Produktion, in: Umwelttechnik Forum, 10. Jg., 2/1995.

Halfmann, J.; Japp, K.P. (Hrsg.), Riskante Entscheidungen und Katastrophenpotentiale - Elemente einer soziologischen Risikoforschung. Opladen: Westdeutscher Verlag, 1990.

Harwell, M.A.; Harwell, C.C.: Environmental decision making in the presence of uncertainty, in: Levin, S.A. et al. (eds.), Ecotoxicology: Problems and Approaches. New York et al.: Springer Verlag, 1989, S. 517-541.

Holling, C.S.: New Science and New Investments for a Sustainable Biosphere, in: Jansson, A.; Hammer, M.; Costanza, R. (eds.), Investing in Natural Capital - The Ecological Economics Approach to Sustainability. Washington, D.C.: Island Press, Covelo 1994.

Jonas, H.: Das Prinzip Verantwortung - Versuch einer Ehtik für die technologische Zivilisation, Frankfurt/M. 1979.

Jonas, H.: Warum die moderne Technik ein Gegenstand für die Ethik ist, in: Ders.: Technik, Medizin und Ethik. Zur Praxis des Prinzips Verantwortung. Frankfurt/M. 1985, S. 42 ff.

Japp, K.P.: Komplexität und Kopplung. Zum Verhältnis von ökologischer Forschung und Risikosoziologie, in: Halfmann; Japp 1990.

OECD (ed.): Biotechnology - Economic and Wider Impacts, Paris 1989.

Perrow, C.: Normale Katastrophen - Die unvermeidlichen Risiken der Großtechnik. Frankfurt/New York: Campus Verlag, 1987.

Rowland, F.S.; Molina, M.H.: Chlorofluoromethanes in the Environment, in: Reviews of Geophysics and Space Physics, 13, 1975, pp. 1-35.

Umweltbundesamt (Hrsg.): Ökobilanzen für Produkte - Bedeutung - Sachstand - Perspektiven, erarbeitet von der Arbeitsgruppe Ökobilanzen, in: UBA Texte 38/92, Berlin 1992.

Van den Daele, W.: Technikfolgenabschätzung als politisches Experiment - Diskursives Verfahren zur Technikfolgenabschätzung des Anbaus von Kulturpflanzen mit gentechnisch erzeugter Herbizidresistenz, Heft 1, FS II 94-301, WZB papers, Berlin 1994.

Van den Daele, W.; Pühler, A.; Sukopp, H.; Bora, A.; Döbert, R.; Neubert, S.; Siewert, V.; Sukopp, U.: 'Evolutionäre Risiken' transgener herbizidresistenter Kulturpflanzen, in: Verfahren zur Technikfolgenabschätzung des Anbaus von Kulturpflanzen mit gentechnisch erzeugter Herbizidresistenz, Heft 5, FS II 94-305, WZB papers, Berlin, Juni 1994.

Van den Daele, W.; Pühler, A.; Sukopp, H.; Bora, A.; Döbert, R.: Bewertung und Regulierung von Kulturpflanzen mit gentechnisch erzeugter Herbizidresistenz (HR-Technik), in: Verfahren zur Technikfolgenabschätzung des Anbaus von Kulturpflanzen mit gentechnisch erzeugter Herbizidresistenz, Heft 18, FS II 94-305, WZB papers, Berlin, Dezember 1995.

Weizsäcker, Christine von; Weizsäcker, Ernst U. von: Fehlerfreundlichkeit als evolutionäres Prinzip und ihre mögliche Einschränkung durch die Gentechnologie, in: Kollek, R.; Tappeser, B.; Altner, G. (Hrsg.), Die ungeklärten Gefahrenpotentiale der Gentechnologie, München 1986.

Anmerkung der Redaktion

Der vorliegende Text wurde von uns leicht gekürzt. Die vollständige, ausführliche Fußnoten- und Begleitzitate umfassende Version kann beim Autor angefordert werden.

Kontakt

Prof. Dr. Arnim von Gleich
Lehrgebiet Technikbewertung
FB Maschinenbau und Chemieingenieurwesen
FH Hamburg
Tel.: +49 40 24884-345