Sie befinden sich hier: Start |Publikationen |vorgänge |Online-Artikel |

vorgänge: Artikel, Rezension - 19.04.15

Die Evaluation von Gesetzen - (k)eine Wissenschaft?

Sven Lüders

aus: vorgänge Nr. 208 (Heft 4/2014), S. 149 -152

Christoph Gusy (Hrsg.), Evaluation von Sicherheitsgesetzen. [Studien zur Inneren Sicherheit Bd. 19, hrsg. v. Hans-Jürgen Lange], Wiesbaden 2015 (Springer VS), 250 S.

 

Die Publikation geht auf eine gleichnamige Tagung zurück, die im Mai 2013 am Bielefelder Zentrum für interdisziplinäre Forschung stattfand und gemeinsam von Hans-Jörg Albrecht (Max-Planck-Institut Freiburg), Christoph Gusy (Universität Bielefeld) und Hans-Jürgen Lange (Universität Witten-Herdecke) veranstaltet wurde.

Drei Beiträge am Anfang des Bandes reflektieren – auf sehr unterschiedlichem Niveau – konkrete Evaluationsverfahren von Sicherheitsgesetzen: Heinrich Amadeus Wolff beschreibt in knappen Worten die von ihm selbst durchgeführte Evaluation des NRW-Verfassungsschutzgesetzes, mit dem die Befugnisse zur Online-Durchsuchung sowie zur GPS-gestützten Observation (§ 29 VSG NRW) überprüft werden sollten. Der Bericht spiegelt die methodisch-asketische Vorgehensweise Wolffs(6) sehr gut wieder, der sich auf seine Rolle als Auftragnehmer beschränkt und deshalb kaum wissenschaftlichen Mehrwert für eine Evaluationsforschung bietet, dafür aber einen unverstellten Blick auf die realen Abläufe von Evaluationsverfahren gewährt.

Matthias Kötter dagegen befasst sich mit der von der Firma Rambøll Management Consulting durchgeführten Evaluation des Antiterrordateigesetzes (ATDG)(7) und rekonstruiert daraus zwei verschiedene Dimensionen der Wirkungsanalyse von Gesetzen (dazu später mehr).

Jens Lanfer schließlich vergleicht die drei Evaluationsprozesse zur Videoüberwachung öffentlicher Räume in Brandenburg, Hessen und NRW vor allem mit Blick auf die politischen Akteure und die unterschiedlichen Interessen, die Befürworter wie Gegner des Instruments mit der Evaluation verbinden. Sein Vergleich zeigt eindrucksvoll, dass Evaluationsprozesse je nach den politischen Konstellationen, unter denen die Evaluation ausgehandelt und durchgeführt werden, sehr unterschiedlich ausfallen: „Ob die politische Evaluation allgemein von Bedeutung ist und wie die Informationserzeugung (Selbstevaluation oder wissenschaftliche Evaluation) erfolgt, ist vor allem abhängig von den belief systems der konkurrierenden Akteurskoalitionen und deren politischen Ressourcen.“ (Lanfer, S. 121) Lanfer spricht damit einen Aspekt an, der selbstverständlich sein sollte: In der Diskussion um die Evaluation von Sicherheitsgesetzen vermischen sich häufig die methodischen Ansprüche einer wissenschaftlichen Evaluationsforschung mit den Interessen politischer Akteure und des Gesetzgebers. Wichtigste Aufgabe eines wissenschaftlichen Zugangs zum Evaluationsthema wäre deshalb zuallererst, hier für Ordnung im Denken zu sorgen und die verschiedenen Ebenen der Evaluationsdebatte zu sortieren. Das gelingt dem vorliegenden Sammelband nicht immer.

Christoph Gusy und Annika Kapitza sprechen in ihrer einleitenden Bestandsaufnahme angesichts der bisher durchgeführten Gesetzesevaluationen (aufgelistet im Anhang des Bandes), die in ihrer Methodik und Tiefe sehr unterschiedlich ausfallen, von Evaluation als „offenem Konzept“, das sich lediglich durch zwei Gemeinsamkeiten auszeichne:

  • eine wissenschaftlich gestütztes Vorgehen (wobei die Methodik der Evaluation von der jeweiligen Bezugsdisziplin des/der Evaluator_in abhänge)
  • ein Vergleich von Soll- und Ist-Werten, d.h. die Bewertung eines realen Geschehens anhand eines Prüfmaßstabs.

 

Alle weiteren methodischen Fragen bleiben nach ihrer Meinung den jeweiligen Evaluator_innen (bzw. ihren Auftraggeber_innen) überlassen: etwa ob eine Eigenevaluation (durch die Anwender_innen des Gesetzes) oder eine Fremde­valuation (durch Externe) zu bevorzugen sei; ob neben der Wirksamkeit eines Gesetzes auch dessen (unerwünschten) Nebenwirkungen zu erfassen sind; ob die Gesetzesanwendung nur aus Sicht der Exekutive, oder auch aus Sicht betroffener Bürger_innen erfasst wird; ob eine Evaluation nur empirische Befunde wiedergeben oder am Ende eine bewertende Einschätzung zu einer Gesetzesnorm abgeben darf/soll; nicht zuletzt auch die Frage, welche methodologischen Kom­peten­zen von dem/der Evaluator_in zu erwarten sind. Damit wird der wissenschaftliche Anspruch an Evaluationsverfahren sehr niedrig angesetzt, wird der Beliebigkeit Tür und Tor geöffnet – was für den politischen Streit um Evaluationsbedingungen nicht ohne Folgen bleibt.

Besonders deutlich wird dies im bereits erwähnten Beitrag von Matthias Kötter, der von einem scheinbar unhintergehbaren methodologischen Dualismus ausgeht, bei dem eine wirkungsbezogene und eine juristisch-normative Evaluation nebeneinander her bestehen. Unstrittig ist, dass es sehr verschiedene Bewertungsmaßstäbe für die Evaluation von Gesetzen gibt – etwa monetäre Kosten, Effizienz, Effektivität, Akzeptanz, Praktikabilität, Neben- und Folgeeffekte oder Rechtmäßigkeit.(8) Diese verschiedenen Dimensionen in der Bewertung einer gesetzlichen Praxis lassen sich nicht aufeinander reduzieren; ebenso wenig lässt sich aus ihnen jedoch ein methodischer Dualismus ableiten. Das zeigt sich schon daran, dass sich die von Kötter „sozialwissenschaftlich“ genannten Wirkungsdimensionen – Anwendung und Vollzug eines Gesetzes, Effektivität der Zielerreichung und (Neben-)Folgen sowie sonstige Wirkungen – allesamt in der juristisch-normativen Bewertung wiederfinden (auch wenn sie dort verschieden gewichtet werden).

Ein derart falsch verstandener Dualismus spielt in der politischen Kontroverse um die Bedeutung von Evaluationsverfahren derjenigen Partei in die Hand, die darin ohnehin nur ein lästiges Übel zur Entfristung von Sicherheitsgesetzen (d.h. eine nachgeholte Legitimation) erkennt. Erinnert sei nur an das „Evaluationsverfahren“ zum Terrorismusbekämpfungs­ergänzungsgesetz (TBEG) unter der schwarz-gelben Koalition: Damals stritten Bundesinnenministerium (BMI) und Bundesjustizministerium (BMJ) darum, wie die gesetzliche Evaluationspflicht angemessen zu erfüllen sei. Am Ende gab es zwei Teile des Evaluationsberichtes: eine vom BMI beauftragte Studie beschränkte sich auf die Anwendungshäufigkeiten einzelner Befugnisse sowie Änderungswünsche an einzelnen Normen bei den ausführenden Behörden. Sie wird bis heute - etwa von Wolff im vorliegenden Band, s.S. 48 - als sozialwissenschaftliche Untersuchung charakterisiert, was ebenso wenig zutreffend ist wie die Behauptung, bei dem vom BMJ in aller Eile nachgeschobenen Gutachten (das Herr Wolff erstellte) handle es sich um eine juristisch-normative Evaluation, die Gesetzesvollzug und -anwendung angemessen untersuche.

Gegen derlei politische Instrumentalisierungen des Evaluationsbegriffs hätte eine Evaluationswissenschaft nur dann eine Chance, wenn sie sich wenigstens bemüht, konkrete Kriterien für ihre Arbeit aufzustellen. Dass dies aus juristisch-normativer Sicht möglich ist, wurde bereits an anderer Stelle bewiesen,(9) klingt im vorliegenden Band aber nur vereinzelt an, etwa in den Beiträgen von Kötter (wissenschaftlicher Anspruch verbietet Eigenevaluation) und von Alfred G. Debus und Axel Piesker. Letztere fassen den vom Speyerer Institut für Gesetzesfolgenabschätzung und Evaluation (InGFA) ausgearbeiteten Methodenleitfaden für datenschutzorientierte Evaluationen (10) zusammen, der zwar noch keine ausgearbeitete Methodologie, aber wenigstens schon konkrete methodische Empfehlungen für den äußeren Ablauf eines Evaluationsverfahrens ausspricht.
Der Beitrag von Dieter Kugelmann hingegen, der die bisherigen Evaluationen von Sicherheitsgesetzen überblicksartig vorstellt, beschränkt sich weitgehend auf das juristische Raster einer Verhältnismäßigkeitsprüfung, bei der der Vollzug des Gesetzes auf die Geeignetheit, Erforderlichkeit und Verhältnismäßigkeit im engeren Sinne überprüft wird. Damit wird die verfassungsrechtliche Funktion der Evaluation unterstrichen, die in der vom Bundesverfassungsgericht häufig eingeforderten Prüf- und Nachbesserungspflicht des Gesetzgebers vor allem dann besteht, wenn neue Gesetze auf ungewisser empirischer Grundlage in Grundrechte eingreifen. Wissenschaftlich-methodische Leitlinien sind damit aber noch nicht gewonnen, weshalb auch Kugelmann konstatiert: „Die sozialwissenschaftliche Evaluationsforschung scheint für die konkrete Evaluation von Sicherheitsgesetzen bisher nur sehr allgemeine Hilfen bereitstellen zu können.“ (S. 157) Ob diese Diagnose wirklich stimmt oder nur einer fehlenden Aufnahmebereitschaft für sozialwissenschaftliche Methodiken geschuldet ist, wäre noch zu prüfen.

Trotz der beschriebenen Defizite hinsichtlich des wissenschaftlichen Anspruchs und der fehlenden Begriffsklärungen bietet der Band eine aufschlussreiche Lektüre für politisch interessierte Praktiker_innen, lassen sich aus den eher politikwissenschaftlichen Beiträgen (so auch Detlef Sack zu den Rezeptionsbedingungen von Evaluationsergebnissen in der Politik) zahlreiche Einblicke in die politischen und praktischen Hürden des Evaluationsgeschäfts gewinnen. In dieser Hinsicht war bereits die zugrundeliegende Tagung äußerst aufschlussreich, bei der das unterschiedliche Selbstverständnis der Evaluateure offen zutage trat und für manche Sprach­verwirrung sorgte. 

 

 Sven Lüders
ist gelernter Soziologe und Geschäftsführer der Humanistischen Union.

Anmerkungen:

(6) S. auch das Interview mit Wolff in vorgänge 206/207, S. 135-143.

(7) S. BT-Drs. 17/12665 v. 7.3.2013.

(8) Nach Ziekow/Debus/Piesker 2012, Leitfaden zur Durchführung von ex-post-Gesetzesevaluationen unter besonderer Berücksichtigung datenschutzrechtlicher Folgen.

(9) Albers/Weinzierl (Hrsg.), Menschenrechtliche Standards in der Sicherheitspolitik, 2010; Marion Albers: Die verfassungsrechtliche Bedeutung der Evaluierung neuer Gesetze zum Schutz der Inneren Sicherheit, in: Deutsches Institut für Menschenrechte (Hrsg.): Menschenrechte – Innere Sicherheit – Rechtsstaat, Berlin 2006, S. 21-36.

(10) S. Anm. 8.