Metadaten

Heidelberger Akademie der Wissenschaften [Hrsg.]
Jahrbuch ... / Heidelberger Akademie der Wissenschaften: Jahrbuch 2008 — 2009

DOI Kapitel:
I. Das Geschäftsjahr 2008
DOI Kapitel:
Wissenschaftliche Sitzungen
DOI Kapitel:
Gesamtsitzung am 25. Oktober 2008
DOI Artikel:
Mosbrugger, Volker: Bedeuten Evaluationen einen Fortschritt für die Wissenschaften?: persönliche Erfahrungen und Überlegungen
DOI Seite / Zitierlink: 
https://doi.org/10.11588/diglit.67591#0094
Lizenz: Freier Zugang - alle Rechte vorbehalten

DWork-Logo
Überblick
Faksimile
0.5
1 cm
facsimile
Vollansicht
OCR-Volltext
25. Oktober 2008

107

nen daher von der Passiv-Seite bestens vertraut; als aktiver „Evaluator“ konnte ich
ebenso langjährige Erfahrung sammeln, unter anderem als DFG-Fachgutachter und
Fachkollegiat, als Mitglied im Senatsausschuss der HGF sowie bei der Begutachtung
des Elitenetzwerkes Bayern und bei der Strukturevaluation Geowissenschaften in
Baden-Württemberg. Meine fachliche Perspektive ist dabei die eines organismischen
Biologen und Geowissenschaftlers, also eines Naturwissenschaftlers, der nicht einer
der naturwissenschaftlichen Mainstream-Disziplinen angehört.
Betrachtet werden bei meiner nachfolgenden kurzen Darstellung lediglich
zwei Grundtypen von Evaluationen, die zudem alle Übergänge aufweisen.
Evaluation von Projekten und Personen
Bei der Evaluation von Projekten und Personen geht es typischerweise um die
Bewertung der wissenschaftlichen Qualität oder Leistung von Projekten und Perso-
nen bezogen auf einen bestimmten Auftrag. Die Bewertung erfolgt dabei häufig im
Sinne eines „Benchmarking“: wo stehen die Projekte/die Personen im nationalen
und internationalen Vergleich? Als Resultat liefert die Evaluation Empfehlungen zur
Förderung, Ressourcenzuweisung oder Einstellung von Personen. Als Grundlage für
diese Bewertungen und Empfehlungen dienen heute in den Naturwissenschaften
neben der eher qualitativen Beurteilung durch Peers zunehmend quantitative Indi-
katoren wie Hirsch-Faktor, Impact-Faktoren oder Drittmitteleinwerbungen, die
jeweils ihre eigenen Vor- und Nachteile aufweisen.
Die aktuelle Bevorzugung quantitativer Evaluationskriterien begründet sich
natürlich in ihrer scheinbaren Objektivität, Reproduzierbarkeit und Vergleichbarkeit.
Die Höhe der eingeworbenen Drittmittel oder die durchschnittliche Zahl der Zita-
tionen pro Artikel sind zumindest formal vergleichbar. Tatsächlich ist die Realität
nicht ganz so einfach. Quantitative Indikatoren messen eben per definitionem nur
die Quantität und nicht die Qualität, sie messen die Aufmerksamkeit, die eine wis-
senschaftliche Leistung genießt, und nicht ihre Nachhaltigkeit oder Innovation. Zu
Recht hat der ehemalige Präsident der Max-Planck-Gesellschaft Hubert Markl
daher die Zitationsfaktoren als die „Einschaltquoten der Wissenschaft“ gebrandmarkt
— sie sind als Marktinstrumente unzweifelhaft nützlich, reichen aber als alleiniges
Instrument der Qualitätssicherung nicht aus. Erschwerend kommt hinzu, dass es —
auch innerhalb der Naturwissenschaften — eben „kulturelle Unterschiede“ gibt:
Hirsch- oder Impact-Faktoren in der Molekularbiologie, Mathematik oder in den
Geowissenschaften sind leider nicht direkt vergleichbar, weil ihnen unterschiedliche
Populationsgrößen und Publikationstraditionen zugrunde liegen. In diesem Sinne
mit Sachverstand kritisch gelesen und interpretiert können bibliometrische Daten
und Drittmitteleinwerbungen eine wertvolle Hilfe bei Evaluationen von Projekten
und Personen sein.
Umgekehrt besitzt auch eine rein qualitative Bewertung von Projekten und
Personen durch Peers ihre inhärenten Probleme. Die Vergleich- und Reproduzier-
barkeit leidet, weil Maßstäbe und Kriterien bei verschiedenen Gutachtern unter-
schiedlich sein können. So bringen Gutachter immer ihre ganze Persönlichkeit mit
 
Annotationen
© Heidelberger Akademie der Wissenschaften