Metadaten

Heidelberger Akademie der Wissenschaften [Hrsg.]
Jahrbuch ... / Heidelberger Akademie der Wissenschaften: Jahrbuch 2008 — 2009

DOI Kapitel:
I. Das Geschäftsjahr 2008
DOI Kapitel:
Wissenschaftliche Sitzungen
DOI Kapitel:
Gesamtsitzung am 25. Oktober 2008
DOI Artikel:
Kieser, Alfred: Bedeuten Evaluationen einen Fortschritt für die Wissenschaften?
DOI Seite / Zitierlink: 
https://doi.org/10.11588/diglit.67591#0090
Lizenz: Freier Zugang - alle Rechte vorbehalten
Überblick
Faksimile
0.5
1 cm
facsimile
Vollansicht
OCR-Volltext
25. Oktober 2008

103

fügung zu stellen. (2) Die Öffentlichkeit ist kaum in der Lage, die Qualität wissen-
schaftlichen Wissens zu beurteilen. (3) Forschungserfolge werden von der Scientific
Community vorwiegend denjenigen Personen oder Institutionen zugeschrieben,
welche ihn erzielt haben. Vorarbeiten oderWeiterentwicklungen bringen den Auto-
ren wesentlich weniger Reputation. Die Unterschiede in der Reputation sind ge-
meinhin größer als Unterschiede in der Leistung. (4) Autonomie, d. h. die Freiheit
der Forschung von Zwängen sowie Anerkennung durch Peers — Reputationsgewinn
—, sind die wichtigsten Anreize.
Aus diesen Bedingungen lassen sich drei Schlussfolgerungen ableiten: (1) Peer
Reviews haben besondere Bedeutung. (2) Leistungsorientierte Entlohnungen sind,
weil sie das Auseinanderdriften von Anerkennung und Leistung in Einkommen
übersetzen, weitestgehend zu vermeiden. (3) Einschränkungen der Autonomie wir-
ken demotivierend.
Die Dichte von Evaluationen hat in den letzten Jahren erheblich zugenommen.
Uber vorgeschriebenen Akkreditierungen hinaus unterziehen sich viele Fakultäten
noch freiwilligen Akkreditierungen internationaler Agenturen. Landesgesetze schrei-
ben regelmäßige Evaluationen von Lehre und Forschung vor. Medien veröffentlichen
Rankings von Fachbereichen, aber auch von individuellen Wissenschaftlern nach
Maßgabe von Kriterien zur Qualität von Lehre und Forschung. Universitätsverwal-
tungen fuhren Evaluationen durch, um Mittel leistungsorientiert zuzuweisen oder um
Wissenschaftler leistungsorientiert zu entlohnen. Ursachen dieser „Evaluitis“ sind
letzten Endes schwindendesVertrauen der Politik in die Selbststeuerungsfähigkeit der
Wissenschaft, zunehmende Ressourcenknappheit, die zu Schwerpunktbildung,
zwingt und die Unsicherheit von Studienbewerbern und Arbeitgebern.
Kennziffern setzen sich gegen qualitative Evaluationen durch. Rankings weisen Uni-
versitäten und Fachbereichen Rangziffern zu. Kriterien der Bewertung und ihre
Gewichtungen und eventuelle Begründungen der Evaluatoren geraten in den Hin-
tergrund. Rankings beruhen in der Regel in einem hohen Maße auf Befragungen
von Studierenden, Personalmanagern, Professoren (welche ein Urteil über Kollegen
und Fakultäten abgeben). Da sich die Beurteilenden auf die wahrgenommene Repu-
tation beziehen, die wiederum von früheren Rankings abhängt, bestätigen und ver-
festigen sich Rankings über die Zeit. Zunehmend kommen Kriterien wie Impact
Factor der Zeitschriften, in denen veröffentlicht wurde und Citation Index zum
Einsatz. Diese Kriterien werden jedoch häufig fehlerhaft angewendet (s. den Report
des Joint Committee der International Mathematics Union, http://www. mathuni-
on.org/fileadmin/IMU/Report/CitationStatistics.pdf). So beruht der Citation
Index auf der Annahme, Zitationen brächten ausnahmslos Übernahme von Wissen
des Zitierten durch den Zitierenden zum Ausdruck. Tatsächlich aber sind die mei-
sten rhetorische Übungen. Auch ist die Annahme, Artikel in einer Zeitschrift mit
einem höheren Impact Factor würden häufiger zitiert als solche in einer Zeitschrift
mit einem niedrigeren durchweg mit hohen Irrtumswahrscheinlichkeiten belastet.
Höchst problematisch ist auch das Kriterium der Drittmittel, das Input- statt Out-
puteffizienz erfasst. In den meisten Disziplinen lässt sich keine Korrelation zwischen
Drittmitteleinwerbung und Forschungsoutput aufzeigen.
 
Annotationen
© Heidelberger Akademie der Wissenschaften