Schweizer Perspektiven in 10 Sprachen

Wie Wissenschaftler ihren Erfolg neu definieren

Hochschulrankings, "Journal Impact Factor", Anzahl Zitierungen: Viele Wissenschaftler sagen, diese Methoden zur Messung der "besten" Wissenschaft seien überholt und behinderten sogar den Fortschritt in der Forschung. Die Schweiz will nun helfen, Alternativen umzusetzen. Doch das ist leichter gesagt als getan.


PLACEHOLDER

Laut einem jüngst publizierten Bericht des Schweizerischen WissenschaftsratsExterner Link (SSC) haben die wissenschaftlichen Aktivitäten in der Schweiz während der letzten Jahrzehnte allgemein zugenommen: Es werden immer mehr Forscher beschäftigt, es wird mehr veröffentlicht, und mehr Geld, sowohl öffentliches als auch privates, fliesst in die Forschung.

Dieses Wachstum wiederum hat zu einem beispiellosen Wettbewerb geführt: Forscher buhlen um Finanzierung, Preise, akademische Positionen, Erwähnungen in Top-ZeitschriftenExterner Link und andere wissenschaftliche Erfolge. Mit dem zunehmenden Druck, entweder zu veröffentlichen oder sonst in der akademischen Versenkung zu verschwinden, ist die Quantität in den Vordergrund gerückt. Es geht ums “wie viel”. Massgebend ist, wie viel ein Forscher publiziert und wie oft seine Artikel zitiert werden. Der Anreiz für Forschende, noch mehr und häufiger zu veröffentlichen, wird grösser.

Wie sich die Wissenschaft selbst misst

  • h-Index: Eine Kennzahl, die anhand der Anzahl der von einem Forscher veröffentlichten wissenschaftlichen Arbeiten und der Anzahl der Zitierungen dieser Beiträge berechnet wird. Der h-Index zielt darauf ab, sowohl die Produktivität als auch die Wirkung eines Forschenden in seinem oder ihrem Bereich auszudrücken. Doch Kritiker sagen, er sei zu simpel und könne nicht über alle Disziplinen hinweg verglichen werden.
  • Journal Impact Factor (JIF): Diese Kennzahl wird verwendet, um wissenschaftliche Zeitschriften nach ihrer Bedeutung für ihre jeweiligen Bereiche zu ordnen. Ein JIF wird basierend auf der durchschnittlichen Anzahl der Veröffentlichungen einer Zeitschrift aus den vorangegangenen zwei Jahren berechnet. Der JIF ist eine einfache Vergleichsmethode, weist jedoch Mängel auf: Zum Beispiel bewertet er nicht direkt die Qualität der Artikel und kann durch einige häufig zitierte Artikel verzerrt werden.
  • Hochschul-Rankings: Da immer mehr Universitäten und Forschungseinrichtungen um den Zugang zu Geldern, Wissenschaftlern und Studenten werben, sind globale Rankings zu einem zunehmend nützlichen Instrument geworden, um die Qualität und die Auswirkungen dieser Organisationen zu bewerten. Die Rankings basieren vor allem auf dem Vergleich von Anzahl Zitierungen, Wissenstransfer und Unterrichtsleistung. Kritiker argumentieren aber, dass Rankings Anreize für Institutionen schaffen können, sich zu stark auf die Forschung mit hohem Einfluss zu konzentrieren, und zu wenig auf die pädagogischen und sozialen Verantwortlichkeiten.

Es sei ein “Paradoxon” der modernen Wissenschaft, sagte der Präsident der Akademien der Wissenschaften Schweiz, Antonio Loprieno, jüngst an einer Konferenz in Bern. “Auf der einen Seite hat die Verwendung zeitgenössischer Messgrössen wissenschaftlicher Leistung zusammen mit der Erhöhung der Wissenschafts-Finanzierung exponenziell zugenommen, was an sich eine sehr gute Sache ist. Auf der anderen Seite haben wir Vorbehalte, was die Fairness, Gültigkeit oder Anwendbarkeit dieser Massstäbe betrifft.”

Um einige dieser Vorbehalte auszuräumen, hat der SSC dieses Jahr eine Reihe von Empfehlungen für die Schweizer WissenschaftsgemeindeExterner Link herausgegeben. Damit sollen die Art und Weise der Bewertung und Finanzierung der Forschung geändert werden. Qualitative Indikatoren sollen in den Vordergrund gerückt werden.

Der Fokus auf quantitative Indikatoren sei eine Praxis, die falsche Anreize setze und die wissenschaftliche Qualität gefährde, steht im Bericht. Er fordert denn auch eine Verbesserung, “eine nationale Strategie”, welche die Vielfalt der disziplinären und institutionellen Anforderungen berücksichtigt.

Mehr als eine Zahl

Kritiker sagen, dass die Überbetonung quantitativer Kennzahlen zu einer Verminderung der wissenschaftlichen Seriösität führt, ganz zu schweigen vom grossen Stress für die Forschenden. Einer dieser Massstäbe ist der so genannte h-Index.

“Laut Google ist mein h-Index 48, was bedeutet, dass ich 48 Artikel mit mindestens 48 Zitierungen habe”, sagte Stephen Curry, Professor für Strukturbiologie am Imperial College London, der auch an der Konferenz in Bern sprach. “Es gibt Menschen auf diesem Planeten, für die ich nur eine Zahl bin. Und das mag ich nicht.”

Zahlen könnten helfen, um bestimmte Aspekte zu charakterisieren, ergänzte Curry. “Aber die Wissenschaft ist grundsätzlich eine tief menschliche Tätigkeit. Man kann gute Wissenschaft nicht einfach messen. Es muss eine Frage des Urteils, der Diskussion und der Expertise sein.”

Curry ist Vorsitzender des Lenkungsausschusses San Francisco Declaration on Research AssessmentExterner Link (DORA), welche die Art und Weise, wie Wissenschaft bewertet wird, verändern möchte. Die Deklaration wurde 2012 von der American Society for Cell Biology (ASCB) zusammen mit einer Gruppe von Redaktoren und Verlagen von wissenschaftlichen Zeitschriften ins Leben gerufen. Sie fordert die Forschungsförderer unter anderem auf, den wissenschaftlichen Inhalt einer Arbeit für bedeutend wichtiger zu erklären als die bibliometrischen Indikatoren.

Druck und Prestige

Kritiker argumentieren auch, dass quantitative Indikatoren wie der h-Index zu Verzerrungen neigen. Sie vernachlässigten eine vielfältige und risikoreiche Forschung mit potenziell bahnbrechenden Entdeckungen zugunsten von Konformismus, sagen sie.

Für Ellen Hazelkorn, Leiterin der Forschungsabteilung für Hochschulpolitik am Dublin Institute of Technology, sind solche quantitativen Indikatoren besonders in der heutigen Zeit problematisch. “Wir leben in einer Zeit, in der die Wissenschaft für jede und jeden etwas ist; nicht nur für eine kleine Elite.” Es gehe nicht mehr nur ums Streben nach individueller, intellektueller Neugier, sagt sie. “Der Wert der Forschung wird heute durch soziale und nationale Prioritäten abgewogen.”

Hazelkorn sagt, dass Metriken wie etwa das jährliche Hochschulranking des Times Higher Education MagazinsExterner Link für moderne, engagierte Gesellschaften “sehr ungeeignet sind”, weil sie sich auf die Rechenschaftspflicht nur im akademischen Bereich konzentrieren und nicht auf die Gesellschaft als Ganze.

“Rankings sind einfach zu verstehen, aber ihre Erfolgsindikatoren erhöhen die Ungleichheit und die Schichtung in unseren Gesellschaften, was wiederum Auswirkungen auf den Zugang zu öffentlichen Gütern hat”, so Hazelkorn.

Biologe Curry sagte, dass besonders die Einfachheit solcher Kennzahlen einen grossen Teil ihrer Attraktivität ausmachten. “Sie sind leicht zu berechnen. Sie haben eine Pseudo-Objektivität, die uns reizt, und sie erleichtern uns das Leben.”

Aber zu welchen Kosten? Wie Curry erklärte, kann die Konzentration auf diese Instrumente den wissenschaftlichen Fortschritt sogar verlangsamen, weil Forscher dazu ermutigt werden, ihre Arbeiten einem möglichst renommierten Journal vorzulegen. Doch bei solchen ist die Wahrscheinlichkeit gross, abgelehnt zu werden. Die Folge ist, das vieles nie publiziert wird. Dies wiederum kann dazu führen, dass in der Öffentlichkeit das Vertrauen in die Wissenschaft sinkt.

Darüber hinaus bedeutet der Fokus auf Veröffentlichungen und Prestige, dass andere wichtige Aktivitäten eines Forschenden unterbewertet werden und als Folge leiden können: Etwa die Wissensvermittlung oder die Öffentlichkeitsarbeit.

Aufkommende Alternativen

Die Wissenschaft wächst immer noch schnell, und jede und jeder möchte vorne mitmischen. Die Frage ist also, wie ganzheitlichere Bewertungsmethoden die Faszination der “schnellen und schmutzigen” Metriken überwinden können.

Bis heute ist die DORA-Deklaration, welche eine Änderung der Bewertungsraster fordert, weltweit von 14’000 Einzelpersonen und Organisationen unterzeichnet worden. Ähnliches will das so genannte Leiden-Manifest von 2015Externer Link. Es fordert, die Abhängigkeit von quantitativen Metriken zu reduzieren oder zumindest in Kombination mit anderen qualitativen Methoden zu verwenden.

Für Sarah de Rijcke, stellvertretende Direktorin des Zentrums für Wissenschafts- und Technologiestudien (CWTS) an der Universität Leiden in den Niederlanden – dem Geburtsort des Manifests – heisst die Lösung “Portfolio-Ansatz”.

“Allgemeine Korrekturen sind nicht sehr effektiv, denn die Art der Forschung, die von traditionellen Bewertungsmethoden am meisten honoriert wird, variiert von Disziplin zu Disziplin”, sagt de Rijcke. Sie empfiehlt stattdessen ein System, das auf einer “standardisierten Erzählung” basiert. Und diese Erzählung gibt Auskunft über die Expertise eines Wissenschaftlers, seine Forschungsergebnisse – von Publikationen und Stipendien bis hin zum Unterricht – und seinen Einfluss auf Wissenschaft und Gesellschaft.

Das DORA-Komitee sammelt auf seiner Website Beispiele für diesen und ähnliche Verbesserungsansätze. Unter anderem bittet es Forschende auch, ihre besten Veröffentlichungen und Beiträge in ihren eigenen Worten in einer Art Kurzbiografie zusammenzufassen.

Curry wies in Bern darauf hin, dass die allgemeine Tendenz in der Forschung hin zu Open Access ein Katalysator für Veränderungen der Bewertungskennzahlen sein dürfte, da solche frei zugänglichen Publikationen eher Inhalt und Transparenz betonen als traditionelle Zeitschriften auf Abonnementbasis.

Verantwortung der Schweiz

SCNAT-Präsident Loprieno sagte gegenüber swissinfo.ch, dass die Schweiz aufgrund ihrer reichhaltigen Wissenschaftsfinanzierung und flexiblen administrativen Anforderungen im Vergleich zu anderen europäischen Ländern eine internationale Verpflichtung habe, auf Veränderungen zu drängen.

“Wir haben eine gewisse Verantwortung für den Rest der Welt. Die Schweiz könnte experimentieren oder auf eine Weise aktiver versuchen, Lösungen zu finden, um die Schwierigkeiten des gegenwärtigen Systems zu überwinden”, sagt er.

Eine der grössten Herausforderungen werde es sein, sicherzustellen, dass junge Wissenschaftler, die sich früh in ihrer Karriere befinden, während des Übergangs zu vielfältigeren Messmethoden angemessen unterstützt werden, sagt er.

“Meine Lösung wäre etwas mehr Toleranz für längerfristige Forschungsprojekte. Wir neigen dazu, kurzfristig zu unterstützen und zu finanzieren, was der Logik des Wettbewerbs entspricht. Wenn wir bereit wären, längerfristig zu finanzieren, könnte das die früheren Karriereschritte etwas entlasten und auch ein faireres System schaffen.”

Eine so grosse Veränderung in der Forschungskultur sei aber viel leichter gesagt als getan, gesteht Loprieno ein, “aber das bedeutet nicht, dass es unmöglich ist. Irgendwo müssen wir schliesslich anfangen”.

(Übertragung aus dem Englischen: Christoph Kummer)

In Übereinstimmung mit den JTI-Standards

Mehr: JTI-Zertifizierung von SWI swissinfo.ch

Einen Überblick über die laufenden Debatten mit unseren Journalisten finden Sie hier. Machen Sie mit!

Wenn Sie eine Debatte über ein in diesem Artikel angesprochenes Thema beginnen oder sachliche Fehler melden möchten, senden Sie uns bitte eine E-Mail an german@swissinfo.ch

SWI swissinfo.ch - Zweigniederlassung der Schweizerischen Radio- und Fernsehgesellschaft

SWI swissinfo.ch - Zweigniederlassung der Schweizerischen Radio- und Fernsehgesellschaft