De Holle Klacht: Waarom de Roep om Meer Geld voor Wetenschap de Plank Misslaat. Minder Bureaucratie en meer Diversiteit en Creativiteit!

Een Noodkreet op LinkedIn en de Illusie van Geldgebrek

“Academische beleidsmakers klagen graag en veel dat er te weinig geld is voor wetenschap. 😑 Maar die klacht klinkt redelijk hol als je zelf weinig onderneemt om de verdeling van de huidige middelen te optimaliseren.” Met deze prikkelende stelling opende filosoof en hoogleraar Andreas De Block recent een debat op LinkedIn dat de kern raakt van een diepgeworteld probleem in de academische wereld [1]. De post, die snel honderden reacties en bijval kreeg, legt de vinger op een zere plek: de discussie over wetenschapsfinanciering wordt gedomineerd door een bijna reflexmatige roep om meer geld, terwijl de vraag hoe we het bestaande geld verdelen – een bedrag dat alleen al in OESO-landen neerkomt op een duizelingwekkende 1,7 biljoen dollar per jaar (2,7% van het BBP) – opvallend weinig aandacht krijgt [2].

De aanleiding voor De Blocks betoog was een artikel dat hij samen met Stijn Conix schreef voor het tijdschrift Ethiek & Maatschappij, getiteld “Onderzoeksfinanciering op de rooster” [3]. Daarin fileren ze de ‘gouden standaard’ van onderzoeksfinanciering: peer review-based project funding (PPR). Dit systeem, waarbij onderzoeksvoorstellen worden beoordeeld door vakgenoten, is volgens de auteurs geen efficiënte methode om de beste wetenschap te selecteren, maar een “dure, inefficiënte en ineffectieve zeef die veilig onderzoek beloont”.

Deze longread duikt dieper in de wetenschappelijke evidentie achter deze boude beweringen. We analyseren de drie fundamentele gebreken van het peer review-systeem zoals uiteengezet door Conix en De Block, onderbouwd met data uit decennia van onderzoek naar het onderwerp. Vervolgens verkennen we de veelbelovende, maar vaak met koudwatervrees ontvangen, alternatieven. De centrale vraag is niet óf we genoeg geld hebben voor wetenschap, maar of we het op een manier besteden die innovatie, creativiteit en maatschappelijke vooruitgang daadwerkelijk stimuleert.

H1: De Kolossale Kost van de Papierwinkel

Het eerste en meest tastbare probleem van het PPR-systeem is de absurd hoge kostprijs. De Block stelt het onomwonden: “Eén aanvraag slorpt weken werk op. En bij slaagkansen van 10-20% gaat een groot deel van de onderzoekstijd van academici naar het schrijven van onderzoek dat niet zal uitgevoerd worden” [1]. Dit is geen overdrijving; het is een empirisch vastgesteld feit dat een schokkende verspilling van intellectueel kapitaal blootlegt.

Een observationele studie onder Australische onderzoekers, gepubliceerd in BMJ Open, kwantificeerde deze inspanning. Gemiddeld kost het schrijven van een nieuwe onderzoeksaanvraag een wetenschapper 38 werkdagen. Een herindiening kost nog steeds 28 dagen [4]. Met slaagpercentages die vaak rond de 21% schommelen, betekent dit dat bijna 80% van deze tijd direct verloren gaat. De onderzoekers berekenden dat alleen al voor de grootste Australische financier (de NHMRC) in één jaar tijd een cumulatieve 550 jaar aan onderzoekstijd werd besteed aan het schrijven van voorstellen [5].

In de Verenigde Staten is het beeld niet anders. Een studie naar de kosten van NIH-aanvragen (National Institutes of Health) toonde aan dat de tijdsinvestering per aanvraag varieert van 70 tot meer dan 160 uur voor de hoofdonderzoeker alleen, met een prijskaartje tussen de $4.784 en $13.512 per aanvraag [6]. Wanneer men dit extrapoleert naar de tienduizenden aanvragen die jaarlijks worden ingediend, wordt de omvang van de verspilling duidelijk. Wetenschappers, wier salarissen doorgaans door de maatschappij worden betaald om onderzoek te doen en onderwijs te geven, besteden een significant deel van hun tijd aan een bureaucratische competitie met een lage kans op succes. Dit fenomeen, waarbij de kosten van het aanvraagproces de potentiële opbrengst overstijgen, wordt ook wel het ‘Szilard-punt’ genoemd, een term die de absurditeit van de situatie pijnlijk samenvat [2].

De Kosten van OnderzoeksaanvragenTijdsinvestering per AanvraagMonetaire Kosten per AanvraagSlaagpercentage (indicatief)
Australië (Herbert et al., 2013)34-38 werkdagen (gemiddeld)Niet gespecificeerd. Waarschijnlijk 10-20k~21%
Verenigde Staten (Kulage et al., 2015)70-162 uur (hoofdonderzoeker)$4.784 – $13.51210-20%
Duitsland (Luebber et al., 2025)Geschatte kostenreductie van 68% met loterij-modelNiet gespecificeerd~7% (traditioneel)

Tabel 1: Een overzicht van de geschatte kosten en tijdsinvesteringen voor het schrijven van onderzoeksaanvragen in verschillende studies.

H2: Een Rol van de Dobbelsteen? De Onbetrouwbaarheid van Peer Review

Het tweede fundamentele probleem is de vraag of peer review wel doet wat het belooft: de beste wetenschap selecteren. De Block en Conix stellen dat het systeem “onbetrouwbaar en zwak voorspellend” is [3]. De kans is groot, zo schrijven ze, dat een gehonoreerd project met andere reviewers niet gehonoreerd zou zijn, en vice versa. Dit gebrek aan consensus is een bekend fenomeen in de literatuur. Studies tonen keer op keer aan dat de overeenstemming tussen reviewers laag is, wat suggereert dat de uitkomst van een evaluatie sterk afhangt van de toevallige samenstelling van het reviewpanel [7].

Nog problematischer is dat de scores van reviewers slecht voorspellen welke projecten daadwerkelijk de meeste impact zullen hebben. Een spraakmakende studie in eLife concludeerde dat de peer review-scores van de NIH “slecht voorspellend zijn voor de productiviteit van een grant” [8]. Een andere studie in Science stelde de vraag of panels “grote namen of grote ideeën” selecteren, en vond bewijs dat de reputatie van de aanvrager een significante rol speelt [9]. Dit leidt tot het fenomeen ‘grantsmanship’: de kunst van het schrijven van een overtuigend voorstel, een vaardigheid die niet noodzakelijk samenvalt met de vaardigheid om baanbrekend onderzoek uit te voeren.

De reacties op De Blocks post illustreren dit. Frido Smulders deelt een herkenbare ervaring: “Ooit een ruimhartig door de industrie en wetenschap gedragen voorstel afgekeurd zien worden. (…) Motivatie: te innovatief! Gaat niet werken!” [1]. Dit is de kern van het conservatisme dat het systeem wordt verweten. Reviewers, geconfronteerd met onzekerheid en een overvloed aan aanvragen, neigen naar het veilige en het bekende. Ze financieren liever een project dat incrementele vooruitgang belooft binnen een gevestigd paradigma dan een hoog-risico project dat een heel veld op zijn kop kan zetten. Beroemde voorbeelden van revolutionaire ideeën die aanvankelijk werden afgewezen, zoals het werk van Nobelprijswinnaar Leon Cooper aan neurale netwerken, dienen als waarschuwing [10].

H3: De Verkeerde Kant op? Hoe Peer Review Wetenschap Stuurt

Het derde en misschien wel meest pernicieuze effect van het PPR-systeem is dat het de wetenschap de verkeerde kant op stuurt. Het beloont, zoals De Block en Conix schrijven, “grantsmanship, netwerkvoordeel en veilige projecten” [3]. Dit creëert een cultuur waarin onderzoekers worden ontmoedigd om risico’s te nemen. Het systeem beweert vaak hoog-risico/hoog-opbrengst onderzoek te willen financieren, maar de praktijk is weerbarstig. De druk om te publiceren, te scoren en de volgende grant binnen te halen, leidt tot een focus op kortetermijnresultaten en incrementele stapjes.

Deze ‘rat race’ heeft nog een ander gevolg: het verhoogt de verleiding tot dubieuze praktijken. De enorme competitie en de lage slaagkansen creëren een omgeving waarin wetenschappelijke fraude en slordigheid gedijen. Bovendien leidt het tot een systematische bias. Onderzoek toont aan dat het systeem vrouwen en onderzoekers van gemarginaliseerde groepen systematisch benadeelt. Een natuurlijk experiment bij de Canadian Institutes of Health Research toonde aan dat wanneer reviewers expliciet de kwaliteit van de onderzoeker moesten beoordelen (in plaats van alleen het voorstel), de kloof tussen mannelijke en vrouwelijke aanvragers significant groter werd [11].

De reactie van Pascal Delheye op LinkedIn is veelzeggend: “Klopt helemaal, Andreas! Tussen 2012-2016 heb ik ook gestreden tegen dat ‘systeem’ (al kan je die strijd nooit winnen als de meerderheid gebaat is bij het vigerende systeem… of te bang is om zijn nek uit te steken)” [1]. Dit wijst op de inertie van het systeem. Degenen die succesvol zijn binnen de huidige structuur, hebben weinig prikkels om het te veranderen. De ironie, zoals De Block opmerkt, is dat we voor wetenschapsbeleid zelf geen evidence-based aanpak hanteren, terwijl we dat binnen de wetenschap wel eisen.

H4: De Weg Vooruit: Loterijen en Andere Alternatieven

Als het huidige systeem zo gebrekkig is, wat zijn dan de alternatieven? De discussie hierover is gelukkig in volle gang, en er wordt volop geëxperimenteerd.

1. Gedeeltelijke Loterij:

Een van de meest besproken alternatieven is het introduceren van een loterij. Dit betekent niet dat geld volledig willekeurig wordt verdeeld. In de meeste modellen worden voorstellen eerst gescreend op basiskwaliteit. Aanvragen die als ‘excellent’ of ‘zeer goed’ worden beoordeeld, maar waarvoor geen budget meer is, worden vervolgens niet in een eindeloze rangschikking gedwongen, maar komen in een pot waaruit door loting wordt gekozen. Dit erkent de realiteit dat reviewers niet perfect kunnen discrimineren tussen de top 10% en de top 20% van de aanvragen. Financiers als de Nieuw-Zeelandse Health Research Council en de Duitse VolkswagenStiftung hebben hier al succesvol mee geëxperimenteerd [10].

Een recente studie in Nature Communications over het ‘Freiraum’ programma van de VolkswagenStiftung, dat een loterij voorafgaand aan de peer review gebruikt, toonde opmerkelijke resultaten. Deze ‘lottery-first’ aanpak leidde tot 10% meer aanvragen en 23% meer gehonoreerde projecten van vrouwen. Bovendien waren de geschatte economische kosten van het proces 68% lager dan bij een conventionele aanpak [2].

2. Basisfinanciering en Persoonsgerichte Beurzen:

Een ander model is om de focus te verleggen van projecten naar mensen. Geef getalenteerde onderzoekers een stabiele basisfinanciering voor een langere periode, en geef hen de vrijheid en flexibiliteit om hun onderzoek te sturen. Het prestigieuze Howard Hughes Medical Institute (HHMI) in de VS hanteert dit model met het motto “fund people, not projects”. Hun onderzoekers, die voor zeven jaar of langer worden gefinancierd, hebben 29 Nobelprijzen gewonnen en produceren significant meer high-impact papers dan hun collega’s die via het traditionele NIH-systeem worden gefinancierd [10]. Dit model vermindert de noodzaak voor constante aanvragen en stimuleert risicovoller, langetermijnonderzoek.

3. Andere Modellen zoals DARFA:

Andere ideeën omvatten het DARPA-model, waarbij deskundige programmamanagers meer autonomie krijgen om gedurfde projecten te selecteren, of het betrekken van patiënten en het brede publiek bij de evaluatie om de maatschappelijke relevantie te vergroten [10].

4. Meer eerste geldstroom en vertrouwen:

Harold: Het is heel simpel. Het budget voor academisch onderzoek zou ongeveer 0.5% van het BNP moeten zijn. Standaard. Vast. En stoppen met al het andere. Behalve misschien jaarlijks een keer uitleggen aan de samenleving waarom, hoe en waar je aan werkt voor die samenleving”. Andreas: “dat zou in Vlaanderen meer dan een halvering betekenen. Maar los daarvan gaat dit niet zozeer over hoeveel geld er nodig is, maar wel over hoe het verdeeld moet worden tussen de wetenschappen en wetenschappers”. Harold: “Nou Andreas De Block. Met een slagings% van 10-20% naar “niet meer nodig” en “follow your nose” als motivator is die halvering geen probleem toch? Onderlinge verdeling is inderdaad een punt. Nog niet aan gedacht. Heb je ene idee?”

Naar een Evidence-Based Wetenschapsbeleid dus

De klacht over een tekort aan wetenschapsfinanciering is begrijpelijk, maar zoals Andreas De Block terecht stelt, ook hol. De wetenschappelijke gemeenschap verspilt een onthutsende hoeveelheid tijd en geld aan een selectiesysteem dat onbetrouwbaar is, conservatisme beloont en ongelijkheid in de hand werkt. De roep om simpelweg meer geld in dit lekkende systeem te pompen, is als het dweilen met de kraan open.

De discussie die De Block aanzwengelt, ondersteund door een groeiende berg wetenschappelijk bewijs, toont aan dat het tijd is voor een radicale herbezinning. We moeten de moed hebben om te experimenteren met nieuwe financieringsmodellen. Modellen die de bureaucratie verminderen, diversiteit en creativiteit bevorderen, en het vertrouwen in de wetenschap herstellen. De ironie dat we voor het beleid van de wetenschap zelf de wetenschappelijke methode negeren, moet doorbroken worden. Het is tijd om te stoppen met klagen over de omvang van de taart, en eindelijk de manier waarop we de stukken verdelen serieus te nemen.

Referenties

[1] De Block, A. (2026, 2 januari). Academische beleidsmakers klagen graag en veel… [LinkedIn post].

[2] Luebber, F., Krach, S., Paulus, F. M., Rademacher, L., & Rahal, R. M. (2025 ). Lottery before peer review is associated with increased female representation and reduced estimated economic cost in a German funding line. Nature Communications, 16, 9824.

[3] Conix, S. & De Block, A. (2025 ). Onderzoeksfinanciering op de rooster. Grenzen van peer review en de weg naar betere alternatieven. Ethiek en Maatschappij, 27(1), 7-26.

[4] Herbert, D. L., Barnett, A. G., Clarke, P., & Graves, N. (2013 ). On the time spent preparing grant proposals: an observational study of Australian researchers. BMJ Open, 3(5), e002800.

[5] Herbert, D. L., Barnett, A. G., & Graves, N. (2013 ). Australia’s grant system wastes time. Nature, 495, 314.

[6] Kulage, K. M., Schnall, R., Hickey, K. T., Travers, J., Zezulinski, K., Torres, F., Burgess, J., & Larson, E. L. (2015 ). Time and costs of preparing and submitting an NIH grant application at a school of nursing. Nursing Outlook, 63(6), 639-649.

[7] Langfeldt, L., Reymert, I., & Svartefoss, S. M. (2024 ). Distrust in grant peer review—reasons and remedies. Science and Public Policy, 51(1), 28-41.

[8] Fang, F. C., Bowen, A., & Casadevall, A. (2016 ). NIH peer review percentile scores are poorly predictive of grant productivity. eLife, 5, e13323.

[9] Li, D., & Agha, L. (2015 ). Big names or big ideas: Do peer-review panels select the best science proposals? Science, 348(6233), 434-438.

[10] Bendiscioli, S. (2019 ). The troubles with peer review for allocating research funding. EMBO Reports, 20(12), e49472.

[11] Witteman, H. O., Hendricks, M., Straus, S., & Tannenbaum, C. (2019 ). Are gender gaps due to evaluations of the applicant or the science? A natural experiment at a national funding agency. The Lancet, 393(10171)

Geef een reactie