Dwie trzecie badaczek i badaczy NCN sprzeciwia się udziałowi generatywnej sztucznej inteligencji w ocenie wniosków grantowych. Jednocześnie 60% uważa, że Centrum powinno dopuszczać jej użycie przy ich przygotowywaniu. To główny wynik sondażu przeprowadzonego przez NCN wśród kierowników projektów składanych w rozstrzygniętych w ciągu ostatnich dwóch lat konkursach OPUS, SONATA oraz PRELUDIUM.
Granica, którą wytyczają sami badacze, przebiega wyraźnie: generatywna AI jako narzędzie redakcyjne, do korekty językowej, tłumaczeń, streszczeń, jest akceptowana. Jako autor koncepcji badawczej lub recenzent wniosku – nie.
Wyniki sondażu pokrywają się ze stanowiskiem NCN z maja 2025 roku, które dopuszcza pomocnicze użycie GenAI przy przygotowywaniu wniosków i zakazuje jej stosowania w ocenie merytorycznej.
Sondaż przeprowadził w październiku 2025 roku Zespół ds. Analiz i Ewaluacji, kierowany przez dr Annę Strzebońską.
Co robią, a czego nie chcą
Z narzędzi GenAI skorzystało 42% ankietowanych. Najczęściej sięgali po nie przy korekcie językowej wniosku (39% wskazań), przygotowaniu abstraktu lub streszczenia popularnonaukowego (18%) oraz tłumaczeniu tekstu (14%).
Ponad połowa badanych (54%) uznała, że narzędzia generatywne nie powinny służyć do tworzenia koncepcji wniosku ani do przygotowywania przeglądu literatury. Niemal co drugi respondent (46%) chce zakazu wykorzystywania AI do opracowywania skróconych wersji wniosku kierowanych do ekspertów.
Widoczne są różnice między konkursami dla badaczy na wczesnym etapie kariery a konkursem otwartym dla wszystkich. W SONATA i PRELUDIUM z GenAI korzystało odpowiednio 49% i 45% wnioskodawców, w OPUS – 37%. Grupy dyscyplin nie różnicują odpowiedzi w istotny sposób, co sugeruje, że narzędzia te funkcjonują już jako element codziennej praktyki badawczej.
Trzy podejścia
Z komentarzy respondentów wyłaniają się trzy stanowiska regulacyjne.
Pierwsza grupa stoi na stanowisku pełnej odpowiedzialności badacza. Argumentacja jest pragmatyczna: zakazy są w praktyce nieegzekwowalne, a agencje finansujące nie dysponują narzędziami pozwalającymi wiarygodnie wykryć użycie AI we wniosku. Wniosek napisany bezrefleksyjnie przez AI będzie nosił ślady schematyczności, które ekspert szybko rozpozna, a przy niskim wskaźniku sukcesu w konkursach NCN taki projekt przepadnie w konkurencji.
Drugie podejście to żądanie całkowitego zakazu. Argumentacja jest etyczna: wniosek grantowy stanowi dowód kompetencji badacza i integralną część jego pracy twórczej. Oddanie pisania maszynie to w ocenie tej grupy forma nieuczciwej konkurencji wobec naukowców pracujących samodzielnie. Jeden z respondentów porównał wykorzystanie GenAI do dopingu w sporcie.
Trzecia, najliczniejsza grupa proponuje „drogę środka". Nie odrzuca technologii, ale oczekuje precyzyjnych zasad jej stosowania i mechanizmów weryfikacji: obowiązkowych deklaracji o użyciu GenAI, rozróżnienia między redakcją językową a generowaniem treści merytorycznych oraz gradacji sankcji za niezgodność deklaracji z rzeczywistym użyciem narzędzi.
Niezależnie od stanowiska regulacyjnego respondenci wskazują to samo ryzyko: wyciek nieopublikowanych pomysłów badawczych do publicznych modeli językowych, które wykorzystują dane użytkowników do dalszego trenowania. Treść wniosku wklejona do publicznego narzędzia w celu korekty językowej może zostać zapamiętana przez jego dostawcę i utracić status poufnej. Środowisko oczekuje rozwiązań gwarantujących kontrolę nad przepływem danych: narzędzi działających w trybie on-premises, z polityką braku retencji danych.
Ocena wniosków: wyraźne „nie"
Stanowisko wobec udziału AI w ocenie wniosków jest znacznie bardziej jednoznaczne niż w przypadku jej użycia przy ich pisaniu. Przeciw jest 67% ogółu respondentów, a wśród laureatów – 72%. Opinia ta jest spójna niezależnie od dyscypliny i wyniku konkursu.
Argumenty wykraczają poza ogólną nieufność. Respondenci powołują się na badania wskazujące, że duże modele językowe powielają uprzedzenia obecne w danych treningowych i preferują treści dopasowane do własnych wzorców, a niekoniecznie wartościowe naukowo. Ocena algorytmiczna premiowałaby wnioski napisane „pod algorytm", a nie wnioski najlepsze merytorycznie. W komentarzach pojawia się też obawa przed nowym rodzajem manipulacji: ukrytymi instrukcjami umieszczanymi w treści wniosku (np. białą czcionką) lub nadmiernym użyciem słów kluczowych.
Jedyne dopuszczalne zastosowania AI po stronie recenzenta to, według respondentów, czynności formalne: sprawdzenie kompletności wniosku, zgodności z kryteriami konkursu, spójności dokumentu. Warunkiem jest pełna odpowiedzialność eksperta za treść recenzji.
Co dalej
Wyniki sondażu będą punktem wyjścia do dalszych prac regulacyjnych NCN. Wskazują trzy obszary, w których środowisko oczekuje doprecyzowania polityki Centrum: mechanizmów jawnego deklarowania użycia GenAI we wnioskach i recenzjach, bezpieczeństwa przetwarzania danych oraz szkoleń dla wnioskodawców i recenzentów, obejmujących także ochronę przed manipulacją narzędziami AI (tzw. prompt injection).
Kierunek przyjęty przez NCN wpisuje się w szerszy europejski standard, w tym rekomendacje Komisji Europejskiej zawarte w dokumencie Responsible Use of Generative AI in Research.
Opracowanie: wyniki sondażu dotyczącego wykorzystania GenAI, przygotowane przez Zespół ds. Analiz i Ewaluacji NCN.