śr., 22/04/2026 - 14:00
Kod CSS i JS

W nowym odcinku podcastu NCN prof. Margaret Ohia-Nowak i dr inż. Tomasz Szumełda rozmawiają o wynikach sondażu o użyciu AI przy pisaniu wniosków oraz o badaniach nad uprzedzeniami w polskich modelach językowych, projekcie badaczki, finansowanym przez Centrum. Prowadzi Anna Korzekwa-Józefowicz.

Margaret Ohia-Nowak to językoznawczyni i medioznawczyni z Uniwersytetu Marii Curie-Skłodowskiej w Lublinie, zajmująca się m.in. rasą, urasowianiem oraz językiem dyskursu publicznego w Polsce i Europie Środkowo-Wschodniej. Tomasz Szumełda przez wiele lat pełnił funkcję koordynatora dyscyplin w NCN, obecnie pracuje nad wdrożeniem systemu e-Granty i reprezentuje Centrum w grupie roboczej ds. AI w stowarzyszeniu Science Europe, zrzeszającym agencje finansujące naukę i instytucje naukowe.

AI w systemie grantowym

Jesienią 2025 roku NCN przeprowadził sondaż wśród kierowników projektów składanych w ostatnich edycjach konkursów OPUS, SONATA i PRELUDIUM, pytając o zakres użycia generatywnej AI przy przygotowywaniu wniosków i o granice jej dopuszczalnego stosowania. Wzięło w nim udział 2708 osób. Około 60% respondentów uważa, że Centrum powinno dopuścić użycie GenAI przy przygotowywaniu wniosków; 42% przyznaje, że z takich narzędzi już korzystało. Jednocześnie większość sprzeciwia się wykorzystywaniu AI do tworzenia koncepcji badań, formułowania hipotez i przygotowywania przeglądu literatury. W sprawie oceny wniosków stanowisko jest jeszcze bardziej jednoznaczne: 67% ogółu wnioskodawców i 72% laureatów wyklucza udział GenAI w tym procesie.

Tomasz Szumełda zwraca uwagę, że wyniki sondażu pokrywają się ze stanowiskiem NCN opublikowanym w maju 2025 roku, które dopuszcza pomocnicze użycie GenAI przy przygotowywaniu wniosków i zakazuje jej stosowania w ocenie merytorycznej. – Środowisko naukowe samo rozdziela formę od treści, a to pokazuje, że podejście Centrum trafia w oczekiwania wnioskodawców – mówi. Margaret Ohia-Nowak, która sama wypełniła ankietę, zgadza się z tym podziałem i dodaje, że AI może być pomocna przy tłumaczeniu i redakcji wniosku, ale koncepcja badawcza musi pozostać pracą naukowca.

Tomasz Szumełda podkreśla też, że zasady wypracowane przez Centrum wpisują się w szerszy europejski standard. W Science Europe trwają prace nad wspólnymi rekomendacjami dla agencji krajowych, a obecne podejście NCN – dopuszczające pomocnicze użycie AI przez wnioskodawców i zakazujące jej stosowania w ocenie – jest zbieżne z dominującym kierunkiem w Europie. Wyjątkiem jest niemiecka agencja DFG, która od niedawna pozwala recenzentom korzystać z AI przy redakcji językowej i porządkowaniu własnych uwag krytycznych. DFG zakazuje jednak użycia publicznie dostępnych modeli, dopuszcza wyłącznie lokalne serwery instytucjonalne i wymaga oznaczenia fragmentów recenzji pochodzących od AI.

Subtelne uprzedzenia algorytmów

W podcaście mowa też o sztucznej inteligencji jako przedmiocie badań. NCN finansuje projekty dotyczące AI w wielu obszarach, od algorytmów uczenia maszynowego i modeli językowych, przez zastosowania w medycynie i biologii, po analizy jej skutków społecznych i prawnych. Jednym z nich są badania Margaret Ohii-Nowak nad polskimi dużymi modelami językowymi (LLM). Badaczka analizuje, jak zespoły tworzące modele Bielik i PLLuM radzą sobie z zabezpieczaniem ich przed powielaniem stereotypów etnicznych i rasowych. Z pierwszej fazy projektu wynika, że działań ograniczających uprzedzenia jest w polskich modelach sporo, a repertuar rozwiązań stale się poszerza.

Badaczka zwraca jednak uwagę, że pierwsze, odruchowe odpowiedzi modeli bywają mniej zniuansowane, i opisuje to na przykładzie jednego z generatorów:

– Nawet dzisiaj wrzuciłam do ChataGPT prośbę o wygenerowanie obrazu mądrego człowieka. No i ten mądry człowiek… Biały, z wąsem. Te modele już umieją różnicować, jeszcze nie umiały tego robić trzy lata temu, w 2023, kiedy kiełkował mi w głowie pomysł tego projektu. Ale po moich badaniach korpusowych widzę, że modele mogą być w sposób subtelny uprzedzone. Nawet jeśli są przetrenowane pod kątem eliminacji uprzedzeń, w pierwszej odpowiedzi na pytanie o «mądrego człowieka» często pokazują bardzo stereotypowy obraz. Pytanie brzmi: jak sprawić, by te pierwsze odpowiedzi były inne? – mówi.

Efektem projektu, planowanym na koniec 2027 roku, ma być przewodnik dla dwóch grup: użytkowników, uczący konstruować prompty generujące treści bardziej wrażliwe kulturowo, oraz zespołów tworzących kolejne polskie LLM-y, dostarczający im zestawu dobrych praktyk.

Wybrane wypowiedzi

Margaret Ohia-Nowak

Uśmiechnęłam się, gdy usłyszałam, że większość osób nie zgadza się na to, żeby używać narzędzi AI przy tworzeniu koncepcji wniosku. Jestem jedną z osób, która też tę odpowiedź wskazała. Natomiast przy tych takich kwestiach właśnie formalnych, które często są trudne, kiedy po prostu, zwłaszcza dla osób, które nie mają doświadczenia na przykład w pisaniu wniosków czy coś takiego, w jaki sposób w ogóle sobie ustrukturyzować nawet czasem wniosek, to to też będzie pomagać, chociaż w dużym stopniu jest to już zaznaczone w samym opisie tego konkursu czy opisie wniosku. Myślę, że to są takie rzeczy techniczne, które powinno dopuszczać takie źródło finansowania czy ośrodki, które finansują badania, i NCN to robi. Czyli przy drobnych tłumaczeniach, przy jakimś redagowaniu językowym, a nie przy tym wkładzie kreatywnym.

Tomasz Szumełda

Na ten moment stanowisko NCN jest jasne, to znaczy sztuczna inteligencja w żaden sposób nie powinna ingerować w proces oceny merytorycznej. Myślę, że moglibyśmy nagrać cały podcast tylko na ten temat. Wyobraźmy sobie na przykład takiego recenzenta AI, który nakarmiony wielką bazą danych na temat tego, że przez ostatnie trzy lata finansowano ten rodzaj badań, uzna, że te badania nie są innowacyjne, albo wręcz przeciwnie, że są innowacyjne, bo będzie nakarmiony taką pulą danych, która później będzie mu sugerowała odpowiednie odpowiedzi.

Były takie sytuacje, że rzeczywiście eksperci, recenzenci, którzy oceniali wnioski, wyczuwali, że coś nie do końca jest tutaj tak, jak być powinno. Że ten koncept badawczy, ten wniosek był w pewien sposób płaski, taki generyczny. Ktoś zadał proste pytanie i dostał prostą odpowiedź. Brakowało w tym głębi pomysłu, spójności między metodologią a dorobkiem. Takie wnioski były zazwyczaj oceniane słabo, a jednocześnie angażowały zasoby ludzkie do oceny czegoś, co nie miało wartości merytorycznej.

Pełne wyniki sondażu dotyczącego wykorzystania GenAI w systemie grantowym NCN dostępne są w raporcie Zespołu ds. Analiz i Ewaluacji Centrum.