Szkoła Główna Mikołaja Kopernika

Sztuczna inteligencja w nauce staje się problemem

W ostatnich miesiącach środowisko naukowe coraz intensywniej dyskutuje o roli narzędzi sztucznej inteligencji, takich jak ChatGPT, w procesie tworzenia publikacji naukowych. Pojawiają się liczne przypadki nieujawnionego wykorzystania AI, co budzi obawy o rzetelność i transparentność badań.

Skala problemu

Analizy przeprowadzone przez prof. Artura Strzeleckiego z Uniwersytetu Ekonomicznego w Katowicach wykazały obecność charakterystycznych zwrotów generowanych przez ChatGPT w wielu recenzowanych artykułach naukowych, w tym w prestiżowych czasopismach indeksowanych w bazie Scopus. Frazesy takie jak „As an AI language model” czy „As of my last knowledge update” pojawiały się w tekstach bez odpowiedniego oznaczenia, sugerując nieświadome lub celowe kopiowanie treści wygenerowanych przez AI. W niektórych przypadkach autorzy nie usuwali nawet przycisku „regenerate response”, co wskazuje na brak dokładnej weryfikacji w procesie redakcyjnym.

Reakcje wydawców i środowiska naukowego

W odpowiedzi na rosnące obawy, wydawnictwa naukowe, takie jak Springer Nature i Taylor & Francis, wprowadziły wytyczne dotyczące wykorzystania AI w publikacjach. Podkreślają one konieczność ujawniania wszelkiego użycia narzędzi AI w procesie tworzenia artykułów, zwłaszcza gdy wpływają one na treść merytoryczną. Jednocześnie zaznaczają, że AI nie może być uznawana za współautora publikacji, ponieważ nie spełnia kryteriów odpowiedzialności za treść naukową.

Wyzwania związane z detekcją AI

Wykrycie nieujawnionego wykorzystania AI w publikacjach stanowi poważne wyzwanie. Badania pokazują, że nawet doświadczeni recenzenci mają trudności z odróżnieniem tekstów napisanych przez ludzi od tych wygenerowanych przez AI. Dodatkowo, AI może tworzyć fałszywe lub nieistniejące cytowania, co prowadzi do rozpowszechniania niezweryfikowanych informacji w literaturze naukowej.

Potrzeba edukacji i transparentności

Eksperci, w tym prof. Strzelecki, podkreślają konieczność edukacji naukowców w zakresie odpowiedzialnego korzystania z narzędzi AI. Zalecają organizowanie szkoleń i warsztatów, które pomogą zrozumieć możliwości i ograniczenia tych technologii. Transparentność w ujawnianiu wykorzystania AI jest kluczowa dla utrzymania zaufania do publikacji naukowych i zapewnienia ich rzetelności.

Źródła: naukawpolsce.pl

Przejdź do treści