Systemy sztucznej inteligencji coraz częściej pełnią rolę narzędzi poznawczych, wspierających analizę danych, podejmowanie decyzji i dostęp do wiedzy. Jednocześnie ich odpowiedzi nie są wolne od wpływów zewnętrznych. Jak wskazuje Krzysztof Wróbel, współtwórca polskiego modelu Bielik, mechanizmy ograniczania treści mogą być wpisane w działanie AI na wielu poziomach – od danych treningowych po końcowe odpowiedzi generowane dla użytkownika.
Skąd bierze się „cenzura” w modelach AI
Podstawowym etapem, na którym może pojawić się selekcja treści, jest dobór danych treningowych. Modele językowe uczą się na ogromnych zbiorach tekstów, jednak nie są one neutralnym odzwierciedleniem rzeczywistości. Pominięcie określonych tematów – na przykład wydarzeń historycznych niewygodnych politycznie – skutkuje tym, że model nie jest w stanie ich poprawnie opisać. W praktyce oznacza to ograniczenie pola wiedzy, które użytkownik uznaje za kompletne.
Kolejny etap to przetwarzanie i filtrowanie danych. Nawet w projektach o charakterze otwartym konieczne jest usuwanie treści niskiej jakości, co wprowadza element subiektywności. W tym sensie rozwój sztucznej inteligencji przypomina procesy znane z historii nauki i kartografii – tak jak dawne mapy odzwierciedlały nie tylko wiedzę geograficzną, ale też interesy ich twórców, tak współczesne modele odzwierciedlają decyzje podejmowane przez zespoły projektowe.
Istotną rolę odgrywa także etap doszkalania modeli przez ludzi. Anotatorzy, którzy oceniają odpowiedzi systemu, wpływają na jego przyszłe zachowanie. To oni wskazują, jakie treści są „właściwe”, a jakie należy odrzucać lub modyfikować. W efekcie model zaczyna odzwierciedlać normy kulturowe, prawne lub organizacyjne określone przez jego twórców.
Między otwartością a bezpieczeństwem
W odpowiedzi na ograniczenia modeli zamkniętych rozwijane są rozwiązania otwarte, takie jak polski Bielik. Ich celem jest zwiększenie przejrzystości i ograniczenie arbitralnej cenzury. Wróbel podkreśla, że w tej koncepcji model nie powinien unikać trudnych tematów, zwłaszcza gdy mają one znaczenie naukowe lub zawodowe, jak w medycynie czy farmacji.
Jednocześnie całkowity brak ograniczeń nie jest rozwiązaniem uniwersalnym. Dlatego powstają narzędzia moderujące, takie jak Bielik Guard (Sójka), które pozwalają instytucjom samodzielnie regulować zakres dopuszczalnych treści. Wprowadza to interesujące napięcie między wolnością informacji a odpowiedzialnością za jej wykorzystanie – problem obecny również w ekonomii i prawie, dziedzinach bliskich tradycji kopernikańskiej.
Z perspektywy metodologii nauki szczególnie istotne jest rozumienie, że model AI nie jest źródłem wiedzy, lecz narzędziem jej przetwarzania. Podobnie jak w astronomii obserwacje wymagają interpretacji, tak odpowiedzi sztucznej inteligencji wymagają krytycznej analizy. W badaniach nad modelami językowymi wykazano, że różne systemy mogą odmiennie reagować na pytania polityczne czy społeczne, co potwierdza wpływ kontekstu kulturowego i regulacyjnego na ich działanie.
Nowe formy wpływu na informację
Cenzura w systemach AI nie ogranicza się do prostego odmawiania odpowiedzi. Może przyjmować subtelniejsze formy, takie jak pomijanie istotnych faktów, zmiana tonu wypowiedzi czy nawet obniżanie jakości generowanych treści w określonych kontekstach. W badaniach nad modelami stosowanymi w różnych krajach zauważono, że generowany kod komputerowy może różnić się poziomem bezpieczeństwa w zależności od tematyki projektu.
Zjawiska te pokazują, że sztuczna inteligencja staje się nie tylko narzędziem technologicznym, lecz także elementem systemów społecznych i politycznych. W tym sensie jej rozwój wpisuje się w szersze procesy analizowane przez ekonomię i prawo – dziedziny, w których pytania o regulację, zaufanie i odpowiedzialność mają fundamentalne znaczenie.
Świadomość ograniczeń modeli AI staje się dziś kompetencją równie ważną jak umiejętność korzystania z nich. Krytyczne podejście do generowanych treści oraz ich weryfikacja wpisują się w tradycję naukową sięgającą czasów Mikołaja Kopernika, dla którego obserwacja i analiza stanowiły podstawę poznania świata.