3/2026

Zuzanna Sala

Meta krytyki (4): Bełkot

Barbara Rojek w cyklu Kocur literacki (w odcinku pt. O czym Justyna Bargielska nie porozmawiała ze sztuczną inteligencją?) przekonująco dowodziła, że w pewnym sensie użycie modeli językowych do uprawiania twórczości artystycznej niczego nie zmienia. A już na pewno nie jest problemem wymagającym regulacji czy nawet panicznej debaty, w ramach której chętnie korzysta się z gestów załamywania rąk i ogłaszania końca świata, jaki znamy. Felieton Rojek w „Małym Formacie”, pokazujący podobieństwa między artystycznymi praktykami ready-made a użyciem choćby ChataGPT do napisania wiersza, został podparty solidną argumentacją, prowadzącą do jednego wniosku: niczego nie zdziałamy bez interpretacji.

To prawda. Dopiero wysiłek włożony w zrozumienie danego tekstu pozwala nam wyjść poza dociekanie przyczyn stojących za jego powstaniem i zająć się jego znaczeniem. I wniosek ten z jednej strony jest kojący, z drugiej zaś – męczący. Bo wnikliwa interpretacja to potwornie wymagająca i czasochłonna sprawa.

Kiedy wraz z Łukaszem Żurkiem prowadziliśmy na Festiwalu Miłosza 2025 warsztaty krytyki poetyckiej i dyskutowaliśmy o wartościowaniu poezji, jedna z uczestniczek zajęć podniosła pozornie błahą kwestię, która jednak wydaje mi się od jakiegoś czasu paląca. Zapytała mianowicie, jak oddzielać wiersze trudne od przypadkowych (czy też: skomplikowane od fasadowych). Odpowiedziałam wtedy zdecydowanie i w sposób podobny do Rojek: za pomocą wnikliwej interpretacji. Musimy się napocić, powyrywać sobie włosy z głowy, pochodzić do biblioteki i trzy razy zwątpić w sens procesu, aby to się udało. Jeśli widzimy wiersz, który wydaje nam się bezsensowny i bełkotliwy, musimy włożyć bardzo dużo wysiłku w odnalezienie w nim zasady funkcjonowania. Być może mówi coś zniuansowanego bardzo trudnym językiem? Być może chodzi w nim o bełkot jako taki – wiersz jest metakomentarzem do jakiegoś typu bełkotu, wypowiadanym za pomocą jego naśladownictwa? A być może logika luźnych połączeń pomiędzy elementami składowymi wiersza podpowiada nam jakąś zasadę kompozycyjną czy abstrakcyjną strukturę myślenia, będącą właściwym przedmiotem zainteresowania w tekście? Dopiero gdy wielokrotnie podejmiemy wysiłek zrozumienia i polegniemy w każdej z podjętych prób, możemy z pewną dozą śmiałości oskarżyć wiersz o bezsensowną bełkotliwość, o efekciarstwo i fasadowość. To wymaga bardzo dużo pracy – dlatego zazwyczaj, gdy już pozwalamy sobie na sformułowanie podobnego zarzutu, jesteśmy niezwykle zdenerwowani na autora. Mamy poczucie, że zmarnował nasz czas.

Jeśli ktoś nie wykona tego wysiłku i będzie szafował oskarżeniami o bełkotliwość na prawo i lewo, to zatrzyma się na prostolinijnej (by nie rzec – prostackiej) poezji, będzie pogardliwie wypowiadał się o najbardziej zniuansowanych poetykach i z własnej winy przeoczy najważniejsze (choć i wymagające wiele interpretacyjnej uwagi) dzieła. Jeśli ktoś nie wykona tego wysiłku i będzie bał się formułować oskarżenia o bełkotliwość, to da się złapać na fasadową epigonię. Zrówna rzeczy najbardziej estetycznie skomplikowane z takimi, które za skomplikowane chcą uchodzić i sprawnie to skomplikowanie symulują poprzez powtarzanie utartych (choć wieloznacznych i bardzo otwartych znaczeniowo) mechanizmów językowych. Jedynym więc sposobem wydaje się zaakceptowanie faktu, że istnieją teksty bełkotliwe, a weryfikacja bełkotu to zawsze mordęga. Bywa ona jednak procesem bardzo opłacalnym, gdy na końcu okazuje się, że wcale nie mamy do czynienia z bełkotem (że zweryfikowaliśmy go negatywnie), a bardzo frustrującym, gdy jednak nasze intuicje zostają potwierdzone (nie znajdujemy funkcji czy uzasadnienia takiego kształtu utworu). Obcowanie z faktycznie fasadowymi i bełkotliwymi tekstami działa więc według zasady, która nieco przypomina słynne rozpoznanie dotyczące teorii spiskowych – aby obalić jedną, potrzebujesz poświęcić tyle czasu i energii, ile zajmuje wymyślenie co najmniej dziesięciu kolejnych. To praca nie tylko irytująca, lecz także benedyktyńska.

Nie popieram, ale rozumiem tych, którzy w punkcie wyjścia odmawiają udziału w tym żmudnym procesie – i gdy widzą coś, co na pierwszy rzut oka wygląda im na bełkot, mówią: „to nie dla mnie”. Jeszcze bardziej zrozumiałe jest dla mnie podejście tych czytelników, którzy są w stanie zainwestować czas i siły w proces weryfikacji bełkotu tylko wtedy, gdy spodziewają się, że pierwsze wrażenie ich myli. Taka postawa najczęściej towarzyszy lekturze znanych nam twórców. Reprezentują ją osoby, które są w stanie poświęcić wiele godzin na głowienie się nad książką Andrzeja Sosnowskiego, ale już niekoniecznie nad tomem jakiegoś debiutanta, który lekturowo budzi podobne opory, co mistrz. I choć to podejście może się wydawać pełne głupich uprzedzeń lub oparte na gotowych rozpoznaniach (wszak Sosnowski też był kiedyś sprawiającym lekturowe trudności debiutantem), to jego sensowność w obrębie jednostkowych wyborów czytelniczych jest niezaprzeczalna. Inwestujemy czas i energię tam, gdzie spodziewamy się, że warto to robić – nie mamy nieograniczonych mocy przerobowych, chcemy mieć satysfakcję z wysiłku interpretacyjnego, a głowienie się nad tekstami, które koniec końców uznamy za przypadkowe, będzie dla nas w ostatecznym rozrachunku stratą czasu. (Rzecz jasna, na to mogą sobie pozwalać czytelnicy, ale nie krytycy. Psim obowiązkiem tych ostatnich jest ślęczenie także nad weryfikacją tego, co nowe, i co może się wiązać ze stratą czasu.)

Jeśli na obalenie jednego bełkotliwego wiersza potrzeba czasu, w trakcie którego powstaje dziesięć innych, trudno nie marzyć o innych filtrach i sposobach weryfikacji niż wnikliwa interpretacja. Dlatego mam wrażenie, że to nie kwestia faktycznego autorstwa tekstu, ale właśnie możliwości przerobowych jest tym, co najbardziej nas przeraża w kontekście użycia dużych modeli językowych do tworzenia literatury. W 2023 roku Amazon, chcąc uchronić się przed zalewem wygenerowanych e­‑booków, wprowadził limit… wynoszący trzy książki dziennie dla jednego autora. Tak, dobrze rozumiecie – żeby uniknąć nadprodukcji słabych, wypuszczanych niskim kosztem tytułów, największa self­‑publishingowa platforma na świecie umożliwia każdemu autorowi opublikowanie jedynie dziewięćdziesięciu książek w miesiącu, tysiąca dziewięćdziesięciu pięciu w roku. Ale przecież doskonale wiemy, że nawet tym wydawcom, którym zależy na faktycznym uchronieniu się przed wygenerowanym slopem (czyli tym, którzy nie wprowadzają tak fasadowych rozwiązań jak Amazon), trudno jest rozwiązać problem. Jeśli każdy wygenerowany w pięć minut, pełen głupot artykuł naukowy musi zostać podwójnie zrecenzowany przez kompetentnego akademika (musi zostać wnikliwie przeczytany, zrozumiany), to szybko kończą nam się akademicy zdolni przemielić cały ten materiał. To przykład nieliteracki, ale najlepiej pokazujący cały frustrujący mechanizm: w nauce weryfikacja bełkotu zakończona pozytywnie także wymaga tego, żeby się nad tekstem napocić po stokroć bardziej, niż zrobił to autor.

Myślę, że boimy się użycia dużych modeli językowych w literaturze nie dlatego, że SZTUCZNA INTELIGENCJA NAS ZASTĄPI czy inne tego typu bzdury. Boimy się, że będziemy statystycznie częściej robieni w konia, niż miało to miejsce dotychczas. Że statystycznie częściej ktoś będzie marnował nasz czas, a potem udawał idiotę (trudno przecież o dowody, a insynuacja bez pokrycia to srogo karana przewina). Do niedawna sądziłam, że takich nisz jak poezja czy krytyka literacka ten problem nie dotyczy – przecież nie ma tu prawdziwych pieniędzy, dla których warto byłoby ryzykować swoje dobre imię. Zwątpiłam w to przekonanie wcale nie z uwagi na ostatni tom Justyny Bargielskiej (drama wokół niego jest sztucznie napompowana, a w moim przekonaniu zamknęła ją swoim uczciwym felietonem Rojek). Zwątpiłam z uwagi na praktyki wydawnicze, bo – nie zapominajmy! – w poezji rządzą się one takimi samymi rynkowymi prawami jak wszędzie indziej. Po prostu na mniejszą skalę. Ale o tym może w następnym odcinku.

WYDAWCA:
WSZELKIE PRAWA ZASTRZEŻONE
©2017-2025 | Twórczość
Deklaracja dostępności
error: Treść niedostępna do kopiowania.