Ludzkość zaczyna rozumieć, jak rozmontować i zrekonstruować najbardziej złożoną i nieprzewidywalną ze swoich maszyn: język.
Italo Calvino, The Literature Machine (1980)
Ze zdumieniem stwierdziłem, że Calvino sam odpowiada na to pytanie, w tym samym rozdziale swojej książki. I to odpowiada, doprecyzowując samo pytanie, „w jaki sposób dochodzi się do zapisywania stron?”. W wielkim skrócie według Calvino wygląda to tak: „Maszyna pisząca, która otrzymała odpowiednie instrukcje, może też uformować dokładnie i nieomylnie «osobowość» autora lub też dostosować ją w taki sposób, aby rozwijała się lub zmieniała z każdym dziełem, które tworzy. Pisarze, tak jak byli nimi od zawsze do teraz, już są maszynami piszącymi”. Nie ma więc żadnych wątpliwości, że oznacza to podkreślenie automatyzmu procesu pisarskiego. Już to jest niepokojące, ale naprawdę przerażające są jednak konsekwencje, które Calvino uwypukla z prawdziwą bezwzględnością: „Dzieło będzie nadal tworzone […] To, co zniknie, to postać autora…”. I dalej: „Tak więc autor – to zepsute dziecko ignorancji – znika, robiąc miejsce dla bardziej rozważnej osoby, osoby która będzie wiedzieć, że autor jest maszyną, i będzie wiedzieć, jak ta maszyna działa”. Przez „osobę” Calvino rozumie tu, oczywiście, automat, komputer.
Autorzy artykułu podają, że cel ich studium był dwojaki. Po pierwsze, próbowali generować tekst, który imituje unikalny styl i tematykę dzieł Lovecrafta, a po drugie – chcieli przetestować skuteczność inżynierskich technik podpowiedzi (ang. prompt) w celu naprowadzania modelu na generowanie poprawnych ciągów wyjściowych. Stosując metodę statystycznego testowania hipotez, oceniali zdolność studentów do rozróżnienia między prawdziwymi utworami Lovecrafta a utworami generowanymi przez model GPT. Otrzymane wyniki potwierdziły, że uczestnicy eksperymentu nie potrafili wiarygodnie rozróżniać tekstów, co dowodzi skuteczności użytego modelu GPT‑4, jak też inżynierskich technik podpowiedzi w celu imitowania stylu literackiego wybranego autora. Około połowa z czterystu studentów zaangażowanych w projekt poprawnie rozpoznała Lovecrafta, a druga połowa wskazała teksty wygenerowane przez ChatGPT jako teksty oryginalne.
Wchodząc nieco bardziej w szczegóły, stosując metodę sztucznej inteligencji, autorzy wykonali dwa podstawowe kroki, które należy podjąć w takich sytuacjach, niezależnie od dziedziny zastosowań. Po pierwsze, trzeba nauczyć maszynę rozpoznawania (często mówi się – „rozumienia”, choć jest to tylko skrótem myślowym) stosownej tematyki, w tym wypadku – stylu autora. Uczyniono to, przedstawiając programowi ChatGPT kilka prac krytycznych, które skupiały się na wybranych cechach charakterystycznych prozy Lovecrafta, np. miejscach akcji, użyciu epitetów, znaczeniu zmysłów w rozwoju sytuacji itp. Drugi krok, trochę łatwiejszy, polegał na sugestiach co do fabuły opowieści. Dokonano tego w kilku fazach, instruując ChatGPT, jakiego rodzaju zawartości oczekujemy (w której osobie opowiadać, jakie są główne postaci itp.). Rezultat jest niewątpliwie ciekawy, a może nawet zaskakujący, choć to tylko jeden z wielu przykładów użycia tego programu do generowania prozy literackiej.
Tu należy się wyjaśnienie, co to znaczy „nauczyć maszynę […] stylu autora”. Otóż, przedstawia się jej teksty charakterystyczne dla tego stylu, w większości napisane przez tegoż autora, ale też podobne innych autorów, z zaznaczeniem, że to nie są te, o które chodzi. Maszyna zapamiętuje ciągi słów z tych tekstów i poddając je obróbce statystycznej, wyciąga wnioski, które ciągi i ich warianty są najczęściej używane, a więc najbardziej prawdopodobne. Chodzi głównie o to, żeby przewidzieć, jakie ciągi słów mogą wystąpić po aktualnie rozważanym ciągu. Maszyna jest w tym doskonała, tyle tylko że ma jeden mankament: nie rozumie treści tych ciągów słów. A co to znaczy „zrozumieć treść” lub „zrozumieć tekst”? Znaczy to, że pod słowo można podstawić pojęcie, a maszyna tego nie potrafi, bo nie wie, co to jest znaczenie słowa.
Żeby dokładniej zgłębić niuanse, w jaki sposób sztuczna inteligencja może zagrozić literaturze i co o tym myślą inni, sięgam do wcześniejszych artykułów i trafiam na tekst3 równie intrygujący jak poprzedni, w którym analizie poddane jest dzieło dwojga ważnych pisarzy: Mayi Angelou i Hermanna Hessego – ściślej mówiąc, na warsztat wzięto ich poezję. Autorów badań nurtuje odpowiedź na pytanie: „Czy osobniki ludzkie są zdolne niezawodnie odróżnić dzieło twórcze wygenerowane przez algorytm od napisanego przez człowieka?”. Wypada w tym miejscu ostrzec, że zawartość artykułu może być trudna do przetrawienia dla humanisty niespecjalnie lubiącego statystykę, ale warto podać wnioski, do jakich doprowadziły te badania.
Otóż autorzy badali cztery aspekty problemu. Po pierwsze, uczestnicy eksperymentu na ogół nie byli w stanie odróżnić poezji generowanej sztucznie od poezji naturalnej, nawet jeśli otrzymywali zachętę finansową przy trafnych odpowiedziach. Trzy pozostałe warianty badań dotyczyły czynników, które mogą wpływać na skuteczność rozróżniania. Jednym z tych czynników była wstępna ingerencja człowieka w dobór generowanych automatycznie tekstów przedstawianych do oceny, tak aby przedstawiano teksty lepsze. Stwierdzono, że tego rodzaju eksperymenty prowadziły do zmniejszenia niechęci uczestników do tekstów sztucznych oraz do zmniejszenia trafności oceny. Innym badanym czynnikiem była pewność siebie wśród uczestników co do trafności zgadywania źródła tekstu. Nieoczekiwanie okazało się, że ta pewność siebie redukowała się, gdy uczestnicy otrzymywali zachęty finansowe przy trafnych odpowiedziach. Wreszcie uczestnicy ujawnili własną niechęć do poezji generowanej sztucznie, ale ta niechęć nie wzrastała, gdy byli informowani o algorytmicznej genezie tekstu.
Jest to jednak rozumowanie błędne, gdyż zaliczenie testu Turinga w żadnym wypadku nie oznacza, że maszyna potrafi myśleć, jak to sugerują także Köbis i Mossink w omawianym artykule. Test Turinga oznacza wyłącznie, że maszyna jest zdolna do udzielania odpowiedzi takich, jakie daje człowiek. Tak więc testu Turinga nie powinno się używać w celu zweryfikowania maszynowej inteligencji, bo on niczego takiego nie dowodzi i nie po to został skonstruowany. Cytując mojego kolegę informatyka4, należy stwierdzić, że Turing „konstatował jedynie pewną tautologię orzekającą, że jeśli kiedyś przypadkiem komputer zacznie nagle gawędzić niczym człowiek, to wypadnie uznać, że faktycznie, komputer potrafi gawędzić niczym człowiek”. I nic więcej. Do stwierdzeń dowodzących inteligencji maszynowej za pomocą testu Turinga należy więc podchodzić bardzo ostrożnie.
Znajduję jeszcze jeden artykuł próbujący odpowiedzieć na pytanie, czy technologia taka jak GPT potrafi zdać test Turinga dla pisarza5. Co ciekawego jest dla nas w tym artykule? Autorzy opisują w nim badania, jak maszynowo generować teksty literackie, i zastanawiają się, czy te teksty mogłyby przejść skutecznie test Turinga zadany dla utworu literackiego. Wykonując eksperymenty m.in. z wzorcami wziętymi z Antona Czechowa i Oscara Wilde’a, odpowiadają, że dla wersji GPT‒3 „prawdopodobnie nie, jeśli pod uwagę weźmiemy wszystkie jego wypowiedzi. Ale przy rozważnym wyborze najlepszych tekstów, absolutnie tak”. Oczywiście należy pamiętać, że oznaczałoby to nic innego tylko fakt, iż badany tekst mógłby lub nie mógłby być uznany za utwór literacki.
Idąc dalej, zaciekawieni autorzy pytają: „Czy to oznacza, że cały nasz język i kreatywność są niczym więcej niż pomysłowo zastosowanym statystycznym rozpoznawaniem wzorców?”. I odpowiadają sobie: „W zasadzie tak, ale może również należałoby ponownie przemyśleć, co rozumiemy przez statystykę, i rozważyć sposób, w jaki język, matematykę i sieci neuronowe – czy to sztuczne, czy naturalne – można zastosować łącznie, aby nadać kształt sposobom, na jakie rozumiemy, interpretujemy i modelujemy nasz świat w języku. Zarówno neurofizjologia, jak i kognitywistyka sugerują, że poznanie może być zakorzenione w bardzo fundamentalnej statystycznej maszynie wnioskującej”. Przyznam, że trudno mi uwierzyć w to spostrzeżenie, gdyż dowiedzenie go wymagałoby bardzo rozbudowanych badań, ale cytuję je dla porządku.
[…]
[Dalszy ciąg można przeczytać w numerze.]