Pierwsza w polskim ruchu wydawniczym książka w całości przetłumaczona przez sztuczną inteligencję
Pierwsza w historii polskiego ruchu wydawniczego książka przetłumaczona przez sztuczną inteligencję nosi tytuł „Od Gutenberga do Zuckerberga. Wstęp do humanistyki cyfrowej”. To monografia zbiorowa pod redakcją prof. dr. hab. Adama Pawłowskiego, która ma postać bezpłatnego e-booka. Aplikacja DeepL przełożyła ją z języka polskiego na czeski.
Jak podkreśla prof. Pawłowski, który jest ekspertem w dziedzinie humanistyki cyfrowej z Uniwersytetu Wrocławskiego, fakt, że monografia była pierwszą książką tłumaczona przez AI w historii polskiego ruchu wydawniczego, potwierdzony został wpisem do katalogu Biblioteki Narodowej i innych referencyjnych baz bibliograficznych, a następnie do Urzędowego Wykazu Druków Wydanych w Rzeczpospolitej Polskiej. Publikacja posiada również numer ISBN.
Profesor przyznaje, że wcześniej korzystano już z oprogramowania przeznaczonego do tłumaczeń. „Jednak tym razem sytuacja była diametralnie różna: głównym aktorem procesu tłumaczenia nie był człowiek, który w razie potrzeby posiłkuje się informatyką. Tutaj całe tłumaczenie najpierw wykonała maszyna, a człowiek wkroczył do akcji dopiero na etapie 'postprodukcji’, czyli redakcji przekładu maszynowego” – opowiada prof. Pawłowski.
Tłumaczenie w niecałe 10 minut, ale z mankamentami
Dwujęzyczna monografia była elementem projektu „Humanistyka Cyfrowa dla Przyszłości” prowadzonego przez Uniwersytet Wrocławski i Uniwersytet w Ołomuńcu od 2019 roku. W ramach oszczędności zrezygnowano z tradycyjnego tłumaczenia i do zespołu włączono DeepL.
„Sam moment tłumaczenia był ekscytujący i wprawił mnie w stan bliski euforii. Oto czeska wersja ponad 300-stronnicowej książki wraz z całym aparatem naukowym, pojawiła się w ciągu niecałych 10 minut! Jednak później nie było tak łatwo. Wyjściowy plik PDF ukazał słabości automatycznego przekładu, wynikające z bogactwa języka naturalnego, obejmującego metafory, skróty myślowe, referencje wewnętrzne i odwołania intertekstualne. Pracy nie ułatwiła rozbudowana struktura monografii naukowej: przypisy, cytowania, tytuły ilustracji” – opowiada prof. Pawłowski.
Naukowcy zaobserwowali też efekt wewnętrznej logistyki tego rodzaju systemów, w których małe i średnie języki tłumaczy się drogą okrężną przez angielski, a nie bezpośrednio. Badacze musieli więc zacząć od sprawdzenia wszystkich nazw własnych, które raz były tłumaczone, a raz nie. Chodziło przede wszystkim o miejsca wydań, imiona osób, niekiedy nawet nazwiska. Ponadto system DeepL tłumaczył niektóre cytaty w języku angielskim na czeski, a inne pozostawiał w pierwotnej postaci.
Korekta stylistyczna po stronie człowieka
Książka okazała się dla sztucznej inteligencji dokumentem trudnym ze względu na wielotematyczność, bogatą terminologię i aparat edytorski w postaci przypisów, bibliografii, grafik itd.
Formalnie zredagowany tekst wymagał korekty językowej i stylistycznej. „Tłumaczenie książki nie należało do najlepszych. Czasem miałem wrażenie, że pełnię rolę tłumacza, a nie tylko redaktora. Problemy często dotyczyły terminów, fachowych wyrażeń, łączliwości wyrazów, metafor oraz innych środków stylistycznych, które naukowcy wplatają w swój dyskurs” – ocenia dr Tadeáš Dohňanský z CzechLit – Czeskiego Centrum Literackiego w informacji przytoczonej przez prof. Pawłowskiego.
Niepoprawnie przetłumaczone były też opisy obrazków i wykresów. Wynikało to z nieuwzględniania szerszego kontekstu użycia konkretnego wyrazu lub zdania. W procesie redakcyjnym naturalnie wystąpiły liczne poprawki stylistyczne, co jest normalną praktyką również w przypadku tłumaczeń wykonanych przez człowieka. „Jednak sztuczna inteligencja wciąż nie radzi sobie z opisanymi wyżej problemami” – podsumowuje czeski redaktor.
Współdziałanie ludzi i maszyn
Zdaniem polskich i czeskich badaczy projekt odniósł sukces, a droga do praktyki tłumaczenia automatycznego całych utworów jest przetarta. Naukowcy zaznaczają, że programy do translacji będą z każdym rokiem lepsze.
„Obecnie trudno jest wytyczyć jasną linię podziału między tym, co ludzkie i maszynowe w przestrzeni komunikacyjnej. Tłumaczenie maszynowe jest oparte na systemie uczącym się z przekładów wykonanych przez ludzi. Na podobnej zasadzie działają wielkie modele językowe (LLMs – Large Language Models). System generujący teksty uczy się od człowieka – efekty tej nauki w postaci wytwarzanych tekstów nie są więc wyłączną kreacją maszyny. Są odtwórcze w stosunku do ogromnego korpusu treningowego” – tłumaczy prof. Pawłowski.
Podkreśla, że tekst generowany przez wielkie modele językowe wymaga modyfikacji przez człowieka, choć człowiek czuje się niekomfortowo jako partner maszyny, ponieważ gatunek ludzki nigdy w swoich dziejach takiego partnerstwa nie doświadczył.
„Nasz umysł antropomorfizuje więc algorytmy (są jakby umysłem) i urządzenia peryferyjne komputera (to rodzaj systemu poznawczego), a w piśmiennictwie z lat 60. funkcjonowała nawet nazwa komputera 'mózg elektronowy’. A zatem LLMy 'wiedzą’, 'znają’ jakiś temat, 'rozumieją’, 'tłumaczą’, a czasem nawet 'słuchają’ i 'mówią’ – w skrócie 'myślą'” – wylicza naukowiec.
„Przestrzeń komunikacyjna stała się hybrydą, w której ludzie i maszyny współistnieją i współdziałają” – podsumowuje prof. Pawłowski.
Poniżej możecie zobaczyć okładkę książki „Od Gutenberga do Zuckerberga. Wstęp do humanistyki cyfrowej”. Monografia jest dostępna bezpłatnie tutaj.
[am]
fot. Freepik
źródło: Karolina Duszczyk, naukawpolsce.pl
Kategoria: ciekawostki