Twarde dowody na elastyczność tłumaczy - NAWA

Używamy plików cookies, aby pomóc w personalizacji treści, dostosowywać i analizować reklamy oraz zapewnić bezpieczne korzystanie ze strony. Kontynuując, wyrażasz zgodę na gromadzenie przez nas informacji. Szczegóły znajdziesz w zakładce: Polityka prywatności.

Dr hab. Łukasz Grabowski dzięki stypendium NAWA na University of Birmingham przeprowadził badania nad przekładami z języka angielskiego na polski. Wykazały one, że tłumacze sięgają po niezwykle różnorodne środki, nawet jeśli przekładają stosunkowo proste sformułowania.

Swoje badania dr hab. Łukasz Grabowski prowadził przez 6 miesięcy na University of Birmingham we współpracy z tamtejszym ekspertem dr. Nicholasem Groomem. Naukowcy przeanalizowali prawie 1000 fragmentów transkrypcji obrad Parlamentu Europejskiego i ich tłumaczeń. Badali często powtarzające się wyrażenia, składające się z kilku słów. Wyniki badań pokazują, że żywy język tworzy różnorodne formy nawet tam, gdzie się ich nie spodziewamy. Ustalenia badaczy mogą też przydać się w kształceniu tłumaczy, również dlatego, że pokazują pułapki, w które autorzy tłumaczenia mogą wpaść, szukając jak najwierniejszego przekładu i nie zawsze myśląc o tym, jak zabrzmi to w języku docelowym.

 

NAWA: Jakiego rodzaju teksty były przedmiotem Pana badań?

Dr hab. Łukasz Grabowski: Ponieważ nie da się przebadać pełnego wachlarza typów i gatunków tekstów, zarówno mówionych, jak i pisanych, to w naszym badaniu skupiliśmy się na polskich tłumaczeniach transkrypcji obrad w Parlamencie Europejskim, które zgromadzono w polsko-angielskim korpusie równoległym „Paralela”, opracowanym przez prof. Piotra Pęzika z Uniwersytetu Łódzkiego. Takie teksty, tj. wypowiedziane, ale utrwalone na piśmie, możemy określić mianem quasi-mówionych. Do celów kontrolnych wykorzystałem również Narodowy Korpus Języka Polskiego, w tym jego podzbiór zawierający transkrypcje przemówień w polskim parlamencie, a także ogromny – idący w miliardy wyrazów - korpus języka polskiego ogólnego plTenTen12. A wszystko to po to, aby nie tylko określić dominujące tendencje w przekładzie, ale również porównać je z tekstami napisanymi oryginalnie w języku polskim.

 

Ile jednostek wielowyrazowych było przedmiotem badań?

Łącznie korpus transkrypcji wystąpień parlamentarnych zawiera nieco ponad 13 milionów wyrazów  zgromadzonych w prawie 700 tysiącach segmentów tłumaczeniowych, które są najczęściej pełnymi akapitami. Aby uchwycić tendencje w przekładzie poddaliśmy analizie przede wszystkim osiem często używanych fraz pełniących ważne funkcje dyskursywne, to znaczy strukturyzujące tekst, np. one of the reasons why; the question of whether lub wyrażające postawy i oceny autora tekstu względem przekazywanych informacji, np. it is clear that; the problem is that. Oprócz tego przeanalizowaliśmy cztery bardziej abstrakcyjne konstrukcje, będące pewnym uogólnieniem powtarzalnych fraz. Wybraliśmy dwie ramy frazowe: ‘it is * clear that’; ‘it is * difficult to’ (gdzie gwiazdka oznacza dowolne słowo) oraz dwa wzorce gramatyczne: ‘it v-link ADJ to-inf’ oraz ‘it v-link ADJ that’. W sumie wyodrębniliśmy z korpusu, przeanalizowaliśmy i opisaliśmy wszystkie wystąpienia wybranych jednostek, czyli łącznie prawie 1000 fragmentów tekstów oryginalnych i ich przekładów z interesującymi nas jednostkami. Czasochłonna analiza ręczna była wspomagana narzędziami komputerowymi, tj. wyszukiwarkami korpusowymi, arkuszami kalkulacyjnymi, a także specjalnie opracowanymi skryptami.

 

Dlaczego akurat te jednostki w języku zainteresowały Pana i wybrał je Pan za obiekt badań?

Z jednej strony do wyboru takich, a nie innych jednostek zainspirowała mnie koncepcja frazemu, później zwanego reproduktem, autorstwa Wojciecha Chlebdy (1993, 2010), który za kluczowy wyznacznik frazeologiczności uważa „odtwarzalność”, „reprodukowalność” tudzież „regularną powtarzalność” danej jednostki języka w tekstach, stanowiącej swoistą wiązkę „sensów, intencji, emocji, określonego zespołu treściowego”. Miałem okazję wykorzystać tę koncepcję w praktyce, będąc przez ponad 10 lat członkiem zespołu leksykografów – pod kierownictwem prof. Chlebdy – przygotowujących Podręczny idiomatykon polsko-rosyjski. Z drugiej strony, wybór ten wynika także z nowatorskich pomysłów wypracowanych w trakcie współpracy z dr-em Nicholasem Groomem, ponieważ prawie na pewno jako pierwsi wykorzystaliśmy koncepcje ram frazowych i wzorców gramatycznych, opracowanych na materiale języka angielskiego, w badaniach przekładoznawczych. Mój pomysł polegał właśnie na tym, aby przyjrzeć się takim często używanym frazom (np. it may well be, the question of whether, at the end of the day itp.), które w pierwszej chwili nie rzucają się w oczy w tekście, nie znajdują się w centrum zainteresowania frazeologów, ale pełnią ważne funkcje dyskursywne, np. przyczyniają się do zwiększenia spójności logicznej i znaczeniowej tekstu. W związku z tym, że większość badań opisowych koncentrowało się dotychczas na przekładzie kreatywnego słownictwa, elementów kulturowych, nazw własnych, idiomów, czy też - w przypadku tekstów specjalistycznych – terminologii, to takie podejście wydało mi się interesujące i warte sprawdzenia na dużych próbkach tekstów. Podjęcie takiego badania jest w moim odczuciu istotne również z punktu widzenia praktyki tłumaczenia, gdyż na spójność, płynność i zwięzłość tekstu ogromny wpływ mają wybory stylistyczno-składniowe.

 

Czy może Pan podać przykład jednostki wielowyrazowej w języku angielskim i przykłady tego, jak przekładają ją polscy tłumacze?

Dla przykładu przytoczę ekwiwalenty pozornie mało problematycznej angielskiej frazy the problem is that, występującej w przebadanym zbiorze tekstów 74 razy. Niektóre przykłady tłumaczeń to m.in. problem polega na tym, że (to zdecydowanie najczęstszy wybór tłumaczy); problemem jest to, że; problem w tym, że; problem tkwi w tym, że; problem jest taki, że; problem leży w tym, że; problem stanowi to, że; problem stanowi fakt, że; problemem jest; sedno problemu stanowi fakt. Wśród ekwiwalentów znajdujemy jednak również mniej podobne kształtowo wyrażenia, takie jak rzecz w tym, że; chodzi o to, że i wiele innych.

 

Jakie są główne wnioski, płynące z badań?

Po pierwsze, wyniki projektu pokazały tendencje w przekładzie często używanych jednostek wielowyrazowych pełniących takie funkcje dyskursywne, jak wyrażanie postaw, opinii i ocen, a także strukturyzujące dyskurs. Po drugie, analiza tendencji w przekładzie pozwoliła określić, czy w różnych typach i gatunkach tekstów można zauważyć swoiste preferencje co do wyboru polskich ekwiwalentów. Po trzecie, dzięki wykorzystaniu korpusów kontrolnych określono, które polskie ekwiwalenty rzadko lub bardzo rzadko (ze statystycznego punktu widzenia) występują w natywnej polszczyźnie. Dzięki rozszerzeniu zakresu badania podjęliśmy również próbę określenia – przy wykorzystaniu anotatorów i testów zgodności – do jakiego stopnia funkcje dyskursywne powtarzalnych fraz zmieniają się w przekładzie. Zauważyliśmy, że czasem w wyniku takiego, a nie innego zrozumienia oryginalnej wypowiedzi tłumacze zamiast znaczenia metaforycznego danej frazy (np. at the end of the day) decydują się na oddanie jej znaczenia dosłownego w tłumaczeniu.

 

Czy jest w wynikach coś, co Pana zaskoczyło?

Aż tak dużym zaskoczeniem nie było to, że niektóre utarte angielskie frazy są tłumaczone w różny sposób, wszak tłumacząc teksty mamy do dyspozycji - przynajmniej w teorii – niezliczoną ilość środków językowych. Zaskoczyła mnie jednak różnorodność rozwiązań translatorskich. Wspomniana już fraza it is clear that, która przekazuje określony stosunek nadawcy komunikatu do następującej po niej treści i która wystąpiła w analizowanym korpusie tekstów 368 razy, została przetłumaczona na prawie 50 różnych sposobów. Wśród nich znajdujemy zarówno dość typowe rozwiązania, np. jasne jest, że; wyraźnie widać, że; oczywistym jest, że, jak i mniej oczekiwane, np. podkreślam oczywistość faktu, że; jasno można dostrzec, że itp. Uzyskaliśmy zatem twarde dane empiryczne „obalające” dość powszechnie przyjmowaną hipotezę, zwłaszcza przez studentów-filologów rozpoczynających swoją przygodę z tłumaczeniem, że jednostki tekstu należy zawsze tłumaczyć w taki sam sposób, a najlepiej zdecydować się na ekwiwalent o podobnej formie. Oprócz tego zwróciliśmy uwagę na to, że wiele ekwiwalentów tłumaczeniowych często wybieranych przez tłumaczy występuje stosunkowo rzadko w podobnych tekstach oryginalnie napisanych w języku polskim, np. jako ekwiwalenty frazy the reality is that tłumacze często wybierali takie wyrażenia, jak realia są takie, że; rzeczywistość wygląda tak, że, a w tekstach natywnych występują one bardzo rzadko (zdecydowanie dominuje w nich wyrażenie przyimkowe w rzeczywistości). Podobnych przykładów, uwypuklających różnice między tekstami tłumaczonymi i natywnymi, odnaleźliśmy o wiele więcej. Wszystko to wynika z tego, że co do zasady tłumacze nie przekładają pojedynczych wyrazów ani fraz, ale teksty osadzone w określonym kontekście komunikacyjno-sytuacyjnym, co przekłada się na ogromną różnorodność sposobów, w jaki można oddać funkcje pragmatyczne danego tekstu.

 

Czy wyniki Pana badań mogą być w praktyce wykorzystane przez tłumaczy, którzy chcieliby lepiej zrozumieć różnice między systemem języka angielskiego i polskiego i poprawić swój warsztat?

Wyniki badań można wykorzystać diagnostycznie do pomocy początkującym tłumaczom, aby przygotowywane przez nich przekłady były bardziej dopasowane do norm i konwencji panujących w języku docelowym. Wszak bywają sytuacje, gdy czytając tłumaczenie książki lub tekstu użytkowego mamy nieodparte wrażenie, że tekst z jakiegoś powodu źle się czyta (np. ze względu na nietypowe cechy stylistyczne) lub – mówiąc obrazowo – że jest on napisany w języku polskim, ale jednak ta polszczyzna nam jakoś dobrze nie brzmi.

 

Czy da się te wyniki zastosować do usprawnienia programów, dokonujących automatycznych tłumaczeń?

Przeprowadzone badanie miało przede wszystkim charakter opisowy, ale jego wyniki można zastosować do poprawy jakości tłumaczenia. Można je dodać do baz tłumaczeń lub glosariuszy, z których korzystają tłumacze pracujący z programami komputerowymi wspomagającymi tłumaczenie, czyli popularnymi CAT-ami. Oprócz tego odpowiednio sformatowane wyniki można wykorzystać do zwiększenia jakości statystycznego tłumaczenia maszynowego, opierającego się na sekwencjach wyrazów (tzw. phrase-based statistical machine translation).

 

A może Pana ustalenia mogą być przydatne dla dydaktyków, dla udoskonalenia metod nauki języka angielskiego dla Polaków? 

Zarówno wyniki badania, jak i sam korpus „Paralela”, dostarczają cennych danych językowych, umożliwiających przygotowanie różnych ćwiczeń językowych i tłumaczeniowych, pozwalających bardziej uwrażliwić słuchaczy i studentów na problem dopasowania stylu tłumaczenia do norm i konwencji oryginalnych tekstów polskich, a także zwrócić uwagę na różnorodność i problematyczność różnych decyzji translatorskich. Sam miałem okazję sprawdzić tę przydatność w ubiegłym roku akademickim, kiedy prowadziłem na Uniwersytecie Opolskim, na kierunku lingwistyka stosowana, przedmiot poświęcony wykorzystaniu metod korpusowych w językoznawstwie stosowanym. Takie podejście, łączące wyniki moich badań z dydaktyką, okazało się strzałem w dziesiątkę.

Dziękujemy za rozmowę.

Więcej:

Grabowski, Ł. & Groom, N. (w druku). „Functionally-defined recurrent multi-word units in English-to-Polish translation: a corpus-based study”. Revista Española de Lingüística Aplicada/Spanish Journal of Applied Linguistics, 35(1).

Grabowski, Ł. (w druku). “Phrase frames as an exploratory tool for studying English-to-Polish translation patterns: a descriptive corpus-based study”. Across Languages and Cultures, 21(2).

Grabowski, Ł. & Groom, N. (w druku). „Grammar patterns as an exploratory tool for studying formulaicity in English-to-Polish translation: a corpus-based study”. In: A. Trklja & Ł. Grabowski (Eds), Formulaic Language: Theories and Methods. Berlin: Language Science Press.

Grabowski IMG 20190204 121843

Dr hab. Łukasz Grabowski, dzięki stypendium NAWA w ramach Programu im. Bekkera, prowadził badania naukowe na University of Birmingham (Zdjęcie archiwum dr. hab. Ł. Grabowskiego).

Dr hab. Łukasz Grabowski jest językoznawcą (anglistą) prowadzącym badania z dziedziny translatoryki, języków specjalistycznych, a także językoznawstwa korpusowego i komputerowego. Jest autorem licznych publikacji w kilku wiodących czasopismach naukowych (m.in. English for Specific Purposes, International Journal of Corpus Linguistics, International Journal of Lexicography, Across Languages and Cultures), a także rozdziałów w monografiach w uznanych wydawnictwach, np. John Benjamins, Emerald czy Springer. Opublikował również dwie monografie, dwa tomy pod redakcją, a trzeci ukaże się w przyszłym roku w wydawnictwie Language Science Press. Ma również w swoim dorobku pracę w charakterze kierownika i wykonawcy grantów finansowanych przez Narodowe Centrum Nauki (NCN), poświęconych m.in. opisowi leksyki i frazeologii w angielskich tekstach farmaceutycznych. W 2013 r. zdobył stypendium podoktorskie w Centrum Zaawansowanych Badań nad Językiem Angielskim (Centre for Advanced Research in English) na Uniwersytecie w Birmingham w Wielkiej Brytanii, a w 2019 r. dzięki stypendium uzyskanym od Narodowej Agencji Wymiany Akademickiej (NAWA) w ramach Programu im. Bekkera mógł ponownie prowadzić tam badania naukowe, tym razem nad przekładem.

Łukasz Grabowski ukończył studia w Instytucie Filologii Wschodniosłowiańskiej i Instytucie Filologii  Angielskiej Uniwersytetu Opolskiego. Ukończył także Podyplomowe Studium Przekładu na Uniwersytecie Wrocławskim. Kolejne stopnie naukowe zdobywał na Uniwersytecie Opolskim, gdzie pracuje w Instytucie Językoznawstwa (obecnie na urlopie bezpłatnym). Pracował również na Uniwersytecie w Ostrawie (Czechy), a także na Uniwersytecie Aston w Birmingham (Wielka Brytania). Od 2015 r. współpracuje z grupą Technologii Językowych G4.19 na Politechnice Wrocławskiej, m.in. w zakresie porównania dwóch niezależnych modeli leksyki języka polskiego i angielskiego (Słowosieci i WordNetu princetońskiego) oraz opracowania metod łączenia wordnetów na poziomie znaczeń jednostek leksykalnych. Prowadził również wspólne badania i publikował wraz z wieloma innymi naukowcami z różnych uczelni w Polsce, a także z Wielkiej Brytanii, Litwy, Hiszpanii i Austrii. Jest recenzentem wielu czasopism naukowych w kraju i zagranicą, a w 2016 r. był także recenzentem włoskiej agencji akredytacyjnej ANVUR. Od października 2020 r. pracuje w projekcie naukowo-badawczym realizowanym w Zakładzie Językoznawstwa Korpusowego i Komputerowego w Instytucie Anglistyki na Uniwersytecie Łódzkim i poświęconym m.in. rozwijaniu korpusów równoległych polsko-angielskich i wektorowych metod wiązania danych dwujęzycznych.

Zdjęcie na stronie głównej: ©Roman Motizov - stock.adobe.com.

Udostępnij