Karolina Rychter: Autonomiczne samochody nie są perspektywą odległej przyszłości, niedługo mogą zostać wprowadzone do powszechnego użytku. W związku z tym pojawia się wiele obaw i wątpliwości – również etycznych. Czy te obawy i wątpliwości są uzasadnione?
Jacek Hołówka: Sądzę, że warto o nich dyskutować i warto z góry wyobrazić sobie, jakie niebezpieczeństwa na nas czyhają. Jednak nierozsądnie byłoby starać się z góry przewidzieć wszystkie problemy i z góry je rozwiązywać. Nie ma jednej standardowej wersji budowania pojazdów autonomicznych i nie ma z góry określonych zasad ich użytkowania. Podróżowanie własnym samochodem to jedna z tych praktycznych spraw, które można rozwiązywać na wiele sposobów. Podobnie jak na przykład problemy żywieniowe lub problemy zdrowotne. Nie ma jednego przepisu na świetne jedzenie, i nie ma jednego przepisu na zdrowie. Trzeba patrzeć, co nam szkodzi, trzeba się przekonać, co nam smakuje i odpowiednio się dostosowywać. Ja mam samochód z ręczną skrzynią biegów i jestem z niego zadowolony. Wiem, że inni myślą inaczej i już teraz entuzjastycznie witają rozmaite półautonomiczne rozwiązania. Ale ludzie są różni. To interesujące. Na pewno w wielu już dziś zachodzących sytuacjach automatyzacja pozwala uniknąć jakichś błędów. Na przykład GPS jest świetnym rozwiązaniem. To jednak nie znaczy, że chcielibyśmy, aby czytnik GPS prowadził nasz samochód. On powinien nam pomagać, ale nie może nas zastępować. Jeśli chcemy, by kierowca mniej się męczył, prowadząc samochód, i chcemy, by jakiś program podejmował za niego decyzje, to musimy pamiętać, jak łatwo może dochodzić do konfliktu pomiędzy automatem a kierowcą. To jest tak jak w samolocie, gdzie są dwa stanowiska, dla pierwszego i dla drugiego pilota. Nie wystarczy zadekretować, kto jest pierwszy, a kto drugi. Oni sami muszą się jeszcze umówić, kiedy pierwszy przestaje rządzić i zdaje się na drugiego. Z automatem trudno będzie tak się umówić.
Dlatego pojawiają się głosy, że najbezpieczniejszym rozwiązaniem są całkowicie autonomiczne samochody, czyli będące na poziomie piątym według wprowadzonej skali automatyzacji, takie, które nie mają kierownicy i żadnych narzędzi do sterowania. Będą one podejmowały decyzje w sytuacjach wypadków i dokonywały dramatycznych rozstrzygnięć przypominających dylemat wagonika. Czy na przykład uderzyć w motocyklistę, czy w samochód, w którym na tylnym siedzeniu znajduje się dziecko. I to nas niepokoi, bo te decyzje będą mniej lub bardziej odgórnie podjęte przez twórców tych aut i będą wynikiem chłodnej kalkulacji, kogo przede wszystkim ratować, a nie np. reakcją na stresową sytuację, którą łatwiej wybaczyć.
Tak. Człowiekowi łatwiej wybaczyć niż maszynie. Ale nie wolno nam mówić, że ponieważ jesteśmy ludźmi, to mamy prawo do robienia błędów. Jeżeli ktoś jest przemęczony, ale koniecznie musi pojechać gdzieś niedaleko od domu, to lepiej, żeby wziął rower, a nie auto. Jeśli się zagapi i spadnie z roweru, to tylko się potłucze. Jeśli będzie jechać autem, to może spowodować znacznie poważniejszy wypadek. Czyli wolno nam się usprawiedliwiać z drobnych pomyłek, ale nie z wielkich błędów. Nie wolno nam mówić, że każdy błąd jest usprawiedliwiony, ponieważ jesteśmy ludźmi. Natomiast w przypadku maszyny właściwie nigdy nie powiemy, że doszło do nieszczęśliwego zbiegu okoliczności i wielkiego błędu. Wszystkie będą się wydawać małe. Powiemy co najwyżej, że jakiś konstruktor lub programista coś źle zapisał, popełnił błąd, którego nikt wcześniej nie wychwycił i dlatego teraz doszło do wypadku. Ale to był drobiazg. Ta kwestia łączy się z ważnym problemem etycznym dotyczącym tego, w jaki sposób można się bronić przed zarzutem popełnienia poważnego błędu. Do dyspozycji są zazwyczaj dwie wersje obrony. Pierwsza polega na przyznaniu się do błędu i przedstawieniu prośby o wybaczenie. Druga na twierdzeniu, że błędu w ogóle nie było. W odniesieniu do ludzi to odróżnienie jest przekonujące i wyraźne. W odniesieniu do pojazdów autonomicznych tego odróżnienia zastosować się nie da, ponieważ auta nie mogą sformułować prośby o wybaczenie. Godzimy się wybaczyć coś człowiekowi, jeśli rozumiemy jego sytuację. Wyobraźmy sobie, że ktoś został napadnięty na ulicy przez przestępców i że któryś z nich do niego strzelał. Jeśli napadnięty dopadnie swojego samochodu i pędem odjedzie, to jeśli przy okazji złamie jakiś słupek, czy uszkodzi płot, to będzie prosić o wybaczenie. Powie, że nie potrafił uciec bardziej sprawnie i że każdy na jego miejscu mógłby postąpić podobnie. Natomiast jeśli jakiś inny kierowca przejeżdżałby obok takiej sceny i w zeznaniu policyjnym pomyliłby te dwa samochody, gdyby oskarżył jakiegoś innego przejeżdżającego kierowcę o wyrządzenie szkód, to ten kierowca z pewnością będzie argumentować, że to nie on zniszczył słupek. Będzie prosił o uniewinnienie, a nie o wybaczenie. Natomiast autonomiczny samochód nigdy nie może prosić o wybaczenie, ponieważ maszyny w ogóle nie podejmują decyzji i nie perswadują. Coś włączają i coś wyłączają, ale nigdy niczego nie rozważają i nie biorą na siebie odpowiedzialności. To może sprawiać wrażenie, że jesteśmy wobec nich bardziej wymagający niż wobec ludzi. Tak jednak nie jest. Maszyn się nie obwinia. Racjonalny człowiek nie stawia im zarzutów. Co najwyżej złości się na siebie, że nie umiał przewidzieć ich mankamentów. Jednak pamięta, że maszyny nie mają zmysłów, ani rozumu, ani silnej woli. Nie mają psychologicznych właściwości, które odgrywają zasadniczą rolę w sytuacji, gdy jesteśmy gotowi usprawiedliwić kogoś z błędu. Maszyny nami manipulują i my manipulujemy nimi. Dlatego nie zawsze mamy do nich zaufanie. Choć może się zdarzyć odwrotnie. Jeśli się okaże po wprowadzeniu autonomicznych samochodów, że liczba wypadków drogowych zmniejszy się wyraźnie, to wtedy prawdopodobnie parlament jednego lub drugiego kraju powie: "Jeśli powstają wątpliwości co do czyjegoś sposobu prowadzenia samochodu, to ten kandydat nie dostanie prawa jazdy i będzie miał prawny obowiązek korzystania wyłącznie z pojazdu autonomicznego lub transportu publicznego". To będzie ograniczenie naszej wolności. Ale z drugiej strony, to będzie też racjonalny sposób ograniczenia liczby wypadków drogowych.
Pojawia się też problem odpowiedzialności prawnej – kto miałby być karany w sytuacjach, gdy dojdzie do wypadku.
Tak, to jest osobny i trudny problem, choć bardzo ważny. Jakoś rozsądnie trzeba będzie dzielić odpowiedzialność między projektodawców, wykonawców i użytkowników. O pewnych sytuacjach potrafimy myśleć tylko w sposób statystyczny, globalny i stochastyczny. O innych sytuacjach myślimy w sposób uszczegółowiony. Czasem człowiek występuje w roli anonimowej, a czasem w osobistej i silnie zindywidualizowanej. Weźmy fikcyjny, ale wyrazisty przykład. Wyobraźmy sobie, że ktoś idzie na wojnę i wie, że po drugiej stronie frontu, czy po drugiej stronie linii ognia, czai się jego rywal do względów u narzeczonej. To się chyba rzadko zdarza, ale nie jest całkiem wykluczone. Jeśli zatem ten żołnierz nie zastrzeli nikogo innego, tylko swojego rywala, to możemy mieć słuszne podejrzenia, że strzelał nie dlatego, że rywal był wrogiem, tylko dlatego, że wróg był rywalem. Podobnie, co jakiś czas staje przed sądem pytanie, czy ofiara wypadku zginęła przez przypadek, czy została rozmyślnie zabita. Auta autonomiczne nigdy nie będą nasuwały podobnych wątpliwości, ponieważ nigdy nie będą miały żadnych intencji. Ale czy naprawdę to nam ułatwia ocenę ich działania? Obawiam się, że nie. Nie będziemy przecież gremialnie uznawać, że wszystkie wypadki powodowane przez auta autonomiczne zwalniają ich użytkowników z odpowiedzialności. Trzeba będzie nadal szukać winnych i to może się okazać znacznie trudniejsze niż teraz. Być może trzeba będzie powiedzieć, że ciąg przyczynowy, który doprowadził do wypadku rozpoczął swe działanie kilka lat wcześniej, gdy tylko samochód został wyprodukowany, a potem nikt już nie dostrzegł tego błędu i go nie skorygował. Kogo wtedy, i o co, będzie można oskarżać? O niekompetencję, niedbałość, brak wiedzy o przyszłości? Nie wiadomo.
Dlatego twierdzi się, że powinny powstać odgórne zasady i wytyczne. Na razie, zdaje się, tylko w Niemczech stworzono cały zbiór wytycznych dla producentów autonomicznych aut. Pojawia się wśród nich zastrzeżenie, że nie można kierować się wiekiem ani płcią przy podejmowaniu decyzji, kogo narazić na niebezpieczeństwo w razie wypadku. A warto zauważyć, że ludzie takie uprzedzenia w podobnych sytuacjach mają. MIT przeprowadziło badanie Moral Machine, które ujawniło, że decyzje dotyczące tego, o czyje bezpieczeństwo przede wszystkim dbać w razie wypadku, znacznie się różniły ze względu na region świata. Na przykład w Azji ludzie byli bardziej skłonni ratować osoby starsze, w Europie i Stanach Zjednoczonych priorytetem były dzieci.
Myślę, że celowa decyzja, by spisywać pewne osoby na straty, rzeczywiście przypomina problem wagonika, który pędzi z góry po torach, i w zależności od przełożenia zwrotnicy wpadnie albo na jedną osobę albo na dziesięć osób. Czy gdybyśmy stali obok, to mielibyśmy moralny obowiązek sprawdzić, jak jest ustawiona zwrotnica i upewnić się, że zginie raczej jedna osoba, a nie dziesięć? A jeśli zwrotnicy nie przełożymy, to my będziemy wtedy odpowiedzialni za śmierć dziesięciu ludzi, a nie jednego człowieka? To jest problem tego, czy wolno nam zawsze wybierać, i czy zawsze musimy działać wedle tych samych zasad. Nie bardzo sobie wyobrażam, by można było dokonać jednego, niezmiennego ustalenia do zastosowania we wszystkich podobnych przypadkach – ma zginąć jeden człowiek, czy dziesięć? Nie wolno z góry różnym rodzajom obywateli przypisywać różnego statusu. Nie wolno różnicować ze względu na to, że ktoś jest bardzo stary i chory, że może będzie żyć tylko rok albo dwa lata i właściwie już teraz może być spisany na straty – a jeśli ktoś jest młody, to go powinniśmy chronić za wszelką cenę. Można sobie wyobrazić, że gdy już raz zacznie się ludzi tak szacować, to ktoś jeszcze doda, że trzeba uwzględniać dane medyczne, rodzinę na utrzymaniu, wysokość zarobków lub odznaczenia wojskowe. Takim dziwacznym propozycjom nie byłoby końca, gdyby się raz zaczęło je wymieniać i ustalać.
Tak, pozostaje też pytanie, kto ma stworzyć zasady, które by to regulowały – czy ma to być np. międzynarodowy zespół etyków, czy poszczególne państwa. Bo chyba trudno sobie wyobrazić, że dopuszczalne jest, żeby ktoś mógł sobie, powiedzmy, wybrać samochód, dla którego priorytetem jest ratowanie życia jego użytkownika?
To prawda. Już dziś występuje dość silna tendencja, by nie faworyzować z góry żadnej grupy osób teoretycznie narażonych na wypadki. Przepisy w wielu krajach, i o ile wiem, także w Polsce, ustalają, że nie wolno zakładać twardych zderzaków z przodu samochodu, by w przypadku czołowego zderzenia obie strony miały podobne szanse przeżycia kolizji. Gdyby doszło do produkcji samochodów autonomicznych, to należałoby przez analogię zabronić używania takich programów, które ochraniają właściciela jednego auta lepiej kosztem innych użytkowników na drodze. Takie faworyzowanie musiałoby być traktowane jako nielegalne. Ale zastanówmy się nad inną sprawą, chyba ważniejszą. W kontekście tych trudności najważniejsze jest chyba to, że trzeba zdecydować, kto i w jaki sposób będzie agregować informacje dotyczące bezpieczeństwa na drodze, to znaczy, kiedy kierowca będzie się opierać na informacji zbieranej przez siebie, która nie podlega modyfikacji przez dane z szerszego kontekstu, a kiedy uporządkowanie informacji wykonywane będzie centralnie. Programując auta autonomiczne, trzeba będzie odróżniać te dwa rodzaje informacji. Wyjaśnię, dlaczego to jest tak ważne na przykładzie ośmiornicy. Już jakiś czas temu odkryto, że ośmiornice mają macki wyposażone w silną autonomię, jeśli chodzi o ruch i zabarwienie ich powierzchni. W gruncie rzeczy każda macka działa osobno i sama podejmuje decyzję o tym, jak się zwinie, wyprostuje, czego chwyci i jak się zabarwi. Decyduje o tym lokalny ganglion. Centralny mózg w ogóle tych procesów nie nadzoruje. Zatem, gdy ośmiornica chodzi po zróżnicowanym dnie (jak wiemy to zwierzę potrafi dostosować kolor i deseń powierzchni swojego ciała do koloru otoczenia), to funkcja mimikry jest wykonywana lokalnie. Każda macka sama dba o to, by przyjąć taki wzorzec kolorów z otoczenia, by się różnić jak najmniej od otoczenia. Jej głowa nie ingeruje w te decyzje. Sądzę, że w odniesieniu do samochodów autonomicznych, ten problem nabierze ważnego znaczenia. Pozwoli pogodzić cele pojedynczego kierowcy z celami całej zbiorowości. Powstanie możliwość zsynchronizowania strumieni pojazdów, wymuszania przejazdu korzystnymi objazdami, kontrolowania odstępu między autami na autostradzie, i tak dalej. Jednak dopóki nierozwiązany pozostaje problem, jaką rolę odgrywają informacje z bliskiego otoczenia, a jaką z dalszego, trudno dyskutować o tym, na co pozwolić, na co nie pozwolić, jeśli chodzi o uprawnienia kierowcy do sterowania swym autem wbrew zalecaniom centrali. Ponadto powstanie jeszcze jeden, całkiem szczególny problem. Jeśli samochody autonomiczne będą zasługiwać na pełne zaufanie, to nic nie będzie stało na przeszkodzie, by do auta można było wsadzić pięcioletnie dziecko, i pozwolić, żeby samo pojechało do przedszkola. Chyba jednak niewielu rodziców zgodzi się na takie rozwiązanie. I natychmiast powstanie problem hipokryzji. Jeśli pięcioletnie dziecko nie może jechać samo, to kiedy pozwolimy, żeby samo jechało dziecko podrośnięte? Gdy osiągnie dziesięć lat, czy piętnaście? I jeśli kierowca nie odgrywa żadnej istotnej roli w obsługiwaniu samochodu autonomicznego, to nie tylko dzieci w dowolnym wieku będą mogły same podróżować po mieście, ale może nawet puste auta będą mogły jeździć same na zakupy, parkować pod supermarketem i czekać aż zostaną obsłużone zgodnie z lista zakupów sporządzoną przez właściciela. Kradzież nie będzie polegała na wyrwaniu klientowi torby z zakupami, tylko na przestrojeniu instrukcji wyznaczającej miejsce dostarczenia zakupów. Samochody policyjne nie będą gonić złodziei, tylko puste samochody. Czy policja z tym sobie poradzi?
Jako zalety takich samochodów podaje się np. to, że będą mogły służyć osobom niewidomym i ułatwiać im samodzielne poruszanie się po mieście.
Tak. Ten przykład dobrze pokazuje, dlaczego samochody autonomiczne mogą być lepsze od już istniejących pod jakimś wybranym względem. Ciągle jednak nie wiadomo, na czym polega zasadnicza korzyść z wykorzystania autonomicznych samochodów. Jeśli ktoś mówi, że będzie mniej wypadków, bo wypadki dużej w mierze wynikają z działania czynnika ludzkiego, to niech ten ktoś powie, dlaczego nie proponuje już dzisiaj, żeby miejskie metro jeździło bez kierowców. Być może maszyniści, którzy dziś prowadzą metro, są już mało potrzebni. Jeśli samobójca niespodziewanie wyskoczy na tory, to najprawdopodobniej człowiek nie zatrzyma szybciej pociągu niż automat. Już dziś sterowanie światłami, przerzucanie zwrotnic, kontrola szybkości i obsługa drzwi są w znacznym stopniu czynnościami zautomatyzowanymi. Czemu by więc nie zautomatyzować tych funkcji do końca? Nie robimy tego, bo dziś mamy mniej zaufania do automatów niż do ludzi. I dobrze, że tak jest. A jeśli wydaje się nam, że to, czego szukamy, to pełna autonomizacja transportu miejskiego, to samochód autonomiczny w tych przygotowaniach nie odgrywa ważnej roli. Synchronizację przejazdów lepiej zapewnia masowy transport publiczny niż autonomiczne auta. Powodem tłoku na jezdni i zablokowania ulic w godzinie szczytu nie jest brak autonomicznych aut, tylko przesadnie rozwinięty transport indywidualny. Rozwiązaniem tego problemu są nadziemne pociągi lub podziemne metro, albo nawet ruchome chodniki i krótkie pociągi bez obsługi jadące wybranymi trasami, tak jak to się już dzieje na wielkich lotniskach. W taki właśnie sposób wczesne prace wizjonerów komunistycznych przedstawiały miasta przyszłości. We wszystkie strony jeżdżą autonomiczne samochody i biegną autonomiczne chodniki na różnych poziomach miasta. Kto tylko chce może za darmo przejechać z jednego miejsca do drugiego, ruch uliczny przebiega bezpiecznie, i wszyscy ludzie są dla siebie braćmi i siostrami. To jest jednak totalitarna utopia. Dlatego byłbym ostrożny wobec argumentów, które zapewniają, że transport autonomiczny będzie tańszy, bardziej bezpośredni, bardziej bezpieczny i bardziej ekonomiczny. To prawda, że nie chcemy być ofiarami wypadków samochodowych, i że prawdopodobnie w samochodach ginie dziś więcej osób niż w samolotach i w pociągach. Ale główna korzyść z posiadania własnego samochodu nie polega na tym, że zapewnia on względną prywatność, tylko na tym, że tym samochodem można dojechać tam, gdzie nie dociera transport publiczny. Ja głównie korzystam z metra, tramwajów, roweru i pociągów. Ponieważ mieszkam w mieście, z auta korzystam rzadko, i choć moje auto jest stare, to ma mały przebieg. Jednak mogę sobie wyobrazić, że mój wnuk będzie mieszkać na wsi i będzie hodować krowy, kaczki, bażanty i papugi. Może on będzie bardziej cenić auta autonomiczne niż ja, bo przy ich użyciu będzie mógł łatwiej dotrzeć do swoich zwierząt. Czy to jednak nie będzie wymagało też tego, by one nosiły na nogach jakieś elektroniczne opaski, które będą przywoływać do siebie jego autonomiczne auto z jedzeniem i wodą dla zwierząt? Nie wiem. W tej sprawie możemy sobie wyobrażać, co chcemy.
Rzeczywiście zwolennicy autonomicznych samochodów mówią, że etycznym posunięciem byłoby je wprowadzić, bo wtedy ocalilibyśmy ludzi, którzy tracą życie w takich niepotrzebnych, niekoniecznych wypadkach drogowych. I rzeczywiście mówią też, że te samochody byłyby połączone i zniknąłby problem korków, byłyby także w dużej mierze współdzielone, więc to jest też rozwiązanie ekologiczne. Ale takie samochody autonomiczne mogą też być prywatne.
Prawdę mówiąc, nie widzę korzyści z takiego auta dla pojedynczych osób. Gdyby mi ktoś zaproponował: "Kup sobie autonomiczne auto za cenę zwykłego", to bym raczej odmówił. Dlaczego? Po pierwsze, takie auto przypomina elektryczny rower. Jest lepsze od tego, które mamy na co dzień, ale ta korzyść niszczy to, co jest najbardziej atrakcyjne w klasycznym rozwiązaniu. Po drugie, takie auto będzie wymagać specjalnego serwisowania i zwielokrotnionej kontroli sprawności. Po trzecie, auto autonomiczne da się wykorzystać w pełni tylko tam, gdzie dostępne będą informacje kontrolne i znacznie się zwiększy zakres możliwych błędów. Tym samym w praktyce znacznie się zwiększy zakres pytań stawianych przez system w trakcie jazdy i może dochodzić do nagłego zablokowania auta na środku jezdni. Po czwarte, autonomia auta autonomicznego będzie budowana zawsze kosztem autonomii kierowcy. To nie każdemu będzie się podobać.
I ostatnie pytanie: dlaczego uważamy, że to my podejmujemy lepsze decyzje niż maszyny?
Nasze decyzje są lepsze, bo to są prawdziwe decyzje. Natomiast maszyny potrafią widzieć każdy problem wariantowo, ale same nie podejmują żadnych decyzji. Realizują tylko program z góry ułożony wedle nieznanych kryteriów przez producenta. Po ukazaniu się wczesnej książki Stanisława Lema "Summa technologiae" Leszek Kołakowski napisał, że Lem wyobraża sobie, że kiedyś będzie można wprowadzić idealne, skomputeryzowane sądy, które będą w stanie rozważyć wszystkie istotne argumenty na rzecz czyjejś winy lub niewinności. I dodał, że on by takim sądom nie ufał, bo wiedziałby, że robo-sędziowie zawsze pracują rutynowo i nie radzą sobie z wyjątkowymi okolicznościami. A te występują nagminnie, ponieważ każda sprawa sądowa rozważana wnikliwie jest unikalna i nieszablonowa. Podobnie jak Kołakowski, wolę też narażać się raczej na błędy ludzkie niż mechaniczne. Komputera nie można przekonać argumentami, bo on ich nie rozumie. Ale sędziego można niekiedy skłonić, by przyjął nowy, nieszablonowy punkt widzenia. A zatem, czy maszyny, które rzekomo będą lepiej umiały z góry przewidzieć wszystkie skomplikowane sytuacje na jezdni, będą robić to lepiej niż miliony ludzi występujących w swoich własnych, konkretnych sytuacjach? Bardzo wątpię. To jakby odciąć ośmiornicy jej macki, w nadziei, że przestanie się plątać o własne nogi.
Jacek Hołówka – ukończył studia z filozofii na Uniwersytecie Warszawskim i poboczne studia na anglistyce. Zajmował się socjologią medycyny w Instytucie Filozofii i Socjologii PAN oraz w Mershon Center w Ohio. Pracował w Zakładzie Etyki Instytutu Filozofii UW i został pierwszym kierownikiem Zakładu Filozofii Analitycznej na UW. Jako visiting professor uczył w Indiana University i w Notre Dame University. Przez rok prowadził zajęcia w Viadrinie (Frankfurt nad Odrą).
Pracował w Wyższej Szkole Nauk Społecznych "Pedagogium", w Akademii Pedagogiki Specjalnej, Krajowej Szkole Administracji Publicznej i w Uczelni Łazarskiego. Przez jedną kadencję był prodziekanem Wydziału Filozofii i Socjologii UW oraz przez jedną kadencję – prorektorem UW. Od reaktywowania "Przeglądu Filozoficznego" w 1992 roku jest jego redaktorem naczelnym. Był wielokrotnie wybierany do Komitetu Nauk Filozoficznych PAN. Jest autorem "Relatywizmu etycznego" (1981), "Etyki w działaniu" (2001) oraz dwóch podręczników etyki dla szkół średnich. Wraz z Bogdanem Dziobkowskim prowadzi Bibliotekę Przeglądu Filozoficznego, w ramach której ukazały się tomy: "Panorama współczesnej filozofii" (2016); "Marksizm. Nadzieje i rozczarowania" (2017); "Filozofia religii. Kontrowersje" (2018).