Współczesna nauka wyróżnia wiele różnych rodzajów inteligencji. Do niedawna pewne było jednak to, że jest to cecha typowa dla ludzi. Choć przejawy inteligencji możemy do pewnego stopnia zaobserwować u niektórych zwierząt, to jednak w praktyce nie było potrzeby uwzględniania tego aspektu w systemie prawnym. Cały czas to wyłącznie człowiek mógł korzystać z prawa do ochrony swojej twórczości. Dynamiczny rozwój sztucznej inteligencji (AI) sprawił, że przestaje to być już tak oczywiste.

Sztuczna inteligencja, sztuczny czy prawdziwy problem? AI w kontekście praw autorskich

Przełomowym momentem w rozwoju technologii sztucznej inteligencji, który sprawił, że zaistniała ona w zbiorowej wyobraźni był mecz szachowy pomiędzy rosyjskim szachistą (panującym mistrzem) Garri Kasparowem oraz stworzonym przez amerykanów komputerem Deep Blue (10 lutego 1996 roku). Mimo że więcej partii w całym meczu wygrał Kasparow, to Deep Blue pokazał, że pokonanie człowieka przez maszynę w grze tak złożonej jak szachy jest możliwe. Obecnie sztuczna inteligencja ma nieporównywalnie większe możliwości, czego spektakularnym przykładem było zaprezentowanie algorytmu AlphaZero, który znając jedynie reguły gry, w ciągu 9 godzin, grając sam ze sobą, osiągnął poziom pozwalający na pokonanie dowolnego (sztucznego lub żywego) gracza na świecie1. Ta niewyobrażalna zdolność do adaptacji sprawdza się nie tylko w kontekście gier logicznych, ale jest również postrzegana jako zdolność do twórczej kreacji. Tworzenie nowych indywidualnych dzieł, np. muzycznych, literackich czy plastycznych nie jest więc już domeną jedynie ludzi, ale również algorytmów.

W konsekwencji pojawia się pytanie, czy system praw autorskich jest gotowy na tego rodzaju zmianę. Ma to praktyczne konsekwencje, ponieważ nie jest jasne, do kogo należą prawa do utworów stworzonych przez algorytm. Istotą problemu jest to, że w przypadku utworów stworzonych przez sztuczną inteligencję człowiek nie bierze udziału w samym procesie tworzenia, a jedynie pośrednio wpływa na jego powstanie. Swoją obecność zaznacza na trzech różnych etapach. Pierwszym z nich jest moment definiowania architektury modelu AI. Drugi to etap dostarczania danych uczących lub reguł, jakich model ma przestrzegać. Natomiast ostatnim jest impuls zawierający określony stan bazowy (zbiór parametrów startowych, np. obraz, który ma zostać zmodyfikowany, lub dźwięk, który ma zostać „wyczyszczony” z odgłosów ulicy), który stanowi dla algorytmu punkt startu.

O ile tradycyjnie program komputerowy można było porównać do narzędzia, za pomocą którego tworzony jest utwór (podobnie jak pędzel w dłoni malarza), tak za sprawą sztucznej inteligencji algorytm sam staje się malarzem. Natomiast człowiek występuje w roli architekta jego sposobu myślenia (programista) oraz mentora dostarczającego użytecznej wiedzy dziedzinowej. Po procesie uczenia i po uruchomieniu algorytmu, efekt pracy pozostaje jednak zagadką do samego końca. Programista (a częściej całe zespoły programistów) mogą zapewnić, że algorytm ma odpowiednie umiejętności. Nie dają jednak gwarancji, w jaki sposób zostaną one wykorzystane. Wyniki modeli AI są wypadkową wszystkich dostarczonych modelowi danych i nie są ścisłym rozwiązaniem problemu, a jedynie najlepszym, jakie znalazł program. Podobnie jak uniwersytety potwierdzają, że ich absolwent posiadł pewne umiejętności, to jednak nie gwarantują, w jaki sposób te umiejętności zostaną wykorzystane w konkretnym przypadku i w szczególności nie ponoszą za to odpowiedzialności. Drugą stroną tego medalu jest fakt, że nie przysługują im również z tego powodu prawa autorskie do utworów, jakie stworzą ich wychowankowie.

Przykładem, który dobrze ilustruje, jak niezwykłe możliwości ma to podejście do rozwiązywania skomplikowanych zadań jest projekt The Next Rembrand2. W ramach tego projektu został stworzony program komputerowy, który przeanalizował tysiące dzieł holenderskiego malarza Rembrandta Harmenszoona van Rijna, żyjącego w XVII wieku. Następnie na ich podstawie stworzył własny obraz, naśladując styl słynnego malarza. Powstałe dzieło miało wszystkie cechy utworu w rozumieniu prawa autorskiego – było twórcze i indywidualne (choć inspirowane pracami Rembrandta). Brakuje mu jednak podstawowego elementu. Nie zostało stworzone przez człowieka. Maszyny nie mają zdolności prawnej, a zatem nie mogą być podmiotem praw i obowiązków. W związku z tym nie przysługuje im ochrona, z jakiej mogą korzystać ludzie.

Powstaje więc pytanie, do kogo należą prawa do tak stworzonego obrazu? Odpowiedź na tego rodzaju pytanie powoli przestaje być kwestią czysto akademicką, bo dostęp do odpowiedniej technologii staje się coraz szerszy i łatwiejszy. W Polsce z rozwiązań opartych na sztucznej inteligencji korzystają już niemal wszyscy (tytułem przykładu w wideokonferencjach możliwość realizacji podmiany tła oparta jest w większości na AI). Własne rozwiązania tworzą duże podmioty gospodarcze, ale również firmy pozbawione wielkiego kapitału. Przykładem może być start-up Comixify3, który umożliwia stworzenie własnego komiksu na podstawie przesłanego nagrania wideo. Kto jest jednak właścicielem praw do tak stworzonego komiksu? Polskie prawo nie daje jasnej odpowiedzi. Nie jest też wcale oczywiste, w jaki sposób należałoby je zmienić. Przyznanie maszynom zdolności prawnej wydaje się pomysłem zbyt abstrakcyjnym i pozbawionym uzasadnienia. Byłoby to rozwiązanie rodem z twórczości Stanisława Lema.

Inspiracji można szukać w kraju powszechnie uważanym za kolebkę prawa autorskiego, czyli Wielkiej Brytanii (przyjmuje się, że pierwszym aktem prawnym regulującym prawo autorskie była brytyjska ustawa z 1710 r., tzw. Statut Anny). Zgodnie z brytyjskim rozwiązaniem, utwór wygenerowany komputerowo (computer-generated) oznacza, że został on stworzony w takich okolicznościach, że nie ma ludzkiego autora utworu4. W przypadku dzieła literackiego, dramatycznego, muzycznego lub artystycznego, które jest generowane komputerowo, za autora uważa się osobę, która podjęła działania niezbędne do stworzenia dzieła5. Z reguły chodzić więc będzie tu o programistę lub użytkownika już stworzonego modelu AI. Jest to jedno z potencjalnych i najbardziej intuicyjnych rozwiązań problemu, jednak ma ono swoje wady. Przede wszystkim twórca modelu w chwili obecnej to rzadko jeden człowiek. Częściej są to całe zespoły, które również specjalizują się w konkretnych etapach tworzenia użytecznego algorytmu, będąc zarazem przedstawicielami niezależnych firm. Ponadto takie podejście sprawia, że rola osoby, która dostarcza maszynie danych niezbędnych do nauki, a także informacji zwrotnej, jest niedostrzegana przez system prawny. Tymczasem często to właśnie ten etap decyduje o jakości utworu, co przekłada się na to, jak cenione są obecnie wiarygodne i czyste dane gromadzone na ogromną skalę przez firmy określane mianem gigantów technologicznych. Co więcej, tak skonstruowany system nie wyróżnia osoby, która inicjuje proces, w wyniku którego powstaje dzieło – wprowadza ustawienia wyjściowe (choć mogą być sytuacje, gdy osoby takiej nie ma, bo impuls do działania pochodzić będzie od maszyny). Wobec tego sposób ochrony utworu nie jest odbiciem wkładu człowieka w dobór i wybór danych, które mogą kreować ochronę na gruncie prawa autorskiego.

Innym rozwiązaniem jest pozostawienie utworów stworzonych przez maszynę w domenie publicznej i umożliwienie swobodnego z nich korzystania. W dłuższej perspektywie pozbawiłoby to jednak bodźca do rozwoju technologii. Skoro korzyści ekonomiczne mogłyby przypaść przypadkowej osobie, prawo nie tworzyłoby zachęty do inwestycji. Utwór stworzony przez maszynę może zostać wykorzystany komercyjnie na rzecz zupełnie innego niezwiązanego z nim podmiotu. Byłoby to więc krzywdzące dla osoby, która stworzyła tego rodzaju maszynę oraz włożyła pracę (często dużą) w nauczenie jej odpowiedniego zachowania i wyborów. W tej sytuacji prawo autorskie nie spełniałoby więc swojej podstawowej funkcji, jaką jest zachęta do innowacji i tworzenie dla niej odpowiednich warunków.

Przyznanie ochrony utworom stworzonym przez maszynę wymagałoby naruszenia jeszcze jednego istotnego założenia, jakie leży u podstaw polskiego prawa autorskiego, tj. ochronę niepodlegającej zbyciu więzi twórcy z utworem. Nie ulega wątpliwości, że w przypadku maszyn tego rodzaju więź emocjonalna nie wystąpi. Sztuczna inteligencja wymusza więc zmianę na poziomie podstawowych domniemań i założeń, jakie stały się podstawą europejskiego prawa autorskiego.

Czy jednak algorytm w istocie może być twórczy? Przyjmując prostą definicję algorytmu, jako zbioru stałych, następujących po sobie operacji matematycznych, mamy pewność, że wynik, jaki otrzymamy dla tych samych warunków startowych będzie zawsze taki sam. Jest on niezależny od czasu, liczby prób wykonania, ani żadnych innych okoliczności. Tak jak zegarmistrz ma pewność, co do długości cyklu zegarowego wahadła, pomimo mnogości następujących po sobie w mechanizmie zegara ruchów sprężyn i zębatek. W konsekwencji jest on zatem ściśle określony. Kończąc na tym etapie analizę problemu i skupiając się jedynie na tym spostrzeżeniu stawiamy się w kłopotliwym położeniu. Patrząc z tego punktu widzenia, sztuczna inteligencja to tak naprawdę jedynie swoiste działanie matematyczne (co prawda bardzo skomplikowane, ale w pełni określone, zanim jeszcze zostanie wykonane). Czy w takim przypadku jest miejsce na twórczość i czym to rozwiązanie różni się od już istniejącego oprogramowania pomagającego w procesie twórczym?

To, co wyróżnia algorytmy sztucznej inteligencji od innych algorytmów to poziom ich wewnętrznego „chaosu”, który w niezrozumiały dla nas sposób prowadzi do rozwiązań lepszych niż te, które jesteśmy w stanie osiągnąć tradycyjnymi metodami. W tym ujęciu przypomina to wahadło, ale z dwoma przegubami w środku, które matematycy określają mianem układu chaotycznego (chaos deterministyczny). W takich układach, pomimo znajomości przez nas wszystkich rządzących ruchem praw fizyki, nie jesteśmy w stanie przewidzieć ruchu takiego wahadła, bo jest ono niezmiernie wrażliwe na każdą początkową zmianę swojego punktu startu. Taka jest również sztuczna inteligencja – wiemy, że jej wyniki są ściśle określone, ale są one dla nas nie do przewidzenia. To, co dodaje całej sprawie „magii” jest fakt, że modele AI podają nam pomocną dłoń tam, gdzie zawiodły nas próby pisania rozwiązania krok po kroku. W większości przypadków próby napisania tradycyjnego algorytmu kończą się fiaskiem, gdy nie jesteśmy w stanie zapanować nad ilością i poziomem skomplikowania warunków, które rozgałęziają możliwe ścieżki otrzymania wyniku na kształt korony dojrzałego dębu, z tysiącami liści na szczycie. W tym miejscu z pomocą przychodzi AI, które „wymaga” od nas jedynie podania zbioru danych, które uważamy za istotne i... nieingerowania w jej „wewnętrzne sprawy”. Tego typu rozwiązania programiści często nazywają czarnymi skrzynkami (powszechniej używane pod angielską nazwą black box), której przekazujemy parametry wejścia, jakie uważamy za użyteczne i ze zdumieniem obserwujemy, jak po chwili otrzymujemy rozwiązanie. Jest to wygodne, gdy liczy się dla nas tylko wynik, ale cecha, która sprawia, że nie jesteśmy w stanie powiedzieć, jakie dane ze zbioru parametrów przekazanych do modelu zdecydowały o takim, a nie innym rezultacie, są głównym hamulcem przed wprowadzeniem modeli AI w niektórych systemach informatycznych. Przykładem są tu systemy oceny zdolności kredytowej.

Patrząc na to w ten sposób, możemy jednak dojść do wniosku, że sam fakt niemożności przewidzenia efektu końcowego nie czyni go automatycznie utworem w rozumieniu prawa autorskiego (nie ma cech indywidualnych i twórczych). Przecież nawet teraz kombinacja ruchów szachowych, jaką przewidują arcymistrzowie szachowi, jest poza zasięgiem możliwości zwykłego człowieka. Mimo to prawa autorskie nie chronią przecież wzorów matematycznych czy otwarć szachowych. Te ostatnie, choć często nazywają się na cześć słynnych szachistów, którzy je opracowali lub wykorzystywali (tytułem przykładu – Obrona Alechina na cześć Aleksandra Alechina6 lub Debiut Nimzowitscha na cześć Arona Nimzowitscha7), to jednak nie podlegają w żaden sposób ochronie na gruncie praw autorskich. Podobnie nawet notacja szachowa (sposób zapisu przebiegu partii w celu jej późniejszego odtworzenia) nie jest chroniona przez prawo autorskie (chyba że zawiera inne twórcze elementy, jak np. swoistą grafikę).

Podsumowując, różnica w sposobie działania algorytmu i ludzkiego umysłu sprowadza się tu nie tylko do szybkości i możliwości obliczeniowych. Umyka dodatkowo jeden istotny aspekt – jako ludzie uwielbiamy Rembrandta za jego niepowtarzalny styl i pewien kod kulturowy wpisany w jego obrazy, który oderwał go od malarskiej czołówki, rozpoczynając jego własną indywidualną drogę, czytelną dla miłośników sztuki. Sztuka nie polega przecież na błyskawicznym liczeniu i przypadkowym wklejaniu nieznacznych zmian w schemacie wyznaczonym przez znane wzorce. Być może trzeba odróżnić twórczość od samej inteligencji. W końcu nawet człowiek mało inteligentny może tworzyć i będzie to podlegało ochronie prawnej. To, ile utwór stworzony przez niego będzie wart, w zasadzie zależy od rynku. Czy zatem sztuczna inteligencja to z punktu widzenia praw autorskich sztuczny problem? Nie do końca – ponieważ, nawet jeśli założymy, że nie jest to utwór, to tak czy inaczej cały czas pozostaje nierozstrzygnięta kwestia odpowiedzialności. W tym także karnej. Nie możemy bowiem zakładać, że algorytm, tworząc swoje dzieło, będzie prawa przestrzegał. Z całą pewnością kary bać się nie będzie, a o wyrzuty sumienia trudno go podejrzewać.

Dobrym przykładem jest tu problem wypadków drogowych spowodowanych przez samochody autonomiczne, a więc takie, które są sterowane przez algorytm, bez udziału człowieka. O ile w sensie cywilnym można wyobrazić sobie stworzenie sytemu opartego na dywersyfikacji ryzyka poprzez system ubezpieczeń (choć cały czas pozostają otwarte pytania, jak miałby on wyglądać), to kwestia odpowiedzialności karnej jest jeszcze bardziej złożona.

Trzeba mieć w pamięci chociażby to, że w prawie karnym stosowanie analogii jest zabronione, co już samo w sobie stwarza szereg ograniczeń. Nawet jednak pomijając ten aspekt, problem ma inne płaszczyzny. Jeżeli za przykład uznać, że odpowiadać karnie powinien programista lub użytkownik inteligentnej maszyny, stosując np. konstrukcje odpowiedzialności za sprawstwo kierownicze, to przecież cały czas nie wiadomo, co zrobić w przypadku ekscesu. Eksces to zachowanie wykraczające poza umówione zachowanie, uzgodnione przez współsprawców. Innymi słowy, nie jest jasne, kto odpowiadałby za nieracjonalne zachowanie maszyny, które może się zdarzyć na skutek nie tylko błędu w kodzie, ale również zwyczajnej probabilistyki. Ciekawym przykładem zachowania maszyny, które nie było przewidziane przez jej twórców, może być drugi mecz szachowy rozegrany pomiędzy Garri Kasparowem a Deep Blue. Jak przyznali twórcy oprogramowania, w 44. ruchu pierwszej rozgrywki, komputer w wyniku zignorowanego przez wszystkich fragmentu kodu, wykonał ruch losowy, co zupełnie zaskoczyło Kasparowa i przyczyniło się do zwycięstwa maszyny8. W sytuacji, gdy komputer nie mógł wykonać najlepszego ruchu, skorzystał z zabezpieczenia pozwalającego na kontynuowanie gry i wykonał ruch dla widowni i samego Kasparowa przypadkowy. Pokazuje to, że sztuczna inteligencja może zachować się w sposób nieprzewidziany i nieracjonalny. W prawie autorskim może to mieć dodatkowy wymiar i znaczenie. Błędy czy niedoskonałości mogą być elementem twórczym. Zdarza się przy tym, że znacząco podnoszącym wartość dzieła, powodując, że staje się ono jeszcze bardziej unikatowe. Przykładem takiego mechanizmu może być zniszczenie obrazu Banksy’ego podczas aukcji9, który od razu zyskał na wartości (defekt paradoksalnie podniósł wartość dzieła). W tym przypadku błędy maszyny mogą więc działać w dwie strony i pytanie dotyczy nie tylko tego, kto ma ponieść odpowiedzialność za błąd, ale też tego, komu należą się niespodziewane owoce pomyłki.

Błędy mają w przypadku sztucznej inteligencji dużo większe znaczenie. Nie od dziś wiadomo, że nauka polega na ich popełnianiu i wyciąganiu wniosków. Pytanie jednak, czy w przypadku działań polegających w zasadzie na rozwiązywaniu równań, możemy mówić o błędzie maszyny? Tak naprawdę samo działanie wykonywane jest poprawnie, ale nie zawsze doprowadza ono do zamierzonego rezultatu. Błędem jest więc to, co z punktu widzenia człowieka nie jest zgodne z zamierzonym celem.

W tym miejscu dochodzimy do istoty tego, czym jest sztuczna inteligencja. Pojęcie to często jest bowiem nadużywane. Dobrze ilustrują to słowa amerykańskiego programisty Larry’ego Teslera10, który powiedział, że „sztuczna inteligencja jest tym, czego jeszcze nie zrobiono”11. ­Pokazuje to, jak zmieniało się rozumienie pojęcia sztucznej inteligencji i że mimo osiągania kolejnych poziomów, cały czas daleko nam do naśladowania tego, jak działa ludzki mózg. Samo nazwanie oprogramowania sztuczną inteligencją często w warunkach rynkowych ma za zadanie jedynie przyciągnięcie uwagi inwestorów i nadanie prestiżu projektowi.

Najnowsze podejście w tworzeniu sztucznej inteligencji skupia się na tworzeniu struktury działającej podobnie jak ludzki mózg. Podejście to nazywa się „sztucznymi sieciami neuronowymi”. Zgodnie z tym założeniem błąd to nie jest to, co jest logicznie niepoprawne, ale to, co prowadzi do efektów, które nie są pożądane (określa to funkcja nazywana funkcją kary lub funkcją strat). Algorytm zaprojektowany jest w tym przypadku tak, żeby tworzył sieć. Osiąga on coraz lepsze rezultaty poprzez porównywanie swoich wyników z oczekiwanymi i wzmacniając siłę połączeń między wewnętrznymi „neuronami”, które ukierunkowują na poprawne rozwiązanie. Te połączenia mogą nakładać się na siebie i na systemy ewolucyjne. Co więcej, przy zmianie warunków wzmocnieniu mogą ulec inne połączenia. Choć koncepcyjnie nie różni się to od regresji liniowej, czyli szukania prostej najlepiej wpisującej się w zbór punktów, to w efekcie sztuczne sieci neuronowe generują niezmiernie skomplikowane funkcje, doskonale wpasowując się w dostępne dane. Prowadzi to do efektu, który my interpretujemy jako wyciąganie wniosków, uogólnianie i rozumienie analogii, czyli to, z czego składa się proces uczenia się. Jeżeli prawidłowo określimy problem, czyli poniekąd dobrze zadamy pytanie, to w końcu tego rodzaju algorytm może nauczyć się tworzenia innych algorytmów. W tym przypadku granica między tym, co logiczne i przewidywalne, a tym, co twórcze jest już mniej oczywista i jasna. Nawet, jeśli mimo wszystko uznać, że dalej jest to jedynie matematyka, to jednak matematyka, która pokazuje tu swoje najpiękniejsze oblicze.

Przypisy / Źródła / Podstawa prawna
  1. Informacje twórców AlphaZero: https://deepmind.com/blog/article/alphazero-shedding-new-light-grand-games-chess-shogi-and-go.
  2. https://www.theguardian.com/artanddesign/2016/apr/05/new-rembrandt-to-be-unveiled-in-amsterdam#:~:text=On%20Tuesday%20in%20Amsterdam%2C%20an,innovative%20painters%20of%20all%20time.
  3. Strona firmy: https://comixify.ai.
  4. Sekcja 178 of the UK Copyright, Designs and Patents Act.
  5. Section 9(3) of the Copyright, Designs and Patents Act.
  6. Który dwukrotnie użył jej w rozegranym w 1921 roku turnieju w Budapeszcie przeciwko Andreasowi Steinerowi (wygrana) i oraz Friedrichowi Samischowi.
  7. Duński szachista, jeden z czołowych szachistów świata w latach dwudziestych XX wieku, teoretyk szachów.
  8. https://www.sciencehistory.org/distillations/magazine/thinking-machines-the-search-for-artificial-intelligence; https://time.com/3705316/deep-blue-kasparov/; dostęp z dnia 15.04.2021.
  9. https://www.rp.pl/Sztuka/181009450-Banksy-zniszczone-dzielo-od-razu-drozsze.html.
  10. Amerykański programista. Twórca poleceń kopiuj-wklej (1973–1976), współtwórca języka programowania Compel.
  11. W oryginale: Artificial intelligence is whatever hasn’t been done yet”, Larry Tesler.

Możesz zobaczyć ten artykuł, jak i wiele innych w naszym portalu Controlling 24. Wystarczy, że klikniesz tutaj.

Ulubione Drukuj

Zobacz również

Metody wyceny aktywów własnych

Metody wyceny aktywów własnych

Wycena inwestycji jest dobra tylko wtedy, kiedy obie strony transakcji wyjdą na niej win-win. Żeby tak jednak było, obie strony działające w otoczeniu gospodarczym powinny posiadać taką samą informację, wolną od zniekształceń. Oczywiście wiemy, że tak nie jest i tak naprawdę któraś ze stron musi zawsze okazać się w dłuższej perspektywie lekko pokrzywdzona. Co zrobić, by nie być po tej gorszej stronie inwestycji? Trzeba nauczyć się kilku podstawowych metod wyceny własnych aktywów.

Czytaj więcej
Tekst otwarty nr 11-12/2023

Rozwijamy się z naszymi klientami i dla naszych klientów

Rozwijamy się z naszymi klientami i dla naszych klientów

Członek zarządu Controlling Systems o tym, jak zmieniał się controlling w Polsce na przestrzeni ostatnich 20 lat, nowych wyzwaniach oraz szansach dla rozwoju systemów controllingowych i znaczeniu czynnika ludzkiego w rozwoju controllingu.

Czytaj więcej

Polecamy

Przejdź do

Partnerzy

Reklama

Polityka cookies

Dalsze aktywne korzystanie z Serwisu (przeglądanie treści, zamknięcie komunikatu, kliknięcie w odnośniki na stronie) bez zmian ustawień prywatności, wyrażasz zgodę na przetwarzanie danych osobowych przez EXPLANATOR oraz partnerów w celu realizacji usług, zgodnie z Polityką prywatności. Możesz określić warunki przechowywania lub dostępu do plików cookies w Twojej przeglądarce.

Usługa Cel użycia Włączone
Pliki cookies niezbędne do funkcjonowania strony Nie możesz wyłączyć tych plików cookies, ponieważ są one niezbędne by strona działała prawidłowo. W ramach tych plików cookies zapisywane są również zdefiniowane przez Ciebie ustawienia cookies. TAK
Pliki cookies analityczne Pliki cookies umożliwiające zbieranie informacji o sposobie korzystania przez użytkownika ze strony internetowej w celu optymalizacji jej funkcjonowania, oraz dostosowania do oczekiwań użytkownika. Informacje zebrane przez te pliki nie identyfikują żadnego konkretnego użytkownika.
Pliki cookies marketingowe Pliki cookies umożliwiające wyświetlanie użytkownikowi treści marketingowych dostosowanych do jego preferencji, oraz kierowanie do niego powiadomień o ofertach marketingowych odpowiadających jego zainteresowaniom, obejmujących informacje dotyczące produktów i usług administratora strony i podmiotów trzecich. Jeśli zdecydujesz się usunąć lub wyłączyć te pliki cookie, reklamy nadal będą wyświetlane, ale mogą one nie być odpowiednie dla Ciebie.