Dr Klaudia Rosińska: W cyfrowym świecie kłamstwo wydaje się nie do zatrzymania. Ono ma wiele żyć. Ale to od nas zależy jak wiele!

Czytaj dalej
Fot. FOT. 123rf
Anita Czupryn

Dr Klaudia Rosińska: W cyfrowym świecie kłamstwo wydaje się nie do zatrzymania. Ono ma wiele żyć. Ale to od nas zależy jak wiele!

Anita Czupryn

W dezinformacji nie chodzi tylko o to, żeby kłamać. Chodzi o polaryzowanie o radykalizowanie, o wywołanie pożądanego przez dezinformatora działania. Cel jest dużo bardziej złożony, niż tylko takie proste kłamstwo – mówi dr Klaudia Rosińska, autorka książki „Fake news. Geneza, istota, przeciwdziałanie”, ekspert ds. przeciwdziałania dezinformacji w NASK oraz wykładowca Akademii Kultury Społecznej i Medialnej w Toruniu.

W Hiszpanii nastoletni chłopcy umieścili w internecie nagie zdjęcia swoich koleżanek. Jak się okazało, zdjęcia zostały poddane obróbce przy użyciu sztucznej inteligencji. Rodzice dziewcząt obawiają się, że tak zmodyfikowane fotografie mogą trafić na strony pornograficzne. Jakie zagrożenia niesie ze sobą tego rodzaju wykorzystanie programów sztucznej inteligencji i jakie to ma skutki dla ofiar?

Dr Klaudia Rosińska: W cyfrowym świecie kłamstwo wydaje się nie do zatrzymania. Ono ma wiele żyć. Ale to od nas zależy jak wiele!
Materiały prasowe Dr Klaudia Rosińska: W dezinformacji nie chodzi tylko o to, żeby kłamać. Chodzi o polaryzowanie, radykalizowanie, o wywołanie pożądanego przez destabilizatora działania, konfliktu

Ten przykład jest swego rodzaju klamrą. Oto historia zatoczyła koło, bowiem niewiele osób zdaje sobie sprawę z tego, że korzenie deepfake’ów czyli wygenerowanych sztucznie zdjęć, czy materiałów wideo, sięgają właśnie przemysłu pornograficznego. Wspomniane przez panią zdarzenie jest dowodem na to, że problem deepfaków rozprzestrzenia się na inne grupy społeczne. Dla nastolatków, którzy eksperymentują z tego rodzaju fałszerstwami, może to być próba zdobycia popularności lub po prostu brak świadomości konsekwencji swoich działań. Niemniej manipulacja obrazami, nie jest niczym nowym. Już od dawna obserwujemy przypadki tradycyjnych manipulacji wizerunkiem, niekoniecznie przy użyciu sztucznej inteligencji. To, co zmieniło się diametralnie, to tempo i dostępność tej technologii. Teraz wystarczy dostęp do danych np. zdjęć z naszych profili w mediach społecznościowych, a algorytmy są w stanie wygenerować całkowicie nowe, ale bardzo autentycznie wyglądające obrazy.

Jak się przed tymi zagrożeniami bronić? Rozwiązaniem jest rezygnacja z mediów społecznościowych lub niepublikowanie swoich zdjęć? Wydaje się, że to podejście może być trudne do zaakceptowania dla młodych ludzi.

Większość użytkowników internetu i mediów społecznościowych traktuje te platformy jak rodzinny album, gdzie mogą dzielić się swoimi zdjęciami, często w przekonaniu, że tylko wybrani znajomi lub wybrane osoby będą miały do nich dostęp. To jednak błędne przekonanie, ponieważ w rzeczywistości zdjęcia te są dostępne dla wszystkich, a my sami tracimy nad nimi kontrolę. Każdy może wykorzystać je w różny sposób, nie zawsze zgodnie z naszymi intencjami. Nie zawsze dla nas życzliwy. W kontekście rozwoju sztucznej inteligencji to, co udostępniamy w mediach społecznościowych, ma ogromne znaczenie. Powinniśmy zacząć traktować te platformy jako przestrzeń publiczną, gdzie prezentujemy nasz publiczny wizerunek, a niekoniecznie te bardzo prywatne lub intymne momenty. Rozumiem, że jest to zmiana mentalna, która będzie wymagała czasu, ale wydaje się niezbędna. Historia mediów dowodzi, że każde nowe medium musiało stawić czoło podobnym problemom i przekraczaniu granic, aby je później znormalizować i uregulować. Internet i media społecznościowe nie są tu wyjątkiem. Mamy coraz większą świadomość negatywnych skutków braku prywatności oraz sposobu zarządzania danymi, które są naszą własnością. Aktualnie są one jednak kontrolowane przez platformy społecznościowe, co powinno skłaniać do refleksji nad tym, jak uregulować tę przestrzeń. Wierzę, że jesteśmy coraz bliżej momentu, w którym społeczeństwo bardziej zaangażuje się w dyskusję na temat regulacji internetu, zwłaszcza mediów społecznościowych. Przykłady, o których piszecie państwo w mediach, związane z prywatnością i potencjalnym krzywdzeniem najmłodszych, powinny skierować naszą uwagę na konieczność stabilizacji i uregulowania funkcjonowania przestrzeni internetowej.

O legislacji jeszcze porozmawiamy, ale czy istnieją konkretne metody i narzędzia które pomogą nam w rozpoznawaniu deepfake’ów i odróżnieniu ich od prawdziwych treści. Jak dowiedzieć się, że mamy do czynienia z dezinformacją?

Jeśli chodzi o zdjęcia, to na chwilę obecną możemy na przykład zwracać uwagę na pewne cechy twarzy lub ubioru. Sztuczna inteligencja słabo radzi sobie z uszami, nosami, ułożeniem ciała. Ma trudności także z odwzorowaniem subtelnych ozdób, ubrań, kołnierzyków, upięć włosów. Jeśli widzimy, że te elementy są „dziwne” to istnieje szansa, że właśnie dlatego, że nie jest to prawdziwe zdjęcie. Oprócz tego ważne są też takie cechy jak nadmierna idealizacja i wygładzenie na zdjęciach generowanych przez sztuczną inteligencję. Młodzież nazywa to „efektem glow”. Te obrazy są zwykle zbyt perfekcyjne i nierealistyczne pod względem wyglądu osoby oraz jej ciała.

Tylko że dzisiejsi nastolatkowie, zresztą nie tylko oni, na swoich kontach na Instagramie czy Facebooku wrzucają zdjęcia poprawione przez różnego rodzaju filtry, które też są wygładzone i idealne i tak samo nie oddają rzeczywistości.

Warto wiedzieć, że sztuczna inteligencja uczy się na danych źródłowych, dostępnych z Internecie. I tak jak Pani powiedziała są to często treści poprawiane przez różnego rodzaju filtry. Sztuczna inteligencja ma tendencję do kreowania kolorowych i niemal idealnych wersji rzeczywistości, bo na takich zdjęciach się uczyła. W przypadku obrazów pomocne w weryfikacji mogą być takie narzędzia jak: AI-generated Image Detection czy DeepDetector. Natomiast jeśli chodzi o materiały wideo, rozpoznawanie deepfake'ów może być paradoksalnie trochę łatwiejsze. Algorytmy sztucznej inteligencji wciąż mają trudności z odwzorowaniem dynamiki ruchu, subtelnych gestów i mikroekspresji, takich jak mruganie czy reakcje odruchowe, na przykład ziewanie czy kaszlnięcie. W deepfake'ach ruchy te często wydają się bardziej mechaniczne niż naturalne. Możemy więc zwracać uwagę na te aspekty, gdy próbujemy ocenić autentyczność wideo. Przydatne może być także narzędzie o nazwie Deepware, ale niestety jest ono płatne.

Deepfake'i to nie tylko problem związany z ryzykiem, że nasze wizerunki mogą zostać wykorzystane na pornograficznych stronach internetowych. Jakie jeszcze zagrożenia dla społeczeństwa i dla demokracji w ogóle mogą wynikać z rozprzestrzeniania się tej technologii?

Choć kwestia deepfake'ów jest obecnie bardzo popularna w mediach, to na szczęście ta technologia jest jeszcze stosunkowo słabo rozwinięta pod względem praktycznym. Niemniej mieliśmy już kilka znaczących prób wykorzystania technologii deepfake i to na wysokim, politycznym szczeblu.

Przypomniała mi Pani: prezydent Warszawy, Rafał Trzaskowski rozmawiał z fałszywym merem Kijowa Witalijem Kliczką. W taki sam sposób zostali oszukani prezydenci innych europejskich miast.

Takie sytuacje pokazują, że nawet na wysokim, politycznym poziomie można być podatnym na tego rodzaju oszustwa. Największym zagrożeniem, jakie niesie ze sobą technologia deepfake, jest możliwość destabilizowania decyzji politycznych i procesów demokratycznych. Deepfake może wprowadzać chwilowe zamieszanie na szczeblach władzy, ale staje się też narzędziem wpływania na opinię publiczną. Konkretny polityk może być fałszywie przedstawiany społeczeństwu jako autor kontrowersyjnych wypowiedzi, podczas gdy w rzeczywistości stoją za nimi deepfake'i. W takiej sytuacji trudno jest opinii publicznej odróżnić prawdę od fałszu, a jeszcze trudniej jest wytłumaczyć, że to był deepfake i że dana osoba nie wypowiedziała tych słów. To istotne ryzyko, ale na chwilę obecną nie widać wyraźnego wpływu technologii deepfake bo wciąż jest kosztowna i trudna do wykorzystania bez ryzyka wykrycia. W praktyce generowanie fałszywych informacji i manipulacyjnych treści bez konieczności korzystania z technologii deepfake jest znacznie tańsze.

Czy fake newsy są bardziej skuteczne niż prawda i można nimi manipulować całe społeczeństwa?

To zależy. W krótkim okresie niestety fake newsy często jawią się jako bardziej atrakcyjne niż prawdziwe informacje. Są bardziej kontrowersyjne, budzą więcej emocji i prowokują większe dyskusje. Dlatego często osiągają one ogromny zasięg w mediach społecznościowych. Istnieją badania, które wskazują, że na Twitterze - obecnie na portalu X – fake newsy rozprzestrzeniają się 6 razy szybciej niż prawdziwe informacje. Algorytmy promują te treści, bo generują one większe zainteresowanie. Jednak, jeśli spojrzymy na to pytanie z perspektywy długoterminowej i zastanowimy się, jak to wpływa na osoby, które padają ofiarą fake newsów, to sytuacja wygląda inaczej. W długim okresie czasu, zwłaszcza jeśli mówimy o mediach jako narzędziu do kształtowania debaty publicznej czy wspierania demokracji, każde rozpowszechnienie lub tworzenie fake newsów obniża poziom wiarygodności i zaufania do mediów w ogóle. Mam na myśli tu nie tylko tradycyjne media, ale także influencerów czy osoby o dużych zasięgach w mediach społecznościowych. To ryzykowna strategia, szczególnie jeśli jest używana jako narzędzie propagandy lub wpływania na opinię publiczną, ponieważ może prowadzić do utraty zaufania społecznego. A zaufanie to przecież fundament demokracji.

Dlaczego właściwie ludzie udostępniają fałszywe informacje? Czy są ich nieświadomi, czy przeciwnie – robią to świadomie, aby zdobyć lajki, zwiększyć swoją popularność i zasięgi?

To wielopłaszczyznowe pytanie. Kiedy mówimy o dezinformacji, to przeważnie myślimy o celowym działaniu; o strategii, która ma na celu manipulację opinią publiczną. I tak jest w rzeczywistości, ale jest to tylko pierwszy, inicjacyjny poziom skuteczności działań dezinformacyjnych. W tym procesie kluczową rolę odgrywają zwykli użytkownicy, nieświadomi w czym właściwie biorą udział.
Zwykli użytkownicy często udostępniają nieprawdziwe treści, ponieważ nie zweryfikowali przekazu przed udostępnieniem. To sprawia, że dezinformacja staje się wiarygodniejsza. Ludzie stają się wówczas przypadkowymi, ale oczekiwanymi uczestnikami procesu dezinformacji. Dlaczego ludzie udostępniają fałszywe informacje? Niektórzy udostępniają takie treści pod wpływem emocji, jakie wywołuje w nich fałszywa informacja, i chcą podzielić się swoimi reakcjami. Inni mogą udostępniać z myślą, że jest to zabawne, a fałszywa informacja jest traktowana jako dowcip. Niestety, często nie informują swoich odbiorców, że to jest żart lub fałsz, co sprawia, że ci odbiorcy uważają to za prawdziwą informację. Jeszcze inni mogą chcieć zyskać zasięgi, stać się zauważeni, popularni. Motywacje są bardzo różnorodne. Ludzie mają też tendencję do udostępniania treści, które są zgodne z ich własnym światopoglądem, nawet jeśli są fałszywe. To jest naturalna skłonność psychologiczna. Na ogół ufamy informacjom, które potwierdzają nasze przekonania, i trudniej jest nam uwierzyć w informacje, które im przeczą. Czasami próby demaskowania fake newsów spotykają się z efektem zaprzeczenia, gdzie osoby bronią swoich przekonań i odrzucają rzeczywistość, która kwestionuje ich punkt widzenia. Z drugiej strony Uniwersytet w Princeton w styczniu opublikował badania, które wskazują na to, że ludzie udostępniają treści dezinformacyjne nawykowo. W ciągu ostatnich kilku lat, gdy media społecznościowe wygenerowały tak duże zasięgi dla fake newsów, użytkownicy nauczyli się, że udostępnianie kontrowersyjnych treści przyciąga uwagę i generuje dyskusje. To sprawia, że ludzie czują się ważni, gdy ktoś dostrzega ich posty i komentuje je. Ta nagroda w postaci uwagi i zainteresowania sprawia, że często automatycznie udostępniają tego typu treści, niekoniecznie zastanawiając się nad ich wiarygodnością. To jest swoiste wzmocnienie behawioralne - nawyk. Dlatego, ostatecznie, odpowiedzialność za ten problem leży również po stronie platform społecznościowych, które stworzyły środowisko sprzyjające promocji fałszywych treści.

Kłamstwo, manipulacja istnieją chyba od zawsze. Jak dzisiaj różni się kłamstwo od fake newsa? Czy to jest to samo?

W moim przekonaniu różnica polega raczej na tym drugim członie tego zwrotu, czyli na newsowości. W fake newsie nie chodzi tylko o kłamstwo, ale też o to, że te treści są aktualne, medialne. To newsy, czyli nowinki, które budzą w nas emocje. Kluczowa jest też skala oddziaływania. Kłamanie werbalne dotrze do może kilkudziesięciu, kilkuset osób, a fake news do setek tysięcy. To są jednak zupełnie inne skale. Fake newsy różnią się też od plotki, bo plotka jako narzędzie kulturotwórcze, nawet jeśli miała negatywne konteksty, to miała też pozytywne walory: zbliżała ludzi, scalała wspólnotę. Natomiast fake newsy nie mają takich walorów. One są tworzone tylko i wyłącznie po to, żeby rozbijać wspólnotę, intensyfikować podziały, radykalizować użytkowników internetu, żeby wzmacniać naturalne niepokoje. Po to, aby ludzie pod wpływem dezinformacji podjęli nieprzemyślane działania.

Na przykład?

Mamy przykłady z początku wojny na Ukrainie. Pojawiły się lęki, które w łatwy sposób zostały nakręcone przez fake newsy i dezinformację. Niektórzy ludzie rzucili się do sklepów po cukier, wcześniej – na stacje paliw po paliwo, aby się zabezpieczyć. To jest zupełnie nowy wymiar skuteczności kłamstwa. Owszem, ono zawsze było, zgadzam się z taką intuicją, że jeśli chodzi o sposób kłamania, to ono aż tak bardzo się nie zmieniło. Ciągle najpopularniejsze techniki to na przykład fałszowanie kontekstu, podszywanie się pod osoby lub instytucje publiczne, albo manipulacje obrazem czy teorie spiskowe. To jest wciąż to samo, co było 100 lat temu, ale teraz jest to nieco bardziej skuteczne właśnie dlatego, że w tym cyfrowym środowisku, w którym obecnie żyjemy, kłamstwo jest trudne do zatrzymania. Jest go po prostu znacznie więcej i lepiej wpisuje się w nasze oczekiwania. Można powiedzieć, że ono ma wiele żyć. I to od nas zależy jak wiele. Dzięki algorytmom jednej grupie w pewnym momencie wyświetli się fake news i załóżmy nawet, że organizacje fact-checkingowe zdementują go. Ale dwa tygodnie później to kłamstwo może zostać skierowane do zupełnie nowej grupy, która już do tego sprostowania nie dotrze. I tak to funkcjonuje bez końca.

Może pani podać przykłady takich dezinformacji i fake newsów, które zostały wykorzystane w kampaniach wyborczych, aby wpłynąć na opinię publiczną? Jakie były skutki tych prób manipulacji? Na ile one są groźne?

Takimi najpopularniejszymi przykładami tego, jak dezinformacja mogła wpłynąć lub wzmocnić oddziaływanie – bo to nie zawsze jest jednoznaczne – jest oczywiście sprawa Cambridge Analytica oraz decyzja o Brexicie. Te wydarzenia pokazały, jak łatwo można było ukierunkować przekazy do konkretnych grup odbiorców, systematycznie dostarczając im nieprawdziwych informacji, co skutkowało radykalizacją i wzmacnianiem fałszywych przekonań. To miało też miejsce w trakcie wyborów w Stanach Zjednoczonych, a kulminacją był atak na Kapitol.

Atak na Kapitol miał miejsce już po wyborach.

To prawda, ale kampania dezinformacyjna nie kończy się na dniu głosowania. Toczy się w okresie kampanii wyborczej i opinia publiczna często myśli, że chodzi o wybór konkretnego z kandydatów. Tak bywa, ale to się dzieje rzadko. Celem dezinformacji wyborczej jest podburzanie społeczeństwa do buntu, do destabilizacji. O to chodziło w ataku na Kapitol. W rzeczywistości działania służb obcych państw i przekazy dezinformacyjne w kampanii wyborczej tworzą pewnego rodzaju środowisko preinformacyjne. Dezinformatorzy identyfikują grupy po różnych stronach politycznego spektrum, które są podatne na dezinformację. Następnie kierują do nich radykalne przekazy, które wzmocnią ich przekonania. Poglądy polityczne są tu wtórne, bo zawsze znajdzie się grupa rozczarowana wynikiem wyborów i wówczas to ona jest podburzana do działania. Albo weźmy inny przykład: środowiska ekologiczne i tych, którzy kwestionują zmiany klimatu. W kampanii wyborczej można poruszać te tematy, ale dla dezinformatorów nie ma znaczenia, która grupa ma rację. Ich celem jest produkcja jak największej liczby fake newsów na temat zmian klimatu, skierowanych do środowisk ekologicznych, aby wzmocnić ich obawy i lęki. Wyzwolić złość. Jednocześnie generowane są fałszywe treści sugerujące, że zmiany klimatu w ogóle nie istnieją, aby wzmocnić grupy, które to kwestionują. W efekcie obie grupy się radykalizują i zaczynają zwalczać się wzajemnie w oparciu o skrajnie różne przekonania. To prowadzi do podziałów i agresywnych konfliktów w społeczeństwie. A takich osi polaryzacji jest znacznie więcej. Chciałabym, żeby to dobrze wybrzmiało: w dezinformacji nie chodzi tylko o to, żeby kłamać. Chodzi o polaryzowanie, o radykalizowanie, o wywołanie pożądanego przez destabilizatora działania, konfliktu.

Czy Pani zauważa, że w kampanii wyborczej w Polsce są wykorzystywane przypadki dezinformacji i deepfake'ów?

Deepfake'i nie są obecnie wykorzystywane na poważnym poziomie. Oczywiście, istnieją pewne przypadki związane z konkretnymi politykami, którzy sami się do nich przyznali. To jednak znacząco obniża rangę tego procederu i jest raczej nieistotne.
Jeśli natomiast chodzi o rozpowszechnianie fałszywych treści w kampanii wyborczej, to można zdecydowanie stwierdzić, że skupia się ona na podważaniu zaufania do instytucji państwa, włącznie z główną narracją, że wybory mogą być sfałszowane. Jest to zresztą klasyka rosyjskich operacji wpływu. Narracja ta często jest wykorzystywana na poziomie politycznym. Jednak moim zdaniem głównym celem jest utrzymanie społeczeństwa w stanie niepokoju i nieufności wobec własnych instytucji demokratycznych. To ma długoterminowy wymiar, ponieważ im bardziej Polacy czują się zagrożeni we własnym kraju oraz w procesie demokratycznym, tym większa jest szansa, że można będzie próbować wpłynąć na ten proces z zewnątrz. Narracja dotycząca fałszywych wyborów ma na celu wywołanie destabilizacji, analogicznej do ataku na Kapitol. Utrzymywanie części społeczeństwa w stanie rozczarowania i złości względem własnego państwa jest korzystne z punktu widzenia obcych służb, gdyż pozwala to na długotrwałe wpływanie na sytuację w kraju.

Wrócę do tego, o czym pani wspomniała wcześniej, czyli o legislacji i regulacjach prawnych. Czy istnieją konkretne propozycje mające na celu kontrolowanie oraz karanie za tworzenie i rozpowszechnianie dezinformacji w kontekście politycznym? Jakie wyzwania się wiążą z wprowadzeniem takich regulacji?

W Unii Europejskiej przyjęto dokument Digital Services Act, który zobowiązuje państwa członkowskie do identyfikowania problemu dezinformacji i do próby ustanowienia odpowiedniej legislacji. W tej dyskusji legislacyjnej wszystko rozbija się o definicję. Nadal nie jest jasne, jak dezinformacja jest rozumiana prawnie. Wprowadzenie regulacji w tym kontekście jest wyzwaniem, gdyż musimy znaleźć balans między wolnością słowa i fałszywą opinią a identyfikacją treści dezinformacyjnych i szkodliwych, produkowanych celowo. To wyzwanie dla specjalistów, ekspertów i prawników. Ważne, że zaczynamy na poziomie unijnym dostrzegać odpowiedzialność mediów społecznościowych w tym zakresie. To one decydują o tym, co jest z ich platform usuwane, co jest zgodne z ich regulaminami itp. Nie można zapominać, że to platformy społecznościowe odgrywają istotną rolę w tym, czy regulacje będą skuteczne. Dlatego praca na szczeblu europejskim, a nawet NATO-wskim, jest tak istotna, bo chodzi o to, aby wymusić na platformach społecznościowych wprowadzenie odpowiednich regulacji, zgodnych z wiedzą naukowców, ekspertów i prawników. Regulacje prawne są też niezbędne z punktu widzenia użytkownika. Inaczej nie da się ochronić opinii publicznej przed szkodliwym wpływem celowej dezinformacji na procesy demokratyczne.

Anita Czupryn

Polska Press Sp. z o.o. informuje, że wszystkie treści ukazujące się w serwisie podlegają ochronie. Dowiedz się więcej.

Jesteś zainteresowany kupnem treści? Dowiedz się więcej.

© 2000 - 2024 Polska Press Sp. z o.o.