
Na TikToku coraz częściej pojawiają się filmy polityczne wygenerowane przez sztuczną inteligencję, które podszywają się pod „zwykłych Polaków” i promują skrajne narracje, w tym wezwania do Polexitu. Syntetyczne twarze, fikcyjne argumenty i fałszywe komentarze tworzą iluzję masowego poparcia, szczególnie skuteczną wobec młodych odbiorców, obnażając słabość systemów moderacji i skalę zagrożeń, jakie AI niesie dla debaty publicznej i bezpieczeństwa informacyjnego w Polsce.
W ostatnich tygodniach polskie media społecznościowe, w szczególności TikTok, zanotowały nagły wzrost filmów politycznych charakteryzujących się silnym nacechowaniem narracyjnym i kontrowersyjnym przesłaniem, w tym wzywających do Polexitu – czyli wyjścia Polski z Unii Europejskiej. Według analiz Europejskiego Kolektywu Analitycznego Res Futura, fala fałszywych filmów wygenerowanych przez sztuczną inteligencję dokumentnie narastała na TikToku, docierając szczególnie do użytkowników w wieku od piętnastu do dwudziestu pięciu lat. Te krótkie wideo-forma często wygląda na wiarygodne, mimo że przekaz i twórcy są syntetyczni lub w pełni generowani przez narzędzia AI. Res Futura podkreśla, że takie materiały mają wysoki poziom zaangażowania w postaci wyświetleń i polubień, co jest wynikiem projektowania ich „szytych pod algorytm” tak, by platforma promowała je szerzej niż inne treści.
Problem, z jakim mierzy się TikTok i jego użytkownicy, jest znacznie szerszy niż tylko pojedyncze wideo promujące konkretną ideę polityczną. Niezależne analizy wykazały, że większość treści politycznych związanych z wyborami lub debatami publicznymi nie była odpowiednio oznaczona jako związana z wyborami, co utrudnia odbiorcom ocenę ich kontekstu i wiarygodności. Na przykład badanie AI Forensics dotarło do zbioru materiałów związanych z wyborami, z których około 80% nie posiadało wymaganych etykiet informacyjnych, w tym filmów zawierających twierdzenia o fałszerstwach wyborczych. To samo badanie wykryło też kilka filmów z obrazami generowanymi przez AI, które nie zostały oznaczone jako syntetyczne, mimo że polityczne konteksty tego wymagały.
Takie luki w moderacji zwiększają ryzyko, że odbiorcy uznają treści zmanipulowane za autentyczne.
Kolejnym problemem jest działanie algorytmów rekomendacji treści. Niezależne badania wskazują, że TikTok, podobnie jak inne platformy społecznościowe. preferencyjnie promuje kontrowersyjne treści polityczne, w tym te o charakterze radykalnym lub krytycznym wobec instytucji demokratycznych. W czasie polskich kampanii wyborczych algorytm TikToka wykazywał tendencję do silniejszego wyświetlania treści o charakterze skrajnie prawicowym niż treści centrowych lub umiarkowanych, co może prowadzić do kreowania zniekształconego obrazu rzeczywistości politycznej wśród użytkowników.
Takie zjawisko, choć opisane w kontekście algorytmów rekomendacji i politycznych treści na platformach społecznościowych, potęguje problem dezinformacji, w którym młodzi odbiorcy widzą głównie wąsko ukierunkowane narracje.
TikTok oficjalnie podkreśla, że podejmuje działania przeciw dezinformacji. Współpracuje z organizacjami fact-checkingowymi, takimi jak Demagog.org.pl, i rozwija narzędzia służące do wykrywania oraz oznaczania treści generowanych przez AI. Platforma twierdzi też, że wprowadza mechanizmy ograniczania rekomendacji szkodliwych treści oraz systemy transparentności i edukacji medialnej dla użytkowników. Jednak zgodnie z dostępnymi analizami faktycznymi, ze względu na skalę problemu i techniczne ograniczenia moderacji, wiele treści politycznych nie jest skutecznie oznaczanych lub moderowanych, co stwarza lukę w ochronie młodych widzów przed manipulacjami informacyjnymi.

