Liczba anglojęzycznych wpisów zawierających mowę nienawiści na X (dawniej Twitter) przez kilka miesięcy po zakupie platformy przez Elona Muska była o ok. 50 proc. wyższa niż przed transakcją – wskazują badania naukowców z Kalifornii. Znacznie wzrosła też średnia liczba polubień takich wpisów – o 70 proc. Naukowcy przyznają, że nie są w stanie określić związku przyczynowo-skutkowego, ale wskazują, że statystyki stoją w sprzeczności z deklarowanymi zmianami na platformie przez jej nowego prezesa.

– Mowa nienawiści to wypowiedzi wyrażające pogardę wobec innych osób ze względu na ich tożsamość, na przykład płciową lub rasową, albo na orientację seksualną. Natomiast nieautentyczna aktywność to konta przypominające działalność botów. Konta te często powiązane są ze szkodliwymi kampaniami dezinformacyjnymi albo wciąż publikują bardzo podobne treści do tego stopnia, że nie może być to przypadkowe i wygląda na skoordynowane działanie. Mogą to być odgórnie koordynowane ruchy, których celem jest zyskanie poparcia dla konkretnej sprawy. Nie jesteśmy w stanie jednoznacznie ustalić, czy są to konta zautomatyzowane, czy prowadzone w taki sposób przez ludzi – wyjaśnia w rozmowie z agencją Newseria Daniel Hickey, doktorant na Uniwersytecie Kalifornijskim w Berkeley w Stanach Zjednoczonych.
Elon Musk przejął Twittera (dziś X) w październiku 2022 roku. Naukowcy z uczelni kalifornijskich zbadali anglojęzyczne publikacje na tej platformie od początku 2022 roku do czerwca 2023 roku (stanowią one ok. 31 proc. wpisów). Chcieli sprawdzić, czy obiecywane i deklarowane przez nowego właściciela ukrócenie mowy nienawiści i aktywności botów znalazły odzwierciedlenie w rzeczywistości. Analiza opublikowana w magazynie „PLOS One” wskazała, że wzrost mowy nienawiści nastąpił tuż przed transakcją zakupu X przez Elona Muska i utrzymywał się co najmniej do maja 2023 roku. Średni wzrost wyniósł ok. 50 proc. tygodniowo.
– Jeśli porównamy to z wpisami zawierającymi powszechne angielskie słowa, to ich liczba także wzrosła, ale zaledwie o 8 proc., a więc wzrost w zakresie mowy nienawiści był znacznie większy niż wzrost ogólnej aktywności na platformie. Stwierdziliśmy też, że liczba polubień wpisów zawierających mowę nienawiści urosła o około 70 proc., z różnicami w zależności od różnych kategorii mowy nienawiści. Największy wzrost nastąpił w zakresie treści transfobicznych – o około 260 proc. – wskazuje Daniel Hickey.
Jak podkreślono w badaniu, wzrostu tego nie można przypisać konkretnym zmianom w polityce X. Naukowcy nie mieli też wystarczających informacji na temat wewnętrznej polityki dotyczącej moderacji treści, która mogła zostać wdrożona w późniejszym okresie. Te ograniczenia nie pozwalają więc stwierdzić związku przyczynowo-skutkowego. Ale mimo to można stwierdzić, że w ciągu kilku miesięcy zarządzania platformą przez Muska nie doszło do obiecywanej przez niego poprawy sytuacji.
– Nie możemy jednoznacznie stwierdzić, czy to algorytm wpłynął na zmianę, czy nie, ale jest to na pewno możliwe. Brakuje przejrzystości na temat faktycznych zmian wprowadzanych w algorytmie. Wyjątkowo trudno bada się skutki działania algorytmów i nie próbujemy tego robić w naszym badaniu. To, co udało nam się ustalić, to fakt, że liczba polubień wpisów zawierających mowę nienawiści wzrosła i że nie spada ona w podziale na pojedyncze wpisy. Nie mamy żadnych dowodów na to, że zasięgi wpisów z mową nienawiści są redukowane lub klasyfikowane jako mniej widoczne w oparciu o algorytm, ale sądzę, że należałoby przeprowadzić bardziej kompleksowe badania, aby lepiej zrozumieć ten aspekt – ocenia naukowiec. – Moim zdaniem konieczna byłaby dużo większa przejrzystość ze strony platformy w zakresie tego, w jaki sposób zmieniany jest stosowany algorytm.
Poza mową nienawiści naukowcy przyjrzeli się także aktywności botów i innych kont przypominających boty.
– Nie znaleźliśmy żadnych dowodów na taki spadek liczby takich kont. Nie możemy także definitywnie stwierdzić, że nastąpił wzrost, chociaż nasze wyniki sugerują, że bardziej prawdopodobny był wzrost niż spadek. Wiemy, że na pewno nie doszło do znaczącego spadku. Stoi to w sprzeczności z tezami formułowanymi przez Muska przed zakupem platformy, kiedy obiecywał, że pozbędzie się botów spamujących i tego rodzaju problemów. Tymczasem jak dotąd nic nie świadczy o tym, żeby tak się stało – mówi Daniel Hickey.
Jak przypomina ekspert, nieautentyczne konta na platformach takich jak X to większe ryzyko potencjalnych oszustw, kampanii dezinformacyjnych czy ingerencji w wybory. Długoterminowo takie zachowania prowadzą do pogłębiania się podziałów w społeczeństwie.
– Mowa nienawiści sprawia, że różne grupy społeczne nastawiają się przeciwko sobie. Również zorganizowana dezinformacja może się przyczyniać do większej polaryzacji społecznej. Żeby móc rozwiązać szereg problemów, z którymi zmaga się społeczeństwo, nie potrzebujemy podziałów, tylko współpracy. Chodzi o takie tematy jak zmiany klimatu, ubóstwo na świecie – chcemy, aby ludzie wspólnie pracowali nad ich rozwiązaniem, a jeśli nadal będziemy mieli spolaryzowane społeczeństwo, to nasze działania na dłuższą metę będą mniej produktywne. Ważne więc, aby monitorować zachowania, które prowadzą do podziałów, i opracowywać metody, które pozwolą nam to robić – podkreśla naukowiec z Uniwersytetu Kalifornijskiego w Berkeley.

Opublikował: Bart.