Istnieje wiele treści, które są uważane za zbyt brutalne, seksualne, obraźliwe lub w inny sposób, aby można je było oglądać w mediach społecznościowych. TikTok, Instagram, Facebook, Twitter/X, wszystkie moderują swoje treści w różnym stopniu, ale jeśli myślałeś, że za tym wszystkim stoi jakiś duży komputer, możesz pomyśleć jeszcze raz.
Prawdziwi ludzie przeglądają treści przesyłane na te strony, upewniając się, że chociaż możemy nigdy nie zobaczyć makabrycznych widoków, są na nie narażeni stale, codziennie. BBC rozmawiało z moderatorem Mojezem z Nairobi o tym, jakie żniwo może to mieć na życiu moderatora.
"Jeśli weźmiesz telefon, a następnie przejdziesz do TikToka, zobaczysz wiele zajęć, tańca, wiesz, szczęśliwych rzeczy" – powiedział. "Ale w tle, ja osobiście moderowałem, w setkach, przerażające i traumatyczne filmy. Wziąłem to na siebie. Niech moje zdrowie psychiczne przyjmie cios, aby zwykli użytkownicy mogli kontynuować swoje działania na platformie".
Chociaż na całym świecie są moderatorzy, duża część z nich ma siedzibę w Afryce Wschodniej, a wielu moderatorów twierdzi, że praca zniszczyła ich zdrowie psychiczne. Niektórzy całkowicie opuścili branżę, podczas gdy inni zjednoczyli się, aby utworzyć związek.
Modele sztucznej inteligencji są w trakcie prac, aby to moderować, ale muszą zostać przeszkolone przez ludzi, którzy w związku z tym nadal będą musieli oglądać makabryczne i obraźliwe treści. Dopóki jedno z takich narzędzi nie będzie w stanie doskonale moderować przestrzeni online, na pierwszej linii frontu będą ludzie.