Facebook kolejny raz zmienia nieco swoje zasady w kwestii moderacji postów. Tym razem, lepiej poinformują użytkowników, co zrobili nie tak.
Moderator Facebooka to bardzo ciężka praca. Codziennie muszą oglądać setki, jeśli nawet nie tysiące szkodliwych i często brutalnych treści. Dokładnie z tego powodu, zdecydowana większość postów usuwana jest automatycznie, jeśli algorytmy wykryją odstępstwo od normy. Czynnik ludzki wymagany jest jedynie przy niezbyt oczywistych przypadkach.
Problem w tym, że algorytmy rzadko kiedy informują użytkowników, dlaczego zareagowały w taki sposób. Rada nadzorcza Facebooka zdecydowała, że trzeba to koniecznie zmienić. Już wkrótce, przy każdym usunięciu posta, użytkownik pozna dokładny powód i punkt regulaminu, który złamał.
Zobacz: Monitor gamingowy 4K – najlepsze modele
Facebook zmienia kolejne zasady za sugestią Rady Nadzorczej
To nie pierwsza rzecz, którą zmodyfikowała rada nadzorcza. Niecały miesiąc temu, uczuliła moderatorów na łagodniejsze traktowanie politycznej satyry i wyłapywanie szerszego kontekstu. Jeszcze wcześniej, Facebook musiał zmodyfikować algorytmy wykrywające treści pornograficzne – usuwały też w pełni dozwolone posty zawierające nagość, ale w celach edukacyjnych i zdrowotnych.
Kolejną ważną rzeczą jest również to, że użytkownicy będą już wiedzieć, czy to żywa osoba usunęła ich post, czy zrobił to algorytm. Facebook nie wie na tę chwilę jak wpłynie to sam odbiór takiej informacji – będą dopiero to testowali.
Bez wątpienia to, że Facebook będzie nas lepiej informował o tym, co zrobiliśmy źle to bardzo dobra zmiana. Być może dzięki temu, użytkownicy nie będą powtarzali tych samych błędów. W dodatku, decyzja ta dość mocno ograniczy wszystkie kontrowersje związane z moderowaniem serwisu. A nie oszukujmy się – jest ich naprawdę sporo.
Zobacz też:
Facebook traci czołowego pracownika – odchodzi do Instacart
Facebook zmienia swoje zasady… przez jednego mema!
Sztuczna inteligencja opracowała najlepsze teksty na podryw?