• Ostatnia modyfikacja artykułu:5 dni temu

Google automatycznie ocenzuruje nasze wiadomości. Ale tylko jeśli będą zawierały nagość, samej treści jeszcze nie będą czytać.

Wiadomości Google otrzymują nową funkcję, która może wywołać sporo dyskusji. Najnowsza aktualizacja pozwoli bowiem na automatyczne wykrywanie i rozmywanie filmów zawierających nagość. W praktyce oznacza to, że aplikacja sama zdecyduje, które materiały mogą zostać uznane za nieodpowiednie i zasugeruje ich usunięcie jeszcze przed odtworzeniem. Nowe narzędzie jest rozwinięciem funkcji Sensitive Content Warnings, wprowadzonej kilka miesięcy temu dla zdjęć. Dotąd ostrzegała ona użytkowników o potencjalnie nieodpowiednich obrazach, teraz jednak jej zasięg rozszerzono także na materiały wideo.

Mechanizm filtrujący działa lokalnie – oznacza to, że wszystkie analizy odbywają się bezpośrednio na urządzeniu, bez przesyłania danych do chmury Google. Aplikacja automatycznie przeskanuje przychodzące i wychodzące filmy, a jeśli rozpozna nagość, rozmyje obraz i wyświetli ostrzeżenie. Użytkownik będzie mógł wówczas zdecydować, czy chce materiał obejrzeć, czy od razu go usunąć.

Podobne rozwiązanie od kilku lat stosuje Apple w ramach funkcji Communication Safety w iMessage. Tam również zdjęcia i filmy z nagością są automatycznie rozmywane, a użytkownik otrzymuje dodatkowe komunikaty o bezpieczeństwie – zwłaszcza jeśli korzysta z konta dziecka. Różnica między podejściem obu firm jest jednak zauważalna. Apple skupia się przede wszystkim na ochronie nieletnich, podczas gdy Google chce oferować podobny poziom bezpieczeństwa również osobom dorosłym.

Krytycy wskazują, że nawet lokalne skanowanie treści może być postrzegane jako forma cenzury. Ale skoro wszystko odbywa się lokalnie i możemy i tak wyświetlić obrazy to trochę ciężko doszukiwać się tutaj Orwella.

Zobacz też:
Google ukarane rekordowo wysoką karą. Trump wściekły!
Meta zapowiada nowe okulary we współpracy z Ray-Banem.
Zdjęcia Google pomogą odróżnić AI od rzeczywistości.

Oceń ten post