Slack trenuje modele uczenia maszynowego na podstawie wiadomości użytkowników, plików i innych treści bez ich wyraźnej zgody. A nie wyrazić zgody nie jest łatwo.
Sztuczna inteligencja uczy się na podstawie rzeczy tworzonych przez ludzi. Są to książki, zdjęcia, obrazy, wiersze, kod komputerowy i wygląda na to, że również prywatne wiadomości z platformy Slack. Corey Quinn, dyrektor w DuckBill Group, zauważył niepokojącą rzecz w zasadach prywatności Slacka. Jak byk stoi tam:
„Aby rozwijać modele AI/ML, nasze systemy analizują dane klientów (np. wiadomości, treści i pliki) przesłane do Slacka, a także inne informacje (w tym dane o użytkowaniu) zgodnie z naszą polityką prywatności oraz umową z klientem.”
Sprawdź: Kamera IP – jak wybrać najlepszą?
Wychodzi na to, że Slack czyta nasze wiadomości, przegląda nasze pliki i na tej zasadzie uczy modele sztucznej inteligencji. Aby to zmienić, należy zrezygnować z tej opcji. Problem polega na tym, że użytkownik sam nie może tego zrobić – musi poprosić administratora Slacka w swojej organizacji (np. dział HR lub IT) o wysłanie maila do firmy z prośbą o wyłączenie tej opcji. Bardzo mało etyczna praktyka.
Slack opublikował w piątek wieczorem wpis na blogu, aby wyjaśnić, jak wykorzystywane są dane klientów. Według firmy dane klientów nie są wykorzystywane do szkolenia generatywnych produktów AI Slacka, a nie są sprzedawane chociażby do ChatGPT. Są też używane w modelach uczenia maszynowego do takich funkcji jak rekomendacje kanałów i emoji. Problem w tym, że to wierzenie na słowo – regulamin pozwala na pełną sprzedaż danych i byłoby to w pełni legalne.
Zobacz też:
Sztuczna inteligencja pomoże stworzyć piwo idealne
Mark Zuckerberg twierdzi, że rozwój AI znacząco spowolni
Praca online – najlepsze platformy. Slack, Yammer, Teams i inne