Byli i obecni pracownicy OpenAI i Google DeepMind wyrażają swoje obawy związane z AI. Opublikowali też list otwarty do firm.
List jest całkiem poważny. Sygnatariusze podkreślają, że nadzór nad rozwijaniem systemów AI jest praktycznie nieistniejący, a główne zagrożenia związane z tą technologią są ignorowane. Pracownicy OpenAI i Google DeepMind w liście wyrażają wiarę w ogromny potencjał AI do przynoszenia ludzkości korzyści, ale jednocześnie zwracają uwagę na zagrożenia takie jak pogłębianie nierówności społecznych i szerzenie dezinformacji. Zwracają też uwagę na to, że możemy kiedyś stracić kontrolę nad systemami.
W liście wyraźnie krytykowana jest również chciwość korporacji. Podpisani zwracają uwagę na nieskuteczną strukturę zarządzania w OpenAI i Google DeepMind, która nie zapewnia odpowiedniej kontroli nad zagrożeniami związanymi z systemami AI. Sygnatariusze twierdzą też, że olbrzymie gratyfikacje finansowe skłaniają firmy do ignorowania potencjalnych zagrożeń.
Sprawdź: Prompt engineering – co to jest?
List zawiera cztery główne żądania:
- Firmy nie powinny zawierać ani egzekwować umów zabraniających krytykowania AI.
- Powinien istnieć anonimowy system umożliwiający pracownikom zgłaszanie obaw dotyczących ryzyka do zarządu firmy, organów regulacyjnych oraz niezależnych organizacji.
- Organizacje powinny rozwijać kulturę otwartej krytyki.
- Pracodawcy nie powinni podejmować działań odwetowych wobec pracowników, którzy publicznie dzielą się poufnymi informacjami związanymi z ryzykiem, jeśli inne procedury zawiodą.
I prawdę mówiąc, nie są to jakieś wygórowane żądania. Wręcz całkiem normalne i zwróćmy uwagę, że w Europie w niektórych przypadkach uregulowane prawnie. Ale USA to pod tym względem dziki kraj.
Zobacz też:
OpenAI utrudnia pracę działu ds. bezpieczeństwa AI
Sztuczna inteligencja zmienia rynek IT na naszych oczach
Sztuczna inteligencja pomoże stworzyć piwo idealne