• Ostatnia modyfikacja artykułu:6 miesięcy temu

Byli i obecni pracownicy OpenAI i Google DeepMind wyrażają swoje obawy związane z AI. Opublikowali też list otwarty do firm.

List jest całkiem poważny. Sygnatariusze podkreślają, że nadzór nad rozwijaniem systemów AI jest praktycznie nieistniejący, a główne zagrożenia związane z tą technologią są ignorowane.  Pracownicy OpenAI i Google DeepMind w liście wyrażają wiarę w ogromny potencjał AI do przynoszenia ludzkości korzyści, ale jednocześnie zwracają uwagę na zagrożenia takie jak pogłębianie nierówności społecznych i szerzenie dezinformacji. Zwracają też uwagę na to, że możemy kiedyś stracić kontrolę nad systemami.

W liście wyraźnie krytykowana jest również chciwość korporacji. Podpisani zwracają uwagę na nieskuteczną strukturę zarządzania w OpenAI i Google DeepMind, która nie zapewnia odpowiedniej kontroli nad zagrożeniami związanymi z systemami AI. Sygnatariusze twierdzą też, że olbrzymie gratyfikacje  finansowe skłaniają firmy do ignorowania potencjalnych zagrożeń.

Sprawdź: Prompt engineering – co to jest?

List zawiera cztery główne żądania:

  • Firmy nie powinny zawierać ani egzekwować umów zabraniających krytykowania AI.
  • Powinien istnieć anonimowy system umożliwiający pracownikom zgłaszanie obaw dotyczących ryzyka do zarządu firmy, organów regulacyjnych oraz niezależnych organizacji.
  • Organizacje powinny rozwijać kulturę otwartej krytyki.
  • Pracodawcy nie powinni podejmować działań odwetowych wobec pracowników, którzy publicznie dzielą się poufnymi informacjami związanymi z ryzykiem, jeśli inne procedury zawiodą.

I prawdę mówiąc, nie są to jakieś wygórowane żądania. Wręcz całkiem normalne i zwróćmy uwagę, że w Europie w niektórych przypadkach uregulowane prawnie. Ale USA to pod tym względem dziki kraj.

Zobacz też:
OpenAI utrudnia pracę działu ds. bezpieczeństwa AI
Sztuczna inteligencja zmienia rynek IT na naszych oczach
Sztuczna inteligencja pomoże stworzyć piwo idealne

Oceń ten post