• Ostatnia modyfikacja artykułu:12 miesięcy temu

ChatGPT stał się bohaterem kolejnego skandalu. Tym razem, próbował okłamać sędziego podczas sprawy sądowej.

Sztuczna inteligencja coraz mocniej gości w naszych życiach. Dla wielu jest to olbrzymie ułatwienie, ale dla niektórych prawdziwa plaga. Nauczyciele narzekają, że uczniowie piszą wypracowania za pomocą ChatGPT, a Amazon zalewają już książki pisane w dość kiepskim stylu przez AI. Jak się okazuje, niektórzy prawnicy też wolą iść na łatwiznę.

Pewien mężczyzna postanowił pozwać linię lotniczą Avianca w związku z obrażeniami ciała, które rzekomo spowodowali. Więcej szczegółów jest niestety niewiadomą, ale nie o to chodzi w tej historii. Znacznie istotniejsze jest to, że zespół prawników postanowił wesprzeć się podobnymi sprawami z przeszłości i wykorzystać prawo precedensu. Wskazali więc około 8 spraw sądowych, które zakończyły się odszkodowaniem.

Sprawdź: Prompt engineering – co to jest?

Cały problem w tym, że prawnicy linii lotniczej, zgłosili sędziemu, że część z tych spraw to absolutne widma. Pomimo tego, że są dobrze udokumentowane, to nie ma ich w żadnym rejestrze, tak jakby nigdy nie istniały. Cóż, faktycznie nigdy nie istniały. Prawnicy wykorzystali ChatGPT, który zmyślił po prostu kilka spraw sądowych – powołali się więc na nieistniejące precedensy.

Prawnik wytłumaczył się w sądzie, że pierwszy raz korzystał z ChatGPT i nie wiedział po prostu, że może on kłamać. Na dowód zapytał go jeszcze raz czy podane przez niego informacje są aby na pewno prawdziwe, na co AI odpowiedziało „Tak”. Jak zakończyła się sprawa? Tego niestety nie wiemy, ale możemy się domyślać.

Zobacz też:
Meta prezentuje ImageBind – niesamowitą sztuczną inteligencję
ChatGPT kosztuje tysiące dolarów dziennie. Kwota szokuje!
IBM zastąpi 8 tysięcy pracowników sztuczną inteligencją

Oceń ten post