• Ostatnia modyfikacja artykułu:1 rok temu

Sztuczna inteligencja wzięła internet szturmem. Po początkowej fazie zachwytów przyszło jednak otrzeźwienie – chatboty wciąż są niezbyt precyzyjne.

Ciężko znaleźć już osobę z dostępem do internetu, która przynajmniej raz nie usłyszała terminu „ChatGPT”. Nic zresztą dziwnego – to prawdziwy fenomen. Sztuczna inteligencja potrafi odpowiadać na nasze pytania, pisać wiersze, krótkie teksty lub nawet kod komputerowy. Problem w tym, że chatboty wciąż popełniają karygodne błędy.

Najprościej będzie wskazać tutaj przypadek Google. Prezentowali oni swoją sztuczną inteligencję o nazwie Bing przed szerszą publicznością. Prowadzący zapytał AI o to, co mógłby powiedzieć swojemu dziecku o Teleskopie Jamesa Webba aby zainteresować go kosmosem. Bard wskazał kilka interesujących ciekawostek, a następie… po prostu skłamał w kwestii kolejnej. Akcje Google poleciały na łeb i na szyję a wycena firmy spadła o 120 miliardów (!) dolarów.

Co sprawia jednak, że chatboty potrafią kłamać? Chociaż może wydawać się to niesamowicie absurdalne, to prawidłowym terminem nie jest tutaj kłamanie. Są nimi halucynacje! Tak jest – sztuczna inteligencja ma po prostu halucynacje. Zasada działania tego zjawiska jest prosta – AI nie znając odpowiedzi na dane pytanie będzie próbowało ją zmyślić. Dokładnie tak jak uczeń odpytywany przed tablicą. Sztuczna inteligencja będzie starała się podać najbliższą semantycznie odpowiedź. Problem w tym, że jej rozumowanie jest znacznie inne niż nasze. Coś niesamowicie podobnego dla AI może być zupełnie innym terminem dla człowieka.

Czy warto więc ślepo ufać chatbotom? Zdecydowanie nie! Sztuczna inteligencja nie ma też prawa wyeliminować tak wielu zawodów w najbliższej przyszłości jak sądzą niektórzy krytycy. Ryzyko popełnienia poważnego błędu jest wciąż olbrzymie.

Zobacz też:
ChatGPT zdał egzamin lekarski i przedmiot na studiach MBA
Midjourney – twórcy AI zostali pozwani przez artystów
Bard – AI od Google popełniło błąd podczas prezentacji

Oceń ten post