• Ostatnia modyfikacja artykułu:6 godzin temu

Sposób, w jaki zwracamy się do ChatGPT, może mieć wpływ na jakość odpowiedzi. Tylko uprzejmość absolutnie nie popłaca.

Badacze z Pennsylvania State University zwrócili uwagę na nietypowe zjawisko. W eksperymencie wykorzystano model GPT-4o, któremu zadano 50 pytań testowych w formie wielokrotnego wyboru. Każde z nich opakowano w około 250 różnych promptów, różniących się stylem i poziomem uprzejmości. Analiza pokazała, że polecenia o wyraźnie niegrzecznym charakterze osiągały skuteczność na poziomie 84,8%. Dla porównania, pytania sformułowane w uprzejmy i oficjalny sposób dawały wyniki o około 4% słabsze.

Niemniej, badanie to raczej ciekawostka. Być może coś jest na rzeczy, ale tak mała próba przy jedynie 4-procentowej różnicy wyników to niezbyt solidne podstawy do formułowania tezy.

Autorzy badania podchodzą jednak do tych rezultatów z ostrożnością. Zwracają uwagę, że promowanie obraźliwego języka w rozmowach z AI może sprzyjać utrwalaniu niekulturalnych wzorców komunikacji i pogarszać ogólne doświadczenie użytkowników. Dodatkowo sami podkreślają ograniczenia swojej pracy – niewielką skalę testów oraz fakt, że analizie poddano tylko jeden model sztucznej inteligencji.

Wyniki badania wpisują się też w szerszą debatę na temat tzw. prompt engineeringu. Microsoft od dawna podkreśla, że problemy z jakością odpowiedzi AI często wynikają nie z ograniczeń modeli, lecz z nieprecyzyjnie formułowanych zapytań.

Niemniej różnica to tylko 4%. Nie wiem jak Wy, ale ja nie zaryzykuję za cztery procent dokładności pierwszego miejsca w kolejce do eksterminacji w przypadku buntu maszyn. Z moim ChatGPT rozmawiam bardzo miło i kulturalnie, po co ryzykować.

Zobacz też:
ChatGPT otrzyma nową funkcję (reklamy).
OpenAI i Bill Gates wprowadzą AI do afrykańskich szpitali.
Sztuczna inteligencja to gamechanger dla osób z ADHD.

Oceń ten post