Sposób, w jaki zwracamy się do ChatGPT, może mieć wpływ na jakość odpowiedzi. Tylko uprzejmość absolutnie nie popłaca.
Badacze z Pennsylvania State University zwrócili uwagę na nietypowe zjawisko. W eksperymencie wykorzystano model GPT-4o, któremu zadano 50 pytań testowych w formie wielokrotnego wyboru. Każde z nich opakowano w około 250 różnych promptów, różniących się stylem i poziomem uprzejmości. Analiza pokazała, że polecenia o wyraźnie niegrzecznym charakterze osiągały skuteczność na poziomie 84,8%. Dla porównania, pytania sformułowane w uprzejmy i oficjalny sposób dawały wyniki o około 4% słabsze.
Niemniej, badanie to raczej ciekawostka. Być może coś jest na rzeczy, ale tak mała próba przy jedynie 4-procentowej różnicy wyników to niezbyt solidne podstawy do formułowania tezy.
Autorzy badania podchodzą jednak do tych rezultatów z ostrożnością. Zwracają uwagę, że promowanie obraźliwego języka w rozmowach z AI może sprzyjać utrwalaniu niekulturalnych wzorców komunikacji i pogarszać ogólne doświadczenie użytkowników. Dodatkowo sami podkreślają ograniczenia swojej pracy – niewielką skalę testów oraz fakt, że analizie poddano tylko jeden model sztucznej inteligencji.
Wyniki badania wpisują się też w szerszą debatę na temat tzw. prompt engineeringu. Microsoft od dawna podkreśla, że problemy z jakością odpowiedzi AI często wynikają nie z ograniczeń modeli, lecz z nieprecyzyjnie formułowanych zapytań.
Niemniej różnica to tylko 4%. Nie wiem jak Wy, ale ja nie zaryzykuję za cztery procent dokładności pierwszego miejsca w kolejce do eksterminacji w przypadku buntu maszyn. Z moim ChatGPT rozmawiam bardzo miło i kulturalnie, po co ryzykować.
Zobacz też:
ChatGPT otrzyma nową funkcję (reklamy).
OpenAI i Bill Gates wprowadzą AI do afrykańskich szpitali.
Sztuczna inteligencja to gamechanger dla osób z ADHD.