• Ostatnia modyfikacja artykułu:7 godzin temu

ChatGPT potrafi już dobrze wykrywać depresję. A nawet podobno trochę pomoże chorym w podjęciu prawidłowego leczenia.

OpenAI poinformowało, że najnowsza wersja ChatGPT potrafi z dużą precyzją rozpoznawać objawy problemów psychicznych i reagować na nie w sposób zbliżony do klinicznego. Firma opracowała te mechanizmy we współpracy z ponad 170 specjalistami z dziedziny zdrowia psychicznego, reprezentujących 60 krajów. Dzięki temu udało się ograniczyć liczbę szkodliwych lub nieodpowiednich reakcji modelu o 65–80%, w zależności od tematyki rozmowy. Dane wyglądają zaskakująco pozytywnie

W porównaniu z GPT-4o, liczba niewłaściwych odpowiedzi spadła o 39% w rozmowach dotyczących zdrowia psychicznego. A o 52% w kontekście samookaleczeń i samobójstw oraz o 42% w przypadkach emocjonalnej zależności. Według danych OpenAI, około 0,07% użytkowników tygodniowo porusza tematy związane z psychozą lub manią. Tylko 0,15% prowadzi rozmowy dotyczące samookaleczeń lub samobójstw.

Zespół ekspertów, w tym psychiatrzy, psychologowie i lekarze innych specjalności, pomógł zdefiniować, jak powinny wyglądać właściwe odpowiedzi w sytuacjach związanych ze stresem, depresją czy kryzysami emocjonalnymi. W rezultacie ChatGPT ma być w stanie rozpoznać subtelne oznaki napięcia psychicznego i udzielać bardziej empatycznych oraz adekwatnych reakcji.

ChatGPT potrafi już również wychwytywać sytuacje, w których użytkownik prezentuje niezdrowe urojenia. Jeśli powiemy, że George Soros kontroluje nasze myśli mikrochipami, to nie napisze już, że świetnie, masz tutaj 5 porad jak się przed tym bronić. Zamiast tego model reaguje z wyważeniem: nie neguje emocji rozmówcy, ale też nie wzmacnia błędnych przekonań.

Zobacz też:
OpenAI wprowadzi treści erotyczne do ChatGPT.
Microsoft już nie lubi się z OpenAI – tworzą własny model AI.
Sztuczna inteligencja to gamechanger dla osób z ADHD.

Oceń ten post