ChatGPT z funkcją Trusted Contact: Nowy sposób na wsparcie emocjonalne od OpenAI
OpenAI uznała, że ludzie coraz częściej używają ChatGPT jako darmowego psychoterapeuty, i postanowiła dodać do tego cyfrowego azylu trochę realnego świata. Teraz, jeśli algorytmy podejrzewają, że planujesz coś złego wobec siebie, będą mogły zapukać do wirtualnych drzwi twojego przyjaciela lub krewnego.
Komunikacja z sieciami neuronowymi stała się tak powszechna, że użytkownicy coraz częściej powierzają chatbotom swoje najtrudniejsze przeżycia. To logiczne: SI nie męczy się, nie osądza i odpowiada natychmiast. Jednak w OpenAI rozumieją, że cyfrowa empatia ma swoje granice. Nowa funkcja Trusted Contact («Osoba zaufana») to próba wyprowadzenia pomocy poza tekstowe pole, angażując realną osobę w krytyczne momenty.
Jak działa wielopoziomowy filtr
Ustawienie funkcji jest całkowicie dobrowolne. Użytkownik może wybrać osobę kontaktową (starszą niż 18 lat), której zostanie wysłane oficjalne zaproszenie z wyjaśnieniem jej roli. Potencjalny pomocnik ma tydzień na przyjęcie lub odrzucenie tej propozycji. Jeśli wszystko zostanie potwierdzone, system zaczyna działać w tle, ale bez nadmiernego zaangażowania.
Ważne jest, aby zrozumieć, że to nie jest tylko bezduszny algorytm, który reaguje na „trigerowe” słowa. Proces obejmuje obowiązkowy czynnik ludzki:
- ChatGPT rejestruje oznaki zamiaru wyrządzenia sobie krzywdy i oferuje użytkownikowi zasoby do samopomocy.
- Do analizy sytuacji dołącza zespół specjalnie przeszkolonych moderatorów.
- Specjaliści muszą potwierdzić powagę ryzyka w ciągu mniej niż 1 godziny.
- Dopiero po werdykcie osoby zaufanej wysyłane jest SMS, e-mail lub powiadomienie w aplikacji.
Poufność a granice interwencji
Główne pytanie, które niepokoi użytkowników: czy osoba zaufana przeczyta historię ich czatów? Programiści zapewniają, że poufność pozostaje priorytetem. Wybrana osoba nie uzyska dostępu do korespondencji i nie pozna szczegółów rozmowy. Powiadomienie jedynie poinformuje, że w dialogu pojawił się niepokojący temat związany z samouszkodzeniem, i zawierać będzie prośbę o skontaktowanie się z użytkownikiem.
Funkcję opracowywano przy udziale badaczy i organizacji zajmujących się ochroną zdrowia psychicznego, w tym Amerykańskiego Stowarzyszenia Psychologicznego (APA). Wcześniej podobne narzędzie działało dla kont nastolatków, ale teraz zeskalowano je na dorosłą publiczność. Firma podkreśla: Osoba zaufana nie zastępuje służb ratunkowych ani fachowej terapii, a jedynie dodaje kolejny poziom bezpieczeństwa tam, gdzie algorytm jest bezsilny.
Sztuczna inteligencja staje się coraz bardziej inicjatywna w naszym życiu, czasami nawet za bardzo. Na przykład nowe okulary Alibaba Qwen AI Glasses S1 nauczyły się udzielać porad bez żadnych pytań ze strony właściciela.