OpenAI ogłasza funkcję zaufanego kontaktu i ulepszone wykrywanie sygnałów zagrożenia w związku z konsolidacją pozwów dotyczących zdrowia psychicznego w sądzie w Kalifornii. Oczekiwane są nowe sprawy. (Czytaj więcejOpenAI ogłasza funkcję zaufanego kontaktu i ulepszone wykrywanie sygnałów zagrożenia w związku z konsolidacją pozwów dotyczących zdrowia psychicznego w sądzie w Kalifornii. Oczekiwane są nowe sprawy. (Czytaj więcej

OpenAI rozszerza zabezpieczenia zdrowia psychicznego w związku ze skonsolidowanymi pozwami sądowymi w Kalifornii

2026/03/04 07:02
3 min. lektury
W przypadku uwag lub wątpliwości dotyczących niniejszej treści skontaktuj się z nami pod adresem [email protected]

OpenAI rozszerza zabezpieczenia zdrowia psychicznego w obliczu skonsolidowanych pozwów w Kalifornii

Felix Pinkston 03 mar 2026 23:02

OpenAI ogłasza funkcję zaufanego kontaktu i ulepszone wykrywanie stresu, podczas gdy pozwy dotyczące zdrowia psychicznego konsolidują się w sądzie w Kalifornii. Oczekiwane są nowe sprawy.

OpenAI rozszerza zabezpieczenia zdrowia psychicznego w obliczu skonsolidowanych pozwów w Kalifornii

OpenAI wprowadza nowe funkcje bezpieczeństwa zdrowia psychicznego dla ChatGPT, jednocześnie przygotowując się na rozszerzoną falę postępowań sądowych, ponieważ wiele pozwów zarzucających chatbotowi przyczynienie się do szkód użytkowników zostało skonsolidowanych w jedno postępowanie w Kalifornii.

Firma ogłosiła 3 marca 2026 roku, że wkrótce uruchomi funkcję "zaufanego kontaktu", umożliwiającą dorosłym użytkownikom wyznaczenie osoby, która otrzymuje powiadomienia, gdy mogą potrzebować dodatkowego wsparcia. Funkcja opiera się na kontroli rodzicielskiej wprowadzonej we wrześniu 2025 roku, która według OpenAI cieszy się "zachęcającym zaangażowaniem rodzin".

Narastająca presja prawna

Timing nie jest przypadkowy. Sąd w Kalifornii niedawno skonsolidował wiele spraw związanych ze zdrowiem psychicznym przeciwko OpenAI, a sędzia koordynujący ma zostać wyznaczony w najbliższych dniach. Co bardziej niepokojące dla firmy: prawnicy powodów poinformowali sąd, że zamierzają złożyć dodatkowe pozwy.

OpenAI przyjęło wyraźnie wyważony ton w odniesieniu do postępowania sądowego, stwierdzając, że będzie zajmować się sprawami "z troską, przejrzystością, szacunkiem dla zaangażowanych osób" i uznało, że sytuacje dotyczą "prawdziwych ludzi i prawdziwych życiorysów". Firma wezwała obserwatorów do "wstrzymania się z oceną", w miarę jak fakty ujawnią się w procedurach sądowych.

Ulepszenia techniczne

Poza funkcją zaufanego kontaktu, OpenAI twierdzi, że rozwija sposób, w jaki jego modele wykrywają cierpienie emocjonalne poprzez nowe metody oceny, które symulują przedłużone rozmowy o zdrowiu psychicznym. Ta praca angażuje Radę ds. Dobrostanu i AI oraz Globalną Sieć Lekarzy firmy.

Te aktualizacje następują po znaczących ulepszeniach bezpieczeństwa modelu w ciągu ostatniego roku. Kiedy GPT-5 został uruchomiony pod koniec 2025 roku, OpenAI poinformowało, że znacznie zmniejszyło niepożądane odpowiedzi w scenariuszach zdrowia psychicznego w porównaniu z GPT-4o. Firma wdrożyła również limity czasu sesji i "delikatne przypomnienia" zachęcające użytkowników do robienia przerw podczas przedłużających się interakcji.

OpenAI zaktualizowało swoje zasady użytkowania, aby wyraźnie zakazać używania swoich modeli do diagnozowania schorzeń medycznych lub zapewniania konkretnego leczenia zdrowia psychicznego, pozycjonując ChatGPT jako narzędzie wspierające, a nie profesjonalny zamiennik.

Skala wyzwania

Przy ponad 900 milionach tygodniowych użytkowników ChatGPT, stawka jest znaczna. Badanie Uniwersytetu Stanforda i inne badania podsyciły obawy dotyczące potencjalnego przyczyniania się chatbotów AI do szkód psychologicznych, w tym zarzuty w toczących się procesach, że ChatGPT przyczynił się do psychozy, paranoi i samobójstw użytkowników.

Firma zobowiązała się również do 2 milionów dolarów w grantach na zewnętrzne badania dotyczące tematów zdrowia psychicznego osadzonych kulturowo oraz ulepszonych metod oceny — uznanie, że same wewnętrzne wysiłki mogą nie wystarczyć.

Sposób, w jaki rozwinie się skonsolidowane postępowanie kalifornijskie, prawdopodobnie ukształtuje oczekiwania regulacyjne dla całej branży AI. Wybór przez sąd głównego pełnomocnika powodów, oczekiwany wkrótce, zasygnalizuje, jak agresywnie te sprawy będą przebiegać.

Źródło obrazu: Shutterstock
  • openai
  • chatgpt
  • bezpieczeństwo AI
  • zdrowie psychiczne
  • postępowanie sądowe
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z [email protected] w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.