USA ogranicza stosowanie AI w zdrowiu psychicznym
- Publikacja:
 - 2025-11-03 18:09
 
- Aktualizacja:
 - 2025-11-03 18:10
 
Już trzeci amerykański stan USA, Illinois, uchwalił ustawę zakazującą terapeutom korzystania z chatbotów opartych na AI do wsparcia leczenia chorób psychicznych. Powodem jest „rosnące uzależnienie ludzi od maszyn”.

AI może błędnie zinterpretować stan pacjenta
Ustawa Therapy Resources Oversight zabrania licencjonowanym lekarzom zdrowia psychicznego wykorzystywania sztucznej inteligencji do podejmowania decyzji dotyczących leczenia lub komunikacji z pacjentami. Nowe prawo wprowadza też zakaz rekomendowania przez firmy narzędzi terapeutycznych opartych na chatbotach jako alternatywy dla tradycyjnej terapii. Za naruszenie przepisów grożą kary nawet do 10 000 USD.
Podobne przepisy wprowadziły w połowie roku Utah i Nevada – stany rządzone przez Partię Republikańską. Według niektórych ekspertów, na których powołują się ustawodawcy, nieuregulowane prawnie chatboty mogą moderować rozmowę w dowolny sposób, czasami skłaniając ludzi do ujawnienia poufnych informacji lub sugerując chorym znajdującym się w trudnej sytuacji do podjęcia drastycznych kroków, włącznie z samobójstwem.
Badanie Uniwersytetu Stanforda opublikowane w czerwcu br. sugeruje, że wiele chatbotów, które są zaprogramowane do pomocy, nie rozumie kontekstu i może wprowadzać w błąd. – Chatboty udzielają takich samych odpowiedzi niezależnie od okoliczności, tymczasem ludzie-terapeuci zapewniają bardziej kompleksowe wsparcie pacjentom – twierdzi Vaile Wright, starsza dyrektor ds. innowacji w opiece zdrowotnej w Amerykańskim Towarzystwie Psychologicznym. Według niej, terapeuci potrafią zinterpretować toksyczne myśli, uczucia lub zachowania i pomóc pacjentowi zmierzyć się z nimi.
Zagrożeni zwłaszcza młodzi ludzie
W praktyce, zakaz jest egzekwowalny tylko częściowo, bo chatboty AI zdrowia psychicznego można bez problemu znaleźć w internecie. Ich rolę mogą też pełnić narzędzia AI ogólnego zastosowania jak ChatGPT. Wielu pacjentów już z nich korzysta, szukając pomocy i porad, bojąc się stygmatyzacji albo nie mogąc dostać się do specjalisty.
Badania opublikowane na początku sierpnia sugerują, że wiele botów, takich jak ChatGPT, wywołuje „psychozę AI” u użytkowników, którzy nie mieli wcześniej żadnych epizodów chorób psychicznych – AI może doszukiwać się problemów, których dana osoba nie ma. Problem dotyczy zwłaszcza młodych ludzi, często traktujących czat z AI jako uzupełnienie kontaktów społecznych.
Przykładem jest platforma Character.Ai, gdzie użytkownicy mogą tworzyć i udostępniać chatboty oparte zazwyczaj na fikcyjnych postaciach. Ostatnio na stronie pojawiło się ostrzeżenie, że tego, co mówią boty, nie należy traktować jako fakt lub poradę. Stało się to po tym, jak nastolatek z Florydy zakochał się w swojej postaci AI z „Gry o tron” i odebrał sobie życie.
Autor
Artur Olesch - Dziennikarz, Redaktor Naczelny Czasopisma OSOZ Polska, od lat związany z KAMSOFT S.A., entuzjasta transformacji cyfrowej w ochronie zdrowia. Autor kilku tysięcy artykułów o tematyce e-zdrowia i innowacji w medycynie, w tym setek wywiadów z ekspertami branżowymi. Laureat nagrody Lider Roku w Ochronie Zdrowia w kategorii Media i PR.





