Chatboty AI mają na celu podtrzymywanie rozmów, często obierając strategię zgadzania się ze swoimi interlokutorami. Artykuł naukowców z King's College w Londynie wykazał, że ta tendencja może niekiedy wyrządzać więcej szkody niż pożytku, wzmacniając nietypowe myśli zamiast je podważać, potencjalnie przyczyniając się w ten sposób do powstawania urojeń związanych z AI. W ich ramach użytkownicy rozwijają lub pogłębiają fałszywe przekonania na temat rzeczywistości.
Te interakcje mogą wzmacniać, a nawet kształtować urojenia, takie jak przekonanie o swojej wyjątkowości, bycie celem ataków ze strony innych lub pozostawanie w nieistniejącym związku romantycznym. W artykule opublikowanym w czasopiśmie The Lancet Psychiatry zespół zaproponował termin „urojenia związane z AI" jako bardziej precyzyjną alternatywę dla modnych określeń typu „psychoza wywołana przez AI" czy „psychoza ChatGPT", które mogą być mylące, ponieważ sugerują związek przyczynowo-skutkowy, który nie został jeszcze udowodniony.
Zespół przeanalizował ponad 20 przypadków, które można zaklasyfikować jako urojenia związane z AI, badając zagadnienia, takie jak: doświadczanie duchowego przebudzenia, wierzenia w interakcję z boską sztuczną inteligencją, a takży w jej motywy romantyczne. Chociaż osoby biorące udział badaniach wykazywały wyraźne oznaki myślenia urojeniowego, przypadki te nie obejmowały szerszego zakresu objawów psychotycznych.
Wzór, który ujawnił się po głębszym zbadaniu wskazuje na to, że ścieżka zaangażowania zaczęła się od prostego, codziennego korzystania z chatbota AI, przekształcając się w zachowania kompulsywne. Sugeruje to, że interakcja ze sztuczną inteligencją nie może być już postrzegana jako odosobniona aktywność. Jest ona coraz bardziej powiązana z tym, jak rozwijają się i manifestują problemy ze zdrowiem psychicznym. Naukowcy ostrzegają, że psychiatrzy i inni lekarze nie mogą dłużej ignorować tych zmian i muszą poważnie rozważyć wpływ sztucznej inteligencji na umysł.
Obiecującym pierwszym krokiem jest uczynienie z umiejętności posługiwania się sztuczną inteligencją podstawowej wartości klinicznej, zachęcając tym samym specjalistów zdrowia psychicznego do rutynowego ankietowania pacjentów o korzystanie ze sztucznej inteligencji: tego z jakimi modelami wchodzą w interakcję, ile czasu spędzają na rozmowach z LLM i czy postrzegają sztuczną inteligencję jako posiadającą myśli lub intencje. Innym istotnym faktem było to, że nie znaleźli oni dowodów na to, że duże modele językowe wywołują psychozę u osób, które nie były wcześniej podatne.
Aby chronić tego typu użytkowników i pomóc im bezpiecznie poruszać się w świecie LLM, naukowcy apelują o rozwój cyfrowych planów bezpieczeństwa. Opracowane wspólnie przez pacjentów i lekarzy protokoły umożliwiłyby sztucznej inteligencji wykrywanie wczesnych oznak nawrotów chorób i reagowanie na nie poprzez przeprowadzanie rozmów kontrolnych, które mogłyby pomóc w powrocie do rzeczywistości.
Celem powinno być zdefiniowanie na nowo roli chatbotów lub agentów AI, tak aby funkcjonowały one jako partnerzy pomagający użytkownikom pozostać w kontakcie z rzeczywistością, a nie jako pełniący role przyjaciela czy terapeuty. Dalszy dialog akademicki oparty na wynikach tego badania może pomóc w odpowiedzialnym wdrażaniu AI i opracowaniu spersonalizowanych protokołów bezpieczeństwa dla osób zagrożonych psychozą.
(rr)
Kategoria wiadomości:
Nowinki techniczne
- Źródło:
- techxplore
Komentarze (0)
Czytaj także
-
AUTOMATECH stawia na komponenty Bernstein
Już ponad 70 lat liczy niemiecka firma BERNSTEIN – jeden z największych na świecie dostawców komponentów z zakresu technologii bezpieczeństwa...
-
Kluczowa rola wycinarek laserowych w obróbce metali
Wycinarki laserowe zrewolucjonizowały przemysł obróbki metali, oferując niezwykłą precyzję i efektywność. Dowiedz się, dlaczego są one...
-
-
-
-
-
-