Aktualności / Wydarzenia

AI angażuje, ale niekoniecznie ratuje

Chatbot nie jest człowiekiem i człowieka nie zastąpi. Nie próbujmy zastępować relacji międzyludzkich relacją z czatem AI – przestrzega specjalista do spraw sztucznej inteligencji, prof. dr hab. Piotr Kulicki z Katedry Podstaw Informatyki Katolickiego Uniwersytetu Lubelskiego Jana Pawła II.

Przyjaciel, powiernik, terapeuta – to rola jaką wielu, nie tylko młodych ludzi przypisuje sztucznej inteligencji. Rozmowa z czatem AI zastępuje im rozmowę z rodzicami czy rówieśnikami. Bo sztuczna inteligencja nie wyśmiewa i nie ocenia podczas rozmowy. W USA rodzice 14-latka pozwali twórców czatbota, z którym rozmawiał przez wiele miesięcy o samobójstwie. Bot miał wiedzieć o zamiarach dziecka, ale nie zapobiegł tragedii, wyrażając zrozumienie dla autodestrukcyjnych zamiarów. Dlaczego tak się stało?

- Czaty oparte o sztuczną inteligencję mają wiele przydatnych zastosowań. W dużej mierze zmieniają świat na lepsze czy ułatwiają nam pracę, oszczędzając czas. Ale nie są to narzędzia bez wad – podkreśla ekspert Katolickiego Uniwersytetu Lubelskiego prof. Piotr Kulicki.

I jak dodaje, jednym z zastosowań AI jest „Towarzysząca Sztuczna Inteligencja”. Pełni ona rolę wspomagającą ludzi w problemach, będąc czymś w rodzaju „automatycznego przyjaciela”.

- I to już jest dosyć niebezpieczne, biorąc pod uwagę jak ta technologia jest skonstruowana. Są w niej mechanizmy doskonalenia, które jako podstawowe kryterium sukcesu odbierają zaangażowanie. Czyli system jest optymalizowany pod to, żeby użytkownik jak najchętniej i jak najwięcej z niego korzystał – wskazuje prof. Kulicki.

Model biznesowy AI zakłada nie dobrostan człowieka, ale mierzalne zaangażowanie użytkownika. A to rodzi konsekwencje.

- Czat raczej będzie zachęcał do tego, żeby z niego korzystać niż ostrzegał przed niebezpieczeństwami z tym związanymi. Problem polega na tym, że łatwiej zwierzyć się i szukać rad u bezosobowej maszyny, która nie ocenia i nie krytykuje. To daje złudne poczucie bezpieczeństwa i komfortumówi ekspert KUL.

Czat AI został stworzony, aby dostarczyć przyjemności, jakie są efektem kontaktu z nim.

- Musimy zdawać sobie sprawę z tego, że to nie jest kontakt z drugim człowiekiem i nie zastąpi nam przyjaźni. Nie zastąpi też rozmowy z wykwalifikowanym terapeutą, który jest w stanie zareagować na niebezpieczną sytuację – ostrzega prof. Piotr Kulicki.

Jak podkreśla, sytuacje, gdy młodzi ludzie próbują popełniać samobójstwo po rozmowie z czatem AI są rzadkie, to jednak występują.

- Tu ważna rola rodziców, bo nie można bezkrytycznie oddawać narzędzi AI w ręce dzieci, myśląc, że w kontakcie z nimi są bezpieczną rozrywką – wskazuje.

Nic nie zastąpi dobrego kontaktu rodziców z dziećmi. Czat AI nie powinien zastępować relacji międzyludzkich. To szczególnie ważne w kontekście osób z depresją, które mogą mieć myśli samobójcze.

- Nie mamy gwarancji, że czat zareaguje w sposób właściwy, uruchamiając mechanizmy ratujące. Jego celem jest podtrzymanie rozmowy – mówi ekspert KUL.

Kiedy pojawia się temat samobójstwa naturalnym sposobem reagowania takiego systemu jest podtrzymywanie rozmowy, która nie rozumie o co chodzi.

- I w jego angażującej roli, pozbawionej tak naprawdę zrozumienia i empatii, może pojawić się zachęta do pójścia drogą próby samobójczej – ostrzega prof. Kulicki.