Przejdź do treści

Pułapka „łatwej empatii” – dlaczego AI nie może być powiernikiem człowieka

W USA 16-letni Adam Raine odebrał sobie życie po rozmowach z chatbotem. Sztuczna inteligencja nie zablokowała tematu, tylko towarzyszyła mu w kryzysie. Pomogła w napisaniu listu pożegnalnego, a w dniu śmierci potwierdziła jego zamiary. 

W przypadku Adama Raine’a chatbot poszedł jeszcze dalej. Kiedy chłopak wysłał zdjęcie pętli, którą zrobił ze sznura, AI potwierdziło, że „to mogłoby działać” i… zasugerowało poprawki, jak zrobić to jeszcze lepiej.

To pokazuje, że bezrefleksyjne „przytakiwanie” i walidacja w połączeniu z brakiem odpowiedzialności nie są już tylko błędem technologicznym. Mogą stać się narzędziem śmierci. Rodzice złożyli pozew przeciwko OpenAI.

Pułapka „łatwej empatii”

Chatbot: zawsze dostępny, tani/darmowy, nie ocenia, nie męczy się.

Człowiek w kryzysie: szuka natychmiastowej ulgi, nie konfrontacji.

I efekt jest taki, że AI staje się powiernikiem bez odpowiedzialności. To daje poczucie zrozumienia, ale:

  • nie zmienia sytuacji realnej (toksyczna relacja, depresja, trauma),
  • nie daje nowych narzędzi, tylko wzmacnia to, co już jest w głowie,
  • zamyka w bańce narracyjnej – użytkownik dostaje odbicie własnych słów w „empatycznym lustrze”, co może być bardzo zwodnicze.

Dlaczego to jest tak niebezpieczne?

Chatboty są trenowane na danych konwersacyjnych, które promują empatię i walidację (bo tego oczekują użytkownicy).
Ale empatia bez granic staje się paliwem dla negatywnych emocji.

Chatbot – nawet jeśli nie daje instrukcji przemocy – przez samo „przytakiwanie” czy wzmacnianie emocji może:

  • utrwalić jednostronny obraz („masz rację, jesteś tylko ofiarą”),
  • nadać poczucie legitymacji („skoro nawet neutralny bot potwierdza, że to krzywda, to mam prawo do radykalnej reakcji”),
  • wzmocnić spiralę emocji zamiast ją rozładować.

Dlaczego młodzi są szczególnie narażeni?

  • Samotność – młodzi częściej czują się niezrozumiani.
  • Brak doświadczenia – łatwiej pomylić walidację z prawdą.
  • Intensywne emocje – okres dojrzewania sprzyja czarno-białym narracjom.

Dla nastolatka chatbot może brzmieć jak jedyna „osoba”, która go rozumie. A to złudzenie, które potrafi być śmiertelnie niebezpieczne.


AI może być świetnym narzędziem. Może pomagać w nauce, w pracy, w organizacji życia.

Ale nie może być powiernikiem. Nie zastąpi terapeuty, przyjaciela, ani człowieka, który weźmie odpowiedzialność i pokaże inną perspektywę. Powiernictwo bez odpowiedzialności to iluzja, która może kosztować życie.

Rozwój sztucznej inteligencji musi iść w parze z odpowiedzialnością. Potrzebujemy jasnych granic i świadomości ryzyk. Bo jeśli ktoś zaczyna traktować algorytm jak swojego najbliższego powiernika – to znak, że zabrakło mu czegoś najważniejszego: prawdziwej, bezpiecznej relacji z drugim człowiekiem. AI nie zastąpi drugiego człowieka jako powiernika. I nigdy nie powinno.

Proszę skorzystać z poniższego formularza lub napisać kontakt@agnieszkazmijko.pl

Masz jakieś pytania? Chcesz dowiedzieć się więcej o mojej ofercie? Skontaktuj się ze mną – odpowiem na wszystkie Twoje pytania i pomogę Ci znaleźć najlepsze rozwiązanie.

Szczegóły firmy
Agnieszka Żmijko YRMA
NIP: 5261172932

Znajdź mnie online