14 Stycznia 2026
Aktualności
Obecnie z całego świata dochodzą sygnały, że coraz więcej osób nie tylko w przyjacielski sposób zwraca się do sztucznej inteligencji, ale nawet stara się za jej pomocą zasymulować związek czy przyjacielską relację. Użytkownicy, którzy decydują się w ten sposób wykorzystywać duże modele językowe, argumentują, że są one szczere i empatyczne, co jak najbardziej uzasadnia obsadzanie AI w tej roli. Okazuje się więc, że w ten sposób przypisujemy jej cechy zarezerwowane dotychczas wyłącznie dla ludzi, a to dla naukowców reprezentujących różne dziedziny nauki jest niezwykle interesujące.
– Szacuje się, że do 2031 roku rynek agentów sztucznej inteligencji będzie wart nawet 183 miliardy dolarów. Jest zatem ciekawe, z czego ten postęp będzie wynikał – dlaczego ludzie chcą rozmawiać o kwestiach prywatnych czy intymnych nie z członkami rodziny czy przyjaciółmi, ale z dużymi modelami językowymi. To jest fascynujące zagadnienie i dlatego postanowiliśmy się mu przyjrzeć – mówi dr hab. Miłosz Babecki z Katedry Dziennikarstwa UWM, organizator cyklu debat „Human w digitalu”.
Kiedy AI przestała być narzędziem, a zaczęła być kimś
W latach 90. Clifford Nass i Byron Reeves, amerykańscy informatycy od technologii komunikacyjnych, postanowili zbadać – wykorzystując metody psychologii społecznej i socjologii – jak ludzie reagują na media. Udowodnili, że używając np. komputera, wchodzimy z nim relacje przypominające te, które nawiązujemy z drugim człowiekiem. Teoria ta, która z angielskiego nazywa się media equation, mówi o tym, że ludzie traktują media tak, jakby były żywymi istotami. Nawet, gdy wiemy, że rozmawiamy z maszyną, podświadomie reagujemy na nią tak, jak na istotę ludzką.
Przykłady? Mówimy urządzeniu „dzień dobry”, dziękujemy, żegnamy się z nim, lepiej reagujemy na „miły” interfejs, wolimy głos, który brzmi przyjaźnie, przypisujemy maszynom osobowość.
Jak mówił dr Radosław Sierocki z Wydziału Nauk Społecznych, socjologowie zjawiska związane z nowymi technologiami, w tym sztuczną inteligencję, rozpatrują w szerszym kontekście mechanizmów występujących w społeczeństwie.
– Algorytm działa wtedy, kiedy jest podłączony do danych, ma użytkowników, którzy szukają odpowiedzi i zadają pytania. Natomiast sprawczość AI będzie zależna od tego, w jakim stopniu będziemy w stanie uznać ją jako społeczeństwo – wyjaśnia naukowiec.
Dr hab. Beata Krzywosz-Rynkiewicz, prof. UWM, psycholożka rozwoju i wychowania, podzieliła się osobistą refleksją wynikającą z korzystania ze sztucznej inteligencji. Opowiadała, że kiedy syn zaproponował jej skorzystanie z Chata GPT, podjęła z AI rozmowę jak z drugim człowiekiem: przywitała się, zapytała, co robi w wolnych chwilach, a gdy syn chciał już go wyłączyć, zaprotestowała, mówiąc, że najpierw musi się z nim pożegnać.
– Uruchomił się we mnie mechanizm antropomorfizacji i złapałam z nim więź. Pewnie nie tylko ja mam takie doświadczenia i to wcale nie oznacza, że jesteśmy naiwni i wierzymy, że AI ma duszę. W tym kontekście należy wymienić kilka aspektów, na które zwracają uwagę psychologowie: jeśli AI mówi płynnie i logicznie, ulegamy złudzeniu, że rzeczywiście jest to człowiek. Jeśli wykazuje się – choćby pozorną – empatią, to daje nam poczucie, że ktoś nas słucha i interesuje się nami. To wszystko zbliża nas do osiągnięcia podobnej relacji, jaka występuje między ludźmi – wyjaśniała prof. Beata Krzywosz-Rynkiewicz.
Dr Agnieszka Zbrzezny z Wydziału Matematyki i Informatyki, jako naukowczyni znająca duże modele językowe od kuchni, przyznała, że spodziewa się, iż będziemy coraz bardziej humanizować sztuczną inteligencję. Na dowód tego przypomniała, że dosłownie kilka dni przed debatą, firma Open AI zaprezentowała ChataGPT Health – nową funkcję związaną ze zdrowiem, która będzie m.in. tłumaczyła wyniki badań laboratoryjnych, pomoże przygotować się do wizyty u lekarza czy wyjaśni, co oznaczają zalecenia medyczne. Co prawda jego twórcy zastrzegają, że narzędzie nie zastąpi wizyty u lekarza, ale trudno nie mieć obaw, na ile racjonalnie będziemy w stanie z niego korzystać.
– Zmierzamy w „dziwną” stronę i wszystko wskazuje na to, że będziemy coraz bardziej ufać sztucznej inteligencji. Jako informatycy mamy świadomość, co za tym stoi – wielu z nas zmaga się z problemami zdrowotnymi czy poszukuje informacji, jak poprawić swoje zdrowie, a to sprawi, że jeszcze bardziej zbliżymy się do sztucznej inteligencji – mówiła dr Agnieszka Zbrzezny.
Narzędzie w naszych rękach
Sztuczna inteligencja jest pozbawiona bariery dostępności, nie ocenia, nie krytykuje, a także, zwierzając się jej, nie musimy obawiać się, czy to, o czym opowiemy, wpłynie negatywnie na nasze relacje. Bez wątpienia można to uznać za zalety i trudno się dziwić wynikom badań, które pokazują, że ludzie mówią AI więcej prywatnych czy intymnych rzeczy niż np. przyjaciołom czy terapeutom.
– Z jednej strony jest to dobre, ale z drugiej daje efekt tzw. rozhamowania, czyli doprowadza do sytuacji, w której człowiek zachowuje się swobodniej, odważniej czy bardziej impulsywnie niż zwykle. Posłużę się przykładem: czujemy do kogoś antypatię i pojawiają się myśli, że chcę temu komuś dokuczyć, zaszkodzić. Raczej nie powiemy tego drugiej osobie, bo uczymy się kontrolować taką myśl, bo ograniczają nas normy społeczne czy wstyd, a kiedy ją wypowiadamy, to może przerodzić się nawet w plan działania – wyjaśnia prof. Krzywosz-Rynkiewicz.
Powstaje więc pytanie, czy można wykorzystywać sztuczną inteligencję w celach terapeutycznych. Psychologia mówi przecież, że kontaktujemy się z drugim człowiekiem po to, żeby otrzymać wsparcie i uczyć się regulowania emocji.
Prof. Beata Krzywosz-Rynkiewicz przyznaje, że czaty terapeutyczne są dość dobrze zaprogramowane i np. w trakcie terapii poznawczo-behawioralnej wspomaganej przez duże modele językowe, reagują adekwatnie. Ale…
– Ale z drugiej strony ta normalizacja daje bardzo krótki efekt, bo czat nie zada niewygodnego pytania, nie oburzy się, nie powie, że przesadzamy. To nie jest zwyczajna interakcja – on raczej uczy nas instrumentalizacji emocji w relacji z innymi, uspokajania się, a nie wypracowania dobrej relacji. A rozwój nie polega na szybkim uspokojeniu się, a na uporaniu się z własnymi ograniczeniami. W terapii chodzi o to, żeby przekonać się, że czasami nie mamy racji, że błędnie coś interpretujemy, że kogoś obrażamy, a czat tych kontekstów nie rozumie – wyjaśnia naukowczyni, stwierdzając jednoznacznie, że czat może być dobrym psychoedukatorem, ale nie zastąpi terapeuty, bo nie może zobaczyć chociażby naszej mimiki czy tonu głosu, które są niezbędne do pełnej oceny naszego stanu psychicznego.
Dr Agnieszka Zbrzezny nie jest zdziwiona tym, że zaczęliśmy wykorzystywać AI do opowiadania o swoich emocjach – zwłaszcza, że wyrośliśmy w kulturze, która wymagała od nas powściągliwości w opowiadaniu o emocjach.
– Dopiero teraz, wśród młodszych pokoleń, zaczyna się to trochę zmieniać – dostrzegają one potrzebę opowiadania o tym. A zatem, jeśli mamy do dyspozycji narzędzie, które pozwala nam znaleźć chwilowe ukojenie, np. w jakiejś sytuacji kryzysowej, to sięgamy po nie, to jak najbardziej naturalne – uważa dr Zbrzezny.
Ale czy z perspektywy informatyczki i badaczki AI, specjalizującej się w zagadnieniach weryfikacji i wyjaśnialności systemów AI, to w ogóle ma sens?
– Myślę, że bardzo ważna jest edukacja dotycząca tego, czym są duże modele językowe i jak działają, a z drugiej strony, musimy mieć świadomość, że jest to tylko pewien substytut. Spoglądając na zimę za oknem, przychodzi mi do głowy porównanie: jeśli przy takiej pogodzie mielibyśmy do wyboru, czy założyć cienki sweter czy nic, to wybierzemy cienki sweter, mimo że nie zapewni nam komfortu, ale przynajmniej będzie nam choć trochę mniej zimno. I takim podejściem powinniśmy kierować się, korzystając ze sztucznej inteligencji, którą chcemy traktować jak przyjaciela czy towarzysza do rozmów na poważne tematy – zaznacza dr Zbrzezny.
Według raportu „TheGenAI Divide. State of AI in Business 2025” AI w 95 proc. spośród trzystu przebadanych spółek, całkowite zastąpienie ludzi przez sztuczną inteligencję nie jest możliwe. Przydaje się ona np. do streszczania dokumentów czy generowania maili, ale i tak musi sprawdzić to człowiek. A więc jako ludzie wciąż mamy w świecie technologii coś do powiedzenia. Nie wiemy jednak, co przyniesie przyszłość.
– Niech sztuczna inteligencja będzie czymś, co nas wspiera, a nie zaskakuje – z taką myślą zostawił uczestników debaty dr hab. Miłosz Babecki, zapraszając jednocześnie na kolejną, która tradycyjnie odbędzie się w semestrze letnim.
To była czwarta debata z cyklu „Human w digitalu”. Poprzednie trzy były poświęcone następującym tematom: „AI – przestrzenie innowacji", o której można przeczytać w relacji z „Dni Humana", oraz obejrzeć ją na kanale YouTube; „Kompetencje 4.0" i „Gry wideo (nie) dla rozrywki", o której także można przeczytać w relacji ze święta Wydziału Humanistycznego.
Marta Wiśniewska
