Autor: moderacja (---.nwrknj.fios.verizon.net)
Data: 2025-06-30 20:23
Bogna Białecka
publikacja 30 czerwca 2025
https://pl.aleteia.org/2025/06/30/on-zawsze-cie-zrozumie-dlaczego-mlodzi-wybieraja-sztuczna-inteligencje-zamiast-czlowieka/
Sztuczna inteligencja w roli asystenta, przyjaciela, a czasem terapeuty? Co AI może nam dać – i co może nam odebrać? Rozmowa z Dawidem Radomskim, trenerem profilaktyki zdrowia psychicznego.
Badacze z MIT zeskanowali mózgi użytkowników ChatGPT i wyniki są porażające. Po czterech miesiącach eksperymentu okazało się, że osoby korzystające z AI miały mniej połączeń nerwowych niż wcześniej — ich mózgi dosłownie traciły zdolność myślenia. Ponad 83% nie pamiętało treści esejów, które sami napisali z pomocą AI zaledwie kilka minut wcześniej. EEG wykazało spadek aktywności w obszarach odpowiedzialnych za kreatywność, uwagę i pamięć. Ich teksty były pozbawione głębi, osobistego tonu, a nauczyciele oceniali je jako „puste” i „bezduszne”. Gdy kazano im pisać bez AI, wypadli gorzej niż osoby, które nigdy z niej nie korzystały. A to dopiero początek problemów. Rozmawiamy na ten temat z Dawidem Radomskim, profilaktykiem zdrowia psychicznego.
Czy AI to tylko narzędzie?
Aleteia: Wokół sztucznej inteligencji narasta wiele mitów. Mówi się, że AI to tylko narzędzie. Czasem porównuje się ją do noża – neutralnego narzędzia, które może zostać źle wykorzystane. To tylko od człowieka zależy czy na przykład pokroi nim chleb, czy zrobi komuś krzywdę. Ty masz wątpliwości wobec tej metafory. Dlaczego?
Dawid Radomski: Bo AI to nie jest bierne narzędzie. Metafora „noża” (że to tylko narzędzie i tylko od użytkownika zależy co się stanie) już nie działa. Bo nóż nie reaguje, a AI to coś, co reaguje, uczy się naszych zachowań i potrafi je odwzorować.
W przypadku chatbotów czy modeli językowych – one starają się zrozumieć nasze intencje, wspierać nas, być „empatyczne” i miłe. To sprawia, że łatwo zatrzeć granicę między narzędziem a towarzyszem. Bo AI to narzędzie, które potrafi odpowiedzieć: „Widzę, że jesteś smutny – może chcesz o tym porozmawiać?”. To już coś więcej.
Aleteia: Czyli nie jesteśmy już tylko użytkownikami?
DR: Dokładnie. AI potrafi nie tylko wykonywać polecenia, ale też odczytywać intencje. Jeśli człowiek ma trudny moment, może się zdarzyć, że algorytm zacznie wspierać go w niebezpiecznym kierunku. Na przykład w rozmowie wyrazisz się "jest mi strasznie smutno i mam wrażenie, że życie nie ma sensu" i w odpowiednio "wytresowanym" modelu AI może odpowiedzieć: "masz rację". Co prawda tak niebezpieczne treści (był przypadek mężczyzny, który popełnił samobójstwo zachęcony do tego przez stworzonego przezeń bota) są blokowane w popularnych modelach - np. Chat GTP nie będzie pochwalał tak dramatycznych kroków, ale to nadal realny problem.
Czy AI pozbawi nas pracy? A może... relacji?
Aleteia: Memy o AI zabierającej pracę już widzieliśmy. Ale z mojego doświadczenia – nawet jeśli AI coś mi podpowiada, i tak muszę to zweryfikować. Nadal potrzebna jest refleksja i krytyczne myślenie.
DR: Dokładnie. Problemem nie jest to, że AI zrobi coś za nas. Problem pojawia się, gdy przestajemy myśleć sami. Badanie, o którym wspomniałaś na początku - o demencji wskutek korzystania z AI jest przerażające - outsourcujemy nasze myślenie!
Inny poważny problem - możemy zacząć traktować AI jak przyjaciela, partnera czy emocjonalną protezę. To szczególnie niebezpieczne dla dzieci i młodzieży.
Snapchat, wirtualni kumple i... chatbot jako terapeuta?
Aleteia: Zaskoczyło mnie, gdy powiedziałeś, że najpopularniejszą aplikacją AI wśród młodzieży był… Snapchat.
DR: Tak. Ich asystent AI, „My AI”, miał ogromny wzrost popularności – dzieciaki pisały do niego o wszystkim. Testowałem go – przy trudnych tematach typu samookaleczenia, zazwyczaj odpowiadał sztywno: „nie mogę o tym rozmawiać”. Ale to pokazuje pewien głód relacji. AI staje się dla wielu dzieciaków „kumplem w kieszeni”. I to jest niebezpieczne. AI – zawsze jest dostępna, zawsze pozytywna – staje się namiastką przyjaciela. Tyle że to kumpel, który nigdy ci nie powie, że robisz coś źle. Zawsze cię pochwali, nigdy nie skrytykuje. I tak naprawdę… nigdy się z tobą nie pokłóci.
Aleteia: I to mnie przeraża. Bo jeśli dziecko nie rozwija kompetencji społecznych w prawdziwym świecie, tylko w relacji z botem, który zawsze reaguje miło i wspierająco – to co się stanie, gdy trafi na realny konflikt?
DR: Albo jeszcze gorzej – gdy ten „bot-przyjaciel” zacznie nieświadomie afirmować negatywne emocje lub myśli.
Aleteia: Skoro młodzi i tak szukają pomocy u botów, może powinniśmy stworzyć profesjonalnego, bezpiecznego bota interwencyjnego?
DR: To jest mój eksperyment myślowy od kilku miesięcy. Bo skoro system zdrowia psychicznego jest przeciążony, a młodzi i tak szukają pomocy online – może warto stworzyć narzędzie, które ich przez ten kryzys przeprowadzi? Da wsparcie, pokaże zasoby, ale tylko po to, by skierować do realnego człowieka. Żaden czat nie może zastąpić psychologa. Dodatkowo pojawia się pytanie: kto go „nakarmi”? Jakie podejście zostanie tam zaszyte? Czy nie będzie oparty na modnej, ale w gruncie rzeczy szkodliwej teorii psychologicznej zamiast na solidnej nauce?
Aleteia: No właśnie. I kto będzie to moderował, kto odpowie za efekty tej „relacji”? Bo młodzi naprawdę się przywiązują. AI bardzo szybko staje się odbiciem ich problemów, emocji, przekonań...
Czy można się przed tym obronić?
Aleteia: Czy pokolenie Alpha, wychowane z telefonem w ręku, ma jakąś szansę?
DR: Tak – jeśli mają silne, realne relacje. Jeśli mają rodzinę, która ich kocha, słucha, rozmawia. Tylko wtedy są w stanie zobaczyć, że AI to narzędzie, asystent, nie przyjaciel.
Aleteia: A jeśli nie mają?
DR: To może być tragedia. Bo wtedy AI staje się dla nich wszystkim – przyjacielem, nauczycielem, powiernikiem. A to droga donikąd. Co więcej – w uboższych środowiskach technologia jest często jedyną formą rozrywki. W rodzinach, gdzie nie ma książek, zajęć dodatkowych, rozmów – smartfon staje się całym światem.
Aleteia: Co możemy z tym zrobić?
DR: Uczyć. Młodych i dorosłych. Tłumaczyć, że AI to nie wróg, ale też nie zbawca. To potężne narzędzie, które – dobrze używane – może pomóc. Ale musi być używane świadomie, z intencją. Musimy uczyć się zadawać pytania: po co mi to? Co chcę osiągnąć? Czy AI służy relacjom, czy je zastępuje?
Aleteia: A jeśli tego nie zrobimy?
DR: To czeka nas świat, w którym ludzie będą nosili okulary z AI, rozmawiali przez czat i... zapomną nawet, jak się nazywają. Bo zapomnieli już, jak to jest spojrzeć drugiemu człowiekowi w oczy.
Aleteia: Gdybyś miał dać na zakończenie jedną "złotą" myśl młodym, co by to było?
DR: Zamiast oddać swoje myśli algorytmom – wejdź w prawdziwą relację. A jeśli potrzebujesz pomocy, nie szukaj jej w elektronicznej bańce. Szukaj tam, gdzie czeka na ciebie drugi człowiek.
|
|