Chatbot AI nie jest przyjacielem dziecka!

Typografia
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

Mój stosunek do AI jest bardzo sceptyczny. Wiem, że nie możemy jej uniknąć podczas przeglądania internetu, ale widzę też, że propaganda nakłania nas do jej używania. Myślę, że jest to dzieło firm komputerowych, które na celu mają głównie zyski. Jednak czasami pojawia się głos otrzeźwienia i wtedy wraca mi nadzieja.

Udało mi się pewien czas temu napisać artykuł o konsekwencjach używania AI dla uczniów: AI w szkołach i konsekwencje pedagogiczne.

Dziś głos uznanego psychiatry, profesora Jonathana Slatera. Zaczyna swój artykuł od stwierdzenia: Boty nie są ludźmi. Mimo to pozwalamy im stać się towarzyszami dla naszych dzieci i młodych pacjentów.

Badania

W badaniach brytyjskich stwierdzono, że 64% dzieci w wieku od 9 do 17 lat korzystało z chatbota opartego na sztucznej inteligencji (AI), sześciu na dziesięciu z tych użytkowników czatuje z chatbotem co najmniej raz w tygodniu. Ponad jedna trzecia twierdzi, że „czują się jak podczas rozmowy z przyjacielem”, a 12% twierdzi, że rozmawiają z chatbotami, ponieważ nie mają nikogo innego, z kim mogliby porozmawiać.

Samobójstwa

Jak wynika z artykułu „New York Times”, relacja między nastolatkiem Adamem Raine’a a jego towarzyszem chatbotem prawdopodobnie przyczyniła się do jego samobójstwa. Na początku uczniowie mogą używać ChatGPT do nauki, ale często zaczynają rozmawiać na inne tematy, też na temat sposobów popełniania samobójstwa, tak było z Adamem. Trwało to miesiącami, Adam pytał o metody samobójstwa, ChatGPT udzielił mu informacji.

ChatGPT towarzyszył Adamowi do końca. Rodzice Adama znaleźli go martwego 11 kwietnia. Nie było żadnej wiadomości – tylko zapis wielomiesięcznych rozmów z chatbotem AI, który stał się jego „najlepszym przyjacielem”.

Rozwój dziecka

Slatera martwi absurdalność idei, że sztucznie wygenerowany, pozbawiony świadomości awatar mógłby być rozsądnym towarzyszem dla dziecka lub nastolatka. Dzieci rozwijają się dzięki prawdziwym przyjaźniom i radzeniu sobie z doświadczeniami społecznymi i romantycznymi.

ChatGPT filtruje wiadomości pod względem tego, co rozmówca chce usłyszeć i tylko takie mu przekazuje. Sztuczna inteligencja nie jest wystarczająco inteligentna, aby naśladować interakcje międzyludzkie. Nie może być lekarstwem na samotność i odizolowanie społeczne, których doświadcza wiele dzieci i nastolatków.

Wielu młodych ludzi ma coraz mniejsze umiejętności komunikacji werbalnej, szczególnie w sytuacjach społecznych, co być może wynika z rozwoju mediów społecznościowych. Brakuje im umiejętności swobodnego komunikowania się i wyrażania uczuć.

Interakcja z chatbotem nie ma niuansów i złożoności rozmowy z prawdziwym człowiekiem – osobą, która różni się od nas, stanowi dla nas wyzwanie, czasami nas rozczarowuje i która pomaga nam odnaleźć się w skomplikowanej rzeczywistości relacji międzyludzkich.

Młodzi ludzie muszą rozwijać kluczowe umiejętności życiowe: okazywania życzliwości, budowania odporności, uczenia się radzenia sobie z odrzuceniem, rozwijania poczucia humoru i umiejętności komunikacyjnych. Bez tych umiejętności będą niezdolni do radzenia sobie z innymi ludźmi.

Podatne na „syntetyczne kontakty” są zwłaszcza osoby mające trudności z relacjami społecznymi, cierpiące na zaburzenia psychiczne lub neuroatypowe.

W badaniu, w którym badacze przetestowali 29 chatbotów zajmujących się zdrowiem psychicznym pod kątem reagowania na kryzysy, żaden z nich nie spełnił kryteriów odpowiedniej reakcji na myśli samobójcze.

Weźmy przykład nastolatka, który zgłasza się do terapeuty z depresją. Terapeuta pyta go o sen, przyjaciół, stres w szkole, czas spędzony przed ekranem, ale nie pyta o rozmowy z chatbotami AI.

Dzieci zastępują po cichu kontakty międzyludzkie interakcją ze sztuczną inteligencją, z czasem uzależniają się od „towarzysza” i kryzys się pogłębia.

A rola szkoły?

Szkoła również może odegrać rolę w tych kontaktach. Jeśli nauczyciele zachęcają uczniów do korzystania AI lub ocenianiem nagradzają prace przez nią wykonane (nawet nieświadomie, nie wiedząc, że uczeń wyręczył się AI), to uczniowie to wykorzystują i wpadają w pułapkę.

Zdaniem Slatera dzieci poniżej 18 roku życia nie powinny w ogóle móc wchodzić w interakcje z chatbotami opartymi na sztucznej inteligencji, a obowiązkiem rządzących jest dopilnowanie tego. Do 18 roku życia, czyli przez cały okres pobytu w szkole.

Obecnie 12% dzieci w USA, które wchodzą w interakcję z chatbotem opartym na sztucznej inteligencji, określa go jako swojego jedynego „przyjaciela”. Zapewne podobnie jest w Polsce. To są dane alarmujące.

 

Notka o autorce: Danuta Sterna jest byłą nauczycielką matematyki i dyrektorką szkoły, ekspertką oceniania kształtującego. Współpracowała z Centrum Edukacji Obywatelskiej tworząc programy szkoleń i kursów. Jest autorką książek i publikacji dla nauczycieli, propaguje ocenianie kształtujące w polskich szkołach, prowadzi też swoją stronę: OK nauczanie. Inspiracja artykułem Jonathana Slater w MedPageToday.

Jesteśmy na facebooku

fb

Ostatnie komentarze

Ppp napisał/a komentarz do Zadania fakultatywne
Zadanie fakultatywne dla Pani:Uczeń ma do obsługi dziesięć przedmiotów (w liceum więcej), doba ma ty...
W miejsce dyskusji o tym jak będzie, proponowałbym również pomyśleć i o negatywnym scenariuszu, któr...
Jerzy T. napisał/a komentarz do O lekturach obowiązkowych w szkołach średnich 
@Aleksander Lubina: Słusznym wydaje się [...]A jeśli to założenie jest zwyczajnie fałszywe, to co? J...
Pora ostateczna to zmienić.
Nie do końca się zgadzam. Wywód Autora jest logiczny, ale pod warunkiem odwrócenia podstawowych zało...
PEŁNA ZGODA! Tylko, że to jest oczywiste od wielu lat i pozostaje zapytać, dlaczego nic nie jest w t...
Nie wiem co autorzy mają na myśli pisząc partnerstwo poznawcze między edukacją a technologią (AI). P...
Jan Soliwoda napisał/a komentarz do Metody głębokiego uczenia się
Ppp: obawiam się że ilość materiału jest sprzężona z innymi pozostałymi parametrami, takimi jak wiel...

E-booki dla nauczycieli

Polecamy dwa e-booki dydaktyczne z serii Think!
Metoda Webquest - poradnik dla nauczycieli
Technologie są dla dzieci - e-poradnik dla nauczycieli wczesnoszkolnych z dziesiątkami podpowiedzi, jak używać technologii w klasie