Należę do pokolenia (czy też raczej środowiska), dla którego sensem i funkcją badań naukowych było (i jest) poszerzanie wiedzy i dociekanie prawdy. Zdaję sobie sprawę, że obecnie, w dobie dewaluacji pojęć i powszechnej afektacji, brzmi to górnolotnie, a na dodatek „prawda” niekonieczne bywa obiektywna, jednoznaczna i wygodna, więc mogę się zgodzić na opuszczenie tego słowa. „Dociekanie” jednak wydaje mi się już elementem niewzruszalnym, co sprawia, że ostatnio coraz trudniej jest mi pogodzić się z trendem, który nazwałbym socjologizującym dydaktyzmem i który zawłaszczył praktycznie cały przekaz, dawniej kojarzony z narracją popularnonaukową.
Chociaż zdarzało mi się już pisać o tym zjawisku, jak i krytykować mizerię w ten sposób uzyskiwanych wyników, nie jestem na tyle naiwny, by wierzyć, że nauka, środowisko naukowców i prowadzone przez nich badania to jakaś podtrzymywana szlachetnym etosem enklawa, zawieszona jakimś cudem poza nie zawsze piękną rzeczywistością społeczną. Jednak kiedy „poszerzanie” i „dociekania” stają się jedynie pretekstem do promocji modnych tez, a zarazem osób tezy te wspierających autorytetem swoim i nauki, nie ukrywam, że budzi to we mnie niesmak, niezależnie od tego, czy z forsowaną tezą się zgadzam, czy nie.
Podejmuję ten temat po raz kolejny po przeczytaniu na edunews.pl wpisu Agnieszki Kliks-Pudlik, będącego przedrukiem jej artykułu, zamieszczonego pierwotnie na portalu naukawpolsce.pl. Przeczytałem, czytam go po raz kolejny i nie mogę we wzmiankowanych badaniach dopatrzeć się nawet cienia dociekań, które mogłyby jakkolwiek poszerzyć naszą wiedzę. Rozumiem potrzebę powstania artykułu, natomiast nie jestem w stanie znaleźć uzasadnienia dla prowadzenia opisanych w nim badań.
Jest dla mnie oczywiste, że szereg badań naukowych przeprowadza się, aby potwierdzić kwestie, które się obserwuje i całkiem dobrze zna. Jednak nawet pretekstowo, jednym zdaniem wyrażony tu cel owych badań nie wydaje się usprawiedliwiać podjętych działań, pomijając już fakt, że jego osiągnięcie skutkowałoby manipulacją i ingerencją w komunikację. Moje wątpliwości budzą badania, które oferują wyniki tak banalne, że możliwe do wywiedzenia bez zaangażowania wspomnianych środków. Nie wiem, na ile moje widzenie sytuacji jest usprawiedliwione, a na ile zupełnie subiektywne, ale możliwe jest, że osiągnęliśmy już taki etap społecznego ogłupienia, a zarazem znieczulenia środowisk odpowiedzialnych za przekaz normatywny, że nikt nie zwraca uwagi na jego jakość. Na fali popularności pewnych zagadnień, pozoruje się ich dyskusję, prezentując rzekomą głębię poruszanych zagadnień. Takie działania mogą służyć jako pretekst do zdobywania funduszy na badania, które w rzeczywistości nie dostarczają nowych wniosków. Mogą również zaspokajać potrzeby instytucji edukacyjnych i badawczych, od których wymaga się tworzenia publikacji, co wpływa na ich reputację, ale niekoniecznie na rzeczywiste zdobywanie wiedzy (w tym wypadku na temat AI czy psychologii dziecięcej). O ewentualnych korzyściach dla indywidualnych badaczy nie będę się rozwodził, bo nie dysponuję odpowiednimi danymi. Zamiast tego, przyjrzę się bliżej wspomnianym, „naukowym dociekaniom”.
Już na wstępie artykułu, zostajemy poczęstowani niewiarygodnym wręcz odkryciem:
Wyniki badań – przeprowadzonych na grupie ponad 400 młodych ludzi w wieku od 9 do 14 lat – wykazały, że młodzi ludzie cierpiący na zaburzenia lękowe lub ogólnie niskie samopoczucie psychiczne często szukają rozwiązań swoich problemów w internecie, wykorzystując do tego również narzędzia generatywnej sztucznej inteligencji.
No cóż, moim, nienaukowym zdaniem, można z łatwością udowodnić, że takie zachowanie jest charakterystyczne dla mnóstwa ludzi, w różnym wieku, a dążność do „rozwiązywania” swoich problemów w Sieci nie narodziła się wraz z AI – zaononimizowane statystyki wykorzystania w tym celu wyszukiwarek internetowych są dostępne dla podmiotów badawczych i takie analizy przeprowadzano już wielokrotnie, na zdecydowanie większej próbie, nie polegając przy tym na deklaracjach przedmiotu badań. Omawiane tu zjawisko nie dotyczy także jedynie „zaburzeń lękowych lub ogólnie niskiego samopoczucia psychicznego”, ale wszelkich możliwych dolegliwości. Kto choć raz nie „diagnozował się” w Internecie, sam mógłby stać się obiektem ciekawych badań. Polska należy do światowej czołówki tzw. cyberchondrii (czemu towarzyszy maniacka konsumpcja paraleków i suplementów diety) – badanie z 2020 roku, przeprowadzone przez firmę Gemius, wykazało, że aż 74% Polaków szuka w Internecie informacji na temat zdrowia (w tym, co jasne, psychicznego). Z kolei z badań przeprowadzonych przez Fundację Dbam o Zdrowie wynika, że Polacy, zwłaszcza młodsze pokolenia, korzystają z Sieci, jako pierwszego źródła informacji o zdrowiu. Tytułem uzupełnienia, bliższego przedmiotowi badań opisywanych przez p. Kliks-Pudlik, warto wspomnieć dane opublikowane w czasopiśmie Journal of Anxiety Disorders (White & Horvitz, 2009). Stwierdzono tam, że wyszukiwanie objawów w Internecie może nasilać lęki zdrowotne, zwłaszcza u osób z istniejącymi zaburzeniami lękowymi. Jak widać, fakt że Internet stał się podstawowym źródłem informacji o dolegliwościach somatycznych i psychicznych, i często skłania do nadmiernych obaw o zdrowie i samodiagnozowania poważnych chorób jest tajemnicą poliszynela, a przypuszczenie, że problem dotyczyć będzie przede wszystkim bardzo młodych ludzi, organicznie niezdolnych jeszcze do krytycznego oglądu sytuacji, nie wymaga chyba intelektualnego zaangażowania zespołu z Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją Uniwersytetu Łódzkiego.
Takiego wysiłku nie wymaga również kolejny wysnuty z badań wniosek:
Badania wykazały, że dzieci wybierające pytania związane z potrzebami psychicznymi i bezpieczeństwem cechowały się zdecydowanie wyższym poziomem lęku i depresji niż te, które pytały o codzienne czynności i pasje.
Nie dość, że to zdanie to niemal tautologia, to jeszcze opisuje zachowanie, którego należałoby oczekiwać. To naturalne i oczywiste, że dzieci zdrowe, nieobciążone problemami psychicznymi, nie będą raczej szukały o nich informacji, lecz zajmą się np. swoimi zainteresowaniami. Jest raczej mało prawdopodobne, by człowiek nigdy nie skonfrontowany z jakimś problemem, zaczął nagle poszukiwać o nim informacji. Wniosek, że dzieci, które wykazują zainteresowanie swoimi stanami psychicznymi, mają wyższy poziom lęku i depresji, można uznać za banalny lub nawet oczywisty, nie wymagający przeprowadzania skomplikowanych badań, ponieważ jest logicznym następstwem tego, o co pytano.
Truizmy „wynikające” z opisywanego „procesu badawczego” wydają się nie mieć końca – oto kolejny:
Z kolei osoby, które wybierały pytania dotyczące miłości i przynależności, miały z reguły większe problemy psychiczne niż grupa w większym stopniu zainteresowana potrzebami fizjologicznymi.
Mam tu oczywiście analogiczne zastrzeżenia, co w przykładzie poprzednim. Biorąc pod uwagę, że problemy emocjonalne często manifestują się w relacjach interpersonalnych, mamy do czynienia ze skojarzeniami jak w Familiadzie… Na tym etapie lektury, wiedziałem już, że wszystko, czego się z tych „badań” dowiem, to kolejne rewelacje, rodem z pogadanek w telewizjach śniadaniowych. Poniżej kolejna ich próbka:
Zaobserwowano również, że dzieci próbujące znaleźć u generatywnej sztucznej inteligencji odpowiedzi na pytania związane z miłością i przynależnością oraz te odnoszące się do szacunku i uznania, miały wyraźnie niższy poziom dobrostanu psychicznego niż dzieci chcące spytać o samorealizację i osobiste zainteresowania.
Czy człowiek zdrowy i w dobrej kondycji psychicznej (niebędący naukowcem, badającym daną dziedzinę) często poszukuje informacji o rozwiązaniach kwestii bezpośrednio go niedotyczących? Autorom należy pogratulować samozaparcia w wyszukiwaniu „oczywistych oczywistości” i tupetu przypisywania im wartości poznawczej. Czy takie doniesienia w jakikolwiek sposób przyczyniają się do lepszego zrozumienia zachowań i psychiki dzieci?
Następne „odkrycie” miało chyba sugerować głębię i istotność „badanego” zagadnienia:
Generacja Alfa rozpoczyna edukację w dynamicznie zmieniającym się krajobrazie technokulturowym. To pokolenie dorasta w takim transhumanistycznym świecie, często wśród syntetycznych towarzyszy. Coraz częściej wchodzimy bowiem w interakcję z jakimiś agentami o nieokreślonym statusie ontologicznym. Czasem zatraca nam się granica, czy to jest prawdziwy człowiek, czy coś wygenerowanego na wzór człowieka, co zostało wytworzone, aby nas, ludzi, łudzić.
Znów polemizowałbym z rzekomą wyjątkowością pokolenia Alfa – ono z oczywistych względów w większym stopniu niż pozostałe styka się z AI i resztą świata wirtualnego, ale ludzka tendencja do antropomorfizacji innych podmiotów i przedmiotów nie jest niczym nowym i sięga początków gatunku. Człowiek potrafi rozpoznawać twarze w przypadkowych wzorach, mówić do obiektów daleko mniej skomplikowanych niż komputer, traktować maszyny jak żywe istoty, uczłowieczać zwierzęta, etc. Za całe novum „poznawcze” badań robi tu więc ekscytująca gawiedź, tajemnicza sztuczna inteligencja. Czy trzeba było przeprowadzić „badania”, by stwierdzić, że człowiek (znów, w dowolnym wieku, nie jedynie z „badanego” pokolenia) może zacząć traktować mówiącą, zdolną do bardzo realistycznej interakcji AI jako żywą istotę i partnera, a może nawet autorytet? Przecież jest to zjawisko szeroko znane, wielokrotnie przebadane[1], wynikające zarówno z ewolucyjnych uwarunkowań, jak i potrzeb psychologicznych, i społecznych.
Z ważniejszych czynników sprzyjających powszechnemu uczłowieczaniu i szukaniu autorytetu w przedmiotach wymienię tylko trzy, najważniejsze dla poruszanego tematu. Pierwszy to fakt, że u dzieci antropomorfizacja jest naturalnym etapem rozwoju poznawczego. W procesie nauki dzieci często dokonują projekcji swoich myśli i uczuć na otaczające je przedmioty. Tworzenie opowieści o „życiu” zabawek pomaga im zrozumieć świat. Ten rodzaj myślenia pozostaje z nami w pewnym stopniu również w dorosłym życiu. Drugi czynnik, to dążność do redukcji niepewności i lęku. Obiekty martwe stają się w pewnym sensie bardziej zrozumiałe, „oswojone” i łatwiejsze do kontrolowania, kiedy traktujemy je jak osoby. Dzieci często mówią do swoich zabawek, a dorośli czasami rozmawiają z samochodami lub sprzętem, który przestał działać, co daje im poczucie kontroli nad sytuacją. Trzecim istotnym czynnikiem wydaje mi się socjalizacja. Antropomorfizacja wynika często z potrzeby nawiązywania relacji emocjonalnych. Ludzie są istotami społecznymi, a relacje z innymi są kluczowym elementem życia. Przypisywanie ludzkich cech zwierzętom, maszynom (jak chatboty) czy nawet zjawiskom (jak pogoda) może sprawić, że staną się one bardziej „bliskie”, co ułatwia budowanie więzi ze światem i wewnątrzgatunkowej komunikacji. Czy u badaczy z Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją Uniwersytetu Łódzkiego te fakty budzą jakieś wątpliwości, warte formułowania pytań badawczych? Czy, tylko w ich świetle, kwestia „postrzegania AI jak autorytetu i nadania jej podmiotowości” może być widziana jako wiele wnoszący w nasze rozumienie psychologii dziecięcej rezultat badań?
Na tym jeszcze nie koniec – oto kolejna próbka „oryginalnych” wniosków:
[…] to pokazuje, że młodzi traktują AI jako pewnego rodzaju wyrocznię, obdarzając ją autorytetem. Pokolenia Milenialsów i starsze po pierwsze traktują sztuczną inteligencję z większą ostrożnością, zazwyczaj wiedząc, że nie jest to wiarygodne źródło informacji. Z drugiej strony, w większości pytamy o coś, co już się wydarzyło, o przeszłość.
Znów mamy do czynienia z głębokim truizmem, rzeczą możliwą do zaobserwowania dla każdego opiekuna, każdego nauczyciela, dla każdego, kto wychowywał dziecko – młodsze koncentruje się na pytaniach o przyszłość, bo nie ma zbyt wielu własnych doświadczeń i traktuje opiekuna (dowolny autorytet) jako wyrocznię właśnie, starsze ( dorosły) planuje swoje postępowanie na podstawie już zebranych danych, które siłą rzeczy pochodzą z przeszłości, więc wymagają przeszukiwania istniejących, zarejestrowanych ich zasobów. Co nowego wniosło to spostrzeżenie do naszej świadomości?
Jedyną sensowną rzeczą, którą przeczytałem w artykule, było podsumowanie badań, dokonane przez ich główną autorkę, dr Adę Florentynę Pawlak:
W naszym badaniu wśród młodych ludzi nie było różnicy między zaufaniem zbudowanym do człowieka a obdarzeniem zaufania sztucznych systemów. Musimy mieć świadomość możliwych skutków tego zjawiska, ponieważ za jakiś czas obdarzenie autorytetem przedstawicieli takich zawodów jak profesor, lekarz czy nauczyciel nie będzie większe niż zaufanie do sztucznej inteligencji.
Jest z tą wypowiedzią/refleksją tylko jeden kłopot – żeby ją sformułować, nie trzeba było przeprowadzać żadnych badań i to nie tylko dlatego, że stanowi ilustrację zjawisk doskonale znanych, obserwowanych od dawna i w sumie dość naturalnych. Przede wszystkim, zagadnienie to jest od wielu lat przedmiotem zainteresowania psychologii ewolucyjnej i innych dziedzin, zostało już więc dość dokładnie opisane w wynikach licznych, znacznie szerzej zakrojonych badań[2] oraz w światowej literaturze fachowej. Jego kolejne rozważanie nie stanowi wobec tego żadnej oryginalnej jakości w jakiejkolwiek dziedzinie. Co innego, gdyby autorzy rzeczywiście pokusili się o zaproponowanie i opracowanie ewentualnych działań zaradczych wobec sugerowanych problemów – niestety, samo sygnalizowanie potrzeby ich podjęcia nie kwalifikuje się jako dociekanie czegokolwiek. A może, wprost przeciwnie, dociekać należałoby nie tylko skutków negatywnych kontaktu z coraz to bardziej wyrafinowanymi algorytmami?
W tak szybko i dynamicznie ewoluującej dziedzinie, jaką jest interakcja ze sztuczną inteligencją, należy wątpić, by zbieranie tak wtórnych danych w sposób znaczący przyczyniło się do sformułowania oryginalnych wniosków, pozwalających na osiągnięcie teoretycznie wytyczonego celu. Jest to zresztą problem trudny, niosący ze sobą wątpliwości natury etycznej (cenzura, transparentność, ograniczenie podmiotowości), których póki co nie udało się w pełni rozstrzygnąć w sposób sensowny, mimo wielu prób. Jest również raczej pewnym, że żadne rozwiązanie (a zaproponowano ich już całkiem sporo[3] – może warto im się przyjrzeć przed podjęciem dalszych badań?) nie jest idealne i nie zdobędzie powszechnego poparcia tylko i wyłącznie dlatego, że ktoś przeprowadził badania na 400 nastolatkach. Takie działania są jedynie (podkreślam, w moim odczuciu) interesowną chęcią zaznaczenia swojej obecności, zwłaszcza w społeczeństwie, które, przykro to mówić, znów dramatyczne odstaje od tych technologicznie i cywilizacyjnie zaawansowanych. W takich warunkach, głęboki sens ma oczywiście wszelka działalność uświadamiająca i popularyzująca taki czy inny temat, ale przejmowanie tej funkcji przez zespoły badawcze i inwestowanie środków publicznych w takie „badania”, dla promocji takiej czy innej idei wydaje się, delikatnie mówiąc, pomyłką.
Przypisy:
[1] Oto dwa przykłady z wielu: How Does AI Affect Kids? Psychologists Weigh In | Decrypt / czy AI technologies for social emotional learning: recent research and future directions | Emerald Insight
[2] Na przykład tutaj: https://link.springer.com/article/10.1007/s12124-021-09668-y czy https://link.springer.com/article/10.1007/s12525-022-00591-7
[3] Przykładowo: Frontiers | Exploring the effects of human-centered AI explanations on trust and reliance (frontiersin.org) / Explanations Can Reduce Overreliance on AI Systems During Decision-Making (stanford.edu)
Notka o autorze: Robert Raczyński – anglista, tutor, nauczyciel chyba nie tylko angielskiego, ale z dystansem do misji, metodyki i nauczania masowego, dydaktyczny oportunista. Kiedyś uczył w śp. gimnazjum, dziś w liceum. Prowadzi blog Eduopticum, o oświacie, edukacji i ich funkcjonowaniu w kulturze.
Ostatnie komentarze