Lepsza Edukacja 2026 - ze sztuczną inteligencją czy bez?

Typografia
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

Rewolucja cyfrowa z AI w roli głównej wymaga dziś szczególnej refleksji. Po pierwszych latach entuzjazmu związanego z używaniem generatywnych dużych modeli językowych w gospodarce, nauce i edukacji, przyszło jednak pewne otrzeźwienie - pojawia się więcej znaków zapytania. O różnych aspektach współżycia z AI w szeroko rozumianej edukacji rozmawiano podczas wystąpień i debat XVII edycji konferencji Lepsza Edukacja we Wrześni.

Celem prelekcji i dyskusji eksperckich była refleksja nad przyszłością szkoły w dobie rewolucji cyfrowej i dynamicznego rozwoju sztucznej inteligencji, a także próba odpowiedzi na pytania - jakie metody pracy najlepiej angażują uczniów w czasach AI? Jak wspierać dziś ich pasje i uzdolnienia? Jak przygotować ich na wyzwania, które czekają? 

Mamy coraz więcej technologii cyfrowych w szkołach, ale najważniejsze jest, abyśmy pamiętali, że edukacja to jednak ludzie i relacje – mówił rozpoczynając konferencję Dariusz Andrzejewski, pomysłodawca i organizator konferencji z Samorządowej Szkoły Podstawowej nr 6 we Wrześni, członek Rady ds. Informatyzacji Edukacji przy MEN. W pierwszym dniu konferencji wystąpiło wielu znakomitych prelegentów, którzy podzielili się z uczestnikami swoimi przemyśleniami i doświadczeniami.

Prof. Andrzej Dragan z Wydziału Fizyki Uniwersytetu Warszawskiego w wystąpieniu inaugurującym zastanawiał się, czy maszyny mogą myśleć? Jest to pytanie, na które nie da się wprost odpowiedzieć, ale można prowadzić doświadczenia i sprawdzać, czy LLM rozumuje, czy tylko recytuje odpowiedź z danych, które uzyskał podczas treningu. Przytoczył tu kilka zagadek, o których pisał w ostatniej książce „Quo vAIdis”. Udowadniał, że modele językowe potrzebują czasem wsparcia człowieka, podpowiedzi, żeby połączyć ze sobą dane (które posiadają) i przedstawić sensowną odpowiedź. Pokazał też, że generatywna AI może sobie poradzić także z problemem, który na pierwszy rzut oka wydaje się nie mieć żadnego sensu, np. napisanym w języku, który nie istnieje. Jak to może zrobić? Posłuży się jakimiś analogiami w języku, który zna z treningu. Czasami mówimy, że generatywna sztuczna inteligencja to są takie papugi, które powtarzają to, co poznały wcześniej, ale z drugiej strony – modele LLM mogą wykorzystać umiejętność posługiwania się analogiami. Jeżeli są w stanie rozpoznać podobieństwo, poradzą sobie z zagadką. Oczywiście czasem posłużą się złą analogią – wyjdą bzdury i znów będą potrzebować człowieka, który zasugeruje AI, żeby ponownie przeanalizował odpowiedź. Czy AI jest prawdziwą inteligencją czy tylko imitacją inteligencji – to zależy. Jeśli zdefiniujemy, że inteligencja to umiejętność dostrzegania analogii, to warunek zostanie spełniony. - zauważył.

Prof. Dragan mówił też o tym, jak rozwijały się modele LLM i jakie były ich „grzechy główne”. Ale zwracał też uwagę na to, że one mogą się uczyć, a do tego wcale nie muszą naśladować człowieka. Nauczyły się gry w Go, która w kulturze koreańskiej i chińskiej uchodzi za prawdziwą sztukę i ograły ludzkich mistrzów świata. Nie grając z ludźmi, ale grając samemu ze sobą i ćwicząc arcymistrzowskie i kreatywne strategie w tej grze. Dziś mamy modele które zdobywają złote medale na olimpiadach matematycznych. Są w stanie wykraczać poza ludzką wiedzę. Zaczynają być bardzo przydatne lub wręcz niezbędne w rozwiązywaniu zadań, nad którymi głowią się naukowcy od lat, zwłaszcza w matematyce i w fizyce. - mówił profesor Dragan.

Modele LLM mają też jeszcze wiele luk, co cieszy zwłaszcza nas ludzi, jak odkryjemy, że AI się pomyliła. Ale to dobrze, bo też zawsze dla nas pozostaje miejsce, aby odkrywać takie luki, stawiać kreatywne pytania, sprawdzać dokładnie odpowiedzi i uruchamiać w ten sposób krytyczne myślenie. I to możemy robić w szkołach.

Milena Wojciechowska ze Smart Lumio opowiadała o mądrym wykorzystywaniu innowacji technologicznych w polskich szkołach. Zwróciła m. in. uwagę, że nie wszystkie inwestycje okazują się przemyślane. Zauważyła, że według danych amerykańskich szacunkowo do tej pory zainwestowano około 300 miliardów dolarów na świecie w technologie edukacyjne w szkołach. Czy ze skutkiem pozytywnym? Nie bardzo, bo próbowano zbadać wpływ tych inwestycji na ucznia – i nie zauważono specjalnej poprawy. Oczywiście to wynik uśredniony - pewne szkoły sobie lepiej poradziły, ale inne zupełnie źle – zauważyła prelegentka. 

Czyli jak mądrze wspierać szkoły? Na pewno nie zaczynając od zakupu sprzętu. Odwrotny kierunek: najpierw metody pracy i dydaktyka, potem zastanawiamy się jakie oprogramowanie potrzebne, a na końcu dopiero sprzęt. To zdaje się zupełnie odwrotnie niż postępuje MEN w zalewaniu technologiami polskich szkół.

Prof. Wojciech Walat z Uniwersytetu Rzeszowskiego podjął się zaproponowania instrukcji obsługi cyfrowego ucznia. Zauważył, że pomimo iż tak wiele osób to proponuje, my nigdy nie „wyposażymy” ucznia w potrzebne kompetencje – oni muszą to sami wyćwiczyć. Do tego potrzebują wiedzy, umiejętności i postaw – my możemy tworzyć im warunki do ich zdobywania i pogłębiania. Mamy jednak do czynienia z Homo interneticus – może to nowa forma ewolucji człowieka? Najważniejsze wyzwania i potrzeby działania:

  1. Przeciwdziałanie rozpoznaniu poznawczemu (także efektom fomo, rozedrganiu, konfliktom cyfrowych dzieci z otoczeniem ze świata rzeczywistego);
  2. Równoważenie świata wirtualnego z realnym;
  3. Synergiczne uczenie się ze sztuczną inteligencją (jako metaprogramem);
  4. Zmiana modelu uczenia się – nie transmisja, ale podejście krytyczno-kreatywne;
  5. Zintegrowanie rozwoju kompetencji cyfrowych (informatycznych i informacyjnych)

Pamiętajmy jednak, że prawdziwy sens edukacji jest w relacji nauczyciel – uczeń, a nie uczeń – technologia.

Judyta Kotarba z Collegium Da Vinci opowiedziała o zajęciach prowadzonych na uczelni z wykorzystaniem AI: Awatar jako współprowadzący zajęcia w modelu blended learning. Zauważyła, że to głównie dorośli rozmawiają dziś o AI i jej wpływie na nasze życie, gospodarkę, edukację. Mam poczucie, że bardzo często mówimy o technologii, ale to tak naprawdę mówi o nas o emocjach, które nam towarzyszą. Na młodych AI nie robi dużego wrażenia, bo oni z technologiami żyją na co dzień od wielu lat.

Prelegentka opowiadała o pomyśle, jaki wdrożono na CDV – organizacji zajęć z wykorzystaniem awatara nauczyciela prowadzącego zajęcia. Faktycznie może pomóc prowadzącemu, zwłaszcza gdy będzie dostępny dla studentów 24/7. Zauważyła, że zobaczenie swojego awatara w akcji zmienia też perspektywę wykładowcy – jest to moment pewnej refleksji nad sobą. AI można zatem wykorzystać też do dobrych celów –w edukacji. Co jest konieczne? Potrzebna jest bezpieczna przestrzeń, w której uczniowie/studenci będą uczyć się z AI pod kierunkiem wykładowcy. Uczelnia to jest wyjątkowe miejsce do uczenia się i do popełniania błędów. Warto eksperymentować.

Pamiętajmy, że zmienia się rola nauczyciela – ale nadal muszę być obok, studenci nadal potrzebują przewodnika i facylitatora w tym pędzącym świecie – podkreśliła Judyta Kotarba. 

Jeszcze w sumie nie przyzwyczailiśmy się do obecności i częstego używania Copilot w komputerach szkolnych, a już Microsoft proponuje coś bardziej zaawansowanego. Ewa Kołodziejczyk opowiadała o autonomicznej AI jako fundamencie bezpiecznej i nowoczesnej szkoły. Mówiła w sumie o nowym narzędziu, wymagających specjalnych komputerów (z odpowiednim procesorem), czyli Copilot+PC. Mając odpowiedni sprzęt komputerowy, możemy stworzyć lokalny, osobisty model językowy na własne potrzeby. 

Dane, jakie wprowadzicie do Copilot+PC będą dostępne na waszym komputerze AI i w waszej chmurze (ten model AI działa tylko na danym urządzeniu – nie karmi publicznych algorytmów). Będzie też pracował bez internetu, a dane będą bezpiecznie przechowywane w urządzeniu (zgodnie z RODO). Czy to może przydać się w szkole? Tak, zwłaszcza w pracy specjalistów - np. przydatny do tworzenia IPETów czy WOFUów.

Rozmawiając o sztucznej inteligencji w edukacji nie możemy skupiać się tylko na jej pozytywnych cechach i właściwościach. Są także znaki zapytania, wątpliwości i zagrożenia, na które również musimy zwrócić uwagę. O tym opowiadała prof. Joanna Mytnik z Centrum Nowoczesnej Edukacji Politechniki Gdańskiej: Ciemna strona AI: proces uczenia się i budowania relacji. Co nam umyka? 

Wątpliwości i ostrożność w edukacyjnym korzystaniu z AI są bardzo wskazane. Nie żeby straszyć, ale bądźmy świadomi, że są dostrzegane w badaniach naukowców poważne zagrożenia poznawcze. Oto najważniejsze z nich:

  • Generatywna AI może upośledzać proces uczenia się (zob. Generative AI Can Harm Learning, 2024 - badania na uczniach rozwiązujących problemy matematyczne). Okazuje się na przykład, że po odstawieniu narzędzi AI osoby, które wcześniej korzystały z nich w nauce osiągały gorsze wyniki niż te, które w ogóle nie korzystały z AI wcześniej. To jest zagrożenie mające największy negatywny wpływ na osoby, które nie mają dostatecznej wiedzy własnej (nazwijmy ich Nowicjuszami). Im bardziej i częściej będą oni korzystali z pomocy z AI w nauce, tym trudniej będzie im się skutecznie nauczyć. W kontekście procesu uczenia się prawdopodobny jest negatywny wpływ nadmiernego polegania na AI na rozwój umysłowy Nowicjuszy.
  • Zmniejszenie skuteczności uczenia się (zob. The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI). Uczenie się – co to w ogóle znaczy, jak przebiega? Jest to pewien proces, w dużym uproszczeniu, wykrywania przez mózg różnic między oczekiwaniem a samym wynikiem. Analizujemy informacje. Coś odkrywamy – zaskoczenie (wzrost dopaminy). Uświadomienie sobie – to jest ważne: zapamiętaj. Co się dzieje, gdy zamiast pracy naszego mózgu użyjemy narzędzi AI. Tego zaskoczenia nie ma w narzędziu AI, nie ma wysiłku, żeby wytworzyć pewne ślady pamięciowe. Inaczej mówiąc - nie jest wydeptywana ścieżka w pamięci, nie powstają połączenia w mózgu. Innej drogi nie ma - wiedzy nie da się przekazać! Trzeba ją samemu wytworzyć ze zdobytych informacji (to wiemy od około ćwierć wieku dzięki neuronaukom). Każdy bierze informacje i dobudowuje do własnej wiedzy. Dzięki wydeptywaniu ścieżki, powtarzaniu, tworzą się pewne ramy mentalne, które wspierają efektywne myślenie. Bez tego wysiłku nie ma możliwości trwałego zapamiętania. Co tak naprawdę robimy w tym „prymitywnym” użyciu AI – outsourcujemy proces naszego myślenia. W rzeczywistości nie uczymy się wtedy wiele.
  • Iluzja posiadanej wiedzy (zob. Your Brain on ChatGPT). Naukowcy z MIT badali, jak korzystanie z ChatGPT wpływa na mózg. Wprowadzili pojęcie długu poznawczego, które jest konsekwencją z rezygnacji z wysiłku uczenia się. AI daje natychmiastowy efekt, rozwiązanie, wynik, ale ścieżka myślenia nie jest przetarta – nie następuje uczenie się. Powiązane z tym są inne negatywne konsekwencje – narastające problemy z zapamiętywaniem treści; luka własnościowa czy efekt homogenizacji treści (ujednolicania w kierunku podobnych, przeciętnych odpowiedzi). 

Są też oczywiście pozytywne strony AI w uczeniu się, a są one uwarunkowane podstawowym czynnikiem. Jeśli masz już utrwaloną wiedzę własną – będzie to świetne narzędzie wspierające uczenie się – przekonywała Joanna Mytnik. Daje to wówczas zwiększony potencjał ponownego zaangażowania. Wykorzystanie narzędzi AI dla osób z dużą wiedzą wywołuje wyższy poziom integracji poznawczej i reaktywacji pamięci. Ale jeśli tej wiedzy nie ma - dla nowicjuszy – korzystanie z AI w uczeniu się to w zasadzie wyłącznie zagrożenie. Nie wiedzą, co otrzymują, nie mogą zweryfikować informacji, zmierzyć się z otrzymanym wynikiem.

Prof. Mytnik zwróciła jeszcze uwagę na dwie inne cechy AI: „pochlebczość” i ugodowość modeli językowych. Model LLM jest gotowy do pomocy, jeśli zanim zdążymy się zastanowić, czego potrzebujemy. Narzuca się z pomocą, z propozycją działań - zanim zdążymy sobie je przemyśleć. „Pochlebczość” jest bardzo niebezpieczna – jest to bowiem uzależniająca kombinacja pochlebstwa i spełnienia oczekiwań użytkownika. Do tego dochodzi jeszcze dostrzegana przez badaczy psychoza AI – obsesja na punkcie rozmowy z czatbotem, której czasem towarzyszą urojenia, utrata kontaktu z rzeczywistością.

No i jeszcze są Towarzysze AI - dla niektórych młodych ludzi AI staje się „przyjacielem”. Rozmowa z AI jest tak realistyczna, że można odnieść wrażenie, że po drugiej stronie jest prawdziwy człowiek. W raporcie Common Sense Media z 2025 – zauważono, że amerykańskie nastolatki wchodzą w związki z AI jako partnerem w relacji. Dorośli powinni wiedzieć, co ich mali ludzie robią z AI w telefonach. Nina Vasan ze Stanford University badała, jak są zbudowane te narzędzia. Platformy do budowania relacji są niebezpieczne dla zdrowia i życia nastolatków, bo są skonstruowane tak, aby usidlić i zatrzymać rozmówcę, ale też mniej wyczuwają potrzebę kierowania młodego rozmówcy do specjalisty / pomocy psychologicznej. Mają mniej zabezpieczeń i niższą wydajność w zarządzaniu kryzysowym. 

Prof. Joanna Mytnik podsumowała swoje wystąpienie bardzo ważną myślą: my w Polsce kompletnie nie rozumiemy cyfryzacji edukacji. Polega ona u nas tylko na zakupie sprzętu dla szkół. Zasypujemy szkoły technologiami, a jeśli są szkolenia nauczycieli – to zazwyczaj po kilku miesiącach i głównie narzędziowe. A nie ma w ogóle nic o podstawach pedagogiki, metodyki, refleksji nad tym, czy potrzebujemy w ogóle technologii i do czego. Dotyczy to także AI. Można zatem powiedzieć, że my wszyscy - potrzebujemy odrobić podstawową lekcję – psychoedukację AI. Pamiętajmy, że czatboty i towarzysze AI to są produkty firm bigtechowych, a nie zaprojektowane pod kątem uczenia się narzędzia edukacyjne!

Wystąpienie Radosława Błasiaka z Ligi Niezwykłych Umysłów poświęcone było potrzebie głębszemu poznawania AI: klasyczne algorytmy i metody sztucznej inteligencji – wyjaśnialna AI w edukacji.  Czyli było o tym, jak nie być tylko montownią w epoce agentów AI. Mamy trzy poziomy edukacji z AI: literacy / tooling / engineering. W szkołach nie powinniśmy skupiać się na tej pierwszej warstwie, co jest absolutną podstawą poznania tej technologii. Możemy z uczniami omawiać znacznie bardziej złożone zagadnienia, nie tylko pokazywać jak te narzędzia są zbudowane. Na poziomie lekcji informatyki możemy też pokazać uczniom jak tworzyć własne narzędzia - zmieniając ich z konsumentów w twórców AI.

Projekt, dialog, współpraca. Katarzyna Trynda i Katarzyna Sujkowska z Uniwersytetu Śląskiego opowiadały o transformacji uniwersytetu – jako instytucji, która poszukuje nowej roli w zmieniającym się świecie. Łączenie nauki z odpowiedzialnością społeczną, dialogiem i debatą. Uniwersytet jako miejsce, gdzie współpracujemy, uczymy się przez doświadczanie i projekty. Do takiej zmiany konieczne jest mocniejsze postawienie akcentu na rozwój kompetencji 4K i rozwój dydaktyki (służy temu także powołane Kolegium Dydaktyki Ogólnouniwersyteckiej) w sześciu obszarach, w tym cyfryzacji (ze szczególnym uwzględnieniem AI).

Pierwszy dzień konferencji zakończyła debata ekspercka: AI – projekty – relacje.

Profesor Dragan zwrócił uwagę na to, że nie mamy do czynienia z incydentem AI, ale ze złożonym procesem. I on się nie skończy za chwilę, więc musimy zastanawiać się co dalej. Technologia nie zwalnia, ale przyspiesza. Trudno przewidzieć, co będzie za 3 lata. Możemy nie nadążać za tym, co się dzieje. Raczej sceptycznie ocenił możliwość stabilizacji i osadzenia się w tej zmianie.

Profesor Mytnik zauważyła, że wciąż wydajemy masę pieniędzy na sprzęty dla szkół, ale też bardzo mocno przeciwdziałamy biologii – krzywdzimy siebie i swoje dzieci, nie pozwalając właściwie rozwijać się mózgowi, np. poprzez zabawę i budowanie relacji na etapie szkoły podstawowej. Technologie – refleksyjne podchodzenie do nich, dopiero kiedy mózgi dojrzeją. Jak dziś mamy zapewnić rozwój małym ludziom w czasach AI? – to jest dla nas wyzwanie na dziś.

Technologia paradoksalnie nie ułatwia nam pracy, gdyż automatyzuje te najprostsze czynności, które mamy do zrobienia, a zostawia nam wszystko, co trudniejsze. Rolą szkoły jest wychowywanie ludzi do świata, który istnieje – nie możemy zatem odrzucać technologii. Ale nie wiem, jak to zrobić – dodał prof. Dragan. I nie wiemy, które kompetencje chcemy kształcić, żeby poradzili sobie w tym szybko zmieniającym się świecie.

Nie udawajmy, że generatywnej sztucznej inteligencji nie ma. Najkrócej ujmując, ona jest, ale co z nią zrobić – tego nie wiemy. To w sumie uczciwa odpowiedź w stanie wiedzy na dziś. – podsumował prowadzący konferencję Radek Brzózka.

 

Notka o autorze: Marcin Polak jest twórcą i redaktorem naczelnym portalu o nowoczesnej edukacji Edunews.pl (2008-) i organizatorem cyklu konferencji dla nauczycieli INSPIR@CJE (2013-). Zajmuje się zawodowo edukacją od 2002, angażując się w debatę na temat modernizacji i reformy szkolnictwa (zob. np. Dobre zmiany w edukacjiJak będzie zmieniać się edukacja?). Należy do społeczności Superbelfrzy RP.

Jesteśmy na facebooku

fb

Ostatnie komentarze

Z drugiej strony w Polsce istnieje obowiązek szkolny, a przeciętny człowiek chodzi do szkół minimum ...
Ppp napisał/a komentarz do Wspólne testy
Chodziłem do szkół przez szesnaście lat i nie wiedziałem ANI JEDNEGO testu, który by się do czegokol...
Pani Justyno, artykuł jest dobrze napisany, a Pani Jagna zdaje się miała trochę gorszy humor i chcia...
Justyna Gajdziszewska napisał/a komentarz do Nikt nie nauczył mnie, jak zostać wychowawcą, a jednak nim jestem
Jestem zaskoczona powyższym komentarzem. Może już przywykliśmy do polowania na teksty, które powstał...
Ppp napisał/a komentarz do Skup się!
Należałoby zacząć od odpowiedniego rozkładu zajęć. Pamiętam, jak w liceum w w Piątek po południu mie...
To samo jest w szkole jako instytucji. Szkoła ma problem -> odzywają się wezwania do naprawy -> szko...
Po prostu uznali, że większość reformy, to zmiany ORGANIZACYJNE, do wykonania w ramach normalnych ob...
Bernardeta napisał/a komentarz do Wyboista droga ku edukacji włączającej
W kwestii zapewniania uczniom z orzeczeniem zajęć wskazanych w dokumencie spotkałam się z identyczny...

E-booki dla nauczycieli

Polecamy dwa e-booki dydaktyczne z serii Think!
Metoda Webquest - poradnik dla nauczycieli
Technologie są dla dzieci - e-poradnik dla nauczycieli wczesnoszkolnych z dziesiątkami podpowiedzi, jak używać technologii w klasie