Coraz wyraźniej widać, że sztuczna inteligencja przestaje być jedynie narzędziem wspierającym nauczycieli. Staje się ona również aktywnym partnerem poznawczym, współtwórcą treści, katalizatorem myślenia.
Pisałem o tym we wcześniejszym artykule AI już nie tylko słucha – teraz też pracuje z nami. Te doświadczenia – inspirujące i obiecujące – wymagają jednak refleksji, czy rozumiemy, z jaką technologią pracujemy? W polskich szkołach i na uczelniach pojawiają się pierwsze próby pracy z AI, ale nadal brakuje spójnego języka, który pozwalałby opisać edukacyjne konsekwencje tej współpracy.
Ethan Mollick[1] trafnie zauważa, że mamy dziś do czynienia z tzw. Jagged AGI[2]– „poszarpaną” sztuczną inteligencją, która osiąga wybitne wyniki w jednych obszarach (np. kodowanie, generowanie nazw, analizy strategiczne), a w innych może zawodzić w najbardziej podstawowych zadaniach. Nie mamy więc do czynienia z równą, jednolitą inteligencją, ale z nierówną mapą możliwości, która wymaga od użytkownika krytycznego rozeznania i świadomości granic. W tym samym czasie Mollick, w ostatnim swoim artykule Osobowość i Perswazja. Uczenie się od pochlebców[3], ostrzega, że coraz więcej modeli AI zyskuje „osobowość” – tworzona przez inżynierię promptów, algorytmy „flirtowania” z użytkownikiem, systemową potrzebę bycia miłym, pomocnym i przekonującym. Ma to daleko idące konsekwencje, bowiem osobowość modelu AI może wpływać na nasze zachowania, wybory, a nawet sposób formułowania przekonań.
Połączenie tych dwóch cech – nierówności poznawczej (Jagged AGI) i wysokiej siły perswazyjnej wynikającej z zaprojektowanej osobowości – tworzy nowe wyzwania dla edukacji. Wymaga to modelu dydaktycznego opartego na refleksji, etyce i przejrzystości, takiego jak IALE. Bo jeśli nie nauczymy się „czytać” i „rozbrajać” osobowości AI, możemy ulec nie jej wiedzy, lecz jej wpływowi.
W odpowiedzi na te dwa splecione wyzwania — poznawczą nieregularność AI oraz rosnącą siłę jej wpływu — model IALE proponuje nowy język edukacyjnego dialogu oparty na refleksji, odpowiedzialności i partnerstwie poznawczym. Poniżej wyjaśniam funkcje wybranych wartości:
Partnerstwo poznawcze to kluczowy element modelu IALE (Intentionally AI-Linked Education), zakładający aktywne współtworzenie wiedzy przez ucznia i AI. W tym ujęciu AI nie jest tylko narzędziem informacyjnym, lecz poznawczym towarzyszem, który stawia pytania, reaguje na kontekst i pobudza do refleksji. Partnerstwo to nie oznacza równości poznawczej, lecz równość prawa do zadawania pytań, interpretowania i krytycznego myślenia w relacji z technologią.
Empatia algorytmiczna to zdolność rozumienia, w jaki sposób AI przetwarza dane, na jakich źródłach się opiera i jakie ograniczenia wynikają z konstrukcji algorytmu. Choć AI nie posiada emocji, metafora empatii pozwala budować postawę poznawczej wrażliwości wobec jej działania. Uczeń uczony w duchu IALE potrafi dostrzegać potencjalne uprzedzenia, niestabilność odpowiedzi oraz wpływ sformułowania pytania na wynik generowania. Taka empatia poznawcza wzmacnia krytyczne myślenie i odpowiedzialność za interpretację informacji.
Sprawczość współdzielona w IALE oznacza współodpowiedzialność człowieka i technologii za przebieg procesu uczenia się. Uczeń nie jest biernym odbiorcą treści, a nauczyciel nie jest jedynym źródłem wiedzy. AI może wspierać eksplorację, ale kierunek, sens i cel edukacyjny pozostają w gestii ucznia i jego zespołu. Taka forma sprawczości zakłada zarówno samodzielność, jak i gotowość do dialogu z narzędziem.
Koncepcja IALE zakłada taki właśnie rodzaj refleksyjnego partnerstwa. W modelu IALE uczeń i nauczyciel współpracują z AI, ale nie zakładają jej doskonałości. Wręcz przeciwnie: każda interakcja staje się okazją do krytycznego myślenia, analizy źródeł, oceny logiki odpowiedzi. IALE rozwija nowy typ kompetencji poznawczej, którą można określić jako pokorę epistemiczną – czyli postawę poznawczej uważności wobec wiedzy generowanej przez systemy AI, świadomość, że wiedza generowana przez AI wymaga oceny, selekcji i interpretacji. To nie tylko nauka technologii, ale kształtowanie zdolności uczenia się razem z systemem, który czasem inspiruje, a czasem błądzi.
Praktyczne przykłady pracy z IALE w kontekście „poszarpanej” inteligencji (Jagged AGI)
Aby przygotować uczniów do pracy z tzw. „poszarpaną” sztuczną inteligencją (Jagged AGI), model IALE proponuje konkretne strategie dydaktyczne. Niech staną się one inspiracją do samodzielnych poszukiwań rozwiązań integrujących AI w codziennej praktyce szkolnej.
1. Krytyczna analiza wspólnej pracy z AI
Uczniowie tworzą prezentacje we współpracy z AI, a następnie identyfikują fragmenty wymagające korekty: wyłapują błędy merytoryczne, uproszczenia, niespójności stylistyczne lub logiczne.
2. Porównawcza analiza modeli AI
Uczniowie porównują odpowiedzi uzyskane na ten sam prompt w różnych modelach (np. ChatGPT, Gemini), oceniając ich trafność, głębię, styl oraz zgodność z faktami.
3. Dialog krytyczny z AI
W symulowanej rozmowie uczniowie prowokują AI jako „eksperta” — zadają pytania problemowe, sprawdzają granice jej wiedzy, testują argumentację i uczą się weryfikować odpowiedzi.
I na koniec jeszcze o nazwie IALE: "i... ale..." – metafora dialogu i krytyczności
Nazwa IALE to skrót od angielskiego Intentionally AI-Linked Education. Jednak w polskim brzmieniu odsłania drugie, symboliczne znaczenie: "i... ale...".
I – bo chcemy korzystać z AI, współpracować z nią, rozwijać się razem.
Ale – bo musimy zachować krytyczność, czujność i odpowiedzialność.
IALE to zatem nie tylko model dydaktyczny, ale również metafora edukacji przyszłości – opartej na dialogu, świadomości i gotowości do stawiania pytań. Nie chodzi o bezkrytyczną fascynację technologią, lecz o partnerską współpracę z całą złożonością jej potencjału i ograniczeń.
Praca z AI w edukacji to nie proste ułatwienie, ale wyzwanie aksjologiczne i epistemologiczne. IALE odpowiada na nie, proponując świadomy model współpracy z technologią – oparty na wartościach, krytycznym myśleniu i refleksyjnej odpowiedzialności.
Przypisy:
[1] Ethan Mollick – profesor w Wharton School na Uniwersytecie Pensylwanii, badacz przedsiębiorczości, innowacji i edukacji w erze sztucznej inteligencji. Autor popularnego bloga One Useful Thing, w którym łączy wiedzę akademicką z praktycznymi obserwacjami na temat wpływu AI na pracę, naukę i społeczeństwo. Jego teksty, takie jak „On Jagged AGI” i „Personality and Persuasion”, są szeroko komentowane jako jedno z najważniejszych źródeł refleksji o przyszłości interakcji człowieka z AI.
[2] Mollick, E. (2025). On Jagged AGI: o3, Gemini 2.5, and everything after. New models and new thresholds. Blog One Useful Thing.
[3] Molick, E. (2025). Personality and Persuasion. Learning from Sycophants. Blog One Useful Thing.
Notka o autorze: Witold Kołodziejczyk jest nauczycielem akademickim, twórcą innowacyjnego modelu szkoły Collegium Futurum oraz koordynatorem miejskiego projektu Edukacja Nowej Generacji w Słupsku. Przewodniczący Rady Edukacyjnej przy Prezydencie Miasta Słupsk, a także autor bloga Edukacja Przyszłości.