Informacja zwrotna oraz rzetelna ocena umiejętności: nierozłączna i skuteczna para

fot. Fotolia.com

Narzędzia
Typografia
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

W swojej wpływowej książce “Visible Learning” Prof. John Hattie wskazuje „informację zwrotną” (ang. feedback) jako jedno z najskuteczniejszych narzędzi podnoszących jakość nauczania i uczenia się (zob. polskie wydanie „Widoczne uczenie się dla nauczycieli”). Analizy te potwierdza przegląd badań autorstwa Education Endowment Foundation (EEF) z Wielkiej Brytanii, stwierdzający, że istnieje silna pozytywna zależność między dawaniem informacji zwrotnej a wynikami uczniów (zob. tutaj). Badacze podkreślają, że efektywność informacji zwrotnej zależy od tego, w jaki sposób jest prowadzona, a przede wszystkim na czym jest oparta. Oceny opierające się o subiektywne opinie i wyrywkowe informacje, którym brak osadzenia w dobrze określonych celach nauczania nie powinny być podstawą głębszej komunikacji między uczniem i nauczycielem. Może to prowadzić do przekazywania błędnych lub powierzchownych informacji, które mogą nawet utrudnić uczenie się i nauczanie.

Czym jest „feedback” i jakie przynosi efekty? Według definicji ze stron EEF „informacje zwrotne to informacje przekazane uczącemu się i / lub nauczycielowi dotyczące wyników ucznia w odniesieniu do celów nauczania. Informacja zwrotna powinna mieć na celu poprawę jakości nauczania i dawać podstawę do jej uzyskania.” Mamy tu więc do czynienia z komunikacją budowaną wokół diagnozy wiadomości i umiejętności uczniów, mającej na celu wskazanie sposobów ich poprawy. Komunikacja może dotyczyć nauczycieli i uczniów, ale także nauczycieli i innych nauczycieli, czy też rozmowy między uczniami. Ważne, aby komunikacja ta opierała się o rzetelną diagnozę i była nastawiona na osiągnięcie dobrze zdefiniowanych rezultatów.

Jak skuteczna jest informacja zwrotna? Większość badań wskazuje na relatywnie wysokie pozytywne efekty. W skali używanej przez Prof. Hattie „feedback” podnosi efekty nauczania o ponad dwa razy więcej niż przeciętna interwencja. Analizy EEF sugerują, że przeciętnie „feedback” podnosi efekty nauczania o równowartość ośmiu miesięcy nauki i należy do najbardziej efektywnych metod. Jednocześnie wiele badań wskazuje, że umiejętne wykorzystanie informacji zwrotnej jest często trudne. Wymaga wsparcia nauczycieli i znacznych inwestycji w ich rozwój zawodowy. Jak wspomniano, informacja zwrotna powinna także opierać się o rzetelną diagnozę wiadomości, umiejętności i postaw uczniów.

Kluczową kwestią jest więc dostęp do rzetelnych narzędzi oceny wiadomości i umiejętności uczniów. W polskich szkołach jako podstawę do oceny uczniów często wykorzystywane są albo wyniki egzaminów, albo też różnego rodzaju testy i sprawdziany przygotowywane przez nauczycieli lub dostępne w podręcznikach i/lub Internecie. Te narzędzia dają jednak ograniczone możliwości diagnozy. Wyniki egzaminów zewnętrznych dostępne są dopiero pod koniec danego etapu nauczania i dotyczą uczniów już odchodzących ze szkoły. Nie mogą być więc podstawą dla bieżącej pracy z uczniem. Testy dostępne w podręcznikach mają tę zaletę, że są powiązane z celami nauczania określonymi przez program i plan pracy zawarty w podręczniku. Ich wyniki nie dają jednak podstawy dla szerszych porównań, bowiem nie pokazują np. jak uczniowie wypadli w porównaniu z rówieśnikami w całym kraju czy na tle innych grup. Trudno więc na ich podstawie określić jak relatywnie do innych radzą sobie uczniowie i gdzie szukać ich mocniejszych czy słabszych stron.

Podstawę dla pogłębionej diagnozy wiadomości i umiejętności mogą stanowić badania wykorzystujące sprawdzone narzędzia testowe. Takim badaniem były Kompetencje 2017 przygotowane przez Fundację Naukową Evidence Institute. W badaniu tym udział wzięło kilkaset szkół z całej Polski oraz blisko 20 tys. uczniów. Badanie Kompetencje 2017 dotyczyło wiadomości i umiejętności z zakresu matematyki, nauk przyrodniczych oraz podstawowej wiedzy ekonomicznej. Z tej diagnozy szkoły mogły dowiedzieć się także o postawach uczniów względem matematyki czy też wobec współpracy w grupach. Wszyscy uczniowie oraz szkoły uczestniczące w badaniu otrzymały raporty ze szczegółową diagnozą i porównaniami swoich rezultatów z wynikami w całej Polsce. Było to możliwe dzięki wykorzystaniu zadań testowych wystandaryzowanych w dużych badaniach uczniów z całej Polski. W przypadku gimnazjów, szkoły mogły także porównać swoje wyniki do skali międzynarodowego badania PISA, a więc dowiedzieć się, jak ich uczniowie wypadają w porównaniu z rówieśnikami w Niemczech czy Finlandii.

Kontynuacją tego badania jest Diagnoza Otwarcia Roku (DOR), w której udział mogą wziąć szkoły podstawowe. DOR, podobnie jak Kompetencje 2017, jest badaniem online, które uruchomić można na niemal każdym komputerze z dostępem do Internetu bez potrzeby instalacji dodatkowego oprogramowania. Badanie czytania oraz matematyki dla IV, VI i VII klas szkoły podstawowej rozpoczęło się we wrześniu, ale można w nim wziąć udział do końca października. Badanie jest darmowe i każdy uczeń w nim uczestniczący otrzyma swój wynik. Istnieje także możliwość otrzymania raportów podsumowujących wyniki całej szkoły, które, mamy nadzieję, staną się podstawą pogłębionej dyskusji o efektach kształcenia. Także tutaj zastosowano sprawdzone, rzetelne narzędzia, które umożliwiają odniesienie wyników do całej populacji uczniów i szkół w Polsce. Do badania można przystąpić rejestrując się na stronie www.diagnoza.edu.pl.

Badania prowadzone przez Fundację Naukową Evidence Institute opierają się o sprawdzone i wystandaryzowane narzędzia, co daje dobrą podstawę do rozmowy o efektach nauczania i nastawienia uczniów oraz nauczycieli. Udział w takich badaniach otwiera nowe możliwości szukania sposobów podniesienia jakości pracy szkół i uczniów. Opierając się na nich możemy rozwijać efektywną komunikację, która, według przytoczonych wyżej badań, jest jednym z najlepszych sposobów na poprawę efektywności pracy szkoły.

 

Notka o autorze: dr Maciej Jakubowski jest dyrektorem ds. naukowych w Fundacji Naukowej Evidence Institute w Warszawie, której jest założycielem. W latach 2012-2014 był wiceministrem edukacji narodowej. Wcześniej pracował w zespole zarządzającym badaniem PISA w siedzibie OECD w Paryżu.