Ten artykuł jest krótkim komentarzem do raportu „AlgoPolska. Zautomatyzowane podejmowanie decyzji w służbie społeczeństwu” i obroną algorytmów przed niesłusznie stawianymi im zarzutami. Staramy się również studzić emocje i nadzieje wiązane ze sztuczną inteligencją, która w ostatnich latach stała się przysłowiowym hot cake zarówno w luźnych dyskusjach, jak i na forach niemal każdej konferencji naukowej.
Z zaciekawieniem przeczytałem Raport polecony w artykule Człowiek i sztuczna inteligencja, który można podsumować tytułem tego artykułu: Wszystkiemu winne są algorytmy i dodatkowo sztuczna inteligencja. Pojawia się jednak pewien kłopot w dyskusji z autorami raportu. Termin „algorytm” występuje 126 razy na 60 stronach, większość „zarzutów” stawianych algorytmom wynika jednak z niezrozumienia tego pojęcia i wyolbrzymienia ich roli w podejmowaniu decyzji, chociaż w raporcie przyznaje się (str. 52), że „koniecznością jest podstawowa znajomość zasad działania algorytmów oraz umiejętność ich wykorzystania ze świadomością tworzonych przez nie szans i zagrożeń.”
Można więc znaleźć w raporcie takie sformułowania, jak: „brak przejrzystości algorytmów”, „skutki delegacji decyzyjności na algorytmy”, „błędy w rozumowaniu algorytmów”, „wybory dokonywane przez algorytmy”, „algorytmy decydują za nas”, „w ten sposób przeszłe uprzedzenia – dotyczące na przykład osób czarnoskórych – są powielane przez algorytm”, „algorytmy stają się pracodawcami”, „sąd orzekł, że algorytm jest błędny i niekonstytucyjny”, „stronniczość algorytmów”, „porównanie leków do algorytmów”, „sprawiedliwość algorytmu”. Sformułowania te, chociaż wyrwane z kontekstu także w szerszym kontekście raportu nie świadczą o postulowanej „znajomość zasad działania algorytmów oraz umiejętność ich wykorzystania”.
Niektóre sformułowania trącą nawet science fiction: „Współpraca człowieka z algorytmem może być wzajemnym uzupełnieniem, harmonijną symbiozą, ale charakterystyka algorytmów potrafi też być dla człowieka zwodnicza. Człowiek, posiadający inteligencję ogólną i elastyczną, niejako zakłada, że dla algorytmu również nie powinno to być problemem.”
Podobnie, jak w przypadku algorytmu, jest z precyzją w odniesieniu do sztucznej inteligencji (SI) i uczenia maszynowego. „Sztuczna inteligencja, tak jak wcześniej Internet, stopniowo wywiera wpływ na wszystkie sfery życia jednostek, także tych niekorzystających z niej bezpośrednio. Możemy więc mówić o epoce sztucznej inteligencji, która nastąpiła po epoce Internetu.” Trzeba jednak zauważyć różnicę między tymi epokami. Z Internetu może korzystać każdy, a mechanizmy SI może uruchamiać tylko ten, który ma dostęp do dużych danych (ang. big data). Obecnie największe korzyści z Internetu czerpie nie szary użytkownik ery Internetu, ale właśnie ci posiadacze dużych danych gromadzonych z Internetu, dla których stanowią one „pożywkę” dla mechanizmów SI. Dzieje się tak czasem z korzyścią dla szarego użytkownika – przykładem tego może być translator Google oferujący przekłady w 100 językach, korzystający przy tym ze sztucznych sieci neuronowych. Używając słów z raportu (str. 11) wydaje się jednak, że jego autorzy „mają w głowach wyobrażenia sztucznej inteligencji niejednokrotnie daleko odbiegające od prawdziwego charakteru postępującej transformacji.”
Pójdźmy za słowami autorów raportu (str. 50), „najwyższa pora uznać, że algorytmy nie są czarnymi skrzynkami, podejmującymi decyzje, których nie można w żaden sposób i na żadnym poziomie wyjaśnić.”
Algorytm opisuje krok po kroku rozwiązanie postawionego problemu lub sposób osiągnięcia jakiegoś celu. W informatyce, algorytm jest tworzony dla specyfikacji problemu, która precyzyjnie określa dane i wynik problemu oraz związki między nimi. Dalszym krokiem może być komputerowa realizacja algorytmu (zwana implementacją) w postaci programu komputerowego. I zapewne w takim sensie występuje algorytm w raporcie. Niektóre z cytowanych powyżej cech i właściwości algorytmów to wynik odniesienia się autorów raportu do ich inteligentnego lub pozbawionego inteligencji działania. Warto jednak uświadomić sobie, że:
maszyna [komputer] jest inteligentna inteligencją programisty.
i pamiętać, że:
„… maszyna [analityczna] nie ma aspiracji, by zapoczątkować cokolwiek. Potrafi wykonać cokolwiek, my wiemy, jak to wykonać”
Oba cytaty pochodzą sprzed boomu SI, jaki teraz obserwujemy. Pierwszy z 2005 roku to wypowiedź Edwarda Nęcki, naukowego autorytety w dziedzinie inteligencji, a drugi z 1843 to fragment z Notes Ady, uznany ponad sto lat później przez Alana Turinga za Lady Lovelace's Objection.
Jeśli więc program komputerowy przejawia nieoczekiwane działania, scharakteryzowane cytatami powyżej, to wynika to zapewne albo z projektu algorytmu lub jego komputerowej realizacji, albo niedostosowania algorytmu lub programu do warunków, w których ma być stosowany. W żadnym wypadku winy nie można zrzucić na algorytm ani na komputer – za wszystkim stoją ludzie podejmujący decyzje na kolejnych etapach realizacji i to oni ponoszą odpowiedzialność.
Po tym przydługim wstępie chciałbym skomentować (cytaty z artykułu) „cztery przykłady z Polski i zagranicy” pokazujące według autorów, „jakie skutki może mieć utrata kontroli nad sztuczną inteligencją w obszarze edukacji.” Wszystkie te przykłady można podciągnąć pod jeden schemat: pewną grupę osób należy przydzielić do innej grupy i obie strony mają być zadowolone: dzieci do żłobków, studentów do uczelni, wykładowców do uczelni, nauczycieli do szkół. Każda z grup dodatkowo ujawnia swoje preferencje jako stopień zadowolenia z przydziału. Na ogół w takich problemach istnieje wiele możliwych przydziałów, ale jedno z kryteriów satysfakcjonujące obie grupy, zyskało sobie największą popularność. To tak zwane przydziały stabilne, zapewniające w pewnym sensie trwałość przydziałów i zadowolenie wszystkich stron uczestniczących. Aby określić, na czym polega taki przydział, wyobraźmy sobie, że mamy 10 tancerzy, 10 tancerek i należy połączyć ich w pary taneczne. Każda z tych osób, osoby z drugiej grupy ma ustawione w kolejności preferencji wyboru. Ich przydział (czyli połączenie w pary) nazywamy stabilnym lub trwałym, jeśli nie ma wśród nich żadnych dwóch par, w których tancerz z jednej pary i tancerka z drugiej pary, a więc tacy, którzy nie tworzą pary, wolą siebie bardziej niż swoich obecnych partnerów, nie będą więc w tańcu rozglądali się za innymi potencjalnymi partnerami. D. Gale i L. S. Shapley w 1962 roku opracowali matematyczny model takich przydziałów i wykazali, że takie przydziały istnieją dla jakichkolwiek preferencji. Podali również odpowiedni algorytm, bardzo intuicyjny, który można stosować również do nierównolicznych grup. O znaczeniu tego problemu i algorytmu świadczy fakt, że w 2012 roku, 50 lat później, Shapley wraz z A. E. Rothem (D. Gale już nie żył) otrzymali Nagrodę Nobla z ekonomii za the theory of stable allocations and the practice of market design. Tyle teoria.
Ani w artykule, ani w raporcie nie jest podane, jakie były powody niezadowolenia w czterech przykładowych przydziałach. Jeśli każda ze stron miała dokładnie zdefiniowane preferencje i zastosowano algorytm stabilnych przydziałów, to nie ma żadnego uzasadnienia opinia iż doszło do „utraty kontroli nad sztuczną inteligencją”, a w przypadku Wrocławia, że „algorytm był źle zaprogramowany” – źle zaprogramowany algorytm nie powinien się dać uruchomić na komputerze. Mam przekonanie graniczące z pewnością, że w żadnym z tych czterech przypadków nie zastosowano żadnej z metod sztucznej inteligencji. Co więcej, wątpię, że zastosowano algorytm Gale’a i Shapley’a z pełną informacją o jego działaniu udzieloną obu stronom, nie byłoby bowiem reklamacji w sytuacji pełnej świadomości obu stron co do zastosowanej metoda, na którą wcześniej zgodziły się wszystkie strony.
Optymistycznie mogą brzmieć rozważania w raporcie, w których zamiast obarczania winą algorytów, dyskusja dotyczy zautomatyzowanych systemów podejmowania decyzji ADM (Automated Decision Making), chociaż akronim ADM nie powinien być kojarzony z algorytmicznymi systemami podejmowania decyzji (Algorithmic Decision Making), by algorytmy nie stawały się „chłopcem do bicia”, gdy mowa o aspektach społecznych. Jednak nawet jeśli będzie się unikać pojęcia algorytm w opisie systemów automatycznych, czyli komputerowych, to algorytm pojawia się nieuchronnie. Każdy system lub prosty program komputerowy jest bowiem niczym innym, jak zapisem algorytmu, często bardzo złożonego, w języku zrozumiałym przez komputer.
Na zakończenie chciałbym dodać, że zgodnie z nową podstawą programową kształcenia informatycznego w szkołach, od 2017 roku przez 11 lat pobytu w szkole na lekcjach informatyki wszyscy uczniowie zapoznają się z podstawami algorytmiki i programowania, przechodzą więc postulowaną w raporcie „alfabetyzację algorytmiczną”, poznając także wspomniany powyżej algorytm tworzenia stabilnych (trwałych) przydziałów (patrz rozdz. 11 w książce M. M. Sysło, Piramidy, szyszki i inne konstrukcje algorytmiczne, Helion, Gliwice 2015). Dotykają również przejawów sztucznej inteligencji pracując z różnymi robotami lub internetowymi botami. Wkrótce, do podstawy programowej informatyki zostanie dopisany aneks zawierający elementy sztucznej inteligencji. Szczegóły można znaleźć w pracy „Inteligencja +”, dostępnej tutaj: https://iwe.mat.umk.pl/node/31, która jest bardzo przystępnym opisem historii sztucznej inteligencji i udziału współczesnej technologii we wspieraniu ludzkiej inteligencji.
O autorze: Maciej M. Sysło jest matematykiem i informatykiem, profesorem UMK w Toruniu i Uniwersytetu Wrocławskiego. Pracuje również w Warszawskiej Wyższej Szkole Informatyki. Od prawie 30 lat kształtuje edukację informatyczną w polskich szkołach; autor podstaw programowych, podręczników, poradników, oprogramowania edukacyjnego; organizator konferencji krajowych i międzynarodowych, prelegent i wykładowca.
Ostatnie komentarze