Jak daleko sięga władza algorytmów?

fot. Fotolia.com

Narzędzia
Typografia
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

Technologie oparte na zaawansowanych algorytmach oraz sztucznej inteligencji są rozwijane, bo w sytuacji złożonych problemów podejmują decyzje lepsze, trafniejsze niż człowiek. Im jednak technologia staje się bardziej złożona i niezależna od ludzkiej kontroli, tym mniej z nas rozumie jej działanie, a lęki związane z jej dalszym rozwojem stają się powszechne. Jak broniąc się przed faktycznymi zagrożeniami nie stracić wszystkich dobrodziejstw, które daje nam rozwój? Z prof. Michałem Kosińskim rozmawia Miłosz Szymański, redaktor podcastu „Głos Kongresu Obywatelskiego”.

MS: Technologie coraz bardziej wchodzą w nasze życie, ale też coraz częściej mówimy o zagrożeniach z nimi związanych. Czy to słuszna perspektywa?

MK: W moich badaniach zajmuję się przede wszystkim problemami, jakie nowe technologie wnoszą do naszego życia. Znaczna większość naszych interakcji z technologią kończy się jednak szczęśliwie. Nowe technologie czynią nasze życie łatwiejszym, bardziej efektywnym. Dzięki nim nasza gospodarka rozwija się szybciej, a nasze kontakty ze współpracownikami czy z przyjaciółmi stają się lepsze. Bez wątpienia postęp technologiczny jest dla jednostek, dla organizacji, narodów czy państw bardzo pozytywny. Aby utrzymać ten dobry trend i korzystać z dobrodziejstw, które technologia nam przynosi, musimy jednak rozmawiać i myśleć o problemach, które ona stwarza. A takich wyzwań jest niemało – to utrata prywatności, manipulacje opinią publiczną na wielką skalę czy rozpowszechnianie teorii spiskowych i nieprawdziwych informacji. Także szybki rozwój sztucznej inteligencji nie jest jednoznaczny. Z jednej strony pomaga nam np. optymalizować decyzje, analizować dane czy nawigować w przestrzeni, ale ponieważ już teraz wykorzystujemy AI np. do sterowania rakietami czy systemami obronności, to należy się obawiać, że błąd w działaniu sztucznej inteligencji może być dla nas bardzo kosztowny.

Ostatnio dron samodzielnie podjął decyzję o ataku na podstawie algorytmów stworzonych przez człowieka. Czy algorytmy mogą nam zacząć zagrażać?

Algorytmy od bardzo długiego czasu zarówno nam zagrażają, jak i usprawniają nasze życie. Zwróćmy uwagę na to, że kultura, religia, prawo to są także algorytmy. Co więcej, od dawna pozwalamy aby te algorytmy decydowały o życiu ludzkim i o naszym losie. Każdy rozsądny obywatel czy urzędnik przyzna, że żaden człowiek nie powinien być ponad prawem. Jeśli zauważymy, że prawo to też algorytm, to okazuje się, że od tysięcy lat żyjemy w społeczeństwach, w których algorytmy wynoszone są na piedestał i dajemy im prawo ostatecznego głosu. Chyba nikt nie powie jednak, że praworządność, to coś niepożądanego.

Problem jest oczywiście taki, że prawo (choć czasem bardzo skomplikowane) generalnie jest przez człowieka pisane i interpretowane – jesteśmy w stanie zrozumieć rządzące tym algorytmem zależności. Nowoczesne algorytmy AI stają się coraz bardziej „czarną skrzynką” – ich działanie jest niemożliwe do objęcia ludzkim rozumem. To pewnego rodzaju proces ewolucyjny – im algorytmy stają się lepsze w podejmowaniu decyzji i rozwiązywaniu naszych problemów, tym bardziej oddajemy im prawo decydowania i zarządzania naszym życiem i naszym społeczeństwem. Równocześnie stają się one coraz bardziej skomplikowane, więc coraz trudniej jest nam przewidzieć jak dany algorytm w danej sytuacji się zachowa. To oczywiście ma sens, bo jeśli pojedynczy człowiek czy zespół byłby w stanie przewidzieć, jaką algorytm podejmie decyzję, to do niczego byśmy takiego algorytmu nie potrzebowali. Jeśli połączymy te dwa procesy zachodzące równolegle, to widzimy, że w pewnym momencie musimy dojść do sytuacji, w której jesteśmy zarządzani „czarną skrzynką” i nie mamy pojęcia jak ona działa. Jeśli taki algorytm któregoś dnia popełni błąd, może okazać się, że nie zorientujemy się o tym, aż będzie za późno, a pomyłka będzie bardzo kosztowna.

O tym jak wyglądają od środka takie „czarne skrzynki” dowiadujemy się najczęściej od sygnalistów, czyli osób, które tworzyły zaawansowane rozwiązania oparte na algorytmach i z jakichś względów zdecydowały się ujawnić kulisy swojej pracy. Najnowsza afera wybuchła wokół Frances Haugen, byłej dyrektorki Facebooka. O co tym razem chodzi?

To, co jest w tej aferze najważniejsze, to że w tym wypadku opieramy się nie na opiniach czy poglądzie jakiegoś byłego pracownika, lecz są dostępne bogato opisane dokumenty Facebooka. Powstało już wiele opracowań na tej podstawie, ale to może być wierzchołek góry lodowej, który został odsłonięty opinii publicznej.

Z dokumentów, które ujawniła Frances Haugen wynika, że Facebook wie o wielu problemach, które sam stworzył, ale nie wie jak o nich rozmawiać i jak je rozwiązać. Bardzo ciężko jest stworzyć nową technologię, która będzie miała wpływ na świat, ale z drugiej strony – mieć pewność, że ten wpływ będzie tylko pozytywny. Weźmy na tapetę jakąkolwiek inną technologię – od ognia i żelaza aż do węgla czy energii nuklearnej. Rozwój zawsze przynosił nam błogosławieństwa, ale także niesamowite problemy.

To samo odnosi się do sieci społecznościowych – to nowa technologia, która przynosi nam wiele dobrego: pozwala łączyć się efektywnie z ludźmi, rozmawiać z rodziną, zwiększać liczbę znajomych, z którymi możemy w sposób bierny czy aktywny utrzymywać kontakt. Na co dzień krytykuję Facebooka, jednak trzeba przyznać, że ten portal przyniósł światu bardzo dużo korzyści. Połączył nas i zmienił świat na lepsze.

Ta technologia, jak każda inna, ma wiele problemów. Nie wydaje mi się jednak, żeby Mark Zuckerberg wstawał codziennie rano i planował, jak zniszczyć naszą planetę, jak podzielić społeczeństwo. Nie wierzę, że wszyscy jego pracownicy przychodzą każdego ranka z zamiarem unicestwienia świata (a wielu z nich znam osobiście, to moi sąsiedzi). Osoby tam pracujące starają się po prostu dobrze robić swoją robotę, bez wątpienia także zarobić pieniądze, ale to nie jest zły instynkt w gospodarce kapitalistycznej. Zachęcamy firmy, żeby produkowały produkty i usługi, które ludzie chcą zakupić, za które chcą płacić (w przypadku Facebooka – za które reklamodawcy chcą płacić). Jeśli te firmy tworzą równocześnie jakieś nowe problemy, to my jako społeczeństwo musimy je analizować i starać się te firmy regulować.

Powiedziałbym nawet, że nadzieja na to, że Facebook rozwiąże swoje problemy samodzielnie, czy że przemysł olejowy czy tytoniowy rozwiążą same z siebie problemy, które stworzyły, jest nie tylko poglądem naiwnym, ale także niebezpiecznym. Zadaniem regulatora (polityków i administracji, ale też wywierającego presję społeczeństwa) jest upewnić się, że gospodarka idzie we właściwym kierunku i że zasady, które obowiązują nas­‑obywateli i firmy są dla nas­‑obywateli i społeczeństwa korzystne. To nie jest zadanie Facebooka – on powinien się skupić na tym, by robić swoją robotę dobrze i zarabiać pieniądze, a my powinniśmy powiedzieć mu, czego od niego oczekujemy w kontekście dobra społecznego.

Zdaniem Frances Haugen zarządzający Facebookiem wiedzą, że użytkowanie Facebooka czy Instagrama powoduje u nas „dopaminowe kopy” porównywalne do narkotycznych. Wiedzą, że stworzyli narkotyk ale nadal używają go tak, by zarobić jeszcze więcej pieniędzy…

Oczywiście, że tak. Jeśli jesteś pisarzem i piszesz nowego Harrego Pottera, to starasz się go tak napisać, by dzieciaki czytały go od rana do wieczora, a najlepiej i przez całą noc. Jeśli tworzysz film czy serial tv, to angażujesz cały swój wysiłek, by widownia była przyklejona do ekranu. Jeśli jesteś muzykiem i tworzysz utwór muzyczny, też chcesz, by był on jak najbardziej atrakcyjny. To oczywiste, że jeśli ktoś tworzy produkt, usługę, dzieło sztuki, to kieruje się tym, by te rzeczy były jak najbardziej atrakcyjne, by ludzie je jak najbardziej lubili.

To nie jest zadanie dla autora książki, żeby upewniać się, że dzieciaki jedzą, piją i śpią, a nie tylko czytają jego książkę. To jest zadanie społeczeństwa, rodziców, aby tworzyć taki system, gdzie obok bardzo przyjemnych i atrakcyjnych rzeczy są też skuteczne mechanizmy kontroli. Niektóre bardzo przyjemne rzeczy, jak np. heroina powinny być po prostu zakazane, bo są zbyt niebezpieczne. Inne, takie jak np. różnego rodzaju rozrywki – książki, seriale kryminalne czy Facebook, powinny być przez ludzi, społeczeństwo, rodziców, nauczycieli rozsądnie dawkowane. Powinniśmy z nich korzystać, a jeżeli ktoś zaczyna przesadzać i zatracać się w tym na wiele godzin dziennie (co wpływa negatywnie na jego samopoczucie, karierę czy życie), to powinien ten czynnik zostać ograniczony lub usunięty.

To samo odnosi się do alkoholu. Wspaniale jest napić się lampki dobrego wina, ale jeśli staje się to codziennością, zaczynamy nadużywać alkoholu, to jest to rzecz niepożądana. Nie powinniśmy jednak domagać się od producentów wina, by produkowali niesmaczne wino, bo wtedy ludzie by go nie pili. Powinniśmy skupić się raczej na lepszej organizacji społeczeństwa, na regulacji i na edukacji, jak z różnego rodzaju używek rozsądnie korzystać.

W 2013 r. prowadził Pan nowatorskie badania, które dużo powiedziały nam o mechanizmie działania algorytmów Facebooka jeszcze przed aferą Cambridge Analitica. Ujawnił Pan, że Facebook ma wystarczająco dużo informacji, by budować nasze profile psychologiczne, by targetować na nas dokładnie wybrane reklamy. Dziś wiemy, że wykorzystanie tego mechanizmu wpłynęło na wybory w Stanach Zjednoczonych, w których wygrał Donald Trump, bo w kilku kluczowych stanach ludzie otrzymywali precyzyjnie skrojone pod siebie reklamy, co prawdopodobnie zadecydowało, że zagłosowali tak, a nie inaczej. Wiemy więc, że jeden człowiek, jedna firma ma dość władzy, by wpływać na naszą rzeczywistość.

Bez wątpienia jest to niesamowite zagrożenie. Nie przejmowałbym się więc raczej tym, że starzy czy młodzi lubią sobie posiedzieć na Facebooku trochę za długo albo dzielą się w ten sposób teoriami spiskowymi – owszem, to rzeczy problematyczne, ale to nie sprawa najwyższej wagi. Należy się jednak przejmować tym, że firmy takie jak Facebook, Google, Microsoft czy Apple dysponują niesamowitą ilością danych o obywatelach wielu krajów i są w stanie przełożyć to na niesamowitą siłę wywierania wpływu na indywidualnych ludzi (np. zmienianie, dyskretne moderowanie wiadomości czy informacji, które do nich docierają) oraz posiadają niesamowitą moc ekonomiczną. Miliardy dolarów zysku pozwalają im wywierać wpływ na polityków czy całe państwa. To, że tyle siły jest zgromadzonej w rękach kilku przedsiębiorców w Dolinie Krzemowej, to nie tylko wielkie zagrożenie dla społeczeństwa, ale ma to także negatywny wpływ na postęp technologiczny. Wiemy doskonale, że monopole spowalniają postęp gospodarczy i rozwój nowych technologii.

Usługi internetowe naturalnie dążą do centralizacji, przykładowo lepiej robi się zakupy w sklepie gdzie jest dostępne wszystko niż tylko część rzeczy, których potrzebujemy. Podobnie jest w przypadku platform z filmami. W większości krajów świata ludzie naturalnie przeszli z innych serwisów społecznościowych na Facebooka. Internet ma tendencję do promowania jednego najpopularniejszego medium, wyszukiwarki, sklepu itd. Skala popularności Facebooka pozwoliła mu zebrać gigantyczne ilości danych: lajków, interakcji, udostępnień. Facebook wie z kim rozmawiałem częściej, z kim rzadziej, jakie posty lajkowałem, jakich nie, jakich ludzi miałem w znajomych, a jakich nie zapraszałem. Na podstawie pozornie maleńkich okruszków danych Facebook jest teraz w stanie zbudować bardzo dokładny obraz mnie jako człowieka.

Nie każdy zdaje sobie sprawę, że nasze reakcje w sieci społecznościowej – lajki, wpisy, zdjęcia to tylko wierzchołek góry lodowej. Okazuje się, że na podstawie tych danych proste algorytmy komputerowe są w stanie stworzyć nasz dokładny profil psychologiczny, odtworzyć z dużym prawdopodobieństwem nasze poglądy polityczne, orientację seksualną, religijność, osobowość, inteligencję, a nawet przewidzieć czy pijemy alkohol lub palimy papierosy. Algorytm jest nawet w stanie przewidzieć, czy nasi rodzice byli rozwiedzeni czy nie – bo ma to w jakimś stopniu wpływ na nasze zachowanie.

Zebranie tak kompleksowej wiedzy pozwala nie tylko zbudować nasz psychologiczny profil, ale też przewidzieć nasze przyszłe zachowanie. A to już zazwyczaj wystarcza, aby wybrać produkt czy usługę, którą najlepiej spróbować nam sprzedać przez Facebook, ale też by przewidzieć jak zareagujemy na daną manipulację psychologiczną, która ukierunkowana jest na to, by zniechęcić nas do głosowania na konkretnego kandydata w wyborach.

Wiemy już, że do takich technologii i algorytmów ma dostęp Facebook, ale również wiele firm technologicznych (mogą to być nawet małe firmy np. startupy) czy służby różnych krajów, które korzystają z Facebooka w sposób dla nikogo niewidoczny. Facebook nie ma zresztą łatwych metod weryfikacji, które pozwalałyby odróżnić zwykłego użytkownika, który lubi danego polityka i wygłasza o nim samodzielnie pochlebne opinie, a czasem nawet wykupuje jakąś reklamę żeby przekonać nieprzekonanych znajomych, od bota lub użytkownika finansowanego przez służby obcych krajów zachowującego się w ten sam sposób.

Jeżeli nakarmimy algorytm danymi tysiąca osób o podobnych cechach, to możemy z dużą dozą prawdopodobieństwa powiedzieć, że tysiąc pierwsza osoba będzie zachowywała się podobnie. Z Pana badań wynika, że osoby o krótko przystrzyżonej brodzie mają tendencję do posiadania poglądów bardziej liberalnych, a ci z wąsami – bardziej konserwatywnych. Skoro 1000 osób z wąsami miało poglądy raczej konserwatywne, to 1001 na 67 proc. także będzie miała takie poglądy. W ten sposób na bazie prostych cech wyglądu budowany jest obraz człowieka. Przywodzi mi to na myśl sposób, w jaki pisze się powieści albo scenariusze filmowe – żeby pokazać postać, która nie jest głównym bohaterem, mamy kilka akapitów, kilka scen, gdzie trzeba zarysować pewne cechy charakteru, aby widz lub czytelnik mógł sobie wyobrazić, kim tak ogólnie jest ta osoba i wyrobić zdanie, czy jest ona dobra czy zła.

Bardzo rzadko pojedynczy czynnik, jak np. posiadanie wąsów czy lajkowanie wpisów danej marki, umożliwia przewidywanie z dużą dokładnością poglądów politycznych czy czegokolwiek innego. Większość tego typu czynników zmienia prawdopodobieństwo tego, że ktoś jest konserwatystą czy liberałem o ułamki procenta. Ponieważ jednak coraz więcej czasu spędzamy w rzeczywistości wirtualnej i zostawiamy setki czy tysiące cyfrowych śladów każdego dnia, to nawet jeśli każdy z takich malutkich okruszków informacji (przeczytanie książki w internecie, zostawienie komentarza pod artykułem, posiadanie wąsów na zdjęciu itd.) pomnożymy przez setki czy tysiące okazji do zebrania takich „okruchów” wiedzy o nas, to okaże się, że nawet bardzo prosty algorytm jest w stanie z wielką dokładnością przewidzieć nasze poglądy, preferencje czy przyszłe zachowania. Niestety żyjemy więc w rzeczywistości, gdzie prywatność staje się przywilejem, który może być bardzo łatwo odebrany przez zmotywowaną osobę, firmę czy wywiad obcego kraju.

W przypadku ludzi, którzy są na Facebooku aktywni przez kilkanaście lat możemy być pewni, że dostarczyli oni ogromną porcję informacji na swój temat. Tymczasem konta na Facebooku ma około 2 mld ludzi! Co Facebook jest w stanie wyczytać z naszego zachowania? Co może o nas powiedzieć na podstawie naszej aktywności na platformie? A co – tylko i wyłącznie – na podstawie np. zdjęcia?

Okazuje się, że nawet zdjęcie może powiedzieć o człowieku bardzo dużo. Niektóre z takich rzeczy są oczywiste, tak jak np. wiek, płeć, emocje, albo czy człowiek jest chory czy zmęczony. Nam samym określenie pewnych cech czy stanów innych ludzi z ich twarzy przychodzi nam tak łatwo, że często zapominamy, że jest to możliwe. Okazuje się, że jesteśmy nawet w stanie z pewną (bardzo małą) dokładnością określić poglądy polityczne innych ludzi czy ich osobowość na podstawie ich zdjęcia. To dowód na to, że nasze fotografie zawierają jakiś okruszek informacji dotyczący tych cech.

Tak jak w wielu innych dziedzinach, także i tutaj algorytmy są od nas dużo lepsze. Prosty algorytm rozpoznawania twarzy jest w stanie wyczytać z naszego wizerunku cechy osobowości czy poglądy polityczne. Oczywiście to jeszcze jeden powód, dla którego powinniśmy przyjąć w końcu do wiadomości, że żyjemy w świecie, gdzie nasza prywatność choć powinna być chroniona, jest raczej niemożliwa do zagwarantowania.

Pora zatem na kasowanie zdjęć?

Nie powinniśmy zapominać, że algorytm wie o nas o wiele więcej niż można wyczytać z samego zdjęcia. Wystarczy, że wyczyta historię naszych logowań, zapisów używania telefonu komórkowego, dane z wiadomości tekstowych, które wysyłamy, albo z konta na Facebooku albo Gmailu. Jest też wiele innych informacji, na których algorytmy mogą się dziś oprzeć, by naszą prywatność nam odebrać.

Większość z nas zgodzi się, że prawo powinno chronić naszą prywatność. Firmy, które naszymi danymi zarządzają lub je zbierają, powinny chronić je jak najbardziej to możliwe. Jednak nawet perfekcyjne prawo i etyczne firmy które nasze dane będą chronić i się nimi z nikim nie dzielić, nie zagwarantują nam, iż nasze dane nigdy wyciekną, nikt ich nigdy nie ukradnie, nikt ich przez pomyłkę gdzieś nie opublikuje. To trochę tak jak z pożarami – oczywiście powinniśmy budować ognioodporne budynki i wdrażać prawo, które ryzyko pożarów minimalizuje, ale powinniśmy też inwestować w strażaków. Tak samo należy postępować z prywatnością – powinniśmy starać się zarządzać naszymi danymi ostrożnie i chronić prywatność, ale też tworzyć prawo, reguły społeczne i technologie w taki sposób, że nawet jeśli te dane wyciekną, to nikomu nie stanie się krzywda.

W jaki sposób możemy zatem skutecznie się chronić?

Niestety nie ma na to prostego rozwiązania. Żyjemy w świecie, w którym informacja o naszych poglądach politycznych, preferencjach seksualnych, czy religijności może być niesamowicie niebezpieczna. Jeśli wydaje się nam, że nieprzyjemnie byłoby utracić prywatność takich informacji w kraju takim jak Polska, to wyobraźmy sobie, co czują ludzie, którzy mieszkają w Afganistanie czy Arabii Saudyjskiej, gdzie jest to często sprawą życia lub śmierci.

Niestety coraz trudniej będzie prywatność zagwarantować. Dlatego powinniśmy radykalnie dążyć do tego, by edukować nasze i inne społeczeństwa, by chronić mniejszości religijne, polityczne czy seksualne zarówno prawnie jak i normami społecznymi. Powinniśmy uczyć tolerancji i oczekiwać jej od innych. W przeszłości mieliśmy „listek figowy” w postaci prywatności. Jeśli ktoś był ateistą czy gejem, a żył w środowisku, gdzie było to nieakceptowane, osoba taka mogła taką informacją ukryć i jakoś tam przetrwać. Dziś osoba taka ma coraz mniej możliwości kontroli nad swoją prywatnością, w związku z tym nie mamy czasu do zmarnowania – musimy jak najszybciej przekształcać nasze społeczeństwa i systemy prawne, by były bardziej otwarte i tolerancyjne.

Edukacja ma także inny wymiar – powinniśmy wykształcać jak najwięcej naukowców, którzy zajmują się tworzeniem i zrozumieniem sztucznych algorytmów, bo w ten sposób maksymalizujemy nasze szanse na dalsze korzystanie z dobrodziejstw nowych technologii i unikanie związanych z nimi zagrożeń.

Można sobie wyobrazić, że na podstawie mojej twarzy zeskanowanej przy wejściu do sklepu zostaną mi wyświetlane konkretne reklamy, ponieważ algorytm będzie wiedział, że chcę kupić ciemne buty a nie jeansy. To może jednak pójść dalej, w pewną dystopię, gdzie na podstawie twarzy będziemy sortowani na różne grupy społeczne, będziemy traktowani zupełnie inaczej, zaczniemy funkcjonować w swego rodzaju apartheidzie. Możemy sobie też wyobrazić sytuację, w której na podstawie informacji zebranych z mojego telefonu algorytm będzie wiedział, że często kupuję alkohol i nocami szybko się przemieszczam (pewnie jadę samochodem) – połączywszy jedno z drugim stwierdzi, że jeżdżę po spożyciu alkoholu i moja stawka na ubezpieczenie powinna wzrosnąć.

To wszystko już się dzisiaj przecież dzieje. Nasze społeczeństwo jest segregowane na podstawie np. testów zdawanych na uczelni. Jeśli dobrze pan wypadł i zdobył wspaniałe kompetencje, żyje pan w innej dzielnicy, w bloku z płotem i ochroną, a jak pan nie zdał, życie toczy się inaczej. To, że jesteśmy segregowani na bazie naszych cech umysłu czy cech fizjologicznych, to rzeczywistość, w której żyjemy od zawsze.

To, czego powinniśmy się domagać, to pewne podstawowe poczucie bezpieczeństwa – nie każdy z nas będzie miał tyle szczęścia, żeby przykładowo urodzić się z predyspozycjami na dobrego piłkarza – ale przecież nie chodzi o to, żeby na WF‑ie i w życiu takie osoby siedziały w kącie. Społeczeństwo powinno pomóc w stworzeniu „planu B”. Jako dziecko chciałem być pilotem, ale nie mam wystarczającej koordynacji ręka­‑oko i pilotem zostać nie mogłem. Był dla mnie jednak alternatywny plan kariery, mam inne pole, na którym się spełniam. Segregacja sama w sobie nie jest złem. Problemem jest to jak traktujemy ludzi, którzy w tej segregacji „przegrywają”.

Wracając zaś do Pana przykładu z osobą kupującą dużo alkoholu i wsiadającą do samochodu – jeśli ktoś lubi sobie po spożyciu alkoholu pojeździć, to powinniśmy nie tylko podwyższyć mu stawkę ubezpieczenia, ale w ogóle odebrać prawo jazdy! W takim wypadku siła algorytmów mogłaby być wykorzystana do zwiększenia społecznej kontroli nad zachowaniami, które nieprzypadkowo uznajemy za społecznie szkodliwe i niebezpieczne.

Dziś już i tak żyjemy całkowicie w środowisku jak z filmu pt. Raport mniejszości, gdzie można przewidzieć przyszłość i ukarać winnych jeszcze przed popełnieniem zbrodni. Przykładowo – w większości szkół podstawowych jest psycholog, a przynajmniej regularnie się pojawia. Obserwuje on zachowania dzieci i stara się wyłapać te, które mają problemy np. z poziomem agresji czy ze skupieniem się na nauce i stara się im pomóc poprzez terapię czy poradę. Dzięki jego pracy udaje się nie tylko poprawić życie tym konkretnym dzieciom, ale też całemu społeczeństwu – uchronić nas od niekontrolowanej agresji drugiego człowieka czy nieumiejętności współpracowania z innymi. To pozytywna cecha naszej cywilizacji, że staramy się negatywne zachowania wyłapywać możliwie wcześnie i wdrażać profilaktykę. Algorytmy i sztuczna inteligencja pozwolą nam tylko wejść w tej praktyce na wyższy poziom.

Jeśli wyobrazimy sobie, że praca psychologa społecznego mogłaby być wspomagana algorytmami, które podpowiedzą jak lepiej i skuteczniej pomóc ludziom, to predykcja algorytmiczna przestaje się wydawać taka straszna. Złymi konsekwencjami byłoby, gdybyśmy wykorzystywali takie algorytmy do tego, żeby odebrać ludziom dostęp do usług czy jakichś benefitów, które w społeczeństwie otrzymujemy. Albo gdybyśmy chcieli tych ludzi uwięzić czy podzielić ich na jakieś frakcje, które są ze sobą w konflikcie.

Ten negatywny scenariusz jednak też się już przecież dzieje – w Chinach od kilku lat rozbudowywany jest system ratingu społecznego. Na podstawie liczby zdobytych przez obywatela punktów można różnicować to, w jaki sposób państwo się do niego odnosi. Na liczbę punktów wpływają zachowania konsumpcyjne, to czy dany obywatel był za coś karany czy nie, ale też np. czy dobrze się wypowiadał publicznie. Nie mówiąc o tym, że w Państwie Środka odchodzi się od obrotu gotówkowego i algorytm sterowany przez państwo może każdemu wyłączyć dostęp do własnego e‑portfela.

Tak działa też europejski system scoringu kredytowego. Jeśli pójdzie Pan do banku z prośbą o kredyt na mieszkanie czy samochód albo uda się do firmy oferującej abonamenty na telefon, to firma także sprawdzi, czy opłacał pan rachunki w terminie i spłacał swoje kredyty. Odmówi ona panu usługi, jeśli okaże się, że był pan konsumentem czy kredytobiorcą nierzetelnym. Może się to wydawać rzeczą niepożądaną, ale okazuje się, że dla społeczeństwa jest to bardzo użyteczne – przede wszystkim zwiększa to zaufanie banków i operatorów komórkowych do klientów. Bez takiej metody weryfikacji kredyty bankowe otrzymywałoby jeszcze mniej wnioskujących, bo banki musiałyby być bardziej ostrożne.

Podobny system jak w Chinach działa na Allegro czy eBayu, gdzie jeśli sprzedawca czy klient nie wywiąże się z umowy albo zrobi coś nieuczciwego, to zostanie to odzwierciedlone poprzez liczbę gwiazdek czy punktów solidności. I nikt z klientów tych platform nie narzeka na ten system, ponieważ pozwala to odróżnić sprzedawców dobrych i rzetelnych od tych, którzy traktują klientów nieuczciwie. Co więcej, system ten wynagradza uczciwych sprzedawców – to ważna zachęta. Trudno wyobrazić sobie działanie takiej platformy jak Allegro bez systemu reputacji.

Moje zestawienie systemu Allegro z systemem wdrażanym przez rząd Chin ma pokazać, że problemem nie jest sam system reputacji, ale to, kto nim zarządza – czy jest to autorytarny rząd, który będzie go wykorzystywał do tego, by np. zwalczać opozycję polityczną, czy korzysta z niego instytucja czy firma, która system taki wykorzystuje do poprawy życia. Na przykład system reputacji na Allegro umożliwia ludziom sprzedawanie i kupowanie usług i towarów przez internet w sposób efektywny i bezpieczny.

To sprowadza się do pytania o to, kto skontroluje kontrolujących?

Specjaliści od sztucznej inteligencji zapewne zaproponowaliby nam stworzenie osobnego algorytmu, który będzie kontrolował pozostałe algorytmy. Ale wtedy pojawia się odwieczne pytanie, kto będzie kontrolował ten kontrolujący algorytm?

Najczęściej zapewne byłaby to władza państwowa. Wyposażona w dostęp do całości danych o mnie właściwe byłaby nieograniczona – nie byłbym w stanie z niczym się ukryć. To wizja państwa, które wie o mnie wszystko, nawet rzeczy, których ja o sobie nie wiem. Z drugiej strony takie państwo może się mną opiekować pod każdym względem. Ten algorytm jest po prostu narzędziem jak nóż – można nim pokroić chleb albo zamordować człowieka. Problem polega na tym, czy ufamy swojemu państwu czy nie.

Firmy, rządy, i inne organizacje faktycznie wykorzystują te algorytmy żeby realizować zarówno pożyteczne, jak i niecne cele. Jednak te same algorytmy dostarczają nam, obywatelom, niesamowite nowe narzędzia i możliwości. Przykładowo – pozwalają nam wymieniać się informacjami poza kontrolą naszych rządów (również informacjami o politykach), komunikować się ponad podziałami i ponad granicami. My, obywatele, tracimy prywatność, ale tracą ją też najpotężniejsi i najbardziej uprzywilejowani.

Pod warunkiem, że nie jest tak, że władza kontroluje wszystkie środki przekazu i my – nawet używając piętnastu VPN‑ów – nie jesteśmy w stanie wyjść spod tej kontroli…

To bardzo dobra uwaga. Możliwości, które dają nam technologie często wykorzystujemy w sposób nierozsądny. Pozwalają nam one przekraczać granice nieosiągalne w przeszłości – mamy możliwość przesyłania informacji pomiędzy krajami, wolną prasę, czy też dostęp do danych organizacji takich jak np. rządy czy ministerstwa. Tymczasem my te technologie wykorzystujemy często do tego, by dzielić się teoriami spiskowymi albo manipulować ludźmi. Przestępcy wykorzystują je do przekazywania sobie pieniędzy czy informacji albo by np. handlować pornografią dziecięcą.

Z tego powodu społeczeństwa same coraz częściej domagają się, by rządzący przejęli kontrolę nad tymi niezależnymi kanałami komunikacji. To proces bardzo niebezpieczny. To, że internet pozwala nam w sposób zakodowany się ze sobą porozumiewać, wyrównuje siły rządzących i rządzonych. Daje rządzonym narzędzia do tego, by bez kontroli rządzących się zorganizować czy porozumieć. Oddając te narzędzia pod kontrolę władzy, tracimy tę równowagę.

Życie jest dziś zupełnie inne niż kiedyś. Nasi dziadkowie żyli w miastach czy wsiach, które miały po kilka tysięcy osób, więc oni w praktyce nie mieli prywatności, bo jeśli ktoś raz coś zrobił głupiego, to było mu to pamiętane, o każdym jakaś opinia krążyła po okolicy. Po drugiej wojnie światowej ludzie zaczęli migrować do miast i nagle zaczęła się era większej prywatności, bo „w domach z betonu” mieszkańcy słabo się znali. Wraz z upowszechnieniem internetu i algorytmów mamy do czynienia z odwrotnym procesem – tracimy prywatność na rzecz ludzi całkowicie obcych, którzy nie tylko nie mieszkają w naszym bloku czy mieście, ale mogą nawet żyć na drugim końcu świata. To doprowadza mnie do wniosku, że prywatność (taka jak ją teraz rozumiemy) była tylko stanem przejściowym między jednym brakiem prywatności wynikającym z bliskości, a drugim wynikającym z nowoczesnych technologii.

Pięknie pan to ujął. Może będzie tego taka zaleta, że skoro każdy może naszą prywatność odsłonić, a my możemy odsłonić prywatność każdego innego, to ludzie nie będą się tym ekscytować, przejmować. Historia pokazuje nam tego typu przykłady. Gdy na świecie był po raz pierwszy pokazywany program Big Brother, to powodował on wiele ekscytacji, ludzie nie mogli się doczekać, żeby pozaglądać co się dzieje w wielkim domu nafaszerowanym kamerami. Dzisiaj coraz częściej instalujemy natomiast kamery w swoich domach z własnej woli, w przestrzeni publicznej jesteśmy nimi otoczeni. Ponieważ stało się to tak powszechne, okazuje się, że jest w życiu wiele ciekawszych rzeczy do robienia, niż zaglądanie komuś do sypialni czy salonu. Może okazać się tak, że jeśli wszyscy tę prywatność powoli stracimy (co już się zaczęło), to nikogo nie będzie wcale ekscytować kto w co wierzy, jakie ma poglądy polityczne, albo z kim sypia – stanie się to informacją nudną, dla każdego dostępną.

Chyba nie jest przypadkiem że autorem Big Brothera są Holendrzy. W Królestwie Niderlandów był taki zwyczaj, że w oknach nie wieszało się zasłon. Podobno wziął się on z tego, że wśród Holendrów było bardzo wielu marynarzy i żołnierzy, którzy wypływali w dalekie kraje rządzić, administrować i handlować. W związku z tym wiele kobiet żyło bez mężczyzn i ten brak zasłon był narzędziem pewnego rodzaju społecznej kontroli – ludzie mogli widzieć, czy tym samotnym kobietom przypadkiem nie dzieje się krzywda. Jakiekolwiek nie było pochodzenie tego zwyczaju, faktem jest, że po dziś dzień on się utrzymał. Pytałem Holendrów czy im to nie przeszkadza, że każdy może im zajrzeć do domu. Wszyscy odpowiadali w podobnym duchu, że wiedzą, że każdy to może zrobić, ale nie mają nic przeciwko, bo nie ma tam po prostu zwyczaju, żeby zaglądać komuś przez okno. Czy naszą przyszłością jest właśnie taki holenderski dom, do którego każdy może zajrzeć? Czy jesteśmy gotowi na to, by się cudzym życiem nie interesować? Czy będziemy w stanie mieć dość tolerancji, by z tego, czego już się dowiemy, nie czynić nikomu przykrości ani przytyków?

Jest tu jeszcze inny aspekt – obecnie jeśli jakaś osoba ma preferencje lub poglądy nieakceptowane w danym środowisku, np. żyje w małym miasteczku w Polsce i jest gejem, to będzie chronić swoją prywatność dla własnego dobra i bezpieczeństwa. Jeśli tą prywatność straci – będzie to niestety miało bardzo przykre konsekwencje. W środowisku, gdzie tej prywatności nie ma i okazuje się, że kilka procent ludzi w każdym małym miasteczku, wioseczce, parafii jest osobami orientacji homoseksualnej, to może spotkają się one z większą tolerancją. Gdy kościół, armia, politycy zorientują się, że nie da się ukryć, że kilka proc. księży, wojskowych, policjantów, prawicowych polityków to osoby o orientacji homoseksualnej, to dużo trudniej będzie szerzyć homofobię i brak tolerancji.

Widzieliśmy to np. w USA, gdzie Harvey Milk postulował, aby ludzie – jeśli mogą sobie na to pozwolić – „wychodzili z szafy”. Ostrzegał, że będą za to płacić cenę, ale przekonywał, że cel jest tego wart. Sam zapłacił za to cenę najwyższą – został zamordowany za swoją orientację. Ale dzięki bohaterstwu jego i jemu podobnych bohaterów, którzy byli gotowi tę cenę zapłacić, żyjemy dziś w Stanach Zjednoczonych w środowisku, gdzie dużo bezpieczniej jest być gejem, czy – mówiąc ogólnie – „być innym”. Nie jest to jeszcze sytuacja perfekcyjna, daleko nam do ideału, ale jest to świat dużo lepszy niż 20 czy 40 lat temu.

Mam nadzieję, że jeżeli będziemy kontynuować ten dialog, to utrata prywatności, której się obawiam, tak bardzo nam nie zaszkodzi, a może nawet przyniesie pozytywne przemiany społeczne, których jeszcze nie jesteśmy w stanie do końca przewidzieć. Poradziliśmy sobie z ogniem, żelazem i energią jądrową, mam nadzieje, że poradzimy sobie także z algorytmami.

 

O rozmówcy: Prof. Michał Kosiński – profesor w Graduate School of Business na Uniwersytecie Stanforda, psycholog i analityk danych. Jego badania koncentrują się na badaniu ludzi przez pryzmat cyfrowych śladów pozostawionych podczas korzystania z platform i urządzeń cyfrowych. Wcześniej był zastępcą dyrektora University of Cambridge Psychometrics Centre, pracownikiem naukowym Microsoft Research oraz post‑doc w Stanford Computer Science Department.

Niniejszy wywiad stanowi merytoryczną zapowiedź VII numeru Pomorskiego Thinklettera pt. "Człowiek vs. algorytmy i sztuczna inteligencja – kto kogo zaprogramuje?", który zostanie opublikowany w najbliższych dniach na stronie www.kongresobywatelski.pl.

 

Edunews.pl oferuje cotygodniowy, bezpłatny (zawsze) serwis wiadomości ze świata edukacji. Zapisz się:
captcha 
I agree with the Regulamin

Jesteśmy na facebooku

fb

Ostatnie komentarze

E-booki dla nauczycieli

Polecamy dwa e-booki dydaktyczne z serii Think!
Metoda Webquest - poradnik dla nauczycieli
Technologie są dla dzieci - e-poradnik dla nauczycieli wczesnoszkolnych z dziesiątkami podpowiedzi, jak używać technologii w klasie