Wkręcani przez sztuczną inteligencję

Typografia
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

Coraz trudniej będzie odróżnić czy zdjęcie lub film, które oglądamy w sieci jest prawdziwe czy nie. Sztuczna inteligencja tworzy (na ludzkie polecenie) coraz lepsze zdjęcia i wideo. Jeszcze bywają niedoskonałe, ale za kilka lat, kto wie, czy będziemy w stanie stwierdzić, czy jest prawdziwe, czy nie. Dla manipulatorów i populistów nadchodzą jeszcze lepsze czasy...

Różne fałszywe informacje w sieci, w tym te tworzone z wykorzystaniem techniki deepfake, łatwo trafiają do szerokiego kręgu odbiorców. Napotkamy je bez wysiłku, przeglądając codziennie różne media, w szczególności społecznościowe. Tworzone są nie tylko "dla beki", jak mówią młodzi, ale coraz częściej także świadomie ze złą intencją, aby komuś zaszkodzić. W polityce w zasadzie to już powstają na bieżąco. Niedawno byliśmy świadkami relacji rozmowy prezydentów Trumpa i Zełenskiego w Owalnym Gabinecie w Białym Domu, które zakończyło się kłótnią i przerwaniem spotkania. Nie minął dzień, a już można było obejrzeć fake-filmiki, w których obaj panowie okładają się pięściami podczas tej rozmowy. Minie trochę czasu i ludzie naprawdę zaczną wierzyć, że Ziemia jest płaska.

Sprawa już jest poważna także w odniesieniu do kształcenia i wychowania młodych ludzi - o czym świadczą wyniki różnych badań. Coraz więcej nastolatków staje się celem manipulacji i deepfejków. 

W Stanach Zjednoczonych co ósma osoba w wieku od 13-20 lat i co dziesiąta w wieku 13-17 lat — stwierdziła, że „osobiście zna kogoś”, kto był celem deepfejkowych nagich zdjęć. Jedna na siedemnaście przyznała, że sama była celem. Z kolei 13% nastolatków stwierdziło, że zna kogoś, kto używał AI do tworzenia lub redystrybucji deepfake pornografii nieletnich. Dane te pochodzą z badania (wrzesień-październik 2024) amerykańskiej organizacji Thorn, której misją jest ochrona dzieci przed przemocą, zwłaszcza seksualną. Raport z ostatniego badania podkreśla względną łatwość, z jaką młodzi ludzie mogą tworzyć deepfake: 71% respondentów, którzy tworzyli deepfake zdjęcia innych osób, stwierdziło, że znaleźli technologię do tego celu w mediach społecznościowych; 53% stwierdziło, że znaleźli narzędzia za pośrednictwem wyszukiwarki internetowej[1]. Narzędzia są więc powszechnie dostępne i każdy może z nich korzystać. 

A zatem też coraz częściej świadomie z nich korzystamy. Ale nie mając świadomości, że to może wyrządzić krzywdę. Raport Thorn podkreśla rozdźwięk między powszechną wiedzą nastolatków na temat deepfake’ów a postrzeganiem szkód wyrządzanych przez te obrazy. Zbyt wielu młodych ludzi nie uważa automatycznie obrazów deepfake za szkodliwe. Ale skoro podobnie jest z dorosłymi, to czemu się dziwić.

Wyniki innego badania[2], również organizacji nonprofit, która od lat specjalizuje się w badaniu internetu i wpływu technologii i dezinformacji na nasze życie wskazują, że sztuczna inteligencja i deepfake coraz częściej wprowadzają nastolatków w błąd, utrudniając im weryfikację informacji online. Według Common Sense Media już 35% amerykańskich nastolatków (13-18 lat) padło ofiarą fałszywych treści, a 22%. udostępniło nieprawdziwe informacje znajomym. Młodzi nie przechodzą obojętnie obok tych technologii - 70% nastolatków przynajmniej raz używało już narzędzi AI do tworzenia treści do sieci. Zdaniem badaczy - możemy obserwować spadek zaufanie nastolatków do bigtechów takich jak Google, Apple, MetaTikTok czy Microsoft (to akurat może i pozytywne zjawisko, w pewnym sensie...). Już 19% badanych przyznaje, że im w ogóle nie ufa, a 14% nie ma pewności, czy jeszcze ufają; małe zaufanie deklaruje 28%.

Ponieważ sztuczna inteligencja znacznie ułatwiła tworzenie fałszywych treści, coraz więcej amerykańskich nastolatków twierdzi, że są wprowadzani w błąd w internecie, coraz trudniej jest im określić, co jest prawdziwe, a co nie, natomiast sama weryfikacja zajmuje zbyt dużo czasu, a na koniec i tak nie ma pewności, że dana treść przypadkiem nie została wyprodukowana przez AI.

Wygląda na to, że wyzwania, z którymi przyjdzie nam się mierzyć, to już nie tylko sprawa szkoły, ale znacznie poważniejsza. Bez wprowadzania odpowiednich regulacji prawnych, będziemy łatwo podatni na manipulacje i różne spiskowe teorie. Już tego jest za dużo w sieci. W zasadzie to już mniej media społecznościowe, a bardziej śmieciowe. Ale myślę, że jeszcze spora część społeczeństw tego nie dostrzega. 

Początkowo problemem były tylko teksty i zdjęcia, ale dziś deepfejki to najczęściej już obrazy i wideo. Jeszcze można dostrzec i sprawdzić, czy to nie jest sfabrykowany produkt AI. Ale - tu rację mają badani nastolatkowie - dostrzeżenie różnic i błędów działania sztucznej inteligencji wymaga jednak czasu i technik niemal detektywistycznych. Zobaczmy na przykład porady Stowarzyszenia Demagog, które poświęciło jeden z wpisów rozpoznawaniu błędów w obrazach tworzonych przez AI[3]. Na co musimy zwracać uwagę:

  1. Zawsze patrz na wszystkie szczegóły obrazu. Niemal każdy błąd ma znaczenie
  2. Sprawdź, czy zdjęcie lub widoczne na nim obiekty istnieją – to proste!  Jeżeli po dokładnym przeglądzie szczegółów zdjęcie wydaje się nam prawdziwe, to warto zrobić jeszcze jedną rzecz – sprawdzić, czy osoby lub obiekty na nim widoczne w ogóle istnieją. Jak to zrobić? Z pomocą przychodzi nam wiele narzędzi, w tym m.in. Obiektyw Google, który podpowiada, jakie elementy są widoczne na fotografii, lub wskaże nam inne miejsca publikacji tego samego zdjęcia.
  3. Użyj wybranych narzędzi dedykowanych do rozpoznawania deepfake’ów. Np. od Thehive.ai – o nazwie AI-generated Image Detection. Pozwala ono ocenić, czy obraz został stworzony w generatorze grafik. Jeżeli grafika została wygenerowana w jednym z ww. generatorów, to narzędzie przedstawi nam prawdopodobny udział ingerencji AI (w zakresie od 0.000 do 1.000), nawet jeżeli wprowadzimy pewne modyfikacje.

Powołuję się na badania amerykańskie, ale możemy także sięgnąć do PISA 2022, o którym niedawno pisaliśmy[4]. Problem dotyczy także Polski. 31 procent polskich uczniów uczestniczących w badaniu PISA 2022 przyznało, że nie sprawdza rzetelności informacji, które udostępnia na portalach społecznościowych. 69 procent uczniów w Polsce porównuje informacje z różnych źródeł internetowych.

AI to szansa na szybszy rozwój cywilizacji. Niestety przy złych intencjach to również zagrożenie dla demokracji i racjonalnego myślenia. Manipulacja obrazem i materiałami wideo dzięki narzędziom wspieranym przez AI stała się dziś prostsza niż kiedykolwiek. Fałszywe zdjęcia i deepfejki służą nie od dziś dezinformacji politycznej - widzieliśmy to między innymi już przy Brexicie w Wielkiej Brytanii, przy wyborach w USA przed I kadencją Prezydenta Trumpa (i przed II także), czy przy agresji Rosji na Ukrainę i towarzyszącej jej do dziś wojnie informacyjnej.

Na pewno jest o czym rozmawiać z uczniami i studentami (tak, uczelnie wyższe też mają tu coś do odrobienia). Jak nabyć odporność na dezinformację i deepfejki? Czy to w ogóle możliwe we współczesnym internecie? Przydałaby się jakaś potężna koalicja na rzecz rozwoju kompetencji krytycznego myślenia, u młodych i dorosłych. Zwłaszcza u dorosłych…

 

Źródła:

[1] Zob. EducationWeek, 3.03.2025; https://www.edweek.org/technology/more-teens-than-you-think-have-been-deepfake-targets/2025/03
[2] Zob. Common Sense Media, badanie Nastolatki, zaufanie i technologia w epoce sztucznej inteligencji, 2025; https://www.commonsensemedia.org/research/research-brief-teens-trust-and-technology-in-the-age-of-ai
[3] Zob Oślepieni deepfakeami, Demagog.org; https://demagog.org.pl/analizy_i_raporty/oslepieni-deepfakeami-jak-sprawdzic-czy-to-ai-stworzylo-obraz/
[4] Zob. Zanim udostępnisz, sprawdź to! 

 

Notka o autorze: Marcin Polak jest twórcą i redaktorem naczelnym portalu o nowoczesnej edukacji Edunews.pl (2008-) i organizatorem cyklu konferencji dla nauczycieli INSPIR@CJE (2013-). Zajmuje się zawodowo edukacją od 2002, angażując się w debatę na temat modernizacji i reformy szkolnictwa (zob. np. Dobre zmiany w edukacjiJak będzie zmieniać się edukacja?). Należy do społeczności Superbelfrzy RP.

Jesteśmy na facebooku

fb

Ostatnie komentarze

Przerażająca wizja. Z jednej strony trzeba gonić za technologią która rozwija świat, z drugiej stron...
Stanisław Czachorowski napisał/a komentarz do Wykład w czasach postpiśmienności, czyli szukanie drogi we mgle
Tak, najważniejszy jest tok rozumowania, opowieść o wiedzy i dochodzeniu do wniosków, odkryć. To się...
Wykładam matematykę i staram się postępować na przekór pewnego określenia czym jest wykład: to trans...
Stanisław Czachorowski napisał/a komentarz do Wykłady w stylu programów popularnonaukowych?
Zawsze najważniejszym jest mieć coś do powiedzenia. Interesującego, ważnego, wartościowego. Dobrze j...
Jak widzę, odniósł się Pan do mojego komentarza, więc odpowiem.Programy B. Wołoszańskiego były różne...
Pani Anno, to co zamierzam napisać dotyczy zarówno psychologów szkolnych jak i pedagogów. I jedni i...
Drodzy Państwo, czy głupotę można nazywać po imieniu? Czy głupota ministra jest głupotą szkodliwą? C...
Jak się zadaje pytanie całej klasie to nie odpowiadają nieśmiali. Te rady są ok tylko dla tych, któr...

E-booki dla nauczycieli

Polecamy dwa e-booki dydaktyczne z serii Think!
Metoda Webquest - poradnik dla nauczycieli
Technologie są dla dzieci - e-poradnik dla nauczycieli wczesnoszkolnych z dziesiątkami podpowiedzi, jak używać technologii w klasie