24 Kwietnia 2025
Aktualności
Swoje wystąpienie dr inż. Tomasz Krzywicki rozpoczął od… zagadki. Chciał sprawdzić, ile osób będzie w stanie odróżnić zdjęcie zrobione prawdziwemu mężczyźnie, od takiego, które zostało wygenerowane przez sztuczną inteligencję. Zadanie okazało się dość trudne, co tylko potwierdza fakt, że często nie jesteśmy w stanie na pierwszy rzut oka poprawnie ocenić prawdziwości obrazu. Wiąże się to, oczywiście, z szeregiem zagrożeń, z którymi mierzą się dzisiaj użytkownicy internetu.
– Sztuczna inteligencja to obszar nauk zajmujących się tworzeniem systemów naśladujących ludzką inteligencję – mówił badacz z UWM, zaznaczając, że owo naśladowanie jest możliwe tylko w pewnych zadaniach, które są powtarzalne i odpowiednio (nie)skomplikowane. Przypomniał też, że w zbiorze sztucznej inteligencji mieszczą się także mniejsze podzbiory: uczenie maszynowe, wnioskowanie przybliżone, wnioskowanie rozmyte. – Tak zwane metody uczenia maszynowego pozwalają nam utworzyć sztuczną inteligencję poprzez uczenie takiego programu (czy też komputera) rozwiązywania problemów na przykładzie konkretnych innych rozwiązanych przypadkach.

Naukowiec zaznaczył też, że w celu osiągnięcia sztucznej inteligencji możemy wykorzystać wnioskowanie przybliżone albo metody uczenia głębokiego, które są przeznaczone dla sieci neuronowych.
– Sieci neuronowe są obecnie najbardziej rozbudowanymi, a jednocześnie najbardziej elastycznymi strukturami matematycznymi, które pozwalają nam osiągnąć sztuczną inteligencję na tyle dobrą i na tyle dokładną, że jest w stanie na przykład z nami konwersować – mówił dr inż. Tomasz Krzywicki, przypominając, że właśnie metody uczenia głębokiego „wyszkoliły” chatGPT czy Google Gemini.
Naukowiec przypomniał, że sztuczna inteligencja bardzo wspiera rozwój współczesnej medycyny, czego przykładem są także badania, w które był zaangażowany. Dr Agnieszka Zbrzezny i dr inż. Tomasz Krzywicki uczyli bowiem algorytm rozpoznawania, czy pacjent ma retinopatię cukrzycową, Podstawą do tego były analizy zdjęć dna ludzkiego oka.
– Kolejne z zastosowań sztucznej inteligencji w medycynie to śledzenie rozwoju chorób i postępów leczenia, ponieważ możliwe jest np. wygenerowanie – metodykami podobnymi do deepfake’u – obrazów pokazujących, jak będą wyglądały za 3, 6 czy 12 miesięcy nasze wyniki badań. AI wykorzystywana jest też we wspomaganiu wykonywania zabiegów operacyjnych. Nie robi ona jeszcze operacji zamiast człowieka, ale wspomaganie, np. w postaci robotów da Vinci, jest powszechne – podkreślał wykładowca.
Sztuczna inteligencja od dawna znajduje też zastosowanie w przemyśle, a w ostatnim czasie coraz śmielej wkracza do transportu, dlatego naukowiec wspomniał także o autonomicznych pojazdach.
Przechodząc do głównego tematu swojego wykładu, dr Krzywicki zaznaczył, że pojęcie deepfake wzięło się z połączenia deep learning (uczenie głębokie) i fake (fałszywy).
– Mówiąc wprost, jest to nic innego jak zastosowanie sieci neuronowych szkolonych za pomocą metod uczenia głębokiego do tworzenia pewnych fejkowych, czyli nieprawdziwych, materiałów. Głównym celem jest tworzenie realistycznych materiałów multimedialnych – zdjęć, filmów, materiałów audio – tłumaczył naukowiec. – Na podstawie krótkiej próbki głosu (minutowej czy też dwuminutowej) jesteśmy w stanie stworzyć sekwencję audio, która będzie wypowiadała słowa głosem człowieka, który nigdy ich nie powiedział.

Aby wygenerować półminutowy materiał wideo, który nie będzie budził naszych żadnych (skądinąd: słusznych) podejrzeń, nie wystarczy podstawowy domowy laptop i nie wystarczą dwie minuty.
– Producenci oprogramowania, które jest w stanie coś takiego wygenerować, mówią, że potrzeba na to około 72 godzin – tłumaczył gość „Naukowych śród na UWM”.
– Technologia deepfake w dużym stopniu wpływa na nasze życie codzienne. Zagrożeń udało mi się niestety zidentyfikować więcej niż korzyści – przyznał badacz z Wydziału Matematyki i Informatyki, przypominając m.in. o dezinformacji, z którą mieliśmy do czynienia na przykład wtedy, gdy publikowane były fałszywe nagrania prezydenta Zelenskiego wzywającego naród ukraiński do poddania się. Deepfake’i służą też szantażystom czy innym przestępcom, np. złodziejom wykorzystującym próbki głosu innych osób do tworzenia komunikatów nakłaniających ich rodziny do przekazania pieniędzy oszustowi. Dzięki wspomnianej technologii dochodzi też do łamania zabezpieczeń biometrycznych. Obawa przed deepfake’ami wpływa więc w sposób istotny na utratę społecznego zaufania do treści cyfrowych.
Choć wspomnianych zagrożeń jest wiele, dr inż. Tomasz Krzywicki nie ograniczył się do mówienia tylko o nich. Przypomniał, że technologia wspiera np. poszukiwania osób zaginionych, pozwalając np. wygenerować obraz osoby, która zaginęła przed wieloma laty i można się spodziewać, że nie wygląda tak, jak wtedy, gdy ostatni raz widzieli ją jej bliscy. Korzyści można szukać także wśród rozwiązań związanych z tłumaczeniem wypowiedzi w czasie rzeczywistym czy tworzeniem modeli przestrzeni do spotkań online, symulującym tym samym odbywanie się takiego spotkania w pewnym rzeczywistym środowisku.

Jak się okazuje, w ujawnianiu fałszywych treści tworzonych za pośrednictwem AI, pomaga… ona sama.
– Jeżeli chodzi o metody detekcji deepfake’ów, to mamy tutaj takie rozwiązania jak Deepware, Resemble AI, Deep Fake-Detect czy też narzędzie, które już ma swoje lata, czyli Microsoft Video Authenticator – zaznaczył dr inż. Krzywicki, przypominając, że badają one m.in. nienaturalne ruchy oczu, a analizie poddają też spójność dźwięku i obrazu, oraz kwestie z zakresu biometrii behawioralnej.
Jak podkreślał naukowiec, dwiema kluczowymi kwestiami, które wpływają na zagrożenie deepfake’ami, są: wyścig AI kontra AI oraz etyka twórców i użytkowników.
Poza modelami, które strzegą bezpieczeństwa cyfrowego, są też regulacje prawne. W Unii Europejskiej od 1 sierpnia obowiązuje tzw. akt o AI. Nakłada on na dostawców i twórców tego rodzaju systemów pewne obowiązki.
– Przede wszystkim tymi obowiązkami są analiza ryzyka takich systemów, edukacja pracowników, zapewnienie transparentności procesu wykorzystania danych podczas trenowania takich narzędzi czy też monitorowanie systemów – tłumaczył dr inż. Tomasz Krzywicki, przypominając, że dla wszystkich narzędzi zostały określone konkretne poziomy bezpieczeństwa, których należy przestrzegać.
– Sztuczna inteligencja to narzędzia, które powinny nam służyć i być wykorzystywane do tego, żeby przynieść nam pewną korzyść, np. skrócić kolejki do lekarzy – podkreślał prelegent. – Od nas samych zależy, czy wykorzystamy AI w sposób etyczny.
Organizatorem cyklu „Naukowe środy na UWM” jest Centrum Marketingu i Mediów. W ciągu ostatnich kilku miesięcy odbyło się pięć wykładów poświęconych wulgaryzmom w języku polskim, potencjałowi lasów, mikroplastikowi, faktom i mitom dotyczącym polowań oraz technologii deepfake. Wszystkie spotkania cieszyły się dużym zainteresowaniem, a biorący w nich udział słuchacze podkreślali potrzebę kontynuowania tej inicjatywy.
Daria Bruszewska-Przytuła
>>> Rozpracowują nas silniki. Rozmowa z mgr. inż. Tomaszem Krzywickim
