Natychmiastowa pomoc przy ataku hakerskim

Zarządzanie incydentami cyberbezpieczeństwa z natychmiastową reakcją.

Dowiedz się więcej

Przejawy działania sztucznej inteligencji w internecie stały się już tak powszechne, że coraz częściej trudno odróżnić je od „rzeczywistych” treści. Jednym z głównych zjawisk z tym związanych jest właśnie deepfake, który może stanowić znaczące zagrożenie dla każdego z nas, ale też szerzej – dla społeczeństwa. Deepfake – co to takiego, jak wygląda i jak się przed nim chronić? Odpowiedzi na te pytania przedstawiamy poniżej.

Deepfake – co to znaczy?

Zanim odpowiemy na pytanie „co to jest deepfake?” warto zastanowić się nad możliwościami, jakie daje obecnie sztuczna inteligencja. To dziedzina rozwijająca się niemal z dnia na dzień, jednak już teraz pozwala ona na generowanie ogromnych ilości tekstów, obrazów, filmów, czy nawet muzyki. Wszystko za sprawą uczenia maszynowego (i jego podkategorii, uczenia głębokiego), czyli mechanizmów „samorozwoju” algorytmów na podstawie dostarczanych danych.

Rozumiejąc to, można przejść do tego, na czym polega deepfake. Jest to nic innego niż wykorzystanie wspomnianych samouczących się algorytmów do generowania, modyfikowania i podmieniania ludzkich twarzy widocznych na zdjęciach lub filmach. Coraz częściej dochodzi do tego także symulowanie głosu danej osoby. Efektem są przekonujące nagrania znanych osób, które mówią i robią rzeczy niemające miejsca w rzeczywistości. Jak nietrudno się domyślić, stwarza to ogromne pole do nadużyć, a zwłaszcza rozsiewania treści dezinformacyjnych.

Deepfake – przykłady

Przyjrzyjmy się dokładniej temu, jak się tworzy deepfake. Ułatwi to omówione  później, rozpoznawanie fałszywych nagrań. Istnieje kilka najczęściej stosowanych kategorii deepfake, na które warto się uczulić podczas swoich wędrówek po sieci.

  • Zamiana twarzy – zwana też identity swap to wizualne nałożenie twarzy jednej osoby, na ciało drugiej. Technika ta bywa używana w branży filmowej, by podłożyć twarz aktora na ciało kaskadera. Niestety może być także narzędziem manipulacji i godzenia w dobre imię, czego przykładem było wklejanie twarzy niektórych celebrytek do filmów dla dorosłych.
  • Odtwarzanie twarzy – czyli face reenactment, to technika, która zachowując oryginalną twarz na zdjęciu czy nagraniu, pozwala na jego dowolną manipulację, np. ruchy ustami czy zmianę mimiki. To również metoda popularna w branży filmowej, jednak wraz z preparowanymi wypowiedziami w formie audio, pozwala „wepchnąć” w czyjeś usta słowa, których nigdy nie powiedział. Ta technika bywała więc stosowana np. w celu dyskredytacji polityków.
  • Modyfikacja atrybutów twarzy – odmładzanie, postarzanie, zmiana koloru włosów czy oczu, uwydatnianie niedoskonałości lub upiększanie – to wszystko jest możliwe z tą właśnie technologią. Zwykle służy ona do celów rozrywkowych, ale może być także użyta do manipulowania wizerunkiem danej osoby i naruszania jej dóbr osobistych.
  • Łączenie twarzy – czyli face blending – nazwa tej techniki mówi o niej w zasadzie wszystko. Jest ona popularna w różnorodnych aplikacjach o charakterze rozrywkowym. Wykazuje nieco mniejszy potencjał pod względem szkodliwości od innych rodzajów deepfake.
  • Tworzenie zupełnie nowych twarzy – pozwala na generowanie nieistniejących w rzeczywistości ludzi i posługiwanie się takim wizerunkiem w zasadzie w dowolny sposób.

Jak rozpoznać deepfake?

Treści typu deepfake mogą być różnej jakości – te najprostsze, które może stworzyć każdy, będą często dość proste do zidentyfikowania, jednak te najbardziej zaawansowane, wymagają sporej wiedzy i doświadczenia, by móc je rozpoznać. Warto uczulać na deepfake zwłaszcza osoby najbardziej na nie narażone – najmłodszych oraz seniorów. Przedstawiamy kilka wskazówek, które znacznie ułatwią rozpoznawanie deepfake’ów:

  • Brak synchronizacji – przyjrzyj się, czy istnieje rozdźwięk między jakością obrazu w okolicach twarzy danej osoby (która może być fałszywa) a resztą ciała (stanowiącą niezmienioną część). W razie wątpliwości warto przejrzeć znane rzeczywiste nagrania tej osoby i porównać z analizowanym materiałem.
  • Rozmyty obraz – w miejscu łączenia się rzeczywistego nagrania z nakładką deepfake często występuje nienaturalnie rozmyty lub „wygładzony” obszar. Staje się on szczególnie widoczny, gdy osoba wykonuje bardziej gwałtowne ruchy głową.
  • Nienaturalna mowa ciała – sztywne, robotyczne ruchy to częsta wskazówka, że mamy do czynienia z deepfake. Jak na razie sztuczna inteligencja sprawnie imituje ruchy twarzy, jednak mowa ciała wciąż pozostaje słabiej rozwiniętą dziedziną.
  • Sztucznie brzmiący głos – podobnie jak w przypadku mowy ciała naśladowany przez AI głos znanych osób obarczony jest wieloma, względnie łatwymi do rozpoznania, mankamentami. Nienaturalna, jednostajna intonacja to sygnał ostrzegawczy, który może pomóc rozpoznać nawet bardzo zaawansowany pod względem wizualnym deepfake. Także tutaj pomoże porównanie z oryginalnymi nagraniami.

Niezależnie od rodzaju i stopnia zaawansowania, każdy deepfake będzie łatwiej rozpoznać, jeśli zachowamy duży sceptycyzm i czujność, natrafiając na różne treści w internecie – zwłaszcza te o charakterze kontrowersyjnym, szokującym, czy w inny sposób działającym na emocje. Zwłaszcza te ostatnie są częstym słabym ogniwem, wykorzystywanym przez twórców deepfake.

Dlaczego deepfake może być zagrożeniem?

Deepfake może być znacznym zagrożeniem na wielu polach:

  1. Dezinformacja – podkopywanie zaufania do władz i budzenie niepokojów społecznych to częsta taktyka, do której używany jest deepfake. Nierzadko są to działania prowadzone z inspiracji obcych państw. Dezinformacja jest również narzędziem w lokalnych walkach politycznych. Warto pamiętać, że sprostowanie fałszywej informacji jest znacznie trudniejsze od jej „rozsiania”.
  2. Scam – wykorzystanie przez oszusta wizerunku znajomej nam osoby może skutkować np. próbą wyłudzenia pieniędzy. Częstym scenariuszem jest telefoniczne podszywanie się pod bliską osobę z pomocą zdobytego i spreparowanego sztuczną inteligencją nagrania. Nagrana prośba o szybką pomoc finansową w rzekomej trudnej sytuacji działa na emocje, nie pozostawia wiele czasu do namysłu i bywa kierowana do seniorów, którzy nie znają tej technologii, a chcą pomóc bliskim.
  3. Naruszenie dóbr osobistych – deepfake może dotknąć niemal każdego, nie tylko celebrytów czy polityków. Przedstawienie danej osoby w kompromitującej sytuacji czy preparowanie wypowiedzi to duży problem, któremu trudno jest przeciwdziałać.

Skoro ta technologia niesie ze sobą tyle zagrożeń, to czy deepfake jest legalny? Niestety prawodawstwo nie do końca nadąża za gwałtownie rozwijającą się technologią. O ile sam deepfake nie jest ujęty w żadnych polskich przepisach, to jego użycie może naruszać prawo: naruszenie dóbr osobistych ujętych w Kodeksie Cywilnym lub oszustwo w kodeksie karnym.

W reakcji na powyższe zagrożenia tworzone są regulacje w ramach prawa europejskiego – mają one także dotykać innych zagadnień związanych ze sztuczną inteligencją. Pozostaje mieć nadzieję, że nowe przepisy polskie i europejskie będą obejmowały deepfake, jednak z pewnością niezależnie od nich warto być wyczulonym na to nowe, szkodliwe zjawisko.

Jak chronić się przed deepfake’ami?

Kluczowa strategia obrony przed deepfakes polega na wykorzystaniu zaawansowanej technologii do identyfikowania i blokowania tych sfałszowanych treści.

Agencje rządowe USA, takie jak Defense Advanced Research Projects Agency (DARPA) przodują w opracowywaniu najnowocześniejszych rozwiązań umożliwiających odróżnienie treści prawdziwych od deepfake’ów. Dużo uwagi problemowi poświęcają również giganci mediów społecznościowych, którzy stosują własn, innowacyjne metody technologiczne, aby zapewnić autentyczność mediów udostępnianych na swoich platformach. Jedną z metod, jest wykorzystanie technologii blockchain do weryfikacji pochodzenia filmów i obrazów, ustanawiania zaufanych źródeł i skutecznego zapobiegania rozprzestrzenianiu się fałszywych treści.

Ponadto, uznając potencjalne szkody wyrządzane przez złośliwe deepfake, platformy takie jak Facebook i Twitter, przyjęły zdecydowane stanowisko i zakazały ich w swoich regulaminach i politykach.

Oprogramowanie do wykrywania deepfake:

W walce z deepfakes pomagają także innowacje sektora prywatnego. Wiele firm oferuje zaawansowane oprogramowanie do wykrywania deepfake’ów, zapewniające niezbędne narzędzia do identyfikowania zmanipulowanych mediów:

  • firma Adobe wprowadziła system umożliwiający twórcom dołączanie podpisu cyfrowego do swoich filmów i zdjęć. Podpis ten zawiera szczegółowe informacje na temat powstania nośnika, oferując przejrzystą metodę weryfikacji autentyczności.
  • Firma Microsoft opracowała narzędzie oparte na sztucznej inteligencji (Microsoft Video Authenticator), które analizuje filmy i zdjęcia w celu oceny ich autentyczności. Zapewnia wskaźnik pewności wskazujący prawdopodobieństwo manipulacji, pomagając użytkownikom ocenić wiarygodność mediów, z którymi się spotykają.
  • Operacja Minerva: inicjatywa ta koncentruje się na katalogowaniu znanych deepfake’ów i ich cyfrowych ”fingerptintów”. Porównując nowe filmy z tym katalogiem, można zidentyfikować modyfikacje wcześniej wykrytych podróbek i na tej podstawie szybciej wykryć nowy deepfake.
  • Sensity oferuje platformę wykorzystującą deep learning (uczenie głębokie) do wykrywania fałszywych mediów, analogicznie do tego, w jaki sposób narzędzia chroniące przed złośliwym oprogramowaniem identyfikują wirusy i malware. Ostrzega użytkowników e-mailem, jeśli napotkają fałszywe treści, dodając dodatkową warstwę ochrony.