Deepfake – jak się przed nim chronić?
Rozwój sztucznej inteligencji (AI) pociąga za sobą ogromne możliwości i szanse na rozwój, ale z drugiej strony – liczne zagrożenia. Jak to zwykle bywa w tego typu sytuacjach, wszystko zależy od tego, w jakim celu się nią posłużymy.
Jednym z najpoważniejszych problemów jest zjawisko tzw. deepfake’ów. Ogólnie rzecz biorąc, są to treści wprowadzające w błąd. Projektowany unijny Akt w sprawie sztucznej inteligencji precyzuje, że chodzi o każdą treść w postaci obrazu, dźwięku lub filmu, która jest zmanipulowana lub syntetyczna i została wyprodukowana z wykorzystaniem AI. Deepfake ma przedstawiać osoby, które wydają się mówić lub robić rzeczy, których by nie powiedziały lub nie zrobiły.
W sieci roi się od żartobliwych deepfake’ów z udziałem celebrytów, a nawet polityków, których charakter jest jasny już na pierwszy rzut oka. Jednakże zjawisko to ma również swoje mroczne, a nawet przestępcze, oblicze.
Jednym z głównych zagrożeń związanych z deepfake’ami jest rozpowszechnianie fake newsów i dezinformacji. Zwłaszcza w dobie toczących się wojen jest to szczególnie niebezpieczne. Pozornie prawdziwy materiał z np. politykiem, który wygłasza bardzo kontrowersyjne poglądy może stać się zarzewiem konfliktu. Przy panujących niepokojach społecznych nie trudno wyobrazić sobie jak bardzo tego typu informacje mogą wpłynąć na bezpieczeństwo publiczne.
Co jednakże w sytuacji, gdy ktoś wykorzystuje nasz wizerunek w tworzeniu deepfake’a? Czy pomimo braku szczegółowych rozwiązań prawnych dot. AI, możemy liczyć na ochronę?
Przede wszystkim należy wskazać, że stworzenie deepfake’a z wykorzystaniem wizerunku osoby, która nie wyraziła na to zgody stanowi naruszenie dóbr osobistych. W zależności od konkretnej sytuacji, poza samym wizerunkiem, możemy mieć do czynienia również m.in. z naruszeniem prawa do dobrego imienia, renomy czy twórczości. W takim przypadku możemy żądać zaniechania takiego działania, a także usunięcia jego skutków. Możliwe jest również żądanie zapłaty zadośćuczynienia oraz odszkodowania – jeśli osoba, której dobra zostały naruszone poniosła szkodę majątkową.
Z tego typu sytuacją jakiś czas temu mierzył się Jay-Z. W deepfake’u wykorzystano jego głos do m.in. rapowania fragmentu Hamleta. Wskutek podjętych przez rapera kroków prawnych, nagrania zostały usunięte.
Nie tylko dobra osobiste mogą doznać uszczerbku, ale również dane osobowe. Nie zapominajmy, że nasz wizerunek również może by, głos mogą służyć do naszej identyfikacji, a tym samym możliwe jest zakwalifikowanie ich do kategorii danych osobowych. Tym samym tworząc deepfake możliwe jest również naruszenie przepisów RODO.
Szczególnie poważną sytuacją jest tworzenie deepfake’ów w celach przestępczych, np. szantażu. W mediach głośno było o przypadkach przeróbek filmów pornograficznych, w których miejsce twarzy rzeczywiście występujących tam ludzi były wmontowane twarze innych osób. Tego typu deepfake stanowi już przestępstwo, które może być kwalifikowane, w oparciu o uchwałę Sądu Najwyższego z dnia 29 października 2020 r. (sygn. akt II DO 96/20), jako zniewagę. Zgodnie z powołanym stanowiskiem SN, zniewaga obejmuje takie zachowania, które naruszają godność osoby znieważonej, a przedmiotem ochrony jest cześć wewnętrzna (podmiotowa). Zatem form
sprawczych może być wiele i nie obejmują tylko i wyłącznie określonych wypowiedzi osoby znieważającej. Zniewaga jest przestępstwem ściganym z oskarżenia prywatnego, zagrożonym grzywną lub karą ograniczenia wolności, a w przypadku wykorzystania środków masowego komunikowania – również karą pozbawienia wolności do roku.
Postęp technologiczny niesie ze sobą wiele korzyści – ułatwia nam życie, sprzyja rozwojowi nauki, pomaga pokonywać bariery, które jeszcze niedawno wydawały się niemożliwe do usunięcia. Niemniej, jak w każdym przypadku, są dwie strony medalu. Rozwiązania, które mają sprzyjać słusznym celom, mogą jednocześnie trafić w niepowołane ręce i wyrządzić wiele szkód. Dlatego ważne jest, aby nie tylko odpowiednio zabezpieczać tego typu narzędzia, ale również wiedzieć, jak przed takim zagrożeniem się obronić.