Zpět na webový portál

Jsou deepfakes nebezpečím nebo nevinnou zábavou? (5/11)

Technologie se posouvají neustále kupředu. Bohužel se to týká i nástrojů použitelných například pro tvorbu manipulativního obsahu. Proto dnes čelíme novému fenoménu, takzvaným deepfakes. Obecně se tak označují manipulované fotografie, videa a zvuky, které se tváří jako opravdové. Na videu lze například konkrétního člověka nahradit někým jiným. Nejčastěji jde o výměnu tváře, rtů nebo těla.

Nedávno se jako virál šířily falešné deepfake klipy s hercem Tomem Cruisem (@deeptomcruise na TikToku). Jsou až překvapivě přesvědčivé.

Jak deep fake videa vznikají

Vytvořit deepfake video je poměrně náročné. Je k tomu potřeba speciální sofistikovaný program. Ten pomocí umělé inteligence, jako je hluboké a strojové učení, dokáže napodobit modely lidského chování. Počítač nashromáždí videa dané osoby, a z těch pak dokáže odezírat a naučit se, jak se chová, tváří, jak vystupuje. To následně aplikuje při tvorbě deepfake videa. Proto může působit tak přesvědčivě a realisticky.

První deepfake videa se začala objevovat na sociální síti Reddit. Jednalo se o falešné uniklé soukromé nahrávky různých celebrit. Jako první potkala tahle nepříjemnost uměle vytvořená počítačem herečku Gal Gadot. Později se tato technologie začala projevovat i v deepfake videích například z jiných oblastí, například z politiky.

Zatím se dá většina deepfaků poměrně snadno odhalit. Pokud narazíte na podezřelé video, soustřeďte se na následující detaily:

Mrká daná osoba? Nemrkající „figuríny“ jsou nejčastějším nedostatkem deepfake videí.

Má osoba emoce? Videa zatím nejsou tak dokonalá, aby uměla dodat plnou dávku emocí do tváře zobrazovaného člověka. Často chybí i základní mimika ve tváři.

Co vousy a vlasy? Vypadají přirozeně? Hýbou se spolu s obličejem?

Vývojáři si tyhle nedostatky samozřejmě uvědomují, dá se čekat, že deepfake videa budou časem dokonalejší a hůře rozpoznatelná.

Proč jsou deepfake videa nebezpečná?

Problém deepfake videa je v tom, že jako obecně máme tendenci pořád celkem dost věřit tomu, co vidíme na videu. Na to, že každý text není pravdivý, už jsme si zvykli. Dokonce i u fotek víme, jak jednoduchá je jejich úprava. U videí jsme ale nadmíru důvěřiví. Jak si přebrat to, že někoho sice jasně na nahrávce vidíme mluvit a gestikulovat, ale ve skutečnosti nic takového neřekl?

Největší obavy vzbuzuje deepfake technologie zejména v předvolebních obdobích. Hlavně posledních pár dní před volbami je informací neuvěřitelné množství a času málo. Pokud by se deepfake video objevilo v tak napjatém období, mohlo by některému z kandidátů opravdu uškodit.  Jednak by se nemuselo stihnout prokázat, že je zmanipulované. Korekce falešných informací obecně se navíc už často nedostanou k tolika lidem, protože už nejsou tak šokující a zajímavé. Podobně můžou deepfakes narušit i diplomatické vztahy nebo bezpečnost států.

Abychom jim ale nekřivdili – při správném využití můžou pomáhat například ve vzdělávání nebo umění.

Co s tím?

Deepfake videa podobně jako fake news můžou šířit strach a nenávist a v krajních případech rozdělovat společnost. Už teď se ale vyvíjí technologické společnosti programy, které by dokázaly deepfake videa odhalit. Na jejich ověřování se hodí třeba nástroj InVID. Aplikaci pro rozpoznávání upravených videí vyvinul i Microsoft.

Falešný projev Miloše Zemana, jehož autorem je známý internetový umělec vystupující pod nickem Ctrl Shift Face.

Pozitivní deepfake

Je důležité dodat, že ne všichni tvůrci deepfake videí je vytvářejí s nekalými úmysly. Vznikají například různá zábavná či výchovná, která mají na problematiku upozornit. Například trailer seriálu Bez vědomí. A v budoucnosti můžou najít své uplatnění třeba ve zdravotnictví nebo v umění.

Jeden pozitivní příklad využití

V muzeu Salvadora Dalího ve městě St. Petersburg na Floriděuž před časem otevřeli expozici s názvem Dalí Lives. Pomocí kombinace pokročilé umělé inteligence přivedla Dálího opět částečně k životu.

Návštěvníky v muzeu přivítá zvláštní kiosek. Po stisknutí tlačítka se objeví legendární malíř Salvador Dalí v životní velikosti. To všechno desítky let po své smrti. Lidé připouštějí, že je to docela mrazivý zážitek. Všechno totiž vypadá naprosto dokonale. Jako by byl umělec zavřený za skleněnou deskou. Stačí ji odstranit a Salvador je rázem znovu s námi.

Tak je to Dalí nebo ne? Samozřejmě, že není! Jde o klasický příklad deepfake, o kterých si můžete více přečíst tady. Na obrazovce uvidíte virtuální kopii malíře. Díky strojovému učení čerpajícímu z tisíců hodin dostupných materiálů slavného umělce vede s návštěvníky konverzaci včetně přesné reprodukce jeho stylu mluvy a gest. Zaujmou i maličkosti, jako je charakteristický pohyb jeho obočí a očí.

A to všechno jen díky umělé inteligenci a strojovému učení. Chytré algoritmy čerpaly z více než 6 tisíc dostupných snímků a záběrů Dalího. Odborníci vybrali jeho citáty. Gesta se následně naučil živý herec, kterému technologie pomocí algoritmů “přidělila” tvář umělce.

Návštěvníky čeká i jeden hodně zvláštní zážitek, které jej posouvá do dnešní doby. Dalí se totiž lidí ptá, jestli se s ním chtějí vyfotit. Pokud řeknou, že ano, umělec vezme do ruky mobilní telefon a s návštěvníky si pořídí společnou selfie.

Deep fake má ve společnosti spíše negativní konotace. Je proto dobré vidět, že může mít i pozitivní využití. Brzo se možná dočkáme deep fake koncertů Elvise Presleyho, Curta Cobaina či Amy Winehouse. Nebo už je to na vás moc? Uvidíme, co nám budoucí léta přinesou.


Zdroj: E-Bezpečí

Podklady ke stažení

Videa