Deepfake
Vývojář | DeepFakes |
---|---|
První vydání | 2017 |
Platforma | PC |
Typ softwaru | Sociální sítě |
Některá data mohou pocházet z datové položky. |
Deepfake je označení pro realistickou úpravu videa. Upravuje se především tvář zobrazených osob, mimika obličeje a řeč jednotlivých aktérů videa. Jedinci pak vykonávají činnosti, které ve skutečnosti nedělají, a říkají slova, která ve skutečnosti nikdy nepronesli. Deepfake využívá pokročilého počítačového zpracování dat umělé inteligence (neurálních sítí schopných učit se). Kvalita upraveného videa se neustále zvyšuje. [1]
V Hollywoodu realisticky nahrazovali obličeje ve videích i předtím pomocí CGI (speciálních efektů tvořených počítačovou úpravou). Dnes si díky novým technologiím může vytvořit velmi realistické video každý uživatel s lepším počítačem. [2]
Historie
Prvním deepfake videem bylo pornografické video celebrit vytvořené uživatelem DeepFakes na sociální síti Reddit v roce 2017. [2] O tři roky později se na sociální platformě TikTok objevil profil Toma Cruise, který přiznal, že je falešný. Falešný profil natáčející se, jak vykonává běžné každodenní činnosti, se stal postupně známějším a oblíbenějším. Nedávné deepfake video ukrajinského prezidenta Volodymyra Zelenského vyzývajícího národ ke složení zbraní však poukázalo na to, jak negativní působení může technologie mít, dojde-li k jejímu zneužití. [3]
Šíření deepfake videí
Deepfake videa se šíří obrovskou rychlostí. Podle studie The State of Deepfakes se jich v roce 2020 na internetu objevilo přes čtrnáct tisíc. Za rostoucím počtem deepfake videí a stoupající oblíbeností stojí to, že algoritmy využívají k vytváření deepfake videí počítačové aplikace, služby a komunity. Deepfake videa se v současnosti z 96 % objevují v pornografii, kde jsou do videí dosazovány nejčastěji britské a americké herečky a zpěvačky. [2]
Deepfake se vyskytuje také v satirických videích, jako jsou například úryvky z filmů, kde jsou původní herci nahrazováni jinými. Výtvory na podobné bázi vytváří například slovenský YouTuber Ctrl Shift Face, který vytvořil upravenou verzi filmu Sám doma (Home Alone) se Sylvesterem Stallonem nebo film Osvícení (The Shining), v němž se místo Jacka Nicholsona obličej Jimma Carreyho. [2]
S fenoménem deepfake videí je spojena řada problémů. Za jeden z palčivých problémů lze považovat mezinárodní šíření falešných zpráv na sociálních médiích a internetu, ale také nedostatečnou mediální a informační gramotnost. Existence deepfake způsobuje to, že mnozí uživatelé zhlédnou upravené video, ale o tom, že nejde o skutečnost, se tak snadno nedozví. [4]
Shallowfake videa
S deepfake videi se někdy mylně zaměňují tzv. shallowfake videa. Shallowfake videa se tvoří jednoduchými střihacími nástroji nebo záměrným vytržením z kontextu. [2]
K manipulování videí se v nedávné době používaly jednodušší postupy. Příkladem může být video vzniklé během voleb ve Velké Británii, za které byla konzervativní strana kritizována, protože bylo sestříháno tak, aby vypadalo, že Keir Starner z labouristické strany nemá žádnou odpověď pro brexit. [2]
Jako další ukázka slouží upravené video kongresmanky Nancy Pelosiové, v němž byl její proslov zpomalen a měl vyznět tak, že kongresmanka nezřetelně mumlá. Záznam byl masivně sdílen na sociálních sítích, dokonce samotným americkým prezidentem, v komentářích byla politička označována za opilou. [2]
Fake fakes
Deepfake technologie umí vytvořit i tzv. fake fakes, tedy počítačem vymodelované avatary, kteří nemají tvář žádného skutečného člověka a jejich vzhled je kompletně vytvořen umělou inteligencí. Fake fakes už nyní využívá módní průmysl, který počítačově generuje modely a modelky pro některé kampaně. V blízké budoucnosti bude možné online nakupování 2.0 založené na fake fakes tak, že si uživatel vytvoří svého avatara a na něm si bude virtuálně zkoušet oblečení vybrané k nákupu. [5]
Podobné využití se nabízí také v počítačových hrách nebo při sledování filmů - díky technologii záměny tváře by si hráč či divák mohl zahrát roli své oblíbené postavy. [5]
Odhalování deep fake videí
Po vzniku deep fake se počala testovat řada technologií, které mají šíření deepfakeových videí zabránit. Facebook vyvíjí technologii, která by měla deepfaková videa odhalovat, společnosti jako TruePic či americká vojenská společnost DARPA sází na technologie na bázi blockchainu (neustále se rozšiřující databáze). Dříve než bude vyvinut účinný software, je stále třeba používat staré metody odhalování deepfake, například ověřovat výroky a události z několika zdrojů a uplatňovat kritické myšlení, tedy zamýšlet se nad prezentovanou skutečností a kvalifikovaně zvážit, do jaké míry je pravděpodobné, že daná skutečnost může být pravdivá. [6]
Odkazy
Reference
- ↑ KOPECKÝ, Kamil. Deep fake - stručný úvod do problematiky. E-Bezpečí. 2019, roč. 4, čís. 1, s. 23–25. Dostupné online [cit. 2022-12-05].
- ↑ a b c d e f g ZVOL-SI-INFO. Trendy v hlubinách deepfake videí [online]. 2020-02-17 [cit. 2022-12-05]. Dostupné online.
- ↑ TESAŘ, Václav. Dezinformace a nová výzva deepfake. em.muni.cz [online]. [cit. 2022-12-05]. Dostupné online.
- ↑ SLOUKA, David. Deepfake videa s námi zůstanou, jak se bránit? - InSmart.cz. insmart.cz [online]. 2019-09-19 [cit. 2022-12-05]. Dostupné online.
- ↑ a b TMEJOVÁ, Kristýna. Deepfake videa vám můžou zničit život. Čínský gigant Tencent v nich přesto vidí budoucnost [online]. 2020-08-03 [cit. 2022-12-05]. Dostupné online.
- ↑ Nová digitální hrozba: deepfake. Fakescape [online]. [cit. 2022-12-05]. Dostupné online.
Externí odkazy
- Obrázky, zvuky či videa k tématu deepfake na Wikimedia Commons
- Příklad deepfake videa světových politiků zpívajících píseň Imagine
Média použitá na této stránce
Autor: Edward Webb, Licence: CC BY-SA 2.0
View large
The ability to morph change and recomposite them produces some spooky and rather disturbing results. Feels very odd to see a face that's similar to your own, yet looks like a new person.
There's almost a twisted fascination with this, as though it shouldn't be done, but the results are so uncanny that you want to do more. Scary!AI-generated sequence with 80's moviestar Ornella Muti, displayed on a smartphone screen. Her face is generated by an artificial neuronal network, trained with more than 1000 images of the real Italian actress. The other details are made by conventional digital tools. The real Italian actress Ornella Muti never played this scene. It is a detail of Joseph Ayerle's videoartwork "Un'emozione per sempre 2.0" (English title: The Italian Game). The videoartwork was created in 2018. This contribution to creative commons concerns a view on a smartphone screen, on which a sequence of the videoartwork "Un'emozione per sempre 2.0" is running. To avoid any misunderstandings: The original videoartwork "Un'emozione per sempre 2.0" itself is not contributed to creative commons.