Deep fake zatím poznat jde, brzy ale možná ne. Je třeba ověřovat zdroj, upozorňuje expert

Publikováno: 23.1.2024

Podle dat České asociace umělé inteligence za loňský rok světově vzrostl počet takzvaných deepfaků, tedy falešných videích, podvržených fotek nebo audionahrávek, na desetinásobek. Jen v Evropě byl zaznamenán nárůst těchto útoků o 780 procent. Tato technologie se bude dál vyvíjet a může ovlivňovat mínění lidí. Zatím totiž deepfaky rozpoznat jde, to se ale může brzy změnit, upozorňuje Jakub Sedláček ze Studií nových médií FF UK a Národního institutu SYRI. Deepfaků se během loňského roku na sociálních sítích objevilo nespočet. Velkou reakci ale vyvolaly zejména údajné fotky ze zatčení Donalda Trumpa nebo snímek zobrazující výbuch poblíž Pentagonu. V období parlamentních voleb na Slovensku bylo pomocí řetězových e-mailů šířeno deepfake audio, na němž lídr strany Progresivní Slovensko Michal Šimečka údajně diskutoval o plánech na manipulaci s volbami. Vznikala také různá videa a nahrávky s českým prezidentem Petrem Pavlem. To, jak dobře nebo špatně lze deepfake rozpoznat, záleží na jeho druhu a kvalitě. „Záleží, co všechno si pod pojmem deepfake představíme. Zatím jde (s určitým tréningem) poznat vše. U klasických deepfaků poznáme „vyměněné“ obličeje ve videu nejlépe, když se hlava různě pootáčí a obličej není nasměrovaný přímo k nám, ale najednou třeba z boku – často v takový moment postřehneme výraznější změnu struktury celého obličeje. V případech, kdy jde pouze o deepfake pusy (aby seděla s vygenerovanou řečí), lze postřehnout nesrovnalosti mezi pohyby a mimikou obličeje a pusy, případně může být pusa oproti zbytku podivně rozmazaná, pohybovat se jinak, než jsme u daného mluvčího zvyklí, a…
Nahoru
Tento web používá k poskytování služeb a analýze návštěvnosti soubory cookie. Používáním tohoto webu s tímto souhlasíte. Další informace