The Institute of Technology (KIT) studuje nebezpečí deepfake technologie

falešné zprávy

Jak můžete ověřit, zda jsou informace skutečné a důvěryhodné – zejména informace distribuované prostřednictvím internetu nebo sociálních médií?

Schopnost manipulovat s videi a fotografiemi například pomocí umělé inteligence (AI) ztěžuje jasné odpovědi. výzkumníci z Karlsruhe Institute of Technology (KIT) se jménem Evropského parlamentu zabývala potenciálními nebezpečími deepfake technologií a vyvinula možnosti lepší regulace. Spolu s partnery z Nizozemska, České republiky a Německa oficiálně představili výsledky své studie europoslancům.

Deepfakes jsou stále realističtější fotografie, audio nebo videa, ve kterých jsou lidé zasazeni do nových kontextů pomocí technologií AI nebo se jim do úst vkládají slova, která takto nikdy nebyla vyslovena. „Máme co do činění s novou generací digitálně manipulovaného mediálního obsahu, který se v posledních letech stal levnějším a jednodušším na výrobu, a co je důležité, může se zdát klamavě skutečný,“ říká Dr. Jutta Jahnel, která pracuje v KIT’s Institute for Technology Assessment and Systems Analysis (ITAS) se týká sociálního rozměru učňovských systémů. Technologie rozhodně otevírá nové možnosti pro umělce, pro digitální vizualizace ve školách nebo muzeích a pomáhá v lékařském výzkumu.

Hluboké padělky však zároveň nesou značná nebezpečí, jak ukazuje mezinárodní studie, která je nyní předložena výboru Evropského parlamentu pro hodnocení možností vědeckých technologií (STOA). „Technologie lze velmi efektivně zneužít k šíření fake news a dezinformací,“ říká Jahnel, který koordinoval příspěvek ITAS do studie. Například falešné zvukové dokumenty by mohly být použity k ovlivnění nebo diskreditaci soudního řízení a v konečném důsledku k ohrožení soudního systému. Bylo by také možné například falešným videem nejen poškodit politika osobně, ale také ovlivnit volební šance jeho strany a v konečném důsledku poškodit důvěru v demokratické instituce v jejich sjednocení.

Nutné kritické zpracování mediálního obsahu

Němečtí, holandští a čeští výzkumníci nabízejí konkrétní řešení. Vzhledem k rychlému technologickému pokroku bychom se neměli omezovat na předpisy týkající se technologického rozvoje. „Abyste mohli manipulovat veřejným míněním, musíte padělky nejen vyrábět, ale také distribuovat,“ vysvětluje Jahnel. „Pokud jde o předpisy, jak se vypořádat s deepfakes, musíme začít především u internetových platforem a mediálních společností.“ Technologie pro deepfakes podporované umělou inteligencí však jen stěží bude možné zcela eliminovat. Vědci jsou naopak přesvědčeni, že jednotlivci i společnosti budou v budoucnu stále častěji čelit vizuálním dezinformacím. Je proto nezbytné být k takovému obsahu v budoucnu ještě kritičtější a dále rozvíjet dovednosti, které pomohou kriticky zpochybnit důvěryhodnost mediálního obsahu. Na německé straně byl do studie spolu s ITAS zapojen Fraunhoferův institut pro systémový výzkum a inovace, v Nizozemsku jako koordinátor projektu Rathenau Institute a v České republice Technologické centrum CAS.

Další pilotní studie na KIT o sociálních reakcích na deepfakes

V návaznosti na evropskou studii v současnosti interdisciplinární projekt KIT zkoumá, jak by mohly vypadat efektivní společenské reakce na deepfakes. Kromě hodnocení technologií spolupracují odborníci z IT, komunikace a práva a také kvalitativní sociální výzkum z KIT. Cílem je spojit znalosti a přístupy z různých oborů. Pilotní studie si klade za cíl se blíže podívat na uživatelskou perspektivu.









Anatolio Necci

"Typický komunikátor. Nesnesitelně pokorný nadšenec do twitteru. Milovník zombie. Jemně okouzlující webový fanatik. Hráč. Profesionální pivní nadšenec."

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *