Ako sa umelá inteligencia používa na šírenie lží a dezinformácií

 

V júli tohto roku sa na sociálnych sieťach vrátane proruského Telegramu objavilo video, na ktorom francúzsky predajca luxusných áut tvrdil, že Olena Zelenská, manželka ukrajinského prezidenta Volodymyra Zelenského si kúpila nový model Bugatti za 4,5 milióna eur. Video s potenciálne veľkou výbušnou silou sa stalo virálnym. Bol to však podvrh, tzv. deepfake. Reálne video bolo upravené pomocou umelej inteligencie.

Video malo oblúkom cez manželku vytvoriť negatívny obraz o ukrajinskom prezidentovi. Predajca neexistuje a faktúra bola preukázateľne falošná. Hlas naklonovaný pomocou umelej inteligencie a upravená mimika tváre mali navodiť zdanie reality. Samotná automobilka pre CNN potvrdila, že tvrdenia z videa nie sú pravdivé. Rovnako to pre Deutsche Welle potvrdil aj autosalón uvedený na falošnej faktúre.

Novinár Max Gilbert zo spravodajského kanálu BR24 bavorského telerozhlasu Bayerischer Rundfunk vo svojom článku o zneužívaní umelej inteligencie uviedol, že podľa zistení BBC bolo video súčasťou ruskej dezinformačnej siete, ktorá cielene používa umelú inteligenciu. Údajné bohatstvo manželov Zelenských je opakovane predmetom ruských dezinformačných kampaní. Instagramový účet, na ktorom bolo video pôvodne uverejnené, je už zmazaný.

„Fotografie, videá a zvukové nahrávky, ktoré boli upravené alebo vytvorené pomocou umelej inteligencie, sú čoraz častejšie, a to aj v kontexte dezinformácií,“ píše Gilbert. Vyštudoval politológiu a komunikáciu, v BR24 sa venuje problematike dezinformácií a ich odhaľovaniu.

Čo je deepfake?

Deepfake je nový termín, ktorý vznikol spojením deep learning a fake. Ide o mediálny obsah upravený pomocou umelej inteligencie tak, aby navodil zdanie reality. Napríklad, keď sa v reálnom videu tvár danej osoby nahradí spôsobom akejsi digitálnej masky inou tvárou, upraví sa hlas a vytvorí sa nový hovorený obsah.

„To, čo bolo kedysi zložitejšie vytvoriť a museli to tvoriť viacerí ľudia so špecifickými technologickými zručnosťami a drahými počítačovými programami, možno dnes vytvoriť pár kliknutiami, bez profesionálnych technických znalostí a pomocou lacných programov,“ upozorňuje Gilbert.

Nemecký novinár sa odvoláva aj na Josefa Holnburgera, výkonného riaditeľa neziskovej organizácie CeMAS (Center für Monitoring, Analyse und Strategie). Holnburger sa zaoberá problematikou šírenia konšpiračných teórií a dezinformácií, antisemitizmu a pravicového extrémizmu na rôznych platformách. Skúma radikalizačné tendencie, vyhodnocuje dáta a potenciál nebezpečenstva.

V kontexte spomeňme, že cieľom CeMAS je, ako uvádza jej webová stránka, „umožniť spoločnosti aktívne sa postaviť proti konšpiračným ideológiám, dezinformáciám, antisemitizmu a pravicovému extrémizmu v kontexte súčasných problémových situácií i budúcich kríz. Preto sú antidemokratické tendencie zaznamenávané a analyzované už hneď v ich ranej fáze. Spoločnosť CeMAS sprístupňuje svoje analýzy rôznym spoločenským subjektom, aby im umožnila konštruktívne čeliť výzvam spoločnosti ako celku.“

Holnburger tvrdí, že vytvoriť podvrhy „je veľmi ľahké. Existujú programy, ktoré sú až prekvapivo dobré v klonovaní hlasu a vytváraní vopred definovaného obsahu.“ Konštatuje tiež, že toto všetko je dnes už možné aj s veľmi malým množstvom zdrojového materiálu.

Je to zákerné

Podľa experta na umelú inteligenciu Aljoschu Burchardta z Nemeckého výskumného centra pre umelú inteligenciu (DFKI) v Berlíne sú zvukové podvrhy obzvlášť zákerné, pretože na ľudí pôsobia veľmi emotívne.

Max Gilbert k tomu vo svojom článku poznamenáva, že aj keď falošné nahrávky či videá umelej inteligencie niekedy znejú umelo alebo mechanicky, „stále môže byť ťažké rozpoznať, či ide o podvrh“. Dodáva, že na dezinformácie sa používajú nielen falošné videá, ale aj falošné texty vytvorené pomocou jazykových modelov, ktoré vytvárajú zdanie skutočných textov. Pracujú s tým napríklad majitelia falošných účtov na sociálnych sieťach. „Vďaka prepojeniu s jazykovými modelmi ako ChatGPT vyzerá falošný profil omnoho autentickejšie.“

Gilbert uvádza aj príklad tzv. deepfake, ktorý je v realite vskutku nepredstaviteľný: Donald Trump na vianočnom večierku obklopený černochmi. Programy umelej inteligencie ako Midjourney alebo Dall-E dokážu vytvoriť falošné fotografie: pomocou textového príkazu sú vytvorené obrázky, ktoré sa aspoň na prvý pohľad zdajú ako reálne. Priaznivci Donalda Trumpa takto uverejnili v roku 2023 obrázok vytvorený umelou inteligenciou, aby navodili dojem, že bývalého amerického prezidenta a súčasného republikánskeho kandidáta na prezidenta prijímajú aj černošskí voliči.

Pri pozornejšom pohľade je zrejmé, že s obrázkom niečo nie je v poriadku. Trumpove prsty sú zdeformované, nápisy na oblečení v pozadí sú divné atď. Gilbert poznamenáva, že sú to klasické príznaky obrázku vytvoreného umelou inteligenciou. Odborníci sa však zhodujú, že vďaka vývoju umelej inteligencie bude aj takýchto chýb čoraz menej.

Vplyv deepfakes je v šírení dezinformácií slabý. Zatiaľ

Podobne aj kvalita videí vytvorených pomocou umelej inteligencie je zatiaľ pomerne nízka. Holnburger si myslí, že umelá inteligencia hrá v šírení dezinformácií stále ešte len malú úlohu a jej dnešný vplyv sa preceňuje. Technologický vývoj by to však v budúcnosti mohol zmeniť. Podľa Holnburgera budú obrázky vytvorené umelou inteligenciou v budúcnosti prakticky nerozoznateľné od skutočných fotografií.

Spoločnosť OpenAI už predstavila videá vytvorené vlastným programom Sora pre tvorbu videí umelou inteligenciou. Tieto videá ukazujú, na akej úrovni a v akej kvalite by v budúcnosti mohli byť videá prostredníctvom umelej inteligencie vytvárané. Program zatiaľ nie je verejne dostupný.

Vývoj umelej inteligencie znamená, že je čoraz viac podvrhov vytvorených umelou inteligenciou, a tie sú čoraz kvalitnejšie. Celkovo však dnes predstavujú len malú časť dezinformácií na internete. Oveľa častejšie sa to robí bez umelej inteligencie.

Politológ Andreas Jungherr tvrdí, že podvrhy vytvorené umelou inteligenciou možno rýchlo odhaliť a médiá ich nepreberajú, takže aktuálne to nie je problém, ktorý by napríklad ovplyvnil výsledky volieb. Podľa Jungherra hrozí pri používaní takýchto nástrojov v politickom priestore aj verejná kritika a strata dôveryhodnosti.

Virálne podvrhy

Keď Kamala Harris oznámila svoju kandidatúru na prezidentku USA, začalo sa šíriť video, kde sa zdá, že na jednej akcii hovorí zmätene. Video sa stalo virálnym a malo milióny pozretí. Čoskoro sa zistilo, že skutočná zvuková stopa bola jednoducho nahradená hlasom imitátora. Toto je len jeden príklad, keď na vytvorenie podvrhu nemusí byť použitá priamo umelá inteligencia, no aj tak vie byť vytvorený falošný obraz o danej osobe.

Tak či onak, je zjavné, že „vývoj programov umelej inteligencie sa prejavuje aj v oblasti dezinformácií. Opakovane sa objavujú prípady, keď sú pomocou umelej inteligencie vytvorené alebo upravované texty, zvuky, obrázky alebo videá s cieľom oklamať alebo ohovoriť. Najmä pri zvukových a obrazových materiáloch môžeme opakovane vidieť podvrhy,“ uzatvára novinár Max Gilbert.