Per pastaruosius kelerius metus dirbtinio intelekto (DI) vaizdo generatoriai pažengė taip toli, kad šiandien net ir patyrusi akis gali susipainioti tarp tikrovės ir skaitmeninės iliuzijos. „Veo 3“ ir „Sora 2“ – du galingiausi šių laikų DI vaizdo kūrimo įrankiai – geba iš kelių sakinių sukurti vaizdus, kurie atrodo taip tikroviškai, jog atskirti juos nuo realaus pasaulio tampa vis sunkiau. Socialiniuose tinkluose plūsta DI turinys, o daugelis žiūrovų net neįtaria, kad žiūri ne žmogaus, o mašinos kūrinį.
Nuo juokingo „Will Smith valgo spagečius“ iki nepriekaištingo realizmo
Prisiminkime garsųjį eksperimentą, kai DI sukurtame vaizdo įraše aktorius Willas Smithas valgė spagečius. 2023-aisiais tai atrodė kaip keista sapno vizija – neaiškios veido formos, tirpstantys makaronai, keisti judesiai. Šiandien analogiškas įrašas jau beveik neatskiriamas nuo tikrovės. „Veo 3“ ir „Sora 2“ geba kurti tokio lygio detales, kad net menkiausi niuansai – odos tekstūra, žvilgsnio kryptis ar šešėlis ant stalo – atrodo visiškai tikri.
Tačiau būtent toks realizmas tampa pavojingu. Kai DI gali imituoti žmogaus veidą, balsą ir kūno kalbą, atsiranda galimybė klastoti politikų pasisakymus, sukurti netikrus įvykius ar manipuliuoti emocijomis. Vienas paspaudimas – ir „naujiena“ apie gaisrą, potvynį ar karą tampa virusiniu melu, o mes – šio melo skleidėjais.
Pirmieji ženklai: kai vaizdas elgiasi keistai
Kaip atpažinti, kad vaizdo įrašas sukurtas DI? Specialistai įvardija keletą esminių požymių. Pirmasis – vaizdo kokybė. Net pažangiausi generatoriai vis dar daro klaidų: matyti suliejimai, artefaktai, netolygus judesys. Kartais vaizdas atrodo tarsi suspaustas ar pikseliuotas. Tai nereiškia, kad jis būtinai netikras, bet tai – įspėjimo ženklas.
Kitas signalas – nenatūralus objektų elgesys. Kamuolys, krentantis ir šoktelintis per aukštai, žmogus, šuoliuojantis per erdvę lyg be svorio, vanduo, kuris juda tarsi gyvas. Tokie fizikos dėsniams prieštaraujantys momentai išduoda, kad klipą kūrė ne kamera, o algoritmas.
Dar viena smulkmena – keisti ar kintantys daiktai. DI dažnai pasiklysta detalėse: žmogus gali turėti šešis pirštus, ant scenos stalo atsiranda du mikrofonai vietoje vieno, užrašai fone pasikeičia vos akimirkai. Grįžus prie tos pačios scenos po kelių sekundžių, gali pasirodyti, kad dekoracijos nebe tokios pačios – durys kitur, paveikslas dingęs. Tokie siužeto „klaidžiojimai“ – klasikinis DI pėdsakas.
Kai netikrumas slepiasi po retro filtru
Kūrėjai, žinodami, kad žmonės jau pradeda atpažinti DI klaidas, imasi gudrybių. Viena populiariausių – dirbtinis vaizdo seninimas. Įrašas pateikiamas tarsi filmuotas senos skaitmeninės kameros ar net analoginio telefono. Grūdėtumas, spalvų išblukimas, „retro“ estetika – visa tai padeda paslėpti dirbtines klaidas ir sustiprina įspūdį, kad žiūrime autentišką, seną kadrą.
Tokios manipuliacijos ypač veiksmingos socialiniuose tinkluose, kur vartotojai dažnai pasitiki turiniu, atrodančiu „tikroviškai paprastai“. Kuo prastesnė kokybė, tuo didesnis patikimumas – paradoksas, kurį DI kūrėjai išnaudoja meistriškai.
Techninės detalės – detektoriaus užuomina
Ekspertai pataria atkreipti dėmesį į techninius niuansus. Dabartiniai DI generatoriai, tokie kaip „Veo 3“ ir „Sora 2“, dažniausiai kuria trumpus klipus – iki 8 sekundžių, 720p ar 1080p raiška, su 16:9 arba 9:16 formatu. Socialiniuose tinkluose tokie įrašai iškart išsiskiria: per trumpi, per tobulai sukomponuoti, be aiškios siužeto tąsos. Jei ilgesniame vaizdo įraše pastebite, kad kas 6–8 sekundes vyksta vos juntamas perėjimas ar „pjūvis“ – greičiausiai matote kelių DI klipų junginį.
Dar viena užuomina – vandens ženklas (watermark). „Veo“ ir „Sora“ automatiškai prideda matomą ženklą su įrankio pavadinimu bei nematomą metaduomenų formoje. Deja, abu ženklai gali būti nesunkiai pašalinami. Matomą galima „užgydyti“ generatyviai, o nematomas dingsta, kai vaizdas įrašomas ar eksportuojamas iš naujo. Todėl vien tik pasitikėti vandens ženklais – naivu.
Net dirbtinis protas gali apsigauti
Kartu su DI generatoriais vystosi ir jų priešingybė – DI analizatoriai. Tai įrankiai, bandantys aptikti, ar vaizdas sukurtas algoritmu. Tačiau net jie dažnai klysta. Kai DI mokosi iš DI, atsiranda paradoksas – melą aptinka kitas melas. Todėl net ekspertų analizės negali garantuoti šimtaprocentinės tiesos.
Tuo metu melagingi vaizdo įrašai dauginasi eksponentiškai. Be „Google“ ir „OpenAI“, šimtai mažesnių kūrėjų gamina savo generatorius, dažnai be etinių ar teisiniu ribojimų. Tokie įrankiai gali kurti bet kokio turinio vaizdus – nuo išgalvotų karo vaizdų iki netikrų asmeninių situacijų, pažeidžiančių žmogaus privatumą.
Ateitis, kurioje nebebus galima pasitikėti tuo ką matome
DI vaizdo generatoriai tobulėja kas mėnesį. Tai, kas šiandien atrodo kaip trūkumai – suliejimai, klaidos, neįtikroviški judesiai – jau rytoj gali būti pašalinta. Netikrumo požymiai nyksta taip pat greitai, kaip žmonių gebėjimas juos atpažinti.
Galbūt netrukus atskirti suklastotą vaizdą galės tik specialūs ekspertai, naudodamiesi kriminalinės analizės įrankiais. O gal – priešingai – DI kūrėjai sukurs tiek pažangius analizatorius, kad melas bus atpažįstamas taip pat lengvai, kaip šiandien atpažįstame filtrą nuotraukoje. Kol kas vienintelis tikras ginklas – kritinis mąstymas.
Matydami socialiniuose tinkluose įspūdingą vaizdo įrašą, verta sustoti ir paklausti savęs: ar tai tikrai vyko? Ar tai ne tik naujausia algoritmų iliuzija, sukurta tam, kad patikėtume tuo, ko niekada nebuvo?
Nuotraukos asociatyvinės © Canva.