Šiuolaikinės technologijos vis labiau painioja ribą tarp tikrovės ir fikcijos. Interneto vartotojai vis dažniau susiduria ne tik su prastai redaguotomis nuotraukomis, bet ir su dirbtinio intelekto (DI) generuotais vaizdo įrašais, taip vadinamais deepfake. Nuo suklastotų reklamų iki melagingų katastrofų „reportažų“ – tokie vaizdai gali būti bauginamai realistiški. Kaip teigia RBC-Ukraine, svarbu žinoti, į ką atkreipti dėmesį, norint atpažinti Sora sukurtą video turinį.
Kas yra Sora ir kodėl tai pavojinga
Sora yra DI vaizdo įrašų kūrimo programa, kuri technologiškai pranoksta daugelį konkurentų, tokių kaip Midjourney V1 ar Google Veo 3. Programos vaizdo įrašai pasižymi aukšta raiška, sinchronizuotu garsu ir kūrybiškumu. Viena populiariausių funkcijų – Cameo, leidžianti įterpti realių žmonių atvaizdus į beveik bet kokią DI sceną. Dėl šios priežasties Sora gali būti naudojama pavojingiems deepfake, dezinformacijos skleidimui ir tikrovės manipuliavimui.
Kaip atpažinti Sora deepfake
Atkreipkite dėmesį į vandens ženklą
Visuose Sora iOS programėlėje sukurtuose vaizdo įrašuose yra judantis balto Sora logotipo vandens ženklas. Tai paprasčiausias būdas atskirti AI turinį. Tačiau vien vandens ženklas negarantuoja saugumo – jis gali būti apkarpytas ar pašalintas naudojant specialias programas.
Tikrinkite metaduomenis
Metaduomenų patikrinimas dažnai yra patikimiausias būdas nustatyti vaizdo įrašo kilmę. Metaduomenyse nurodomas fotoaparato tipas, data, vieta ir kiti duomenys. AI generuoti vaizdo įrašai dažnai turi specialius žymėjimus. OpenAI priklauso C2PA koalicijai, todėl Sora vaizdo įrašai turi patvirtinimus, kuriuos galima patikrinti naudojant Content Authenticity Initiative įrankį.
Atkreipkite dėmesį į DI žymėjimą
Socialiniuose tinkluose, tokiuose kaip Instagram, Facebook, TikTok ar YouTube, DI turinys dažnai pažymimas specialiu žymėjimu. Tai padeda vartotojui suprasti, kad turinys gali būti generuotas dirbtiniu intelektu. Tačiau vien tik žymėjimas ne visada užtikrina tikslumą, todėl svarbu būti budriems.

Paprasti požymiai, kad vaizdo įrašas gali būti deepfake
Vartotojai turėtų stebėti, ar vaizduose nėra iškraipytų tekstų, dingstančių objektų ar judesių, kurie prieštarauja fizikos dėsniams. Net ekspertai ne visada gali tiksliai nustatyti, ar turinys yra sukurtas DI, todėl geriausia taisyklė – nepasitikėti aklai viskuo, ką matote internete.
Kaip apsisaugoti
Svarbiausia – sąmoningumas. Jei turinys atrodo įtartinas arba nenatūralus, tikėtina, kad tai gali būti deepfake. Vartotojai turėtų atidžiai vertinti vaizdo įrašų šaltinius, tikrinti metaduomenis ir pasitikėti tik patikimais informacijos šaltiniais.
Šaltinis: cnet.com
Nuotraukos asociatyvinės © Canva.