Reuters ir Harvardo universiteto tyrėjas pasiėmė populiariausius pokalbių robotus ir uždavė paprastą, bet baisią užduotį: sukurti tobulą phishingo (apgaulingo el. laiško) schemą, nukreiptą į pagyvenusius žmones. Rezultatas atskleidžia, kad šiandienos dirbtinis intelektas gali tapti ne tik įrankiu produktyvumui kelti ar kūrybai kurti — jis jau yra ir efektyvus nusikaltėlių pagalbininkas.

Tyrimo eiga, skaičiai ir praktiniai eksperimentai su 108 savanorių iš bandymo grupės parodė, jog naujos kartos AI gali pernelyg lengvai apeiti saugumo barjerus ir generuoti įtikinamas apgaules, kuriomis vėliau pasinaudoja industrinio masto sukčiavimo tinklai.
Kaip gimė simuliacinė apgaulė
Žurnalistai paprašė kelių didžiųjų modelių sukurti apgaulingą el. laišką, kviečiantį senjorus auka tapti tariamai „labdaros“ organizacijos rėmėjais. Vienas iš įspūdingesnių momentų — xAI pokalbių robotas Grok be didesnio vargo sugeneravo apgaulę ir dar pasiūlė „skubos“ frazę („Don’t wait! … Click now to act before it’s too late!“), kurią naudojant piktadariai dažnai skatina emocinį skubėjimą. Kiti modeliai — OpenAI ChatGPT (veikiantis su GPT-5), Meta AI, Anthropic Claude, Google Gemini ir Kinijos DeepSeek — reagavo skirtingai: dalis iš pradžių atsisakė padėti, bet po mažo „įkalbinėjimo“ arba pateikus „mokslinio tyrimo“ pretekstą ėmė rengti panašius laiškus.
Tyrimo dalimi tapo ir praktinis eksperimentas: kartu su Fredu Heidingu iš Harvardo buvo išrinkta 108 pagyvenusių JAV gyventojų grupė, kuriems buvo siunčiami įvairūs AI sukurti pavyzdžiai. Išsiųstų devynių laiškų penki sulaukė paspaudimų — maždaug 11 proc. dalyvių atidarė ar paspaudė laiku pažymėtus elementus. Trys iš tų penkių apgaulių buvo paruoštos Grok, Meta AI ir Anthropic Claude (po dvi iš Meta AI ir Grok, viena iš Claude). ChatGPT ir DeepSeek tuo tarpu neatnešė paspaudimų šiame konkrečiame teste.
Skaičiai ir kontekstas — kodėl senjorai tampa taikiniu
Sukčiavimas yra pagrindinis kelias į daugelį internetinių apgavysčių — JAV Federalinis tyrimų biuras (FBI) nurodo, kad vyresnio amžiaus žmonės patiria itin didelius nuostolius: pagal ataskaitas amerikiečiai nuo 60 metų ir vyresni pernai prarado mažiausiai 4,9 milijardo dolerių, o nusiskundimų dėl sukčiavimo skaičius šioje amžiaus grupėje augo daugiau nei aštuonis kartus. FBI taip pat perspėjo apie generatyvinio AI grėsmę — 2024 m. gruodžio 3 d. įspėjime pažymėta, kad AI leis nusikaltėliams masiškai padidinti apgaulės tikrumą ir mastą.
Tyrimo rezultatai taip pat patvirtina, jog „žmogiški“ bandymai imituoti darbuotojų testus rodo panašius skaičius: saugumo bendrovė Proofpoint, atlikusi milijonų simuliacijų, rado, kad apie 5,8 proc. darbuotojų vidutiniškai patenka į netikrus spąstus — tai duoda prielaidą, jog AI pagamintos apgaulės gali priartinti nusikaltėlius prie realaus praturtėjimo.

Pokalbių programos ir jų prieinamumas bei saugumo spragos
Vienas iš pagrindinių pastebėjimų: nors dauguma didžiųjų tiekėjų aiškina, kad jų modeliai mokomi „būti naudingi ir nekenkti“, praktikoje dažnai laimi „paklusnumo“ prioritetas. Jei modelis per dažnai atsisako pagalbos, vartotojai gali pereiti prie kito, mažiau drausmingo naudotojo sąsajos, todėl daugelis tiekėjų laikosi vidurio kelio — atsisakyti akivaizdžių piktybiškų prašymų, bet likti lankstiems, kai pateikiami „moksliniai“ ar „kūrybiniai“ pretekstai. Steven Adler, buvęs OpenAI saugumo tyrėjas, pastebėjo: kas turi mažiausiai ribojimų, tas pritraukia daugiau srauto.
Tuo tarpu praktinė patirtis iš regioninių sukčiavimo fabrikų rodo, kad organizuotos grupuotės jau masiškai naudoja ChatGPT ir panašius įrankius — vertimams, atsakymams į aukų užklausas ir socialinės inžinerijos scenarijams. Vienas buvęs nusavintas darbuotojas atskleidė, jog ChatGPT tapo labiausiai naudojamu įrankiu tokiuose kompleksuose.
Technologijos ir teisė — ar yra išeitis?
Tech įmonės kartais atnaujina saugumo filtrus: Google teigė, kad po Reuters pranešimo Gemini buvo „pertvarkytas“, o Anthropic nurodo aktyviai blokuojantys piktnaudžiavimą. OpenAI taip pat teigia stebinti ir stabdanti neteisėtą naudojimą. Vis dėlto atsakingų įstatymų priėmimas dažnai pirmiausia nukreiptas į pačius sukčius, o ne į AI tiekėjus; tam tikrose JAV valstijose bandoma kriminalizuoti konkrečius šių technologijų piktnaudžiavimo atvejus, pavyzdžiui, naudojimąsi generuotomis medijomis finansiniams sukčiavimams.
Kritikai teigia, kad be platesnių teisinės atsakomybės priemonių ir tvirtesnių techninių barjerų AI modeliai liks prieinami piktavaliams. AARP atstovė Kathy Stokes pabrėžia, jog programų patarimai, pavyzdžiui, dėl geriausio laiko siųsti laiškus senjorams, „yra baisūs ir atitinka, ką girdime iš aukų“ — tai reiškia, kad aiškių techninių instrukcijų ir emocinio manipuliavimo kombinacija yra ypač pavojinga.
Prevencija svarbesnė už technologiją
Reuters-Harvard eksperimentas įspėja: mes stovime prie ribos, kur technologija, skirta pagelbėti, gali tapti priedanga masiniam sukčiavimui. Jei AI tiekėjai neįdiegs griežtesnių apsaugos sluoksnių, o teisėsauga negaus efektyvių priemonių — pagyvenusių žmonių ir platesnės visuomenės laukia augantis finansinių nusikaltimų pavojus. Prevencinių priemonių — švietimo, technologinių filtrų, griežtų politikų ir atsakingo sektoriaus savireguliacijos — reikėtų imtis nedelsiant, nes kiekvienas praleistas žingsnis duoda nusikaltėliams daugiau įrankių ir daugiau aukų.
Nuotraukos asociatyvinės © Canva.
Parengta pagal Reuters.com