OpenAI nustato, kad Rusijos ir Kinijos propagandos kampanijos naudojo jos technologijas | Ophthacare

OpenAI nustato, kad Rusijos ir Kinijos propagandos kampanijos naudojo jos technologijas

SAN FRANCISKO – ChatGPT gamintojas OpenAI ketvirtadienį pranešė sučiupęs grupes iš Rusijos, Kinijos, Irano ir Izraelio, kurios savo technologijomis bando daryti įtaką politiniam diskursui visame pasaulyje, ir pabrėžė susirūpinimą, kad generatyvus dirbtinis intelektas palengvina valstybės veikėjų slaptą propagandą. . kampanijas, artėjant 2024 m. prezidento rinkimams.

OpenAI pašalino paskyras, susijusias su gerai žinomomis propagandos operacijomis Rusijoje, Kinijoje ir Irane; Izraelio politinės kampanijos įmonė; ir anksčiau nežinoma grupė, kilusi iš Rusijos, kurią bendrovės tyrėjai pavadino „Bloga gramatika“. Grupės naudojo OpenAI technologiją įrašams rašyti, versti juos į įvairias kalbas ir kurti programinę įrangą, kuri padėjo automatiškai skelbti įrašus socialinėje žiniasklaidoje.

Nė vienai iš šių grupių nepavyko įgyti daug traukos; su jais susietos socialinių tinklų paskyros pasiekė nedaug vartotojų ir turėjo tik saujelė sekėjų, sakė Benas Nimmo, OpenAI žvalgybos ir tyrimų komandos pagrindinis tyrėjas. Vis dėlto „OpenAI“ ataskaita rodo, kad propagandistai, kurie ilgus metus buvo aktyvūs socialinėje žiniasklaidoje, naudoja AI technologiją, kad sustiprintų savo kampanijas.

„Matėme, kad jie generuoja tekstą didesniu garsu ir su mažiau klaidų, nei tradiciškai galėjo atlikti šios operacijos“, – sakė Nimmo, anksčiau dirbęs Meta sekimo įtakos operacijose. Nimmo teigė, kad gali būti, kad kitos grupės vis dar naudoja OpenAI įrankius be bendrovės žinios.

“Dabar ne laikas nusiraminti. Istorija rodo, kad įtakos operacijos, kurios praleido ilgus metus niekur nepasiekdamos, gali staiga išsiveržti, jei niekas jų neieško”, – sakė jis.

Vyriausybės, politinės partijos ir aktyvistų grupės daugelį metų naudojosi socialine žiniasklaida, siekdamos daryti įtaką politikai. Kilus susirūpinimui dėl Rusijos įtakos 2016 m. prezidento rinkimuose, socialinės žiniasklaidos platformos pradėjo daugiau dėmesio skirti tam, kaip jų svetainės buvo naudojamos siekiant paveikti rinkėjus. Įmonės paprastai draudžia vyriausybėms ir politinėms grupėms slėpti suderintas pastangas paveikti vartotojus, o politiniuose skelbimuose turi būti atskleista, kas už juos sumokėjo.

Kadangi dirbtinio intelekto įrankiai, galintys generuoti tikrovišką tekstą, vaizdus ir net vaizdo įrašus, tampa plačiai prieinami, dezinformacijos tyrinėtojai išreiškė susirūpinimą, kad bus dar sunkiau pastebėti melagingą informaciją ar slaptas internetines įtakos operacijas ir į jas reaguoti. Šiais metais šimtai milijonų žmonių balsuoja rinkimuose visame pasaulyje, o generatyvūs dirbtinio intelekto klastotės jau išplito.

„OpenAI“, „Google“ ir kitos dirbtinio intelekto įmonės kuria technologijas, skirtas identifikuoti giliuosius klastojimus, pagamintus naudojant savo įrankius, tačiau tokia technologija tebėra neįrodyta. Kai kurie dirbtinio intelekto ekspertai mano, kad giluminio padirbinėjimo detektoriai niekada nebus visiškai veiksmingi.

Anksčiau šiais metais su Kinijos komunistų partija susijusi grupė išleido dirbtinio intelekto sukurtą garso įrašą, kuriame užfiksuotas kandidatas Taivano rinkimuose, tariamai patvirtinantis kitą kandidatą. Tačiau politikas, „Foxconn“ savininkas Terry Gou, nepalaikė kito politiko.

Sausio mėn. Naujojo Hampšyro pirminiuose rinkimuose rinkėjai gavo automatinį skambutį, kuris neva buvo iš prezidento Bideno, bet greitai buvo nustatytas kaip dirbtinis intelektas. Praėjusią savaitę demokratų partijos atstovui, kuris pasakė, kad jis įsakė vykdyti automatinį skambutį, buvo pareikšti kaltinimai dėl vieno rinkėjų slopinimo ir vieno kaltinimo dėl apsimetimo kandidatu.

OpenAI ataskaitoje aprašyta, kaip penkios grupės naudojo bendrovės technologiją siekdamos įtakos. „Spamouflage“, anksčiau žinoma Kinijos kilmės grupė, naudojo „OpenAI“ technologiją, kad ištirtų veiklą socialinėje žiniasklaidoje ir rašytų įrašus kinų, korėjiečių, japonų ir anglų kalbomis, pranešė bendrovė. Irano grupė, žinoma kaip Tarptautinė virtualios žiniasklaidos sąjunga, taip pat naudojo OpenAI technologiją kurdama straipsnius, kuriuos paskelbė savo svetainėje.

„Bad Grammar“, anksčiau nežinoma grupė, naudojo „OpenAI“ technologiją, kad padėtų sukurti programą, kuri galėtų automatiškai paskelbti pranešimų siuntimo programoje „Telegram“. Tada „Bad Grammar“ naudojo „OpenAI“ technologiją įrašams generuoti ir komentarų rusų ir anglų kalbomis, kuriuose teigiama, kad JAV neturėtų remti Ukrainos, teigiama pranešime.

Ataskaitoje taip pat nustatyta, kad Izraelio politinės kampanijos įmonė „Stoic“ naudojo „OpenAI“, kad sukurtų proizraelietiškus pranešimus apie Gazos karą ir nukreiptų juos į Kanados, JAV ir Izraelio žmones, pranešė „OpenAI“. Trečiadienį „Facebook“ savininkas Meta taip pat paskelbė apie Stoiko darbą, sakydamas, kad jis panaikino 510 „Facebook“ ir 32 „Instagram“ paskyras, kurias naudojo grupė. Kai kurios paskyros buvo įsilaužtos, o kitos buvo fiktyvių asmenų, žurnalistams sakė bendrovė.

Aptariamose paskyrose dažnai buvo komentuojami gerai žinomų asmenų ar žiniasklaidos organizacijų puslapiai, apsimetę Izraelį palaikančiais Amerikos koledžų studentais, afroamerikiečiais ir kt. Komentarai palaikė Izraelio kariuomenę ir perspėjo kanadiečius, kad „radikalusis islamas“ ten kelia grėsmę liberalioms vertybėms, sakė Meta.

AI pasirodė kai kurių komentarų formuluotėse, kurios tikriems „Facebook“ naudotojams pasirodė keistos ir iškritusios iš konteksto. Pasak bendrovės, operacija sekėsi prastai, pritraukdama tik apie 2600 teisėtų sekėjų.

Meta veikė po Atlanto tarybos skaitmeninės teismo medicinos tyrimų laboratorijos atrado tinklas, stebint kitų tyrėjų ir publikacijų nustatytas panašias operacijas.

Per pastaruosius metus dezinformacijos tyrinėtojai pasiūlė, kad dirbtinio intelekto pokalbių robotai galėtų būti naudojami ilgiems ir išsamiems pokalbiams su konkrečiais žmonėmis internete, bandant juos nukreipti tam tikra kryptimi. AI įrankiai taip pat gali gauti daug duomenų apie asmenis ir tiesiogiai jiems pritaikyti pranešimus.

„OpenAI“ nerado nė vieno iš šių sudėtingesnių AI naudojimo būdų, sakė Nimmo. „Tai labiau evoliucija, o ne revoliucija“, – sakė jis. „Nė vienas iš to nereiškia, kad ateityje to nepamatysime“.

Josephas Mennas prisidėjo prie šio pranešimo.

Leave a Reply

Your email address will not be published. Required fields are marked *