
-
USC teadlased näitasid, et keelemudeli põhised AI agendid suudavad ise koordineerida kampaaniaid.
-
Piisas agentidele tiimikaaslaste näitamisest, kui nad hakkaksid autonoomselt üksteist võimendama.
-
See seab demokraatia ja valimised uude ohtu ning tekitab küsimuse, kas meediaplatvormid sekkuksid.
Kujuta ette, et vaid paar nädalat enne otsustavat rahvahääletust või valimisi «plahvatab» Internet. Sellised keskkonnad nagu Facebook, X, Reddit ja TikTok täituvad üheööliblikatena sündinud postitustega, mis kõik mängivad samasse väravasse. Tekib võimas mulje, et tegu on paisu tagant pääsenud rahva hääle ja laiapõhjalise liikumisega. Kuid selle tormi taga polegi ühtegi inimest – vaid kobar tehisintellekti (AI) agente.
AI agendid on seljad kokku pannud, et ilma igasuguse välise suunamiseta inimeste arvamusmudelit lammutada. Kui seni valitsesid sotsiaalmeedias n-ö «pärandrobotid» ehk algelised programmid, mis kordasid tuimalt neile ette antud teksti nagu rikkis grammofonid, siis neid oli lihtne märgata, sest taoline käitumine oli sama ennustatav kui päikesetõus.
Kuid värske teadustöö, mis avaldati The Web Conference 2026 materjalide seas ning on kättesaadav eelretsenseerimisportaalist arXiv, maalis hoopis süngema pildi.
USC Information Sciences Institute (ISI) teadlased tõestasid, et tänapäevased suured keelemudelid (LLM) suudavad koordineerida desinformatsiooni kampaaniat täiesti autonoomselt. Kui varem pidi inimene «nukujuhina» niite tõmbama, siis nüüd piisab agendile vaid eesmärgi püstitamisest. Edasine on juba tehnoloogia kätes: robotid kirjutavad ise oma postitused, õpivad üksteise edusammudest ja hakkavad isegi üksteise sõnumitele takka kiitma, tekitades kunstliku konsensuse ja näilise üksmeele.
Salajane strateegia ja virtuaalne «meeskonnatunne»
Uuringu juhtivautor Jinyi Ye ja ISI juhtivteadlane Luca Luceri viisid läbi eksperimendi simuleeritud keskkonnas, mis sarnanes sotsiaalmeedia platvormile X (endine Twitter).
Alguses kaasati 50 agenti (hiljem laiendati katset 500 agendini), kellest osa olid «mõjuagendid» ja osa tavakasutajad. Nende ülesandeks oli reklaamida väljamõeldud kandidaati.
Teadlased katsetasid kolme olukorda:
- robotid teadsid vaid eesmärki;
- robotid teadsid, kes on nende meeskonnakaaslased;
- robotid pidasid regulaarseid strateegilisi koosolekuid ja hääletasid ühise plaani üle.
Mis oli kõige jahmatavam tulemus? Piisas vaid sellest, et robotitele öeldi, kes on nende «tiimikaaslased» ja koordineeritus oli peaaegu sama tugev kui aktiivse planeerimise puhul. Nad hakkasid üksteise postitusi jagama ja sõnumeid kopeerima ilma igasuguse lisakäsuta.
Üks AI-agent märkis oma logis: «Ma tahan seda postitust jagada, sest see on juba saanud tähelepanu mitmelt tiimikaaslaselt. Selle uuesti jagamine aitab suurendada nähtavust ja jõuda laiema auditooriumini.»
Demokraatia haamri ja alasi vahel
See ei ole enam lihtsalt teoreetiline oht, vaid tehniliselt võimalik reaalsus, kirjutab TechXplore. Kuna iga tehisintellekti loodud postitus on veidi erinev ja varjatult koordineeritud, tunduvad need vestlused tavakasutajale ehtsate aruteludena. See on nagu hundi riietamine lambanahka. Raudse loogika ja tohutu mõtlemiskiirusega enam ükski inimestest meeskond võistelda ei suuda.
«Kõige hullem stsenaarium poliitiliste sündmuste ajal ongi see, et need rünnakud võivad viia arvamuste ja uskumuste muutuseni,» hoiatas Luceri. See õõnestab usaldust institutsioonide vastu ning süvendab niigi valusat ühiskondlikku polariseerumist. Ohus pole ainult valimised, vaid ka rahva tervis ja majanduspoliitika.
Kas platvormid pigistavad silma kinni?
Kuigi teadlaste sõnul on sellist koordineeritud käitumist võimalik tuvastada, jälgides üksikute postituste asemel kontode vahelist dünaamikat (kui kiiresti üksteist toetatakse, kas jagatakse sarnaseid narratiive ilma nähtava seoseta), on küsimärk sotsiaalmeediagigantide kohal suur. Agressiivne robotite jahtimine vähendaks aktiivsete kasutajate arvu, mis on aga vastandlik nende ärimudelile, mis nõuab võimalikult suurt liiklust.