AI-generált képekkel működő álprofilok ezrei árasztják el a közösségi médiát
Egy új kutatás szerint egyre több közösségi médiás álprofil használ AI által generált képeket, és ezek jelentős szerepet játszanak az online félretájékoztatás terjesztésében.
Az X (korábban Twitter) platformon végzett elemzés több millió közösségi média-profil vizsgálata alapján kiderítette, hogy több ezer, AI által generált profilképet használó fiók valószínűleg hamis. Az elemzés olyan tényezőket vett figyelembe, mint a fiókok létrehozásának dátuma, követőik száma, általuk követett fiókok, a megosztott tartalmak és az általános viselkedésük.
A kutatás, amelyet még 2023-ban végeztek, amikor az X platformot még Twitternek hívták, egy kezdeti, körülbelül 15 millió fiókból álló mintával indult. A képet nem tartalmazó profilok kizárása után a kutatók azt találták, hogy az így maradt fiókok 0,052%-a AI által generált arcképet használt profilképként. Bár ez a teljes minta kis részét jelenti, mégis több ezer ilyen fiókot azonosítottak, összesen 7,723 AI-generált képpel.
„Ez elsőre nem tűnik soknak, de az ilyen képek nagyon gyakoriak a Twitteren” – mondta Jonas Ricker, a németországi Ruhr Egyetem kutatója, a tanulmány vezető szerzője. „Elemzéseink arra is utalnak, hogy ezek közül sok profil politikai propaganda és összeesküvés-elméletek terjesztésére szolgáló álprofil.”
Az álprofilok nemcsak félretájékoztatást terjesztettek, hanem több jel is utalt arra, hogy nem valós fiókok. Ezek a profilok például átlagosan kevesebb követővel rendelkeztek, és kevesebb fiókot követtek, mint az AI-generált képet nem használó profilok. A kutatók egyértelmű mintákat is találtak a fiókok létrehozási dátumai között.
„Azt is észrevettük, hogy a hamis képekkel rendelkező fiókok több mint felét 2023-ban hozták létre; bizonyos esetekben órák alatt több száz fiókot regisztráltak – ami egyértelműen arra utal, hogy ezek nem valós felhasználók” – magyarázta Ricker.
A kutatók egy kézi ellenőrzést is végeztek néhány fiók esetében, hogy megerősítsék kezdeti eredményeiket. Kilenc hónap elteltével visszatértek az AI-generált képekkel rendelkező fiókok ellenőrzésére, és megállapították, hogy ezek több mint felét a Twitter időközben letiltotta. Ricker szerint ez „újabb jel arra, hogy ezek a fiókok rosszindulatúan működtek.”
Az álprofilok által megosztott tartalmak elemzése során a kutatók több témát is azonosítottak. Ezek a hamis fiókok rendszeresen osztottak meg összeesküvés-elméleteket Donald Trump megválasztott elnökkel, a COVID-19 járvánnyal és vakcinákkal, az ukrajnai háborúval, valamint lottókról és pénzügyi témákról – például kriptovalutákról – szóló történetekkel kapcsolatban. Bár ezek önmagukban nem bizonyítják, hogy ezek hamis profilok voltak, a kutatók szerint az AI-generált képek és a megfigyelt minták kombinációja hitelesíti ezt az elméletet.
„Csak találgathatunk, mi állhat a háttérben” – mondta Ricker. „De feltételezhető, hogy néhány fiókot célzott félretájékoztatás és politikai propaganda terjesztésére hoztak létre.”
A kutatás során a kutatók az AI által generált képek azonosításához a StyleGAN 2 technológiára összpontosítottak. Az ilyen típusú AI-generált képek népszerűsége a thispersondoesnotexist.com weboldal révén nőtt meg, amely olyan emberek képeit hozza létre, akik nem léteznek.
„Feltételezzük, hogy ezt az oldalt gyakran használják AI-generált profilképek előállítására” – mondta Ricker. „Ez azért lehet, mert az ilyen képeket nehezebb visszakövetni, mint amikor valaki egy idegen valódi képét használja avatarként.”
A kutatócsoport a jövőben újabb AI-modellek bevonását tervezi, amelyek segítségével még nagyobb arányban azonosíthatnak potenciálisan hamis profilokat. Úgy vélik azonban, hogy bármilyen eszközt is használjanak a fiókok létrehozására, az elv változatlan marad.
„A jelenlegi AI technológiával megtévesztően valósághű képeket hozhatunk létre, amelyeket a közösségi médiában felhasználhatnak valósnak tűnő fiókok készítésére” – magyarázta Ricker.
A tanulmány, amelynek címe „AI-generált arcok a valós világban: Nagyszabású esettanulmány a Twitter profilképeiről”, a 27. Nemzetközi Támadások, Betörések és Védekezések Kutatási Szimpóziumán (RAID) került bemutatásra.