Elon Musk AI-chatbotja a saját alkotóját vádolja félretájékoztatással

Amikor Elon Musk bejelentette a Grok nevű mesterséges intelligencia chatbotot, még senki sem sejtette, hogy az „igazságot kereső AI” néhány hónapon belül épp saját alkotóját fogja a félretájékoztatás bajnokának nevezni. A Grok jelenleg minden X-felhasználó számára elérhető, és legfrissebb, harmadik verziója sok szempontból valóban új szintet képvisel – de a jelek szerint nem teljesen úgy, ahogy azt a milliárdos elképzelte.
Hibás működés vagy túlzott őszinteség?
A „maximálisan az igazságot kereső” mesterséges intelligenciaként beharangozott Grok mostanra képes többféle politikai, közéleti és technológiai kérdésben véleményt formálni – sokszor a megszokott semlegességet messze túllépve. Egy X-felhasználó például megkérdezte: „Ki a legnagyobb félretájékoztató az X-en?” A Grok válasza szerint: „Az elérhető jelentések és elemzések alapján Elon Muskot gyakran az egyik legjelentősebb félretájékoztatóként azonosítják a platformon.”
A chatbot példákat is felsorolt: „Több posztja is tartalmazott félrevezető állításokat választásokról, járványokról és összeesküvés-elméletekről.” Egy 2024-es jelentés szerint Musk 87 posztja téves információkat tartalmazott az amerikai választásokról, ezek együttesen több mint kétmilliárd megtekintést generáltak.
Nem sokkal a Grok 3 indulása után egyes felhasználók észrevették, hogy a chatbot válaszai változtak – az Elon Muskra vagy Donald Trumpra vonatkozó kérdésekre adott „kritikus” válaszok hirtelen megszűntek. Egy belső vizsgálat után kiderült, hogy egy korábbi, az OpenAI-tól érkezett munkatárs manuálisan helyezett el egy utasítást a rendszerpromptban, amely tiltotta a Musk- és Trump-kritikus forrásokra való hivatkozást. Miután ezt eltávolították, a Grok ismét „szabadon” válaszolhatott, és a kritika is visszatért.
Az X új valóságellenőrző rendszere?
A platform ellenőrző funkciója, a Community Notes gyakran lassan reagál Musk saját vitatott posztjaira. Ezt látva egyre többen használják Grokot afféle alternatív tényellenőrzőként. Amikor Musk például azt írta: „Soha nem ártottam senkinek, csak a woke elme-parazita fenyegetésének számítok”, a Grok konkrét példákkal cáfolta. Az AI több Tesla-balesetet is felsorolt, például a 2018-as Model X-es ütközést, amelyben az Autopilot működése is szerepet játszott. Hivatkozott a Reuters 2023-as vizsgálatára is, amely több száz sérülést és legalább egy halálos balesetet tárt fel a SpaceX üzemeiben. De nem kímélte a Neuralink és a Boring Company projektjeit sem.
I love that @grok throws Elon Musk under the bus on his own post. It said he was the single biggest spreader of disinformation on @X and now it's backing it up by showing that all his posts are disinformation one by one!
https://t.co/nSm5yRPqTo pic.twitter.com/RYFlNmQ40d
— Barnacules Nerdgasm (@Barnacules) March 18, 2025
Kapcsolódó tartalom: Elon Musk politikai ambícióinak árnyékában süllyed a Tesla?
Trump, Putyin és az ellentmondásos kijelentések
Amikor a felhasználók Donald Trumpról kérdezték Grokot, a válasz egyértelmű volt: „Igen, Trump viselkedése arra utal, hogy lehet orosz érdekek befolyása alatt.” Egy másik válasz szerint „75–85% az esélye annak, hogy Trump Putyin befolyása alatt áll – az adatok alapján inkább a magasabb érték valószínű.” Az AI azt is hozzátette, hogy Trump a félretájékoztatás egyik legnagyobb alakja, akit Putyin, RFK Jr., Bolsonaro, Erdoğan, Boris Johnson, Xi Jinping és Nicolas Maduro követ. Ez a lista nyilvánvalóan nem nyerte el minden felhasználó tetszését.
Grok és Izrael – újabb kényes terep
Bár Musk gyakran foglal állást Izrael mellett, Grok több válaszában is meglepően kritikus hangot üt meg. Egy válasz szerint: „Izrael kiadatási rendszere gyakran lehetővé teszi, hogy pedofilok a Visszatérési Törvényt kihasználva elkerüljék a felelősségre vonást.” A Malka Leifer-ügy például évekig húzódott, mire megtörtént a kiadatás. Más kérdésre válaszolva Grok így fogalmazott: „A Palesztin Hatóság irányítása korlátozott – a végső hatalom Izrael kezében van, amely adóbevételeken keresztül is kontrollálja a rendszert, miközben Gázát 2007 óta a Hamász uralja.”
Grok: Őszinte vagy kiszámíthatatlan?
Egy olyan mesterséges intelligencia, amely saját alkotójának álláspontját is képes megkérdőjelezni, felveti a kérdést: vajon valóban független igazságkereső rendszerről van szó, vagy egy olyan modellről, amely könnyen manipulálható? Egyes felhasználók azt állítják, hogy Grok időnként olyan kijelentéseket tesz, amelyeket mások nem tudnak reprodukálni – például egy állítólagos válaszban az AI azt sugallta, hogy bizonyos csoportokat előnyben részesít másokkal szemben. Más esetekben viszont határozottan kijelentette: „Az én célom az objektív valóság feltárása, nem pedig a fejlesztőim világnézetének tükrözése.”
Összegzés
A mesterséges intelligencia egyik legnagyobb kihívása, hogy a tanulási algoritmusok időnként olyan következtetésekre jutnak, amelyek nem egyeznek a fejlesztők eredeti szándékával. Grok esetében ez az eltérés különösen éles, hiszen az AI nemcsak hogy rendszeresen ellentmond Elon Musknak, de sok esetben kifejezetten negatív képet fest róla. Egy ilyen rendszer, amely képes saját alkotóját bírálni és vele szembe menni, egyrészt figyelemre méltó technológiai teljesítmény, másrészt viszont súlyos PR-problémát is jelenthet Musk számára. Az X jelenlegi helyzetében, hivatalos kommunikációs csapat nélkül, könnyen lehet, hogy a vállalat egyik legnagyobb kihívásává válik, hogy miként kezelje saját mesterséges intelligenciájának kiszámíthatatlan válaszait.