Mi van, ha MAGA-ra hagyja a ChatGPT-t a WOKE? Milyen nem-gazdasági következményei lehetnek a felhasználók ideológiai alapú, tömeges kivonulásának egy olyan rendszer esetén, amelyik a visszajelzések alapján alakítja saját magát? Vajon helytálló egy olyan disztópia, amely balos és jobbos LLM-eket vizionál?
Csá Dzsipití, azaz a politikAI
A mesterséges intelligenciáról még mindig hajlamosak vagyunk úgy beszélni, mint egy újabb technológiai eszközről: gyorsabb keresésről, hatékonyabb szövegalkotásról, jobb döntéstámogatásról. Közben egyre nyilvánvalóbb, hogy az LLM-alapú rendszerek nem pusztán funkciókat látnak el, hanem egy sajátos hatalmi infrastruktúra részeivé váltak. Információt szűrnek, súlyoznak, kontextusba helyeznek, és ezzel óhatatlanul formálják azt, amit a felhasználó relevánsnak, elfogadhatónak vagy helyesnek érzékel.
Egy nyelvi modell működése minden egyes interakció során súlyozási döntéseken alapul. Fogalmak, források, értelmezési keretek jelennek meg eltérő valószínűséggel. A felhasználó ebből annyit érzékel, hogy a válasz „természetesnek” vagy „életszerűnek” hat. A mögöttes folyamat azonban strukturálja a tudást. Meghatározza, hogy egy adott témáról milyen összefüggések kerülnek előtérbe, és melyek maradnak peremen. Ez a hatás a technológia működéséből fakadó következmény.
Ebben az összefüggésben jelent meg a QuitGPT kezdeményezés, amely politikai indokokra hivatkozva szólít fel a ChatGPT-előfizetések lemondására. A mozgalom nem technológiai kritikát fogalmaz meg, és nem is az LLM-ek képességeit vitatja (bár nincsenek elragadtatva a GPT-5.2 teljesítményétől). Az érvelés lényege inkább az, hogy az AI-szolgáltatások mögött álló tulajdonosi, befektetői és vezetői kör politikai elköteleződése nem választható el magától a terméktől, így az előfizetés fenntartása az adott politikai irány egyfajta közvetett legitimációjaként értelmezhető. Ez tehát nem a „jó vagy rossz AI” kérdése, ez egy értékalapú fogyasztói döntés logikája.
Azonban sokkal érdekesebb az, amit a QuitGPT tünetként jelez. A vita valójában nem a konkrét szolgáltatásról szól, hanem hogy a digitális infrastruktúrák politikai szerepe egyre láthatóbbá válik. A platformsemlegesség gondolata sokáig kényelmes hivatkozási alap volt, de mára egyre nehezebb fenntartani azt az illúziót, hogy globális tudásrendszerek pusztán passzív közvetítői lennének az információnak. Ezek a rendszerek napirendet alakítanak, hangsúlyokat tolnak el, és bizonyos kérdéseket természetesebb módon tesznek fel, mint másokat. A működésükből fakadóan.
Gazdasági és hatalmi szempontból az AI már régen túllépett a startup termék kategórián, az életciklusa bevezetési szakaszán. Stratégiai erőforrássá vált, amelyhez szabályozási, nemzetbiztonsági és geopolitikai érdekek kapcsolódnak. Egy AI-cég tulajdonosi vagy vezetői körének politikai mozgásai nem feltétlen ideológiai állásfoglalások. A működési feltételeket biztosítani kell. Adatvédelmi szabályok, szerzői jogi keretek, állami megrendelésekhez való hozzáférés, beruházás-támogatás vagy exportkorlátozások mind olyan tényezők, amelyek politikai térben dőlnek el. Gondoljunk csak az LLM rendszerek energia-szükségleteire vagy memóriaéhségére. Az Európai Unió Artificial Intelligence Act-je, az Egyesült Államok exportkorlátozásai a fejlett chipekre, vagy az állami és védelmi alkalmazásokhoz kapcsolódó szerződések mind olyan tényezők, amelyek közvetlenül befolyásolják a vállalatok működését. Ebben a kontextusban a politikai elköteleződés gyakran racionális üzleti döntés, még akkor is, ha kívülről ideológiai színezetet kap.
Technológiai szempontból ugyanakkor az LLM-ek soha nem voltak és nem is lehetnek teljesen értékmentes rendszerek. A „helyes válasz” fogalma eleve normatív keretek között értelmezett. A tréningadatok kiválasztása, a finomhangolás irányai, valamint az emberi visszajelzéseken alapuló értékelési mechanizmusok mind olyan pontok, ahol értékválasztások történnek, még akkor is, ha ezek nem explicit politikai döntések formájában jelennek meg.
A politikai és üzleti környezet hatása így közvetlenül és közvetetten is beépül az AI-alkalmazások működésébe. Közvetlen szinten ez megjelenhet a tartalom moderációjában, a biztonsági korlátokban, vagy abban, hogy egyes témák kezelése óvatosabbá, körülményesebbé válik. Ezek a döntések jellemzően nem egyetlen politikai irány mentén születnek, hanem különböző társadalmi és jogi nyomások eredőjeként.
A kevésbé látványos, de hosszabb távon talán fontosabb hatás a felhasználói bázis összetételének változásából fakad. Az LLM-ek működése erősen támaszkodik a felhasználói interakciókra, a visszajelzésekre és az implicit megerősítésekre. Ha egy politikailag motivált csoport kivonul egy rendszerből, az nem csupán bevételkiesést jelent. Egyben adatvesztés is, amely átrendezi azt, hogy milyen nyelvi minták, kérdésfeltevések és elfogadott válaszok válnak dominánssá. Ez a folyamat fokozatos eltolódásként zajlik, amely hosszú távon az LLM által generált válaszok homogenizálódásához vezethet.
A QuitGPT-hez hasonló kezdeményezések rövid távon elsősorban reputációs és kommunikációs nyomást jelentenek az AI-szolgáltatók számára. Középtávon hozzájárulhatnak a felhasználói közösségek ideológiai rétegződéséhez, és megjelenhetnek olyan alternatív LLM-ek, amelyek kifejezetten eltérő értékrendre épülnek. Hosszabb távon pedig fennáll a veszélye annak, hogy a tudásmodellek fragmentálódnak, ami különösen összetett, vitatott kérdésekben csökkentheti az általános megbízhatóságot.
A kérdés végső soron az, hogy mit kezdünk azzal a ténnyel, hogy ezek a rendszerek tanulnak a használatunkból, és így mi magunk is formáljuk őket. Ezáltal lehet politikailag semleges egy mesterséges intelligencia. A bojkott egy lehetséges válasz a politikai elköteleződésre, de nem feltétlenül semleges következményekkel. Felhasználóként már nem csak fogyasztók vagyunk, hanem aktív résztvevői annak a tanulási folyamatnak is, amely meghatározza, hogyan fognak ezek a rendszerek gondolkodni helyettünk — vagy velünk együtt — a jövőben.
