A Wikipédia kukázta az MI által generált tartalmakat
A Wikipédia nemrégiben mérföldkőnek számító döntést hozott, amelynek értelmében szigorúan megtiltotta a nagy nyelvi modellek (LLM-ek), például a ChatGPT, a Claude vagy a Google Gemini által generált tartalmak közzétételét a platformon. Ez a lépés nem egy hirtelen ötlet eredménye, hanem egy hónapokig tartó, rendkívül intenzív és olykor heves szakmai vita lezárása, amelyben a szerkesztői közösség és a Wikiproject AI Cleanup nevű kezdeményezés is aktívan részt vett. A tiltás hátterében az az alapvető megállapítás áll, hogy a mesterséges intelligencia által létrehozott szövegek szisztematikusan sértik a Wikipédia legfontosabb szerkesztési elveit és tartalmi szabályzatait. A cél egyértelmű: megőrizni az enciklopédia hitelességét, biztosítani a források pontosságát, és garantálni, hogy a tudásbázis továbbra is emberi szellemi munka gyümölcse maradjon, ne pedig algoritmusok ellenőrizetlen terméke.
A szigorú tiltás alól a közösség csupán két nagyon specifikus kivételt határozott meg, amelyek szigorú felügyelet mellett engedélyezik a technológia használatát. Az első kivétel a tisztán nyelvi és stilisztikai javításokra vonatkozik: a szerkesztők alkalmazhatják az MI-t helyesírás-ellenőrzésre vagy a mondatszerkezetek javítására, feltéve, hogy a szoftver nem ad hozzá új információt a szöveghez, és nem módosítja annak eredeti jelentését. A második kivétel a fordításokat érinti, ahol az LLM-ek segíthetnek más nyelvű Wikipédia-szócikkek átültetésében, de ebben az esetben is szigorúan követni kell a mesterséges intelligenciával támogatott fordításokra vonatkozó speciális útmutatót. A Wikipédia vezetése hangsúlyozza, hogy az óvatosság indokolt, mivel az algoritmusok hajlamosak túllépni a feladaton, és olyan „hallucinációkat” vagy módosításokat bevezetni, amelyek már nem támaszthatóak alá a megadott hivatkozásokkal.
A döntés egyik legsúlyosabb érve a mesterséges intelligencia strukturális alkalmatlansága a valódi tudományos igényességű munkára. Ahogy azt a közösségi viták és a szakértői észrevételek is alátámasztották, a nagy nyelvi modellek alapvetően nem képesek valódi érvelésre vagy a bizonyítékok logikus szintézisére; ehelyett csupán statisztikai valószínűségek alapján fűzik össze a szavakat. Ez gyakran vezet „forráshasználati hallucinációkhoz”, amikor az MI nem létező könyvekre vagy tanulmányokra hivatkozik, hogy igazolja állításait. Ez a jelenség közvetlen veszélyt jelent a Wikipédia megbízhatóságára, hiszen a platform ereje éppen a visszakövethető és hiteles forrásmegjelölésben rejlik. A szerkesztők ezért abban állapodtak meg, hogy a szankciók kiszabásakor nem csupán stilisztikai jelekre támaszkodnak, hanem alaposan vizsgálják a szövegek tartalmát és a források valódiságát is.
A Wikimedia Foundation szóvivője szerint a Wikipédia legfőbb értéke az az emberközpontú, önkéntesekre épülő modell, amely évtizedek óta biztosítja a semlegességet és a minőséget. A platform nyitottsága – az, hogy minden szerkesztés és vita visszakövethető – olyan transzparenciát biztosít, amellyel a zárt forráskódú és átláthatatlanul működő algoritmusok nem tudnak versenyezni. A közösségi konszenzus kialakítása egy lassabb folyamat, de ez a garanciája annak, hogy az információk valóban ellenőrzöttek maradjanak. A Wikipédia ezzel a lépéssel hitet tett amellett, hogy a tudásmegosztás nem csupán adatátvitel, hanem egy társadalmi felelősséggel járó emberi interakció, amelyet nem lehet teljesen kiszervezni a gépeknek anélkül, hogy az alapértékek ne sérülnének.
Végezetül a tiltásnak van egy fontos technológiai és gazdasági vetülete is, amelyre a Reddit és más szakmai fórumok felhasználói mutattak rá: ez a „modellösszeomlás” elkerülése. Mivel a mesterséges intelligenciákat fejlesztő cégek magát a Wikipédiát használják az algoritmusaik tanítására, katasztrofális következményekkel járna, ha az MI által generált hibás tartalom visszakerülne a rendszerbe, és a későbbi modellek már ebből a szennyezett adatbázisból tanulnának. Ez egy öngerjesztő folyamatban rontaná le a mesterséges intelligencia minőségét is. Bár a kritikusok szerint a szabály betartatása nehézkes lesz – hiszen az MI-szövegek felismerése egyre bonyolultabb –, a Wikipédia közössége bízik abban, hogy a már meglévő, szigorú ellenőrzési mechanizmusok és az emberi szerkesztők ébersége elegendő lesz ahhoz, hogy kiszűrjék a szabályszegőket és megőrizzék a világ legnagyobb enciklopédiájának integritását.
Kép: BBC
