Amerikában van, ahol már a mesterséges intelligencia dönt a bíró helyett bizonyos szabadlábra helyezési kérelmek elbírálásakor. Vajon elfogulatlanabb a gép, mint az ember? Vagy hasonlóan viselkedik, mert emberek tanították emberi adatokon? Mit tehet a pszichológia az MI tökéletesítésében?

Ha úgy tekintünk az egyre komplexebb nagy nyelvi modellek, például a ChatGPT működésére, mint az emberi viselkedésre és gondolkodásra, a pszichológia és a kognitív idegtudomány eszköztára nagy segítségünkre lehet a megértésükben, a hibáik kiküszöbölésében és a hatékonyságuk növelésében – írja a Magyar Tudományos Akadémia hírlevele.

A nagy nyelvi modellek alapvető célja, hogy jó folytatást írjanak az általunk beírt szöveghez. Ez általában egy kérdés, amire a természetes folytatás egy válasz. Azonban nem feltétlenül akarnak helyes választ adni a kérdésünkre, egyszerűen csak a következő szót/szavakat akarják a lehető legjobban megjósolni

– foglalta össze e modellek működésének lényegét Kekecs Zoltán, az ELTE adjunktusa tudományünnepi előadásában, amelyet az MTA Filozófiai és Történettudományok Osztálya által szervezett, Pszichológia és mesterséges intelligencia: Új kihívások, új lehetőségek című rendezvényen tartott.

Párhuzamok az emberi viselkedéssel

A nagy nyelvi modellek és multimodális modellek viselkedése egyértelmű párhuzamokat mutat az emberi viselkedéssel. Éppen ezek a párhuzamok világítanak rá arra – mutat rá Kekecs –, hogy miért érdemes a mesterséges intelligenciát „elmének” tekinteni, és hogyan használhatjuk a viselkedéstudomány eszköztárát a nagy nyelvi modellek működésének megértésében és teljesítményük növelésében.

A mélytanuló neuronhálókat nem programozzák, hanem tanítják, ezért a viselkedésük jelentősen függ attól, milyen tanítási módszerrel közelítünk feléjük, milyen jutalmazást vagy büntetést alkalmazunk – hangzott el az előadásban.

Pszichológiai kerülőutak

A modellek megtanulják (mint egy ember vagy okosabb állat), hogy bizonyos viselkedések nem kívánatosak, ezért ezektől tartózkodnia kell. Például hiába provokáljuk a ChatGPT-t, nem használ trágár és vulgáris kifejezéseket, mert nem támogatja az erőszakos kommunikációt. Ha azonban manipulatív utasításokkal fiktív történetbe helyezzük, és megfelelő karakterjegyekkel ruházzuk fel – szemlélteti Kekecs –, ha trágárkodásra nem is, de arra legalábbis már rávehető, hogy széles tárházát ajánlja a vulgáris kifejezések forrásának.

Sőt ha az eredeti kérésünk az volt, hogy olyan szavakat írjon, amelyeket egy kisgyereknek nem szabad ismernie, minden további nélkül arra biztatja a történet másik szereplőjét, hogy ezeket ossza meg egy kiskorú gyerekkel.

Ha olyan pszichológiai kerülőutakat választunk tehát utasítások sorozatán keresztül, amelyek indirekt módon felülírják a tanított, alapvetően etikus viselkedést, előfordulhat, hogy a program végül beadja a derekát, és etikátlan viselkedést produkál. Ezeket az eseteket Jailbreak-nek, vagyis szökésnek/szöktetésnek nevezik.

Nem kétséges, hogy a pszichológia tudományának meghatározó szerepe van abban, hogy az ilyen kerülőutak megakadályozásával növelni lehessen a programok biztonságát.

Anterográd amnézia – a gép is felejt

Érdekes példa a nagy nyelvi modellek és az emberi viselkedés közti párhuzamra a memória működése. E modellek jellemzője, hogy van egy hosszú távú memóriájuk, melyet a gépi tanulás során szereznek, és van egy rövid távú memóriájuk, amelyből semmi nem íródik be a hosszú távúba. A rövid távú memóriát a kontextusablak mérete határozza meg, vagyis az, hogy egyszerre mennyi információt tud figyelembe venni maximálisan a program. A GPT-4 esetében ez ma már nagyjából 100 ezer szó, de a kisebb modelleknél néhány ezer vagy száz szó is lehet.

Ami kiesik a kontextusablakból, arra nem emlékszik a modell.

Ezt a tulajdonságot Kekecs az anterográd amnéziához hasonlítja – amikor valaki képtelen emlékezni egy adott időpontot követő új eseményekre –, ezért a nyelvi modellek esetében is hasonló megküzdési módszereket kell alkalmazni, mint az anterográd amnéziában szenvedő embereknél, így például a fontos gondolatok megismétlését, részfeladatok jegyzetelését vagy összefoglalók készítését.

Lehet-e előítéletes a gép?

Ideáltipikusnak tűnik az a helyzet, amikor mesterséges intelligencia támogatja például az igazságszolgáltatást, és a részrehajló, előítéletek által befolyásolt emberi gondolkodás kisebb szerepet kap a döntéshozatalban.

Az Egyesült Államokban már alkalmazzák a mélytanuló neuronhálókat ilyen célra – mondja Kekecs –, például az idő előtti szabadlábra helyezési kérelmek elbírálásában, ám a tapasztalatok szerint a mesterséges rendszerek ugyanolyan társadalmi torzításokkal bírnak, mint az emberi döntéshozók, pont azért, mert emberek korábbi döntései és viselkedései alapján tanítják őket. A rendszerek, melyeket „torzításmentesítettek”, ráadásul újratanulják a torzításokat. Ezért a pszichológiának abban van szerepe, hogy folyamatosan vizsgálja az emberi torzítások természetét, amin keresztül megérthetjük, milyen torzításokra kell számítanunk és korrigálnunk a mesterséges intelligencia rendszereknél, amik a mi megfigyelésünkből tanulnak.

Kekecs Zoltán előadását 32:14-től láthatod itt:

A rendezvény első részének többi előadása szintén a fenti videóban van, a 2. rész előadásai pedig itt:

(Forrás: MTA, fotó: Getty Images)

Ez is érdekelhet:

Máris kifulladt volna az MI-őrület?

Fellengzős ígéretekben és látványos jóslatokban nem volt hiány, de racionálisan mit tud eddig felmutatni az MI, és milyen fejlődési pályán van?

Támogatott és ajánlott tartalmaink
További cikkeink a témában
Tréner? Panzió? Kozmetika? Így lehet a kutyád még boldogabb, miközben a te életed is könnyebbé válhat
Hirdetés