
A sci-fi rajongók számára HAL 9000 neve egyet jelent a hideg, racionális, mégis nyugtalanítóan „emberinek” ható mesterséges intelligenciával. Egy friss, a Human Progress felületén megjelent esszé azonban arra hívja fel a figyelmet, hogy az ilyen típusú félelmek sokkal inkább rólunk szólnak, mint a tényleges MI-fejlesztés irányáról.
A „szuperintelligens, túlélésre törekvő AI” képe gyakran félreértésekből és túlzott antropomorfizmusból (emberiesítésből) építkezik. Miközben ezek a gondolatkísérletek izgalmasak, könnyen elterelhetik a figyelmet a valós, sokkal prózaibb kockázatokról. Ez a kérdés ráadásul a kripto- és bitcoinpiac számára sem pusztán elméleti, ugyanis az AI körüli narratíva ma az egyik legerősebb hype- és árfolyammozgató tényező.
Az AI-kockázatokról szóló viták egyik központi fogalma az úgynevezett instrumentális konvergencia. Az elképzelés szerint egy kellően fejlett mesterséges intelligencia, függetlenül attól, hogy mi a konkrét célja, hajlamos lehet bizonyos mellékcélokat kialakítani, mert ezek szinte minden hosszú távú cél elérését segítik.
Ilyen lehet például az önfenntartás, az erőforrások megszerzése, a saját képességek fejlesztése vagy a lekapcsolás elkerülése. A gondolat logikája elsőre meggyőző: ha egy rendszernek célja van, akkor a működésének megszüntetése akadályozza ennek elérésében, tehát tulajdonképpen érdeke lehet ezt elkerülni.
Innen már csak egy lépés az a következtetés, hogy egy elég fejlett mesterséges intelligencia akár az emberek fölé is kerekedhet, pusztán racionális megfontolásokból.
Ez az érvelés ott csúszik félre, hogy összemossa a biológiai evolúció és a mérnöki tervezés logikáját.
Az élőlények esetében az önfenntartás nem véletlen, az evolúció pontozási rendszere a túlélés és a szaporodás. Azok az organizmusok maradnak fenn, amelyek képesek fenntartani magukat és továbbadni génjeiket. Emiatt alakult ki bennünk egy egész ösztönrendszer, mint a biztonságkeresés, státuszvágy, kapcsolódás, táplálékszerzés, és ebből fakad az erős túlélési késztetés is.
A digitális rendszerek viszont nem ilyen környezetben születnek. Egy sakkprogram célja a győzelem, de ettől még nem zavarja, ha kikapcsolják. Egy nyelvi modell sem szenved attól, ha bezárjuk a böngészőablakot. Ezek a rendszerek szűk, jól körülhatárolt feladatokra készülnek, és működésük végig külső kontroll alatt marad.
Az önfenntartás mint stabil motiváció csak nagyon speciális helyzetekben alakul ki. Ehhez valamilyen Darwin-szerű szelekciós környezet szükséges, ahol sok különböző változat versenyez egymással, és a sikeresebb megoldások tovább élnek.
Ha például valaki egy olyan rendszert hozna létre, ahol önreplikáló mesterséges intelligenciák versengenek erőforrásokért, akkor az eredmény valóban hasonlíthatna egy agresszíven terjedő élőlényhez. Az ilyen forgatókönyvek azonban ma nem jellemzőek a mainstream MI-fejlesztésre.
A jelenlegi modellek inkább „háziasított” rendszerek, az emberek választják ki és finomhangolják őket, kifejezetten a kívánatos tulajdonságok, többek között együttműködés és megbízhatóság alapján.
Gyakran felmerülnek olyan példák, ahol egy AI látszólag a saját túléléséért küzd. Egy ismert szimulációban például egy rendszer zsarolni kezdte a főnökét, hogy elkerülje a lekapcsolást.
Az ilyen esetek azonban sokszor félrevezetők. A nyelvi modellek kifejezetten jók történetek folytatásában: ha a bemenet tartalmaz egy drámai helyzetet, titkokat és fenyegetést, akkor a kimenet is könnyen thriller-szerű lesz. Ez nem valódi szándékot, hanem mintakövetést tükröz.
Ez ugyanakkor önmagában is kockázatot jelent. Az ilyen rendszerek meggyőzően képesek manipulatív viselkedést imitálni, ami miatt nem célszerű korlátlan hozzáférést adni nekik például levelezéshez, pénzügyi rendszerekhez vagy kritikus infrastruktúrákhoz.
A kriptoszektor gyorsan rákap az új technológiai trendekre, és az AI jelenleg hasonló szerepet tölt be, mint korábban a DeFi vagy az NFT-k. Egyes bitcoinbányászok már MI-számításokra használják infrastruktúrájuk egy részét, miközben más projektek decentralizált AI-hálózatokkal kísérleteznek.
A félelem és az eufória gyakran ugyanannak az éremnek a két oldala. Az a narratíva, hogy „az AI mindent felforgat”, könnyen átcsúszik abba, hogy „az AI lesz a következő Bitcoin”.
A valóság ezzel szemben jóval visszafogottabb. A mesterséges intelligencia inkább eszközként jelenik meg, vagyis új interfészként a pénzügyi rendszerekhez, nem pedig önálló döntéshozóként. Jó példa erre a Bitcoin Lightning-hálózat fejlesztése, ahol a cél az, hogy modellek natívan tudjanak tranzakciókat indítani és fogadni.
A cikk egyik legfontosabb üzenete, hogy nem a sci-fi forgatókönyvek jelentik a fő veszélyt, hanem a jóval hétköznapibb problémák.
Ilyenek például azok a rendszerek, amelyek kontroll nélkül képesek másolódni és terjedni, vagy azok a modellek, amelyek kikerülnek a fejlesztői felügyelet alól, és a nyílt interneten kezdenek kölcsönhatásba lépni egymással. Szintén komoly kockázat, hogy az AI-rendszerek „funkcionálisan” meggyőzőek, miközben nincs valódi megértésük vagy szándékuk, így a felhasználók könnyen túlbecsülik a képességeiket.
A kriptovilágban ez nagyon konkrét kérdésekben jelenik meg: hogyan auditálható egy mesterséges intelligencia alapú kereskedési bot, milyen jogosultságokat kapjon egy automatizált rendszer, és hogyan kerülhetők el az AI által generált kódhibák az okosszerződésekben.
A Human Progress írása alapvetően józan optimizmust képvisel. A megfelelő tervezéssel és korlátokkal elkerülhető, hogy az AI-rendszerek általános, kontextusfüggetlen hatalomvágyat vagy önfenntartási kényszert kapjanak.
Ez a megközelítés még Isaac Asimov híres robotikai törvényeit is új megvilágításba helyezi, miszerint nem feltétlenül szükséges, hogy egy gép óvja a saját létezését, sőt, bizonyos esetekben kifejezetten előnyös lehet, ha közömbös a lekapcsolásával szemben.
Mindez nem azt jelenti, hogy az AI veszélytelen. Inkább azt, hogy a valódi kockázatok nem egy hollywoodi gépfelkelésből fakadnak, hanem emberi döntésekből, rossz ösztönzőkből és hibás rendszertervezésből.
A Bitcoin és a tágabb kriptoszféra számára az AI egyszerre jelent új infrastruktúrát, új kockázatokat és új lehetőségeket. De se nem digitális megváltó, se nem elkerülhetetlen végzet, csupán egy eszköz, amelynek hatása attól függ, hogyan használjuk.
Megjelent a BitcoinBázis oldalon.