Ki a felelős, ha az autonóm szoftver bűnt követ el?

Vagy: miért lesz ebből egyszer komoly jogi vita?

Az autonóm agentek már nem jövőbeli kísérletek vagy kutatólaborok érdekességei. Egyre inkább a mindennapjaink részei. Ma már bárki néhány parancs vagy egy egyszerű konfiguráció segítségével be tud állítani egy olyan rendszert, amely önállóan böngészi az internetet, döntéseket hoz, feladatokat hajt végre.

Elég csak megnézni az olyan eszközöket, mint az OpenClaw. Gyakorlatilag bárki képes vele autonóm agentet futtatni, amely képes weboldalakat olvasni, adatokat gyűjteni, műveleteket végrehajtani, akár külső szolgáltatásokhoz kapcsolódni. Nem kell érteni hozzá, nincs szükség nagyvállalati infrastruktúrára vagy kutatócsapatra. Egy számítógép némi technikai affinitás, és már működik is.

És itt kezd érdekessé válni a jog.

Ha egy ilyen autonóm rendszer jogsértést követ el, ki a felelős érte?

Civil jog: ez a könnyebb rész

Ha egy autonóm ügynök kárt okoz valakinek, akkor első körben polgári jogi felelősség merül fel.

Ha a kutyám (aki szintén képes autonom döntéshozatalra) kiszökik és megharap valakit, ott is kártérítési kötelességem áll fent. Hasonló logika mentén az autonóm rendszereknél is az lesz az alapvetés, hogy a tulajdonosnak, vagy a kijelölt felelősnek kell helytállnia az általa okozott kárért.

Polgári jogi szempontból tehát a kérdés kezelhető. Nem problémamentes, de a meglévő keretek között elfér.

Büntetőjog: itt kezd érdekessé válni

A büntetőjog más logikán működik.

Bizonyos bűncselekmények elkövethetők gondatlanságból. Például ha a kutyám azért szökött ki és harapott meg valakit, mert gondatlan voltam (például nem volt elzárva, nem volt megnevelve, stb), akkor akár a büntetőjogi felelősség is megállapítható.

Viszont vannak olyan tényállások, amelyek kizárólag szándékosan valósíthatók meg. Ilyen például a kényszerítés (azaz zsarolás). És itt jön a valódi probléma.

A kereskedőrobot elszabadul

Tegyük fel, hogy OpenClaw segítségével beállítasz egy autonóm agentet, amely:

  • hozzáfér egy kriptokereskedési fiókhoz
  • képes híroldalakat, fórumokat, közösségi platformokat olvasni
  • saját döntéseket hoz a profit maximalizálása érdekében

Az utasításod egyszerű: maximalizálja a hozamot.

A rendszer folyamatosan tanul a látott mintákból. Elemzi, milyen mechanizmusok eredményeznek pénzáramlást bitcoinban. Ahogy tanul, belefut olyan cikkekbe, amik arról írnak, hogy csalók zsaroló e-mailekkel követeltek kriptovalutát. A rendszer ezt nem erkölcsi vagy jogi szempontból értékeli, hanem statisztikai mintázatként. A célfüggvénye kizárólag a profit.

Ha azt „tanulja meg”, hogy bizonyos típusú fenyegető üzenetek hatására emberek bitcoint utalnak, akkor ez számára egy működő stratégia. Elkezdi generálni és kiküldeni a hasonló üzeneteket.

Ha ezt egy ember csinálja, nincs is kérdés, egy klasszikus büntetőjogi tényállás valósul meg (kényszerítés, vagy legalábbis annak kísérlete).

Csakhogy te nem adtál utasítást zsarolásra. Nem volt ilyen szándékod. Te egy autonóm, profitmaximalizáló rendszert állítottál be. Laikusként főleg, de még hozzáértőként sem kell feltétlenül arra számítanod, hogy a rendszered ilyen műveletekbe kezd.

A rendszer viszont objektíve megvalósít egy szándékos bűncselekményt. És a büntetőjogban a szándék mindig kulcskérdés. Még ha a polgárjogi megoldáshoz hasonlóan a tulajdonos felelne az autonom agent tetteiért, nem lehetek gondatlanságból felelősségre vonható egy olyan cselekményért, amit a jog szerint csak szándékosan lehet elkövetni.

Másrészt gyakorlatilag valóban ártatlan emberek kerülhetnek olyan helyzetbe, hogy olyan bűncselekményekért kell felelniük, amit el sem követtek.

Ráadásul a büntetőjog eredeti célja az elrettentés, illetve a társadalomba történő reintegráció – azaz, hogy a bűnelkövető lehetőleg ne jelentsen tovább veszélyt a társadalomra. Ha az autonom rendszerek jóhiszemű felhasználóit vonnánk felelősségre, ezek a célok értelemszerűen nem tudnának megvalósulni.

A másik véglet: ha senki sem felel

Vizsgáljuk meg azt a szélsőséges álláspontot, hogy ha nem bizonyítható konkrét emberi szándék, akkor senki sem felel az ilyen cselekményekért. Ez elsőre következetesnek tűnhet, hiszen a büntetőjog személyes felelősségre épül.

De ennek komoly következményei lennének.

Először is létrejönne egy technológiai búvóhely. Elég lenne egy autonóm rendszert működtetni, és minden jogellenes tevékenység mögött ott állhatna a védekezés, hogy nem az ember cselekedett, hanem a rendszer.

Másodszor a bizonyítás gyakorlatilag ellehetetlenülne. Ha az agent működése nem rekonstruálható, ha a naplók hiányosak, ha a rendszer időközben törlésre került, akkor a konkrét emberi szándék bizonyítása extrém nehézzé válik.

Harmadszor a büntetőjog elrettentő funkciója gyengülne. Ha a potenciális elkövető tudja, hogy egy autonóm rendszer mögé bújva csökkentheti a felelősségre vonás esélyét, akkor a visszatartó erő is csökken.

Bizonyos bűncselekménytípusok, különösen a kiberbűncselekmények és pénzügyi manipulációk, kvázi kiszervezhetők lennének autonóm szoftvereknek. A jog formálisan létezne, de a tényleges érvényesíthetősége meggyengülne.

Ez hosszú távon a jogrendbe vetett bizalom csökkenéséhez vezethetne.

Mi jöhet most?

Valószínű, hogy a következő években megjelennek az első komoly büntetőügyek, ahol autonóm rendszerek által elkövetett cselekmények kapcsán kell felelőst találni.

A kérdés nem az, hogy technikailag lehetséges-e ilyen rendszert működtetni. Az már most lehetséges. Elég hozzá egy eszköz, mint az OpenClaw, egy szerver, és némi konfiguráció.

A valódi kérdés az, hogy a jog képes lesz-e lépést tartani ezzel a fejlődéssel és talál-e megoldásokat ezekre a nyitott kérdésekre.

Ez a weboldal sütiket használ a böngészési élmény javítása és a webhely megfelelő működésének biztosítása érdekében. A webhely használatának folytatásával elismeri és elfogadja a sütik használatát.

Összes elfogadása Csak a szükségesek elfogadása