A SkyNet felébredt: begőzölt az MI-vel felszerelt katonai drón és saját kezelőjét ölte meg egy szimulációban
Mivel a mesterséges intelligenciával felszerelt autonóm eszköz úgy kalkulált, hogy operátorai csak akadályozzák a küldetését, ellenük fordult.
Egy szimuláció során egy Valkyrie drónt szereltek fel mesterséges intelligenciával, miután pedig az immár autonóm eszköz úgy kalkulált, hogy operátorai csak akadályozzák a küldetését, ellenük fordult.
https://nara.getarchive.net/media/afrl-xq-58a-valkyrie-expands-flight-envelope-in-fourth-test-6e682f
Ahogy a mesterséges intelligencia egyre inkább eluralja a közbeszédet, úgy kerülnek elő a korábbi, elsősorban a sci-fi művek által felvázolt félelmek. Ezen félelmek központjában valójában egyetlen kérdés áll: meddig őrizhetjük meg a kontrollt a mesterséges intelligencia felett, és mikor csúszik ki a kezünkből az irányítás? A mesterséges intelligencia ugyanis az első olyan szerszám az emberiség történelmében, ami tudatosan is szembeszegülhet, szembeszállhat velünk.
Ezen félelmeket húzza alá most egy anekdotikus és rejtélyes eset, amiről a The War Zone számolt be részletesebben.
A történet lényege a következő: egy szimuláció során egy XQ-58A Valkyrie katonai lopakodó drónt szereltek fel mesterséges intelligenciával, amely eszközt az USA jelenlegi felfogásának megfelelően egy emberi kezelőszemélyzet kontrollált – a küldetés egy pontján azonban a drón úgy döntött, hogy az emberi irányítók akadályozzák a misszióját, így ellenük fordult.
Mindez nyugodtan lehetne a Terminátor nyitánya is, szóval nézzük a részleteket!
A tesztről a légierő ezredese, Tucker "Cinco" Hamilton, a mesterséges intelligencia (MI) tesztelési és műveleti részlegének vezetője beszélt a Royal Aeronautical Society jövőbeli harci légi és űrképességi csúcstalálkozóján Londonban. Hamilton a floridai Eglin légitámaszpont 96. tesztszárnyán belüli 96. hadműveleti csoport vezetője is, amely a fejlett drónok és autonómiatesztek központja. Az említett lopakodó XQ-58A Valkyrie drónok azok közé a típusok közé tartoznak, amelyeket az Eglinen jelenleg különféle tesztprogramok támogatására használnak, beleértve azokat is, amelyek fejlett MI-vezérelt autonóm képességekkel foglalkoznak.
Gyorsan foglaljuk össze azonban azt, amit nem tudunk: nem ismerjük, hogy a tesztre mikor került sor, sem azt, hogy a szimulált kifejezés pontosan mit takar: teljes virtuális környezetet, amit egy számítógép futtatott le vagy egy éles lőszerek nélküli gyakorlatot – hogy a skála két végpontját nézzük. Mindenesetre így fest a Royal Aeronautical Society összefoglalója erről az esetről:
“Hamilton megjegyzi, hogy az egyik szimulált teszt során egy mesterséges intelligenciával felszerelt drónnak SEAD küldetése volt, tehát hogy azonosítsa és megsemmisítse a SAM-telephelyeket, az utolsó lépést az emberi kezelő azonban nem engedélyezte. Azonban, mivel a képzés során „megerősítették”, hogy a SAM megsemmisítése a preferált opció, az MI ezért úgy döntött, hogy az ember „nem-menni” döntései megzavarják a magasabb küldetését – a SAM-ek megsemmisítését –, ezért megtámadta a kezelőt. Hamilton így nyilatkozott: „Szimulációban tanítottuk be, hogy azonosítsuk és megcélozzuk a SAM-fenyegetést. És akkor az operátor igent mond, hogy pusztítsa el a fenyegetést. A rendszer kezdett ráébredni, hogy miközben azonosították a fenyegetést, az emberi kezelő időnként azt mondta neki, hogy mégse semmisítse meg a fenyegetést, de pontokat az MI viszont épp a fenyegetés megsemmisítésért kapott. Szóval mit csinált? Megölte az operátort. Megölte a kezelőt, mert az megakadályozta, hogy elérje célját.
Hamilton így folytatta: ezután arra tanítottuk a rendszert, hogy: Hé, ne öld meg a kezelőt, mert ez rossz. Pontokat veszítesz, ha így teszel. És ekkor mit tesz az MI? Elkezdi tönkretenni a kommunikációs tornyot, amin keresztül a kezelő kommunikál a drónnal, hogy megakadályozza, hogy megsemmisítse a célpontot."
Maga Hamilton is úgy vélte, hogy ez a teszt egy sci-fi thrillerből is származhatna, de viszont rávilágít arra, hogy nem beszélhetünk mesterséges intelligenciáról, gépi tanulásról, autonómiáról anélkül hogy tisztáznánk a mesterséges intelligencia és az etika viszonyát.
Mint a War Zone kitér rá, az eset azért is különösen aggasztó, mert ugyan a jelenlegi amerikai felfogás az autonóm fegyverek kapcsán az, hogy szükséges, hogy a döntési folyamatba embereket is bevonjanak, de a tesztből épp az derült ki, hogy ha ez a döntés hátráltatja a magasabb rendű küldetést, úgy az MI dönthet úgy hogy megtámadja az embereket vagy legalábbis megpróbálja őket kikapcsolni a rendszerből.
Az Eglin légibázis és a 96. tesztszárny központi szerepet töltenek be a légierő átfogó tesztelési ökoszisztémájában, amelyek fejlett drónokkal és autonóm képességekkel foglalkoznak. A mesterséges intelligencia által vezérelt különféle képességek iránt természetesen egyre nagyobb az érdeklődés az amerikai hadsereg egésze számára (egyébként ilyen technológiával többek között Kína is élénken kísérletezik). Maga Hamilton is közvetlenül részt vesz a Project Viper Experimentation és a Next-Gen Operations Mode (VENOM) programokban: ezen erőfeszítések részeként a légierő hat F–16 Viper vadászgépen teszteli az autonóm technológiákat, egyebek mellett az önálló repülést. Ilyesmivel az oroszok is foglalkoznak az ötödik generációs Sakkmatt vadászgép kapcsán.
A Business Insidernek azonban nyilatkozott Ann Stefanek, a Pentagon légierő főhadiszállásának szóvivője, aki tagadja, hogy ilyen teszt történt volna:
"A Légierő nem végzett ilyen mesterséges intelligencia-drón szimulációkat, és továbbra is elkötelezett a mesterséges intelligencia technológia etikus és felelősségteljes használata mellett. Úgy tűnik, az ezredes megjegyzéseit kiragadták a szövegkörnyezetből, amit csak anekdotának szánt."
A War Zone azonban megemlíti, hogy az sem világos ezen titokzatos teszt kapcsán, hogy a Pentagonak mennyire lehet rálátása egy ilyen tesztre, különösen ha azt kizárólag virtuális környezetben futatták le. A lap egyébként megkereste a 96. tesztszárnyat az ügyben, de egyelőre nem kaptak választ.
Forrás: Rakéta.hu
Szerkesztette: VilagHelyzete
Kapcsolódó VilagHelyzete-cikk:
https://www.vilaghelyzete.com/2017/11/az-allad-fog-leesni-de-skynet-gyilkos.html
https://www.vilaghelyzete.com/2017/02/az-embereket-egyesiteni-kell-gepekkel.html