A mesterséges intelligencia katonai használata morálisan megkérdőjelezhető, ezért több tech-guru is aláírt egy nyilatkozatot, amiben vállalják, hogy nem fognak olyan fejlesztésbe, ami lehetővé teszi emberélet kioltását anélkül, hogy valódi ember hozná meg a döntést róla – írja az amerikai Forbes.
A nyilatkozatot a The Future of Life Institute (FLI), egy Bostonban működő szervezet készítette el a stockholmi International Joint Conference of Artifical Intelligence (egy nemzetközi mesterséges intelligenciával foglalkozó fórum) napjára.
A dokumentum szerint az önműködő, a célpontok kiválasztását és megsemmisítését emberi beavatkozás nélkül végrehajtó fegyverek rendkívül veszélyesek minden országra és minden egyénre nézve, ezért az aláírók vállalják, hogy nem vesznek részt, nem támogatják a fejlesztését, gyártását ezeknek a rendszereknek, illetve a kereskedésben, vagy használatban sem segítenek.
Musk, és a Google mesterséges intelligenciával foglalkozó részlegének, a DeepMind-nak a társalapítója, Mustafa Suleyman is sürgette már korábban az ENSZ-t, hogy tiltsák be az önműködő fegyverek fejlesztését. Az MIT-n tanító mesterséges intelligencia szakértő Max Tegmark, aki egyébként az FLI elnöke is, azt mondta, hogy “a mesterséges intelligenciával rendelkező fegyverek azzal, hogy maguk döntik el, kit likvidálnak és kit nem, legalább olyan visszataszítóak és veszedelmesek az emberiségre, mint vegyi fegyverek, és pontosan így kellene kezelni őket.”
A petíciót eddig 36 országból 160, mesterséges intelligenciával foglalkozó cég írta alá, de lehetett egyénileg is nyilatkozni, ezzel is sokan éltek, 90 országból 2400 fő szignózta a dokumentumot.