Technologie
Záhuba lidstva. Je válka vedená roboty-zabijáky blíž, než si myslíme?
28.08.2017 19:45 Analýza
Více než sto předních světových expertů na robotiku před časem napsalo dopis OSN, v němž vyzývají k zákazu vývoje takzvaných "robotů zabijáků" a varují před novými závody ve zbrojení. Ale jsou jejich obavy opodstatněné?
Celé pluky tanků bez lidské posádky; bezpilotní letouny schopné najít jediného povstalce v davu civilistů; zbraně ovládané počítačovými "mozky", co se učí stejně jako člověk. To vše patří mezi chytré technologické novinky, které vyvíjí a představuje zbrojní průmysl. Podle mínění mnohých expertů toto odvětví nyní vstupuje do "třetí revoluce vedení války".
"V každé sféře bojového pole - ve vzduchu, na moři, pod hladinou i na zemi - armády celého světa předvádějí prototypy autonomních zbraní," říká profesor umělé inteligence na Univerzitě Nového Jižního Walesu v Sydney Toby Walsh. "Nové technologie, jako je hluboké učení (deep learning) tuto revoluci pomáhají hnát kupředu. Technologická oblast jednoznačně vede a armáda se ji snaží dohonit," dodává.
Jednou z ohlášených novinek, která se protivníkům stará o bezesné noci, je bojový modul "neuronové sítě" kalašnikovů. Tvoří ho kulomet ráže 7,62 milimetru a kamera připojené k počítačovému systému, který - jak tvrdí jeho tvůrci - dokáže sám bez jakékoli lidské kontroly "identifikovat cíle a rozhodnout, zda vypálit".
Na rozdíl od běžných počítačů, které používají předprogramované instrukce řešící konkrétní, ale omezenou škálu předvídatelných možností, je neuronová síť navržena tak, aby se učila z předchozích příkladů, které si dokáže uzpůsobit na okolnosti, s nimiž se zatím nemusela setkat. A právě tato údajná schopnost činit svá vlastní rozhodnutí mnoho lidí znepokojuje.
"Pokud budou zbraně používat neuronové sítě a pokročilou umělou inteligenci, pak možná ani nebudeme vědět, na základě čeho se rozhodly zaútočit - a to je velmi nebezpečné," řekl hlavní technologický odborník společnosti Ultra Electronics Andrew Nanson. Dlužno podotknout, že je Nanson dost skeptický ohledně některých tvrzení výrobců zbraní. Jeho firma se specializuje na obranu.
Automatizované obranné systémy jsou už nyní schopny činit rozhodnutí na základě analýzy hrozby - například tvaru, velikosti, rychlosti a trajektorie blížící se střely - a zvolit odpovídající reakci mnohem rychleji, než dokáže člověk.
Ale co se stane, když se podobné systémy setkají s něčím, s čím nemají žádnou zkušenost - a přitom budou mít volnou možnost postupovat na základě svého "nejlepšího odhadu"? Chyby by mohly mít katastrofální následky. Zabití nevinných civilistů, zničení nevojenských cílů nebo útok proti vlastní straně.
A právě toho se mnozí experti obávají. Ne toho, že umělá inteligence začne být příliš chytrá a převezme kontrolu nad světem, jako superpočítač Skynet z filmů o Terminátorovi, ale toho, že je příliš hloupá.
"Současné problémy nejsou spojeny se superinteligentními roboty, a s těmi hloupými, které nedokážou pružně rozlišit mezi civilními cíli a vojenskými cíli, s výjimkou velmi úzce vymezeného nastavení," poznamenal profesor umělé inteligence a robotiky Sheffieldské univerzity Noel Sharkey.
Diskuse
Diskuze u článků starších půl roku z důvodu neaktuálnosti již nezobrazujeme. Vaše redakce.