Duch vraha strojů pokračuje. V co věří prezident Putin?
Technologie

Duch vraha strojů pokračuje. V co věří prezident Putin?

Zastánci vojenských robotů (1) tvrdí, že automatizované zbraně poskytují více možností ochrany lidského života. Stroje se dokážou dostat blíže k nepříteli než vojáci a správně vyhodnotit hrozbu. A emoce někdy paralyzují schopnost dělat správná rozhodnutí.

Mnoho zastánců používání zabijáckých robotů pevně věří, že díky nim budou války méně krvavé, protože zemře méně vojáků. Poznamenávají, že roboti, i když necítí lítost, jsou imunní vůči negativním lidským emocím, jako je panika, hněv a pomsta, které často vedou k válečným zločinům.

Ochránci lidských práv také používají argument, že armáda vedla za poslední půlstoletí k obrovskému snížení civilních obětí a robotizace armády umožňuje mechanismus přísnějšího prosazování válečných zákonů. Tvrdí, že stroje se stanou etickými, když budou vybaveny softwarem, který je donutí dodržovat zákony války.

Samozřejmě, že obrovské množství lidí, včetně těch velmi slavných, tento názor po léta nesdílí. V dubnu 2013 byla zahájena mezinárodní kampaň pod heslem (2). V jejím rámci požadují nevládní organizace úplný zákaz používání autonomních zbraní. Odborníci z mnoha zemí poprvé zasedli k diskusi o tomto tématu na konferenci OSN o odzbrojení v Ženevě v květnu 2014. Zpráva publikovaná o pár měsíců později Human Rights Watch a vědci z Harvardské univerzity uvedla, že autonomní by byli příliš nebezpeční – vybrali si vlastní cíle a zabíjeli lidi. Zároveň není příliš jasné, kdo by měl nést odpovědnost.

2. Ukázka v rámci akce „Zastavte zabijácké roboty“

Co dokáže roj malých dronů

Spory kolem zabijáckých robotů (ROU) se táhnou už léta a neutichají. Poslední měsíce přinesly nové pokusy zastavit vojenské roboty a vlnu zpráv o nových projektech tohoto typu, z nichž některé jsou dokonce testovány v reálných bojových podmínkách.

V listopadu 2017, video ukazuje smrtící roje mini-dronů ., v děsivé akci. Diváci viděli, že už nepotřebujeme těžké válečné stroje, tanky nebo střely vrhané Predátory, abychom zabíjeli masově a kulomety. Vedoucí ředitel Stuart Russell, profesor umělé inteligence na Berkeley, říká:

-

Poslední jaro padesát profesorů Přední světové univerzity podepsaly výzvu Korejskému institutu pokročilé vědy a technologie (KAIST) a jeho partnerské společnosti Hanwha Systems. oznámili, že nebudou spolupracovat s univerzitou a hostit hosty KAIST. Důvodem byla konstrukce „autonomních zbraní“ prováděná oběma institucemi. KAIST zprávy médií popřel.

Krátce nato v USA více než 3 zaměstnanci společnosti Google protestoval proti práci společnosti pro armádu. Měli obavy, že Google spolupracuje s vládním projektem s kódovým označením Maven, jehož cílem je používat AI k rozpoznávání objektů a tváří ve videích vojenských dronů. Vedení společnosti říká, že cílem Mavena je zachraňovat životy a zachraňovat lidi před únavnou prací, nikoli agresí. Demonstranti nebyli přesvědčeni.

Další částí bitvy bylo vyhlášení odborníci na umělou inteligenci, vč. práce na projektu Google a Elon Musk. Slibují, že nebudou vyvíjet roboty. Vyzývají také vlády, aby zintenzivnily úsilí o regulaci a omezení těchto zbraní.

Prohlášení částečně říká, že "rozhodnutí vzít lidský život by nikdy nemělo být učiněno strojem." Přestože jsou armády světa vybaveny mnoha automatickými zařízeními, někdy s vysokou mírou autonomie, mnozí odborníci se obávají, že v budoucnu se tato technologie může stát zcela autonomní, což umožní zabíjení bez jakéhokoli zapojení lidského operátora a velitele.

Odborníci také varují, že autonomní stroje na zabíjení by mohly být ještě nebezpečnější než „jaderné, chemické a biologické zbraně“, protože se mohou snadno vymknout kontrole. Celkem v červenci loňského roku podepsalo dopis pod záštitou Institutu budoucnosti života (FGI) 170 organizací a 2464 2019 jednotlivců. V prvních měsících roku XNUMX skupina lékařských vědců přidružených k FLI znovu vyzvala k novému dopisu zakazujícímu vývoj zbraní řízených umělou inteligencí (AI).

Loňské srpnové zasedání OSN v Gniewu o možné právní úpravě vojenských „robotů zabijáků“ skončilo úspěchem ... strojů. Skupina zemí včetně USA, Ruska a Izraele zablokovala další práce na zavedení mezinárodního zákazu těchto zbraní (návrh Úmluvy o zákazu nebo omezení použití některých konvenčních zbraní, CCW). Není náhodou, že tyto země jsou známé svou prací na pokročilých systémech autonomních a robotických zbraní.

Rusko se zaměřuje na bojové roboty

Prezident Vladimir Putin je často citován jako výrok o vojenských systémech umělé inteligence a bojových robotech:

-.

otevřeně hovoří o vývoji autonomních zbraní. Náčelník generálního štábu jejích ozbrojených sil, generál Valerij Gerasimov, nedávno vojenské tiskové agentuře Interfax-AVN řekl, že používání robotů bude jedním z hlavních rysů budoucích válek. Dodal, že Rusko se snaží plně automatizovat bojiště. Podobně se vyjádřili i místopředseda vlády Dmitrij Rogozin a ministr obrany Sergej Šojgu. Předseda výboru Rady federace pro obranu a bezpečnost Viktor Bondarev řekl, že Rusko se snaží rozvíjet Roju technologieto by umožnilo sítím dronů fungovat jako jeden celek.

To není překvapivé, pokud si vzpomeneme, že první teletanky byly vyvinuty v Sovětském svazu ve 30. letech. Byly použity na začátku druhé světové války. Dnes tvoří i Rusko tankové roboty být stále více autonomní.

Putinův stát nedávno poslal své vlastní do Sýrie Bezpilotní bojové vozidlo Uran-9 (3). zařízení ztratilo kontakt s pozemními kontrolními body, mělo problémy se systémem zavěšení a jeho zbraně nefungovaly dokonale a nezasahovaly pohyblivé cíle. Nezní to moc vážně, ale mnozí považují syrský stír za dobrý bojový test, který Rusům umožní stroj vylepšit.

Roskosmos schválil předběžný plán vyslání dvou robotů na Mezinárodní vesmírnou stanici do srpna letošního roku. Fedor (4) v Unii bez posádky. Ne jako náklad, ale. Stejně jako ve filmu RoboCop Fedor ovládá zbraň a při střeleckých cvičeních předvádí smrtící střelecké umění.

Otázkou je, proč by měl být robot ve vesmíru ozbrojený? Existují podezření, že se nejedná pouze o pozemní aplikace. Mezitím na Zemi ruský výrobce zbraní Kalašnikov ukázal vizualizaci robot Igorekcož, i když vyvolalo mnoho smíchu, signalizuje, že společnost vážně pracuje na autonomních bojových vozidlech. V červenci 2018 Kalašnikov oznámil, že vyrábí zbraň, kterou používá k rozhodování „střílet nebo nestřílet“.

K této informaci je třeba přidat zprávy, že ruský puškař Digtyarev vyvinul malý autonomní tank Nerekht který se může sám tiše pohybovat směrem ke svému cíli a poté explodovat mocnou silou, aby zničil další nebo celé budovy. Jakož i Armáda tanku T14 , chlouba ruských ozbrojených sil, byla navržena pro možné dálkové ovládání a řízení bez posádky. Sputnik tvrdí, že ruští vojenští inženýři pracují na tom, aby se z T-14 stalo plně autonomní obrněné vozidlo.

Směrnice o námitkách

Americká armáda sama stanovila poměrně jasný limit na úroveň autonomie svých zbraní. V roce 2012 vydalo americké ministerstvo obrany směrnici 3000.09, která říká, že lidé by měli mít právo vznést námitky proti akcím ozbrojených robotů. (i když mohou existovat výjimky). Tato směrnice zůstává v platnosti. Současná politika Pentagonu je taková, že rozhodujícím faktorem při použití zbraní by měl být vždy člověk a takový úsudek by měl být. odpovídá válečným zákonům.

Přestože Američané létající, Predator, Reaper a mnoho dalších superstrojů používali už desítky let, nebyly a nejsou autonomními modely. Jsou řízeny operátory na dálku, někdy ze vzdálenosti několika tisíc kilometrů. S premiérou prototypu začala vzrušená diskuse o autonomii strojů tohoto typu. dron X-47B (5), který nejen samostatně létal, ale mohl také startovat z letadlové lodi, přistávat na ní a doplňovat palivo ve vzduchu. Smyslem je také střílet nebo bombardovat bez lidského zásahu. Projekt je však stále ve fázi testování a revize.

5. Testy bezpilotního X-47B na americké letadlové lodi

V roce 2003 začalo ministerstvo obrany experimentovat s malým robotem podobným tanku. SPOES vybaven kulometem. V roce 2007 byl poslán do Iráku. program však skončil poté, co se robot začal chovat nevyzpytatelně a nepravidelně pohyboval svou puškou. V důsledku toho americká armáda na mnoho let opustila studium ozbrojených pozemních robotů.

Americká armáda zároveň zvýšila své výdaje na operace z 20 milionů $ v roce 2014 na 156 milionů $ v roce 2018. Tento rozpočet již v roce 2019 vyskočil na 327 milionů dolarů. To je kumulativní nárůst o 1823 % za pouhých několik let. Odborníci tvrdí, že již v roce 2025 může mít americká armáda bojiště více robotických vojáků než lidí.

V poslední době hodně kontroverzí vyvolala a oznámila americká armáda projekt ATLAS () - automatické. V médiích to bylo považováno za porušení výše uvedené směrnice 3000.09. Americká armáda však popírá a ujišťuje, že vyloučení člověka z koloběhu rozhodování nepřipadá v úvahu.

AI rozpoznává žraloky a civilisty

Obránci autonomních zbraní však mají nové argumenty. prof. Ronald Arkin, robotik z Georgia Institute of Technology, to ve svých publikacích uvádí V moderní válce jsou inteligentní zbraně nezbytné, aby se zabránilo civilním obětem, protože techniky strojového učení mohou účinně pomoci rozlišovat mezi bojovníky a civilisty a důležitými a nedůležitými cíli.

Příkladem takových dovedností AI je hlídkování australských pláží. drony Little Rippervybavena systémem SharkSpotter vyvinutým na University of Technology Sydney. Tento systém automaticky skenuje vodu na výskyt žraloků a upozorní obsluhu, když uvidí něco nebezpečného. (6) Dokáže identifikovat lidi, delfíny, čluny, surfovací prkna a předměty ve vodě a odlišit je od žraloků. Dokáže detekovat a identifikovat asi šestnáct různých druhů s vysokou přesností.

6. Rozpoznaní žraloci v systému SharkSpotter

Tyto pokročilé metody strojového učení zvyšují přesnost leteckého průzkumu o více než 90 %. Pro srovnání, lidský operátor v podobné situaci přesně rozpozná 20-30 % objektů na leteckých snímcích. Identifikace je navíc před poplachem stále ověřována člověkem.

Operátor na bojišti při pohledu na obraz na obrazovce jen stěží určí, zda jsou lidé na zemi stíhači s AK-47 v rukou nebo například farmáři s štikami. Arkin poznamenává, že lidé mají tendenci „vidět to, co chtějí vidět“, zejména ve stresových situacích. Tento efekt přispěl k náhodnému sestřelení íránského letadla USS Vincennes v roce 1987. Samozřejmě, podle jeho názoru by zbraně řízené umělou inteligencí byly lepší než současné „chytré bomby“, které ve skutečnosti nejsou vnímavé. Loni v srpnu zasáhla saúdskoarabská laserem naváděná střela autobus plný školáků v Jemenu a zabila čtyřicet dětí.

„Pokud je školní autobus správně označen, může být jeho identifikace v autonomním systému relativně snadná,“ argumentuje Arkin v Popular Mechanics.

Nezdá se však, že by tyto argumenty přesvědčily bojovníky proti automatickým zabijákům. Kromě hrozby zabijáckých robotů je třeba vzít v úvahu ještě jednu důležitou okolnost. I „hodný“ a „pozorný“ systém může být hacknutý a převzatý velmi špatnými lidmi. Pak všechny argumenty na obranu vojenské techniky ztrácejí na síle.

Přidat komentář