Duch strojového vraha pokračuje. V čo verí prezident Putin?
Technológia

Duch strojového vraha pokračuje. V čo verí prezident Putin?

Zástancovia vojenských robotov (1) tvrdia, že automatizované zbrane poskytujú viac možností na ochranu ľudského života. Stroje sa dokážu dostať bližšie k nepriateľovi ako vojaci a správne vyhodnotiť hrozbu. A emócie niekedy paralyzujú schopnosť robiť správne rozhodnutia.

Mnohí zástancovia používania robotov zabijakov pevne veria, že vďaka nim budú vojny menej krvavé, pretože zomrie menej vojakov. Poznamenávajú, že roboty, hoci necítia súcit, sú imúnne voči negatívnym ľudským emóciám, ako je panika, hnev a pomsta, ktoré často vedú k vojnovým zločinom.

Ľudskoprávni aktivisti používajú aj argument, že armáda viedla za posledné polstoročie k obrovskému zníženiu civilných obetí a robotizácia armády umožňuje mechanizmus prísnejšieho presadzovania vojnových zákonov. Tvrdia, že stroje sa stanú etickými, keď budú vybavené softvérom, ktorý ich prinúti dodržiavať zákony vojny.

Samozrejme, veľké množstvo ľudí, vrátane veľmi známych, tento názor už roky nezdieľa. V apríli 2013 bola spustená medzinárodná kampaň pod heslom (2). Mimovládne organizácie v jej rámci žiadajú úplný zákaz používania autonómnych zbraní. Odborníci z mnohých krajín sa prvýkrát posadili, aby diskutovali o tejto téme na Konferencii OSN o odzbrojení v Ženeve v máji 2014. V správe, ktorú o niekoľko mesiacov zverejnila Human Rights Watch a vedci z Harvardskej univerzity, sa uvádza, že tie autonómne by boli príliš nebezpečné – vyberali si vlastné ciele a zabíjali ľudí. Zároveň nie je veľmi jasné, kto by mal niesť zodpovednosť.

2. Ukážka v rámci akcie „Stop robotom zabijakom“

Čo dokáže roj malých dronov

Spory okolo robotov zabijakov (ROU) trvajú už roky a neutíchajú. Posledné mesiace priniesli nové pokusy zastaviť vojenské roboty a vlnu správ o nových projektoch tohto typu, z ktorých niektoré sa dokonca testujú v reálnych bojových podmienkach.

V novembri 2017, video ukazuje smrtiace roje mini-dronov ., v desivej akcii. Diváci videli, že už nepotrebujeme ťažké vojnové stroje, tanky či rakety vrhané Predátormi, aby sme zabíjali masovo a guľometmi. Vedúci riaditeľ Stuart Russell, profesor umelej inteligencie v Berkeley, hovorí:

-

Minulú jar päťdesiat profesorov Popredné svetové univerzity podpísali výzvu Kórejskému inštitútu pokročilej vedy a technológie (KAIST) a jeho partnerovi Hanwha Systems. oznámili, že nebudú spolupracovať s univerzitou a hostiť hostí KAIST. Dôvodom bola konštrukcia „autonómnych zbraní“ realizovaná oboma inštitúciami. KAIST poprel správy médií.

Krátko nato v USA viac ako 3 zamestnancov Google protestoval proti práci spoločnosti pre armádu. Obávali sa, že Google spolupracuje s vládnym projektom s kódovým označením Maven, ktorého cieľom je použiť AI na rozpoznávanie objektov a tvárí vo videách vojenských dronov. Vedenie spoločnosti hovorí, že cieľom Maven je zachraňovať životy a zachraňovať ľudí od nudnej práce, nie agresie. Demonštranti nepresvedčili.

Ďalšou časťou bitky bolo vyhlásenie odborníci na umelú inteligenciu, vrát. práca na projekte Google a Elona Muska. Sľubujú, že nebudú vyvíjať roboty. Vyzývajú tiež vlády, aby zintenzívnili úsilie o reguláciu a obmedzenie týchto zbraní.

Vo vyhlásení sa čiastočne uvádza, že „rozhodnutie vziať ľudský život by nikdy nemalo byť urobené strojom“. Hoci sú armády sveta vybavené mnohými automatickými zariadeniami, niekedy s vysokou mierou autonómie, mnohí odborníci sa obávajú, že v budúcnosti sa táto technológia môže stať úplne autonómnou, čo umožní zabíjanie bez akéhokoľvek zapojenia ľudského operátora a veliteľa.

Odborníci tiež varujú, že autonómne stroje na zabíjanie by mohli byť ešte nebezpečnejšie ako „jadrové, chemické a biologické zbrane“, pretože sa môžu ľahko vymknúť spod kontroly. Celkovo v júli minulého roka podpísalo list pod záštitou Inštitútu budúcnosti života (FGI) 170 organizácií a 2464 2019 jednotlivcov. V prvých mesiacoch roku XNUMX skupina lekárskych vedcov pridružených k FLI opäť vyzvala na nový list zakazujúci vývoj zbraní riadených umelou inteligenciou (AI).

Minuloročné augustové zasadnutie OSN v Gniewe o možnej právnej úprave vojenských „robotov zabijakov“ sa skončilo úspechom ... strojov. Skupina krajín vrátane USA, Ruska a Izraela zablokovala ďalšie práce na zavedení medzinárodného zákazu týchto zbraní (návrh Dohovoru o zákaze alebo obmedzení použitia určitých konvenčných zbraní, CCW). Nie je náhoda, že tieto krajiny sú známe svojou prácou na pokročilých systémoch autonómnych a robotických zbraní.

Rusko sa zameriava na bojové roboty

Prezident Vladimir Putin je často citovaný ako výrok o vojenských systémoch AI a bojových robotoch:

-.

otvorene hovorí o vývoji autonómnych zbraní. Náčelník generálneho štábu jej ozbrojených síl generál Valerij Gerasimov nedávno pre vojenskú tlačovú agentúru Interfax-AVN povedal, že používanie robotov bude jednou z hlavných čŕt budúcich vojen. Dodal, že Rusko sa snaží plne automatizovať bojisko. Podobne sa vyjadrili aj podpredseda vlády Dmitrij Rogozin a minister obrany Sergej Šojgu. Predseda výboru Rady federácie pre obranu a bezpečnosť Viktor Bondarev povedal, že Rusko sa snaží rozvíjať Roju technológieto by umožnilo sieťam dronov fungovať ako jeden celok.

To nie je prekvapujúce, ak si spomenieme, že prvé teletanky boli vyvinuté v Sovietskom zväze v 30. rokoch. Boli použité na začiatku druhej svetovej vojny. Dnes tvorí aj Rusko tankových robotov byť stále viac autonómnejší.

Putinov štát nedávno poslal svoje do Sýrie Bezpilotné bojové vozidlo Uran-9 (3). zariadenie stratilo kontakt s pozemnými kontrolnými bodmi, malo problémy so systémom zavesenia a jeho zbrane nefungovali dokonale a nezasiahli pohyblivé ciele. Neznie to veľmi vážne, no mnohí považujú sýrsky oter za dobrý bojový test, ktorý Rusom umožní stroj vylepšiť.

Roskosmos schválil predbežný plán vyslať dvoch robotov na Medzinárodnú vesmírnu stanicu do augusta tohto roku. Fedor (4) v Únii bez posádky. Nie ako náklad, ale. Rovnako ako vo filme RoboCop, Fedor ovláda zbraň a počas streleckých cvičení predvádza smrteľné strelecké umenie.

Otázkou je, prečo by mal byť robot vo vesmíre ozbrojený? Existujú podozrenia, že nejde len o pozemné aplikácie. Medzitým na Zemi ruský výrobca zbraní Kalašnikov ukázal vizualizáciu robot Igorekčo, hoci vyvolalo veľa smiechu, signalizuje, že spoločnosť vážne pracuje na autonómnych bojových vozidlách. V júli 2018 Kalašnikov oznámil, že vyrába zbraň, ktorú používa na rozhodovanie typu „strieľať alebo nestreliť“.

K týmto informáciám treba pridať správy, že ruský zbrojár Digtyarev vyvinul malý autonómny tank Nerekht ktorý sa dokáže sám nehlučne pohybovať smerom k svojmu cieľu a potom vybuchnúť silnou silou, aby zničil iné alebo celé budovy. Ako aj Armáda tanku T14 , pýcha ruských ozbrojených síl, bola navrhnutá pre možné diaľkové ovládanie a riadenie bez posádky. Sputnik tvrdí, že ruskí vojenskí inžinieri pracujú na tom, aby sa z T-14 stalo plne autonómne obrnené vozidlo.

Smernica o námietkach

Samotná americká armáda zaviedla pomerne jasný limit na úroveň autonómie svojich zbraní. V roku 2012 vydalo americké ministerstvo obrany smernicu 3000.09, ktorá hovorí, že ľudia by mali mať právo namietať proti činom ozbrojených robotov. (aj keď môžu existovať určité výnimky). Táto smernica zostáva v platnosti. Súčasná politika Pentagonu je taká, že rozhodujúcim faktorom pri použití zbraní by mal byť vždy človek a taký úsudok by mal byť. je v súlade s vojnovými zákonmi.

Hoci Američania už desaťročia používajú lietanie, Predator, Reaper a mnohé ďalšie superstroje, neboli a nie sú autonómnymi modelmi. Ovládajú ich operátori na diaľku, niekedy aj zo vzdialenosti niekoľko tisíc kilometrov. Premiérou prototypu sa začala búrlivá diskusia o autonómii strojov tohto typu. dron X-47B (5), ktorý nielen samostatne lietal, ale mohol aj vzlietnuť z lietadlovej lode, pristáť na nej a vo vzduchu doplniť palivo. Zmyslom je aj strieľať alebo bombardovať bez ľudského zásahu. Projekt je však stále v štádiu testovania a kontroly.

5. Testy bezpilotného X-47B na americkej lietadlovej lodi

V roku 2003 začalo ministerstvo obrany experimentovať s malým robotom podobným tanku. SPOES vybavený guľometom. V roku 2007 bol poslaný do Iraku. program sa však skončil po tom, čo sa robot začal chovať nevyspytateľne a nepravidelne pohyboval puškou. V dôsledku toho americká armáda na mnoho rokov opustila výskum ozbrojených pozemných robotov.

Americká armáda zároveň zvýšila svoje výdavky na operácie z 20 miliónov dolárov v roku 2014 na 156 miliónov dolárov v roku 2018. V roku 2019 tento rozpočet už vyskočil na 327 miliónov dolárov. Ide o kumulatívny nárast o 1823 % len za niekoľko rokov. Odborníci tvrdia, že už v roku 2025 môže mať americká armáda bojisko viac robotických vojakov ako ľudí.

V poslednej dobe vyvolala a oznámila veľa kontroverzií americká armáda projekt ATLAS () - automatické. V médiách sa to považovalo za porušenie vyššie uvedenej smernice 3000.09. Americká armáda však popiera a ubezpečuje, že vylúčenie človeka z kolobehu rozhodovania neprichádza do úvahy.

AI rozpoznáva žraloky a civilistov

Obhajcovia autonómnych zbraní však majú nové argumenty. Prednášal prof. Ronald Arkin, robotik z Georgia Institute of Technology, to vo svojich publikáciách uvádza V modernej vojne sú inteligentné zbrane nevyhnutné, aby sa predišlo civilným obetiam, pretože techniky strojového učenia môžu účinne pomôcť rozlíšiť medzi bojovníkmi a civilistami a dôležitými a nedôležitými cieľmi.

Príkladom takýchto zručností AI je hliadkovanie na austrálskych plážach. drony Malý rozparovačvybavené systémom SharkSpotter vyvinutým Technickou univerzitou v Sydney. Tento systém automaticky skenuje vodu na výskyt žralokov a upozorní obsluhu, keď uvidí niečo nebezpečné. (6) Dokáže identifikovať ľudí, delfíny, člny, surfy a predmety vo vode a odlíšiť ich od žralokov. Dokáže odhaliť a identifikovať asi šestnásť rôznych druhov s vysokou presnosťou.

6. Rozpoznané žraloky v systéme SharkSpotter

Tieto pokročilé metódy strojového učenia zvyšujú presnosť leteckého prieskumu o viac ako 90 %. Pre porovnanie, ľudský operátor v podobnej situácii presne rozpozná 20-30% objektov na leteckých snímkach. Okrem toho je pred poplachom identifikácia stále overovaná človekom.

Operátor na bojisku pri pohľade na obraz na obrazovke len ťažko zistí, či sú ľudia na zemi bojovníci s AK-47 v rukách alebo napríklad farmári so šťukami. Arkin poznamenáva, že ľudia majú tendenciu „vidieť to, čo chcú vidieť“, najmä v stresových situáciách. Tento efekt prispel k náhodnému zostreleniu iránskeho lietadla USS Vincennes v roku 1987. Samozrejme, podľa jeho názoru by zbrane riadené AI boli lepšie ako súčasné „inteligentné bomby“, ktoré v skutočnosti nie sú vnímavé. Vlani v auguste zasiahla saudská laserom navádzaná strela v Jemene autobus plný školákov a zabila štyridsať detí.

„Ak je školský autobus správne označený, jeho identifikácia v autonómnom systéme môže byť relatívne jednoduchá,“ tvrdí Arkin v Popular Mechanics.

Zdá sa však, že tieto argumenty nepresvedčili bojovníkov proti automatickým vrahom. Okrem hrozby zabijackych robotov treba brať do úvahy ešte jednu dôležitú okolnosť. Aj „dobrý“ a „pozorný“ systém môžu hacknúť a prevziať veľmi zlí ľudia. Vtedy všetky argumenty na obranu vojenskej techniky strácajú na sile.

Pridať komentár