reprodukčné foto: SHUTTERSTOCK
Vojenský kvadrokopter Kargu-2 tureckej výroby po prvýkrát v dejinách zabil človeka z vlastného rozhodnutia. Udialo sa to počas ozbrojeného konfliktu v Líbyi v marci 2020.
Roboty využívame v rôznych sférach života. Výnimkou nie je ani armáda, pričom už samotné pomyslenie na takéto prepojenie môže u niekoho vyvolať obavy.
Tie zrejme nezmierni ani nová správa OSN, podľa ktorej umelá inteligencia po prvý raz zaútočila na človeka bez toho, aby jej to niekto priamo prikázal.
Smrtiaca zbraň
Doteraz prvý takýto prípad zaregistrovali uprostred občianskej vojny v Líbyi. Podľa panelu expertov Bezpečnostnej rady OSN pre Líbyu v krajine vypustilo Turecko dron STM Kargu-2, ktorý označili „za smrtiacu autonómnu zbraň“.
Spomínaný dron je určený napríklad na protiteroristické akcie a podľa výrobcu ho môžu „efektívne využiť proti statickým aj pohyblivým cieľom, a to vďaka spracovaniu obrazu v reálnom čase a zabudovaným algoritmom strojového učenia“.
Video, v ktorom výrobca predstavil dron, zachytáva jeho schopnosť samostatne lokalizovať figurínu v poli, zamerať ju a autonómne vypáliť strelu na ľudský terč bez priameho vplyvu alebo riadenia iným človekom na diaľku.
V rozpore s ľudskými právami
Medzinárodná ľudskoprávna organizácia Human Rights Watch vyzvala k okamžitému preventívnemu zákazu vývoja, výroby a používania plne autonómnych zbraní.
Jej zástupcovia majú vážne pochybnosti o tom, že by mohli splniť štandardy medzinárodného práva, vrátane „princípov rozlišovania, proporcionality a vojenskej potreby“. Takisto ohrozia základné právo na život a princíp ľudskej dôstojnosti.
Kritika na inteligentné stroje prišla aj zo strany vedcov
Rozmnožovanie vraždiacich robotov sa začalo. Nie je v najlepšom záujme ľudí, aby hromadne vyrábali lacné vraždiace stroje, ktoré budú dostupné pre kohokoľvek. Je na čase, aby svetoví lídri vystúpili a zaujali stanovisko
napísal na Twitteri Max Tegman, výskumník strojového učenia z Massachusettského technologického inštitútu v USA.
Ďalšie obavy pramenia z rizika, že umelá inteligencia si nebude vedieť poradiť s prípadnými chybami alebo odchýlkami.
V tejto oblasti už zaregistrovali množstvo neočakávaných prípadov, ako napríklad pri autonómnych automobiloch, systémoch na rozpoznávanie tváre či „rasistické“ dávkovačoch mydla, ktoré nedali mydlo ľuďom tmavej pleti…
-RED2-