Pentagon koristi veštačku inteligenciju, uključujući sisteme poput Claude, za analizu obaveštajnih podataka i planiranje vojnih operacija u Iranu. Iako AI još uvek samostalno ne donosi odluke o napadima, njena prva neposredna ratna primena svakako otvara ozbiljna etička, moralna i međunarodnopravna pitanja, posebno kada civilni životi, uključujući decu, mogu biti ugroženi.
Ova praksa postavlja pitanje: da li kreatori AI imaju moralnu obavezu da odbiju saradnju sa vojnim institucijama, ili su primorani da rade za Pentagon i Bele kuće zbog kontrole, finansiranja i strateške moći svojih sistema?

Kako AI funkcioniše u vojnim operacijama
AI sistemi obrađuju velike količine podataka — satelitske snimke, lokacije ciljeva, obaveštajne podatke i logističke informacije. Na osnovu toga, AI predlaže ili rangira mete, dok konačne odluke o napadima donose ljudski komandanti.
Ovaj proces povećava efikasnost i brzinu vojnih operacija, ali premešta etičku odgovornost na ljude koji razvijaju, distribuiraju i nadgledaju te sisteme. Iako AI ne donosi samostalno odluke, njen uticaj na život i smrt civila je realan.
Moralna dilema osnivača i kreatora AI
Osnivači i inženjeri AI suočeni su sa složenom moralnom dilemom:
– sa jedne strane, AI sistemi su traženi od strane vlada i vojski, a odbijanje saradnje može značiti gubitak kontrole nad sopstvenim tehnologijama.
– sa druge strane, davanje AI u ruke vojne infrastrukture implicira neposrednu ulogu u potencijalnom stradanju civila, uključujući decu, što podiže pitanje etičke odgovornosti i lične savesti.
– stručnjacima za vojnu etiku ističu da osnivači AI koji rade direktno za Pentagon i Belu kuću snose moralnu obavezu da nadgledaju upotrebu svojih sistema i minimizuju štetu civilima.
Potpuno je jasno da tehnologija sama po sebi nije kriva — ali oni koji je distribuiraju i koriste u vojnom kontekstu ― direktno učestvuju u posledicama.
O tome da Pentagon ubrzava vojni razvoj AI izveštavali smo u našem tekstu 14. januara, o čemu sve možete saznati upravo ― ovde, ali i u tekstu iz oktobra prošle godine, o ratu AI svetova SAD, Kine i Rusije, o čemu sve možete saznati upravo ― ovde.

Civilne žrtve i međunarodna perspektiva
Organizacije za ljudska prava, poput Amnesty International i Human Rights Watch, dokumentuju civilne žrtve u Iranu. Upotreba AI u vojnim operacijama povećava rizik od nenamernih smrti i postavlja pitanje odgovornosti za one koji distribuiraju i primenjuju tehnologiju.
Eksperti za međunarodno pravo naglašavaju: da iako AI sistemi nisu sami po sebi krivi; odgovornost snose ljudi koji ih koriste i zloupotrebljavaju. SAD su prve (i jedine) bacile atomsku bombu na neku zemlju. Neće im zato biti teško da maksimalno iskoriste AI, iako se tvorci AI navodno opiru takvim nastojanjima, o čemu sve možete saznati upravo ― ovde.
Odluke o bombardovanju ili napadima uz pomoć AI moraju biti podložne humanitarnoj proceni i međunarodnom nadzoru, pa je time sve jasnije da i moralni i etički okvir upotrebe AI u ratovanju nije dovoljno regulisan, što zahteva hitnu pažnju zakonodavaca i međunarodnih tela.
Globalna i moralna dilema
Prva ratna primena AI u planiranju vojnih operacija označava istorijski trenutak, ali i alarm za međunarodnu zajednicu i kreatore tehnologije. Postavlja se pitanje: da li osnivači AI mogu moralno odbiti saradnju sa vojnim strukturama ili su primorani da rade za Pentagon i Belu kuću da bi zadržali kontrolu nad sopstvenim sistemima?
Civilne žrtve, uključujući decu, jasno pokazuju da tehnologija nije neutralna — moralna odgovornost leži na ljudima koji je koriste, ali i onima koji je stvaraju. Svaka odluka o primeni AI u vojnim operacijama mora biti praćena ljudskom kontrolom, transparentnošću i međunarodnom regulativom. Prve rezultate neobuzadane upotrebe AI u ubilačkim napadaima na Iran danas vidimo svi.
Spoznaja o upotrebi AI u vojnim operacijama otvara duboku moralnu i etičku dilemu. Kreatori i vlasnici AI, zajedno sa ljudima koji planiraju napade, snose odgovornost za civilne žrtve. Međunarodna zajednica mora nadgledati upotrebu ovih tehnologija i razviti jasna pravila kako bi se zaštitili nevini civili, jer sama moć AI sistema nosi ozbiljne moralne i ljudske posledice.
Amerikanci su u mnogo čemu prvi. Pa i jedini za sada. Od upotrebe nuklearne bombe, do upotrebe AI u ubilačke svrhe.
