Pentagon i upotreba AI u ratu: moralna dilema, odgovornost kreatora i civilne žrtve u Iranu
AI naslovna za ratnu upotrebu

Pentagon koristi veštačku inteligenciju, uključujući sisteme poput Claude, za analizu obaveštajnih podataka i planiranje vojnih operacija u Iranu. Iako AI još uvek samostalno ne donosi odluke o napadima, njena prva neposredna ratna primena svakako otvara ozbiljna etička, moralna i međunarodnopravna pitanja, posebno kada civilni životi, uključujući decu, mogu biti ugroženi.

Ova praksa postavlja pitanje: da li kreatori AI imaju moralnu obavezu da odbiju saradnju sa vojnim institucijama, ili su primorani da rade za Pentagon i Bele kuće zbog kontrole, finansiranja i strateške moći svojih sistema?

Pentagon i upotreba AI u ratu: moralna dilema, odgovornost kreatora i civilne žrtve u Iranu

Kako AI funkcioniše u vojnim operacijama

AI sistemi obrađuju velike količine podataka — satelitske snimke, lokacije ciljeva, obaveštajne podatke i logističke informacije. Na osnovu toga, AI predlaže ili rangira mete, dok konačne odluke o napadima donose ljudski komandanti.

Ovaj proces povećava efikasnost i brzinu vojnih operacija, ali premešta etičku odgovornost na ljude koji razvijaju, distribuiraju i nadgledaju te sisteme. Iako AI ne donosi samostalno odluke, njen uticaj na život i smrt civila je realan.

Moralna dilema osnivača i kreatora AI

Osnivači i inženjeri AI suočeni su sa složenom moralnom dilemom:

– sa jedne strane, AI sistemi su traženi od strane vlada i vojski, a odbijanje saradnje može značiti gubitak kontrole nad sopstvenim tehnologijama.

– sa druge strane, davanje AI u ruke vojne infrastrukture implicira neposrednu ulogu u potencijalnom stradanju civila, uključujući decu, što podiže pitanje etičke odgovornosti i lične savesti.

– stručnjacima za vojnu etiku ističu da osnivači AI koji rade direktno za Pentagon i Belu kuću snose moralnu obavezu da nadgledaju upotrebu svojih sistema i minimizuju štetu civilima.

Potpuno je jasno da tehnologija sama po sebi nije kriva — ali oni koji je distribuiraju i koriste u vojnom kontekstu ― direktno učestvuju u posledicama.

O tome da Pentagon ubrzava vojni razvoj AI izveštavali smo u našem tekstu 14. januara, o čemu sve možete saznati upravo ― ovde, ali i u tekstu iz oktobra prošle godine, o ratu AI svetova SAD, Kine i Rusije, o čemu sve možete saznati upravo ― ovde.

Pentagon i upotreba AI u ratu: moralna dilema, odgovornost kreatora i civilne žrtve u Iranu

Civilne žrtve i međunarodna perspektiva

Organizacije za ljudska prava, poput Amnesty International i Human Rights Watch, dokumentuju civilne žrtve u Iranu. Upotreba AI u vojnim operacijama povećava rizik od nenamernih smrti i postavlja pitanje odgovornosti za one koji distribuiraju i primenjuju tehnologiju.

Eksperti za međunarodno pravo naglašavaju: da iako AI sistemi nisu sami po sebi krivi; odgovornost snose ljudi koji ih koriste i zloupotrebljavaju. SAD su prve (i jedine) bacile atomsku bombu na neku zemlju. Neće im zato biti teško da maksimalno iskoriste AI, iako se tvorci AI navodno opiru takvim nastojanjima, o čemu sve možete saznati upravo ― ovde.

Odluke o bombardovanju ili napadima uz pomoć AI moraju biti podložne humanitarnoj proceni i međunarodnom nadzoru, pa je time sve jasnije da i moralni i etički okvir upotrebe AI u ratovanju nije dovoljno regulisan, što zahteva hitnu pažnju zakonodavaca i međunarodnih tela.

Globalna i moralna dilema

Prva ratna primena AI u planiranju vojnih operacija označava istorijski trenutak, ali i alarm za međunarodnu zajednicu i kreatore tehnologije. Postavlja se pitanje: da li osnivači AI mogu moralno odbiti saradnju sa vojnim strukturama ili su primorani da rade za Pentagon i Belu kuću da bi zadržali kontrolu nad sopstvenim sistemima?

Civilne žrtve, uključujući decu, jasno pokazuju da tehnologija nije neutralna — moralna odgovornost leži na ljudima koji je koriste, ali i onima koji je stvaraju. Svaka odluka o primeni AI u vojnim operacijama mora biti praćena ljudskom kontrolom, transparentnošću i međunarodnom regulativom. Prve rezultate neobuzadane upotrebe AI u ubilačkim napadaima na Iran danas vidimo svi.

Spoznaja o upotrebi AI u vojnim operacijama otvara duboku moralnu i etičku dilemu. Kreatori i vlasnici AI, zajedno sa ljudima koji planiraju napade, snose odgovornost za civilne žrtve. Međunarodna zajednica mora nadgledati upotrebu ovih tehnologija i razviti jasna pravila kako bi se zaštitili nevini civili, jer sama moć AI sistema nosi ozbiljne moralne i ljudske posledice.

Amerikanci su u mnogo čemu prvi. Pa i jedini za sada. Od upotrebe nuklearne bombe, do upotrebe AI u ubilačke svrhe.

Korisni linkovi:

Ostavite komentar

Preuzimanje delova teksta ili teksta u celini je dozvoljeno, ali uz obavezno navođenje izvora i uz postavljanje linka ka izvornom tekstu na www.oznavesti.rs

Kategorija: AI |

Autor: Ozna Vesti |

17/03/2026 |

0 Komentara

Autor teksta: Ozna Vesti

Pentagon i upotreba AI u ratu: moralna dilema, odgovornost kreatora i civilne žrtve u Iranu
Teme i izbor informacija koje će se naći na portalu Ozna Vesti neće predstavljati danas čestu „svaštaru“, niti će po mnogo čemu beznačajne vesti, klika radi, preplaviti informativni portal. U svakom trenutku će za 24 h na glavnoj strani portala nalaziti 24 vesti od značaja, naravno, ukoliko događaji to iziskuju, ponekad i više.

Podelite ovu vest, Izaberite svoju platformu!