Manipulacija putem AI - kako tehnologija pojačava naše odluke?
AI Mozak incubator.ucf

Incubator

Veštačka inteligencija više nije samo tehnološki alat – u nekoliko jasno dokumentovanih slučajeva postala je direktan generator lažnih vesti sa realnim posledicama. Sudovi, izborni procesi i regulatorna tela u SAD i Evropi potvrdili su da su AI sistemi korišćeni za proizvodnju netačnih informacija koje su izgledale potpuno autentično. Ovi događaji označili su prelomni trenutak u odnosu prema tehnologiji koja je do juče smatrana neutralnom. Koliko smo podložni?

Manipulacija putem AI - kako tehnologija pojačava naše odluke?

Sudnica u SAD

Sudski sistem kao prva žrtva: izmišljeni presedani pred federalnim sudom

Najkonkretniji slučaj dogodio se pred Okružni sud SAD za Južni okrug Njujorka.

U postupku Mata protiv Avianca Airlines, advokatski tim tužilaca podneo je sudu pravni podnesak u kojem je citirano šest sudskih presuda koje nikada nisu postojale. Presude su imale nazive predmeta, datume i obrazloženja, ali su bile u potpunosti izmišljene – generisane uz pomoć AI alata.

Sudija Kevin Kastel je u obrazloženju naveo da sud nikada ranije nije imao slučaj u kojem su „nepostojeće sudske odluke predstavljene kao stvarna pravna praksa“. Advokati su novčano kažnjeni, a presuda je postala prvi zvanični dokaz da AI može proizvesti uverljivu, ali potpuno lažnu pravnu realnost.

Zašto je ovaj slučaj bio okidač? Lažne informacije su ušle u zvanični sudski spis, a da niko u lancu odgovornosti nije proverio izvor pa je sud je morao institucionalno da reaguje.

O ovom slučaju izveštavali su The New York Times, Reuters i zvanični sudski dokumenti dostupni u elektronskoj bazi federalnih sudova SAD.

Manipulacija putem AI - kako tehnologija pojačava naše odluke?

Ramon Van Flymon/AFP

Izbori pod udarom – AI glas predsednika koji nije postojao

Drugi alarmantan slučaj zabeležen je u januaru 2024. godine tokom predizbornog procesa u saveznoj državi Nju Hempšir. Hiljade birača primile su automatizovane telefonske pozive sa glasom identičnim glasu predsednika SAD Džo Bajden.

Poruka je bila jasna i lažna: biračima se savetovalo da ne izlaze na glasanje. Istragom je utvrđeno da se radi o AI – generisanom audio deepfakeu, napravljenom pomoću alata za kloniranje glasa. Slučaj je istraživala Federalna komisija za komunikacije, koja je potvrdila da je reč o zloupotrebi veštačke inteligencije sa ciljem izborne manipulacije. Reagovali su i državni organi Nju Hempšira, a tema je otvorila pitanje zabrane AI robocall tehnologije u političke svrhe.

O ovom događaju izveštavali su Associated PressBBC i zvanična saopštenja američkih regulatornih tela.

Evropski slučaj – AI snimak pred izbore u Slovačkoj

Neposredno pred parlamentarne izbore u Slovačkoj, društvenim mrežama se proširio audio snimak u kojem se jedan od opozicionih lidera navodno čuje kako govori o nameštanju izbora. Snimak je delovao autentično, ali su digitalni forenzičari ubrzo potvrdili da je u pitanju AI – generisana manipulacija. Iako je snimak demantovan, šteta je već bila učinjena  – snimak je pregledan i podeljen desetine hiljada puta u ključnim danima kampanje. Evropski mediji i posmatrači izbora ocenili su da je to jedan od prvih slučajeva u EU gde je AI direktno uticala na izbornu atmosferu.

Manipulacija putem AI - kako tehnologija pojačava naše odluke?

Icertglobal

Zašto su baš ovi slučajevi promenili pravila igre

Zajedničko svim ovim primerima jeste to što AI sadržaj nije delovao kao teorija zavere već kao uverljiv i profesionalno oblikovan materijal. Korišćeni su formati kojima javnost inače veruje poput sudskih dokumenata zvaničnih saopštenja i političkih izjava, a reakcija institucija i javnosti usledila je tek nakon što je šteta već bila napravljena. Zbog toga su ovi slučajevi postali referentne tačke u raspravama o regulaciji veštačke inteligencije.

Evropska unija je upravo zbog ovakvih slučajeva usvojila prvi sveobuhvatni pravni okvir za veštačku inteligenciju, poznat kao AI Act, koji se primenjuje postepeno nakon stupanja na snagu. U praksi, to znači da se od 2026. godine uvodi znatno stroža kontrola nad takozvanim visokorizičnim AI sistemima, koji se koriste u oblastima kao što su zapošljavanje, obrazovanje, kritična infrastruktura, javne usluge i bezbednost. Obaveze za većinu tih sistema počinju da važe od 2. avgusta 2026. godine, u skladu sa zvaničnim kalendarom primene.

Evropska unija je već započela fazno uvođenje pravila, uključujući zabrane pojedinih praksi i obavezu podizanja nivoa AI pismenosti, koje su počele da se primenjuju ranije. Posebna pravila za modele veštačke inteligencije opšte namene, poznate kao GPAI modeli, stupaju na snagu 2. avgusta 2025. godine. Tokom 2025. godine Evropska komisija je više puta potvrdila da neće biti odlaganja i da će se zakon primenjivati prema unapred utvrđenom rasporedu.

Ovim pristupom, veštačka inteligencija u Evropskoj uniji više se ne tretira isključivo kao tehnološka inovacija, već i kao potencijalni sistemski rizik koji zahteva jasna pravila, institucionalni nadzor i odgovornost onih koji je razvijaju i koriste.

Manipulacija putem AI - kako tehnologija pojačava naše odluke?

Direkcija Google

Reakcija tehnoloških kompanija i regulatora

Nakon ovih događaja, kompanije poput OpenAI, Google i Meta pooštrile su pravila korišćenja, uvele upozorenja i dodatne mehanizme za prepoznavanje manipulisanog sadržaja.

Istovremeno, EU i SAD ubrzali su izradu regulatornih okvira koji veštačku inteligenciju više ne tretiraju samo kao inovaciju, već i kao potencijalni bezbednosni rizik.

Ovo nisu izolovani incidenti, već dokumentovani slučajevi u kojima je veštačka inteligencija proizvela lažne vesti sa stvarnim posledicama po pravosuđe i demokratiju.

Upravo zbog toga, AI više ne može biti posmatrana kao neutralni posrednik informacija – već kao tehnologija koja zahteva stalnu proveru, odgovornost i jasna pravila.

Ali, mora se imati u vidu da veštačka inteligencija ne donosi odluke sama. Svaki politički narativ, lažna vest ili manipulativni sadržaj nastaje kao rezultat ljudskog izbora – algoritmi su samo alat koji ubrzava i umnožava posledice.

Ostavite komentar

Preuzimanje delova teksta ili teksta u celini je dozvoljeno, ali uz obavezno navođenje izvora i uz postavljanje linka ka izvornom tekstu na www.oznavesti.rs

Kategorija: AI |

Autor: Ozna Vesti |

22/12/2025 |

0 Komentara

Autor teksta: Ozna Vesti

Manipulacija putem AI - kako tehnologija pojačava naše odluke?
Teme i izbor informacija koje će se naći na portalu Ozna Vesti neće predstavljati danas čestu „svaštaru“, niti će po mnogo čemu beznačajne vesti, klika radi, preplaviti informativni portal. U svakom trenutku će za 24 h na glavnoj strani portala nalaziti 24 vesti od značaja, naravno, ukoliko događaji to iziskuju, ponekad i više.

Podelite ovu vest, Izaberite svoju platformu!