Veštačka inteligencija više nije samo tehnološki alat – u nekoliko jasno dokumentovanih slučajeva postala je direktan generator lažnih vesti sa realnim posledicama. Sudovi, izborni procesi i regulatorna tela u SAD i Evropi potvrdili su da su AI sistemi korišćeni za proizvodnju netačnih informacija koje su izgledale potpuno autentično. Ovi događaji označili su prelomni trenutak u odnosu prema tehnologiji koja je do juče smatrana neutralnom. Koliko smo podložni?

Sudnica u SAD
Sudski sistem kao prva žrtva: izmišljeni presedani pred federalnim sudom
Najkonkretniji slučaj dogodio se pred Okružni sud SAD za Južni okrug Njujorka.
U postupku Mata protiv Avianca Airlines, advokatski tim tužilaca podneo je sudu pravni podnesak u kojem je citirano šest sudskih presuda koje nikada nisu postojale. Presude su imale nazive predmeta, datume i obrazloženja, ali su bile u potpunosti izmišljene – generisane uz pomoć AI alata.
Sudija Kevin Kastel je u obrazloženju naveo da sud nikada ranije nije imao slučaj u kojem su „nepostojeće sudske odluke predstavljene kao stvarna pravna praksa“. Advokati su novčano kažnjeni, a presuda je postala prvi zvanični dokaz da AI može proizvesti uverljivu, ali potpuno lažnu pravnu realnost.
Zašto je ovaj slučaj bio okidač? Lažne informacije su ušle u zvanični sudski spis, a da niko u lancu odgovornosti nije proverio izvor pa je sud je morao institucionalno da reaguje.
O ovom slučaju izveštavali su The New York Times, Reuters i zvanični sudski dokumenti dostupni u elektronskoj bazi federalnih sudova SAD.

Ramon Van Flymon/AFP
Izbori pod udarom – AI glas predsednika koji nije postojao
Drugi alarmantan slučaj zabeležen je u januaru 2024. godine tokom predizbornog procesa u saveznoj državi Nju Hempšir. Hiljade birača primile su automatizovane telefonske pozive sa glasom identičnim glasu predsednika SAD Džo Bajden.
Poruka je bila jasna i lažna: biračima se savetovalo da ne izlaze na glasanje. Istragom je utvrđeno da se radi o AI – generisanom audio deepfakeu, napravljenom pomoću alata za kloniranje glasa. Slučaj je istraživala Federalna komisija za komunikacije, koja je potvrdila da je reč o zloupotrebi veštačke inteligencije sa ciljem izborne manipulacije. Reagovali su i državni organi Nju Hempšira, a tema je otvorila pitanje zabrane AI robocall tehnologije u političke svrhe.
O ovom događaju izveštavali su Associated Press, BBC i zvanična saopštenja američkih regulatornih tela.
Evropski slučaj – AI snimak pred izbore u Slovačkoj
Neposredno pred parlamentarne izbore u Slovačkoj, društvenim mrežama se proširio audio snimak u kojem se jedan od opozicionih lidera navodno čuje kako govori o nameštanju izbora. Snimak je delovao autentično, ali su digitalni forenzičari ubrzo potvrdili da je u pitanju AI – generisana manipulacija. Iako je snimak demantovan, šteta je već bila učinjena – snimak je pregledan i podeljen desetine hiljada puta u ključnim danima kampanje. Evropski mediji i posmatrači izbora ocenili su da je to jedan od prvih slučajeva u EU gde je AI direktno uticala na izbornu atmosferu.

Icertglobal
Zašto su baš ovi slučajevi promenili pravila igre
Zajedničko svim ovim primerima jeste to što AI sadržaj nije delovao kao teorija zavere već kao uverljiv i profesionalno oblikovan materijal. Korišćeni su formati kojima javnost inače veruje poput sudskih dokumenata zvaničnih saopštenja i političkih izjava, a reakcija institucija i javnosti usledila je tek nakon što je šteta već bila napravljena. Zbog toga su ovi slučajevi postali referentne tačke u raspravama o regulaciji veštačke inteligencije.
Evropska unija je upravo zbog ovakvih slučajeva usvojila prvi sveobuhvatni pravni okvir za veštačku inteligenciju, poznat kao AI Act, koji se primenjuje postepeno nakon stupanja na snagu. U praksi, to znači da se od 2026. godine uvodi znatno stroža kontrola nad takozvanim visokorizičnim AI sistemima, koji se koriste u oblastima kao što su zapošljavanje, obrazovanje, kritična infrastruktura, javne usluge i bezbednost. Obaveze za većinu tih sistema počinju da važe od 2. avgusta 2026. godine, u skladu sa zvaničnim kalendarom primene.
Evropska unija je već započela fazno uvođenje pravila, uključujući zabrane pojedinih praksi i obavezu podizanja nivoa AI pismenosti, koje su počele da se primenjuju ranije. Posebna pravila za modele veštačke inteligencije opšte namene, poznate kao GPAI modeli, stupaju na snagu 2. avgusta 2025. godine. Tokom 2025. godine Evropska komisija je više puta potvrdila da neće biti odlaganja i da će se zakon primenjivati prema unapred utvrđenom rasporedu.
Ovim pristupom, veštačka inteligencija u Evropskoj uniji više se ne tretira isključivo kao tehnološka inovacija, već i kao potencijalni sistemski rizik koji zahteva jasna pravila, institucionalni nadzor i odgovornost onih koji je razvijaju i koriste.

Direkcija Google
Reakcija tehnoloških kompanija i regulatora
Nakon ovih događaja, kompanije poput OpenAI, Google i Meta pooštrile su pravila korišćenja, uvele upozorenja i dodatne mehanizme za prepoznavanje manipulisanog sadržaja.
Istovremeno, EU i SAD ubrzali su izradu regulatornih okvira koji veštačku inteligenciju više ne tretiraju samo kao inovaciju, već i kao potencijalni bezbednosni rizik.
Ovo nisu izolovani incidenti, već dokumentovani slučajevi u kojima je veštačka inteligencija proizvela lažne vesti sa stvarnim posledicama po pravosuđe i demokratiju.
Upravo zbog toga, AI više ne može biti posmatrana kao neutralni posrednik informacija – već kao tehnologija koja zahteva stalnu proveru, odgovornost i jasna pravila.
Ali, mora se imati u vidu da veštačka inteligencija ne donosi odluke sama. Svaki politički narativ, lažna vest ili manipulativni sadržaj nastaje kao rezultat ljudskog izbora – algoritmi su samo alat koji ubrzava i umnožava posledice.
