Veštačka inteligencija (AI) donosi ogromne tehnološke koristi, ali istovremeno postavlja brojna etička, društvena, ekonomska i bezbednosna pitanja. Dok neki u njoj vide budućnost prosperiteta, drugi upozoravaju na njene mračne strane. AI može pogoršati postojeće probleme u društvu, narušiti privatnost, produbiti ekonomske nejednakosti i čak izazvati gubitak ljudske kontrole nad važnim procesima.
U nastavku predstavljamo detaljnu analizu negativnih posledica AI tehnologije, uz primere iz stvarnog sveta.
1. Masovni gubitak poslova i prekvalifikacija
Automatizacija zasnovana na AI sistemima ubrzano zamenjuje ljudsku radnu snagu, posebno u rutinskim poslovima.

Koji sektori su najugroženiji:
- Proizvodnja (automatske mašine, roboti)
- Transport (autonomna vozila, logistika)
- Administracija (automatska obrada podataka, digitalni asistenti)
- Maloprodaja (samoposlužne kase, pametni sistemi naručivanja)
Posledice:
- Milioni ljudi mogli bi izgubiti posao ili biti primorani da se prekvalifikuju.
- Siromašniji regioni i ljudi sa nižim nivoom obrazovanja su najviše pogođeni.
- Povećava se jaz između tehnološki obrazovane elite i ostatka populacije.
Primer:
McKinsey procenjuje da bi do 2030. godine do 800 miliona radnih mesta širom sveta moglo biti automatizovano.
2. Narušavanje privatnosti i masovni nadzor
Veštačka inteligencija omogućava prikupljanje i obradu ogromne količine ličnih podataka.

Način zloupotrebe:
- Praćenje korisnika preko aplikacija, kamera, društvenih mreža i glasovnih asistenata.
- Analiza ponašanja potrošača bez njihovog znanja (npr. „tihi pristanak“ kod kolačića).
- Državni nadzor i ocenjivanje građana na osnovu njihove aktivnosti.
Primer:
U nekim zemljama, AI kamere prate kretanje građana u realnom vremenu, a svaki pokret ulazi u lični „profil ponašanja“.
3. Deepfake i manipulacija informacijama
AI može stvoriti sadržaj koji izgleda realno, ali je potpuno lažan – poznato kao deepfake.

Rizici:
- Politička manipulacija: Lažni video snimci lidera koji „izjavljuju“ nešto što nikada nisu rekli.
- Lažne vesti i širenje panike: AI može generisati hiljade tekstova i slika u sekundi.
- Uništavanje reputacije: Video-snimci koji prikazuju poznate ličnosti u kompromitujućim situacijama.
Primer:
2024. godine, deepfake video sa „izjavom“ političara izazvao je haos u predizbornoj kampanji u jednoj evropskoj zemlji – iako je naknadno utvrđeno da je snimak lažan, šteta je već bila učinjena.
4. Diskriminacija i pristrasni algoritmi
AI sistemi često nasleđuju ljudske predrasude iz podataka na kojima su trenirani.

Oblasti gde se javljaju problemi:
- Zapošljavanje – AI može automatski odbacivati kandidate zbog pola, rase ili dobi.
- Kreditiranje i osiguranje – algoritmi mogu diskriminisati siromašne ili etničke manjine.
- Zdravstvo – AI može prevideti simptome kod određenih grupa jer su podaci uglavnom prikupljeni iz dominantnih populacija.
Primer:
Amazon je povukao svoj AI sistem za regrutaciju kada je otkriveno da „kažnjava“ CV-jeve sa ženskim imenima jer su istorijski muški kandidati bili favorizovani.
5. Gubitak kontrole i autonomne odluke mašina
Kako AI sistemi postaju sve kompleksniji, raste rizik da ljudi više neće razumeti njihove odluke – ili ih neće moći zaustaviti.

Opasne situacije:
- Autonomni automobili koji u vanrednoj situaciji donose odluku ko će preživeti.
- AI softver koji automatski odlučuje ko dobija kredit ili ko ide u zatvor, bez objašnjenja.
- Autonomno oružje koje samostalno identifikuje i eliminiše „pretnje“.
Primer:
AI softver za sudove u SAD-u ocenjivao je verovatnoću da optuženi ponovo počini zločin – i pokazao je jaku rasnu pristrasnost, dok korisnici nisu znali kako je ocena doneta.
6. AI u vojne i represivne svrhe
AI se koristi za razvoj autonomnih sistema za napad, nadzor protesta i digitalnu kontrolu.

Posledice:
- Mogućnost da mašine donose odluke o životu i smrti.
- Totalitarni režimi koriste AI za gušenje sloboda i nadzor građana.
- Rastuća trka u AI naoružanju među svetskim silama.
Primer:
U Libiji je 2020. zabeleženo da je bespilotna letelica navodno samostalno napala metu, bez ljudske intervencije – što je izazvalo globalnu zabrinutost.
7. Zavisnost, lenjost i psihološki efekti
Preterana upotreba AI tehnologije može dovesti do mentalne pasivnosti i društvene izolacije.

Efekti:
- Ljudi sve manje donose odluke sami – od izbora filma do kupovine.
- Algoritmi „guraju“ korisnike u tzv. informacione mehure, gde čuju samo ono sa čim se već slažu.
- Pojačava se zavisnost od digitalnih asistenata, virtuelnih prijatelja i AI chatbotova.
Primer:
Istraživanja su pokazala da algoritmi društvenih mreža (npr. TikTok, YouTube) podstiču ekstremne sadržaje jer su ti sadržaji „zarazniji“ i duže zadržavaju pažnju – što može negativno uticati na mlade korisnike.
8. Ekološki trošak – visoka energetska potrošnja
Treniranje velikih jezičkih modela i upravljanje AI serverima troši ogromne količine električne energije.
Posledice:
- Povećanje emisije ugljen-dioksida.
- Trošenje prirodnih resursa u zemljama sa slabom ekološkom zaštitom.
- „Zeleni paradoks“ – AI se koristi za ekološke ciljeve, a istovremeno stvara ekološke probleme.
Primer:
Treniranje GPT-3 modela (prethodnika mog modela) potrošilo je energiju kao desetine američkih domaćinstava godišnje.
Zaključak
Veštačka inteligencija može biti saveznik čovečanstva – ali ako se ne razvija uz etičke smernice, transparentnost i regulaciju, može dovesti do ozbiljnih posledica po ljudska prava, društvenu jednakost i bezbednost.
Nepravilna upotreba AI-a ne vodi samo u tehničke greške, već u društvenu nepravdu, manipulaciju i kontrolu.
Ključne preporuke za budućnost:
- Etičko programiranje i raznolikost u timovima koji razvijaju AI.
- Javne rasprave o granicama upotrebe.
- Pravna regulacija i odgovornost programera, kompanija i država.
- Obrazovanje građana o AI – kako da ga koriste, ali i kako da ga prepoznaju i kritikuju.
Leave a Reply