Kako veštačka inteligencija negativno utiče na svet

Veštačka inteligencija (AI) donosi ogromne tehnološke koristi, ali istovremeno postavlja brojna etička, društvena, ekonomska i bezbednosna pitanja. Dok neki u njoj vide budućnost prosperiteta, drugi upozoravaju na njene mračne strane. AI može pogoršati postojeće probleme u društvu, narušiti privatnost, produbiti ekonomske nejednakosti i čak izazvati gubitak ljudske kontrole nad važnim procesima.

U nastavku predstavljamo detaljnu analizu negativnih posledica AI tehnologije, uz primere iz stvarnog sveta.


1. Masovni gubitak poslova i prekvalifikacija

Automatizacija zasnovana na AI sistemima ubrzano zamenjuje ljudsku radnu snagu, posebno u rutinskim poslovima.

Koji sektori su najugroženiji:

  • Proizvodnja (automatske mašine, roboti)
  • Transport (autonomna vozila, logistika)
  • Administracija (automatska obrada podataka, digitalni asistenti)
  • Maloprodaja (samoposlužne kase, pametni sistemi naručivanja)

Posledice:

  • Milioni ljudi mogli bi izgubiti posao ili biti primorani da se prekvalifikuju.
  • Siromašniji regioni i ljudi sa nižim nivoom obrazovanja su najviše pogođeni.
  • Povećava se jaz između tehnološki obrazovane elite i ostatka populacije.

Primer:
McKinsey procenjuje da bi do 2030. godine do 800 miliona radnih mesta širom sveta moglo biti automatizovano.


2. Narušavanje privatnosti i masovni nadzor

Veštačka inteligencija omogućava prikupljanje i obradu ogromne količine ličnih podataka.

Način zloupotrebe:

  • Praćenje korisnika preko aplikacija, kamera, društvenih mreža i glasovnih asistenata.
  • Analiza ponašanja potrošača bez njihovog znanja (npr. „tihi pristanak“ kod kolačića).
  • Državni nadzor i ocenjivanje građana na osnovu njihove aktivnosti.

Primer:
U nekim zemljama, AI kamere prate kretanje građana u realnom vremenu, a svaki pokret ulazi u lični „profil ponašanja“.


3. Deepfake i manipulacija informacijama

AI može stvoriti sadržaj koji izgleda realno, ali je potpuno lažan – poznato kao deepfake.

Rizici:

  • Politička manipulacija: Lažni video snimci lidera koji „izjavljuju“ nešto što nikada nisu rekli.
  • Lažne vesti i širenje panike: AI može generisati hiljade tekstova i slika u sekundi.
  • Uništavanje reputacije: Video-snimci koji prikazuju poznate ličnosti u kompromitujućim situacijama.

Primer:
2024. godine, deepfake video sa „izjavom“ političara izazvao je haos u predizbornoj kampanji u jednoj evropskoj zemlji – iako je naknadno utvrđeno da je snimak lažan, šteta je već bila učinjena.


4. Diskriminacija i pristrasni algoritmi

AI sistemi često nasleđuju ljudske predrasude iz podataka na kojima su trenirani.

Oblasti gde se javljaju problemi:

  • Zapošljavanje – AI može automatski odbacivati kandidate zbog pola, rase ili dobi.
  • Kreditiranje i osiguranje – algoritmi mogu diskriminisati siromašne ili etničke manjine.
  • Zdravstvo – AI može prevideti simptome kod određenih grupa jer su podaci uglavnom prikupljeni iz dominantnih populacija.

Primer:
Amazon je povukao svoj AI sistem za regrutaciju kada je otkriveno da „kažnjava“ CV-jeve sa ženskim imenima jer su istorijski muški kandidati bili favorizovani.


5. Gubitak kontrole i autonomne odluke mašina

Kako AI sistemi postaju sve kompleksniji, raste rizik da ljudi više neće razumeti njihove odluke – ili ih neće moći zaustaviti.

Opasne situacije:

  • Autonomni automobili koji u vanrednoj situaciji donose odluku ko će preživeti.
  • AI softver koji automatski odlučuje ko dobija kredit ili ko ide u zatvor, bez objašnjenja.
  • Autonomno oružje koje samostalno identifikuje i eliminiše „pretnje“.

Primer:
AI softver za sudove u SAD-u ocenjivao je verovatnoću da optuženi ponovo počini zločin – i pokazao je jaku rasnu pristrasnost, dok korisnici nisu znali kako je ocena doneta.


6. AI u vojne i represivne svrhe

AI se koristi za razvoj autonomnih sistema za napad, nadzor protesta i digitalnu kontrolu.

Posledice:

  • Mogućnost da mašine donose odluke o životu i smrti.
  • Totalitarni režimi koriste AI za gušenje sloboda i nadzor građana.
  • Rastuća trka u AI naoružanju među svetskim silama.

Primer:
U Libiji je 2020. zabeleženo da je bespilotna letelica navodno samostalno napala metu, bez ljudske intervencije – što je izazvalo globalnu zabrinutost.


7. Zavisnost, lenjost i psihološki efekti

Preterana upotreba AI tehnologije može dovesti do mentalne pasivnosti i društvene izolacije.

Efekti:

  • Ljudi sve manje donose odluke sami – od izbora filma do kupovine.
  • Algoritmi „guraju“ korisnike u tzv. informacione mehure, gde čuju samo ono sa čim se već slažu.
  • Pojačava se zavisnost od digitalnih asistenata, virtuelnih prijatelja i AI chatbotova.

Primer:
Istraživanja su pokazala da algoritmi društvenih mreža (npr. TikTok, YouTube) podstiču ekstremne sadržaje jer su ti sadržaji „zarazniji“ i duže zadržavaju pažnju – što može negativno uticati na mlade korisnike.


8. Ekološki trošak – visoka energetska potrošnja

Treniranje velikih jezičkih modela i upravljanje AI serverima troši ogromne količine električne energije.

Posledice:

  • Povećanje emisije ugljen-dioksida.
  • Trošenje prirodnih resursa u zemljama sa slabom ekološkom zaštitom.
  • „Zeleni paradoks“ – AI se koristi za ekološke ciljeve, a istovremeno stvara ekološke probleme.

Primer:
Treniranje GPT-3 modela (prethodnika mog modela) potrošilo je energiju kao desetine američkih domaćinstava godišnje.


Zaključak

Veštačka inteligencija može biti saveznik čovečanstva – ali ako se ne razvija uz etičke smernice, transparentnost i regulaciju, može dovesti do ozbiljnih posledica po ljudska prava, društvenu jednakost i bezbednost.

Nepravilna upotreba AI-a ne vodi samo u tehničke greške, već u društvenu nepravdu, manipulaciju i kontrolu.

Ključne preporuke za budućnost:

  • Etičko programiranje i raznolikost u timovima koji razvijaju AI.
  • Javne rasprave o granicama upotrebe.
  • Pravna regulacija i odgovornost programera, kompanija i država.
  • Obrazovanje građana o AI – kako da ga koriste, ali i kako da ga prepoznaju i kritikuju.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *