Vještačka inteligencija u sigurnosti reklamira se kao besprijekorni štit koji nadljudskom preciznošću otkriva prijetnje i predviđa rizike. Ali stvarnost je mnogo složenija i uključuje lažno pozitivne rezultate, netransparentne i nelogične zaključke i preuveličana obećanja. U ovom tekstu stišavamo marketinšku buku da čujemo odgovor na ključno pitanje: da li AI zaista mijenja paradigmu sigurnosti ili je tek posljednja tehnološka iluzija u kojoj ljudski faktor i dalje igra najvažniju ulogu?
Piše: Mirza Bahić; E-mail: mirza.bahic@asadria.com
“Vještačka inteligencija je sve ono što još nije zaživjelo.” Ova duhovita opaska profesorā s Princetona, Arvinda Narayanana i Sayasha Kapoora, nalazi se u knjizi “AI opsjena: Šta vještačka inteligencija može, šta ne može i kako prepoznati razliku”. Ona savršeno oslikava način na koji se definicija AI-ja stalno mijenja tako da ovaj pojam danas znači gotovo sve baš svakome.
Međutim, kada neka tehnologija na tragu AI-ja zaživi, bilo da je riječ o provjeri pravopisa u Wordu, prepoznavanju govora ili autopilotu u avionima, naljepnica misterije se skida i njenu magiju počnemo uzimati zdravo za gotovo. Je li na tom putu i AI u svijetu sigurnosti?
AI smanjuje plast sijena, iglu pronalaze ljudi
Dok AI sigurnosna rješenja plave tržište obećanjima o gotovo natprirodnoj budnosti ovih sistema, otrežnjujuću dozu stvarnosti ponudio je nedavni tragični incident u srednjoj školi Antioch u američkom gradu Nashvilleu. Uprkos gotovo milion dolara uloženih u AI sistem za detekciju oružja nazvan Omnilert, u januaru je 17-godišnji učenik Solomon Henderson uspio unijeti skriveni pištolj u školu. Nakon toga, smrtno je ranio jednog učenika, povrijedio drugog, a onda i sebi oduzeo život.
Ovaj AI sistem inicijalno je dizajniran da prepoznaje vidljivo vatreno oružje pomoću nadzornih kamera, no nije uspio detektovati Hendersonovo oružje. Prema riječima zvaničnika školskog okruga, sistem nije reagovao jer pištolj u trenutku napada nije bio “vidljiv kamerama”. Izvršni direktor Omnilerta na kraju je priznao da sistem zahtijeva jasan vizuelni kontakt s oružjem kako bi ispravno funkcionisao.
Maher Yamout, glavni istraživač u Globalnom timu za istraživanje i analizu kompanije Kaspersky, upozorava da ovakva prenapuhana obećanja stvaraju nerealna očekivanja u odnosu na stvarne mogućnosti AI-ja. “AI se često predstavlja kao svemogući i autonomni sistem koji može donositi odluke umjesto nas. To, naravno, nije realno”, kaže on.
Slično mišljenje dijeli i Mohammed Soliman iz kompanije McLarty Associates, koji je viši saradnik u Middle East institutu. On smatra da marketing često pretjeruje u predstavljanju mogućnosti AI-ja u svijetu sigurnosti, navodeći da vještačka inteligencija ne radi “na način kako to ušminkane reklame tvrde”. “One govore o autonomnoj sigurnosti i potpunoj eliminaciji prijetnji, ali to je pretjerano”, dodaje Soliman.
Incident u Nashvilleu jasno ukazuje na ograničenja pristupa koji podrazumijeva oslanjanje isključivo na AI za zahtjevnije sigurnosne zadatke. Nemogućnost tehnologije da detektuje skriveno oružje u kritičnoj situaciji postavlja ozbiljna pitanja o njenoj efikasnosti na terenu, gdje prijetnje nisu uvijek očigledne.
Sajjad Arshad, direktor razvoja poslovanja u kompaniji AxxonSoft Middle East, opisuje sadašnje stanje bez uvijanja: “AI ne mora piti kafu da zadrži koncentraciju, ali i ne razumije namjere”.
Dok AI briljira u, naprimjer, skeniranju slika, prepoznavanju obrazaca i neumornom pregledanju ogromnih količina videosadržaja, on može podbaciti u ključnoj stvari – razumijevanju zašto se nešto dešava. “Sigurnost nije samo prepoznavanje anomalija. Tu je i pitanje prosudbe”, naglašava Arshad. Vještačka inteligencija može označiti osobu koja stoji na parkingu, ali ne zna da li se ta osoba izgubila ili planira da negdje provali. Taj nivo interpretacije, odnosno povezivanja ponašanja s motivom i dalje je sfera ljudskog razmišljanja. “Odluke i konteksti su još u domenu ljudi”, navodi Arshad i dodaje da je to slučaj čak i kada je AI sposoban da obavlja veliki dio posla u pozadini.
Njegov kolega Soliman umjesto objašnjenja nudi živopisnu metaforu: “AI je sjajan u smanjenju veličine plasta sijena jer može prepoznati 100 sumnjivih događaja među milion njih. Ali ljudi su ti koji na kraju moraju pronaći iglu jer su lažno pozitivni rezultati stvaran izazov”, kaže on.
Vječni ciklus zanosa i razočarenja
Tragedija u srednjoj školi Antioch podsjeća na opasnost pretjeranog oslanjanja na obećanja o potencijalu vještačke inteligencije. Ipak, ovakva razočarenja nisu novost jer je sama historija AI-ja, smatraju eksperti, kontinuirana smjena velikih očekivanja i bolnih otrežnjenja.
Tu je korisna tzv. Gartnerova krivulja tehnološkog zanosa, koja pokazuje kako nove tehnologije obično počinju život praćene ogromnim entuzijazmom, nakon kojeg prolaze kroz fazu razočarenja korisnika, da bi na kraju i postale stvarno korisne nakon sazrijevanja. Iako mnoge tehnologije koje donose temeljne promjene, poput kriptovaluta, prate ovu krivulju, razvoj vještačke inteligencije više je nalik ciklusu smjene euforičnih proljeća entuzijazma i obeshrabrujućih zima.
Ipak, postoji ključna razlika između izvikane tehnologije poput, npr., kriptovaluta i vještačke inteligencije. Već je u svijetu sigurnosti AI demonstrirao stvarne tehnološke prednosti uprkos prenapuhanim obećanjima, dok kriptovalute i dalje uglavnom ostaju rješenje u potrazi za problemom.
Arshad iz kompanije AxxonSoft Middle East ne okoliša kada je riječ o zabludama u vezi s AI-jem. “Vjerujte, dobijamo stvarno bizarne zahtjeve od klijenata, i to takve zbog kojih stanemo i zapitamo se: ko im je uopće ispričao sve te bajke?”, ističe Arshad.
On jasno ukazuje na tačku u kojoj dolazi do nesporazuma: AI nije kristalna kugla niti može čitati misli. On ne može iz nakupine piksela naslutiti nečije namjere. Osoba koja mirno stoji može biti i sumnjivo lice i putnik koji samo čeka prijevoz. Bez konteksta, AI ne može uvijek donijeti ispravnu procjenu. Druga česta zabluda, navodi Arshad, jeste uvjerenje da AI “radi odmah nakon instalacije”. Videoanalitika zasnovana na AI-ju ne funkcioniše automatski i potrebno joj je precizno podešavanje prema uglovima kamere, osvjetljenju i okolini. “Nije riječ samo o algoritmu. To je cijeli ekosistem u kojem on radi”, objašnjava on.
Integracija je i dalje izazov
Integracija AI tehnologija s postojećim sigurnosnim sistemima predstavlja dodatni izazov. Mnoge organizacije imaju poteškoća u usklađivanju novih AI rješenja s postojećom infrastrukturom, što može dovesti do neučinkovitosti ili skupih rekonstrukcija. Bez ispravne konfiguracije i upravljanja podacima, nove tehnologije mogu stvoriti slijepe tačke u sistemu. Kahler potvrđuje loše stanje postojeće infrastrukture uz komentar da su “mnogi sistemi i dalje zatvoreni ili zastarjeli, što ograničava mogućnosti AI tehnologije. Zato su otvorene platforme važne jer omogućuju integraciju i kontinuirani razvoj u skladu s rastom mogućnosti vještačke inteligencije”.
Kapiniaris dodaje da dio nesporazuma proizlazi i iz nepoznavanja stvarnih mogućnosti hardvera nove generacije. “Naprimjer, tačnost često više ovisi o ograničenjima hardvera nego od samog AI-ja. Tržište mora shvatiti da loše performanse proizlaze iz nekvalitetne opreme ili loše instalacije CCTV sistema, a ne samo zbog greške AI-ja”, kaže on.
AI također zahtijeva stalno održavanje i stručno osoblje koje upravlja sistemima i ažurira ih. Bez odgovarajućeg nadzora, AI sistemi mogu postati neučinkoviti ili čak kontraproduktivni. Faktori okoline, poput lošeg osvjetljenja ili ekstremnih vremenskih uslova, mogu dodatno ograničiti sposobnost AI-ja da tačno detektuje i analizira prijetnje. AlRefai ističe i da implementacija AI-ja u sigurnosti donosi niz izazova koji nadilaze samu tehnologiju. “Organizacije se suočavaju s brojnim problemima, uključujući tehničke izazove kao što su osiguranje tačnosti modela, minimiziranje pristrasnosti i zaštita privatnosti podataka, kao i usklađenost s regulatornim okvirima”, objašnjava on. Nedostatak iskusnih stručnjaka dodatno otežava situaciju, budući da mnogi sigurnosni timovi još nisu spremni za efikasno upravljanje AI alatima. “Osiguravanje etičke primjene i zaštita od manipulacija ostaju stalne brige”, dodaje AlRefai, naglašavajući potrebu za tehničkim i ljudskim nadzorom u svakom sigurnosnom sistemu koji koristi AI.
Postoje i pomaci
Ipak, Arshad vidi i pomake. Današnji AI sistemi su znatno otporniji jer bolje filtriraju sjene, prepoznaju objekte u gomili i prilagođavaju se zahtjevnim uslovima. “Ipak, još ne postoji svemoćno dugme koje sve rješava. Pravi izazov nije samo napraviti pametniji AI, nego uskladiti očekivanja ljudi”, upozorava on.
No, zašto su ta očekivanja u toj mjeri nerealna? Jedan od glavnih razloga je dominantna uloga korporativnog finansiranja. Savremeni AI sistemi, poput velikih jezičkih modela, povlače ogromne troškove razvoja, od hardverskih resursa do skupog istraživačkog rada. To je poremetilo balans moći u korist kompanija poput Googlea, Mete i OpenAI-ja, koje sebi mogu priuštiti takve investicije.
“AI često ispunjava očekivanja kada se promišljeno primjenjuje, ali će rijetko ispuniti ono što se obećava u marketinškim materijalima. Iako je veoma snažan alat, njegov uspjeh zavisi od kvaliteta podataka, integracije s postojećim sistemima i ljudskog nadzora”, kaže Saif AlRefai, menadžer za inženjering rješenja u kompaniji OPSWAT.
To potvrđuje i Hans Kahler, operativni direktor Eagle Eye Networksa, koji upozorava da ova nerealna slika podsjeća na historijski obrazac uspona i padova nivoa entuzijazma u pogledu mogućnosti AI tehnologije. “Neki dobavljači obećavaju da AI može sve”, kaže Kahler. “To je bacanje prašine u oči, a ne stvarnost.”
Arshad to potvrđuje tezom da, iako AI napreduje, njegova primjena u stvarnom svijetu ostaje daleko složeniji problem nego što se prikazuje u promotivnim materijalima. “Marketing prodaje snove, a AI isporučuje nešto neugodnije što se zove stvarnost”.
Ipak, korporativni fokus sve više favorizira inženjerska dostignuća u odnosu na dublje naučno razumijevanje mogućnosti ove tehnologije. Kompanije preferiraju poboljšanja koja se mogu odmah ugraditi u profitabilne proizvode, umjesto temeljnih uvida u razloge zašto AI rješenja uopće trebaju nešto raditi. To dovodi do toga da se naglasak stavlja na obaranje rekorda u laboratorijskim testiranjima, umjesto na provjerene rezultate iz stvarnog svijeta.
Dr. Arijana Trkulja, voditeljica Centra za izvrsnost u kibernetičkoj sigurnosti u kompaniji Ingram Micro, također ističe jaz između marketinških obećanja i stvarne upotrebljivosti AI-ja. Iako se često prikazuje kao revolucionarni alat koji donosi automatizaciju i preciznost bez presedana, AI često zakazuje u situacijama gdje su podaci nekvalitetni, ljudski nadzor neophodan (npr. u pravosuđu ili zdravstvu), kao i tamo gdje postoje ozbiljna etička pitanja u vezi s njegovom primjenom. “Potpuna autonomija i dalje je mit u većini slučajeva”, naglašava Trkulja, ističući potrebu za stalnim ljudskim učešćem, podešavanjem i praćenjem kako bi AI sistemi ostali efikasni. Ona preporučuje kompanijama da zauzmu uravnotežen stav. “Kada se pažljivo implementira uz jasne ciljeve i pripremljene podatke, AI može biti snažan pokretač efikasnosti, inovacija i konkurentske prednosti”, kaže ona.
Identifikacija da, predviđanje ne
Iako senzacionalistički pristup AI-ju često hrani nerealna očekivanja, važno je razumjeti zašto ova tehnologija briljira u nekim zadacima, a u drugim to ne uspijeva i tako razdvojiti činjenice od fikcije.
Prepoznavanje lica je odličan primjer. U nekim slučajevima AI radi izvanredno, dok u drugim potpuno podbaci, pri čemu sve ovisi o tipu zadatka pred ovom tehnologijom.
Kada se koristi za identifikaciju lica, AI obično postiže visoku tačnost jer je riječ o zadatku s vrlo malo nejasnoća. AI tehnologija se obučava na ogromnim bazama podataka sa slikama i oznakama, što joj omogućava da prepozna, naprimjer, da li dvije fotografije predstavljaju istu osobu. Uz dovoljno podataka i računarske snage, AI će lako savladati obrasce za razlikovanje jednog lica od drugog i biti veoma efikasan u kontrolisanim okruženjima u kojima su sve potrebne informacije već prisutne na slikama. U tom smislu, AI može i briljirati jer se suočava s jasnim zadatkom utvrđivanja da li dvije fotografije prikazuju istu osobu.
Međutim, nivo tačnosti opada kada se od njega traži da rješava složenije zadatke, posebno kada je riječ o predviđanju, a ne pukoj identifikaciji. Naprimjer, predviđanje opasnog ponašanja neke osobe daleko je složeniji izazov. Nije riječ samo o prepoznavanju lica već o procjeni nečije namjere i budućih postupaka, što je samo po sebi neizvjesno i teško mjerljivo. “Vještačkoj inteligenciji i dalje treba kontekst, a to često podrazumijeva prisustvo čovjeka”, kaže Kahler. “Ona može prepoznati osobu koja ulazi u zabranjenu zonu, ali ne može uvijek razumjeti njenu namjeru i druge nijanse. Veliki potencijal je tu, ali ovoj tehnologiji uvijek je potrebna ljudska procjena i nadzor”, dodaje on.
Danas se AI koristi za predviđanje koja bi osoba mogla predstavljati prijetnju, npr., kroz prepoznavanje sklonosti ka nasilnom ponašanju analizom spola, lica i ranijih podataka. U osnovi, AI pokušava “nagađati” ishode kada su pitanju parametri poput osobina ličnosti, emocionalnih stanja ili rodnog identiteta. A takvi su zadaci znatno skloniji greškama jer izrazi lica i fizičke karakteristike ne mogu adekvatno ponuditi uvide u kompleksnije i subjektivne osobine.
Ipak, postoji prostor za oprezni optimizam. “U tehničkoj zaštiti posebno se ističe prediktivna analiza za potrebe policije. No, prava zvijezda je detekcija anomalija, bilo da je riječ o hakeru ili uljezu jer je AI sjajan u detekciji svega što odudara od normalnog”, kaže Soliman. Jasno je, dakle, da AI sistemi za prepoznavanje lica imaju veliki potencijal kada je u pitanju identifikacija osoba, ali su njihove prediktivne sposobnosti znatno manje pouzdane i povezane s ozbiljnim greškama. To potvrđuje koliko je važno razumjeti ograničenja vještačke inteligencije i oduprijeti se iskušenju da ju se smatra sveobuhvatnim i nepogrešivim rješenjem.
Odgovor na ovu dilemu nudi Arshad, koji zastupa realističan pogled na ulogu AI-ja u svijetu sigurnosti koji je oblikovan višegodišnjim iskustvom rada u stvarnim uslovima. “AI ne razumije svijet na isti način kao čovjek”, kaže on, “ali, uz prave ljude, podatke i infrastrukturu, to je alat koji dosljedno kreira stvarnu vrijednost”.
Za njega su najefikasnije primjene AI-ja u sigurnosti upravo one koje nisu spektakularne, već praktične: smanjenje broja lažnih alarma, ubrzavanje vođenja istraga i podrška operaterima da se fokusiraju na ono što je zaista važno. Arshad kao ključnu snagu koja preoblikuje tehničku zaštitu vidi AI analitiku u videonadzoru, u rasponu od detekcije objekata u stvarnom vremenu do inteligentnog pretraživanja. Ovi alati više nisu eksperimentalni nego neophodni jer smanjuju oslanjanje na ručni nadzor i čine nadzorne sisteme pametnijima i bržima. “Da li AI ispunjava marketinška obećanja?” pita Arshad i nudi odgovor: “Samo ako je marketing dovoljno pametan da shvati da se vještačka i svaka druga inteligencija jednako odnosi na postavljanje pravih pitanja i na pronalaženje pravih odgovora”.
Šta AI može uraditi za videonadzor?
Neujednačeni rezultati AI-ja na planu predikcije oblikuju njegovu ulogu u savremenim sigurnosnim sistemima, gdje tzv. uska inteligencija istovremeno omogućava napredak u jednoj oblasti i postavlja ograničenja u drugoj.
U kakofoniji marketinške buke, najbolji način da se shvati stvarna efikasnost AI-ja u sigurnosti jeste pravilno razumijevanje načina na koji ova tehnologija danas funkcioniše. Arshad kao odgovor daje pragmatičan pregled situacije. “Mi o utjecaju AI-ju na tehničku zaštitu možemo govoriti na temelju činjenica jer na tome svakodnevno radimo”, kaže on, naglašavajući da saznanja moraju proizaći iz terenske primjene, a ne teorije.
Prema njemu, AI je prešao put od marketinškog mamca do tehnologije s konkretnim prednostima, posebno u oblasti videonadzora. Alati poput AxxonSoftovog One VMS sistema sada omogućavaju otkrivanje prijetnji u stvarnom vremenu, poput neovlaštenih ulazaka, zadržavanja i okupljanja većih grupa ljudi. “To nisu funkcije koje su tu same zbog sebe nego imaju ulogu da skraćuju trajanje istraga sa sati na minute”, ističe on. Ključ njihove efikasnosti nije samo u sposobnostima već u prilagodljivosti. AI filtrira nebitne podatke, označava stvarne prijetnje i, navodi Arshad, operaterima nudi “nadljudsku viziju i brzinu”.
AI u sigurnosti uglavnom se oslanja na dva pristupa. Simbolički AI koristi stroga pravila i unaprijed programirane naredbe da, npr., odredi kada se aktivira alarm. Statistički AI, s druge strane, koristi vjerovatnoće da uči obrasce iz podataka. Sistem za prepoznavanje lica koji na aerodromskom terminalu traži osobu s potjernice tipičan je primjer primjene statističkog AI-ja.
Trkulja ističe da integracija AI-ja sa sistemima kontrole pristupa poboljšava i sigurnost i korisničko iskustvo, navodeći da “AI poboljšava sigurnost pristupa kroz višefaktorsku autentifikaciju i biometrijsku verifikaciju kao što su otisak prsta te prepoznavanje glasa i lica”.
I njen kolega Arshad naglašava transformativni utjecaj vještačke inteligencije na videonadzor i dodaje da su “detekcija objekata u stvarnom vremenu, analiza ponašanja i prepoznavanje lica i registarskih tablica prešli iz faze eksperimenta u ključne alate”. U kontekstu videonadzora, AI može analizirati snimke u stvarnom vremenu, detektovati kretanje, identificirati objekte i upućivati na potencijalne sigurnosne incidente.
Na osnovu toga, Panayiotis Kapiniaris, direktor prodaje u kompaniji Monitoreal, ističe da AI može prebaciti videonadzor s reaktivnog na proaktivni model rada. “AI je znatno unaprijedio tehničku zaštitu, posebno kada je riječ o videonadzoru. Tradicionalni CCTV je bio reaktivan, odnosno omogućavao je da se događaji analiziraju tek nakon što su se dogodili. U najboljem slučaju, operateri su mogli reagovati na događaje u stvarnom vremenu, ali i to je bilo reaktivno”, kaže on.
Uprkos sve većoj sofisticiranosti, moderni sigurnosni AI sistemi i dalje imaju ograničen domet. Mašinsko učenje u sigurnosti najčešće je ograničeno na osnovnu videoanalitiku, upravljanje biometrijskim sistemima i upotrebu dronova. Većina sistema može interpretirati samo ono za šta su prethodno obučeni i zato nerijetko podbace u suočavanju s nepoznatim prijetnjama. Zato Yamout naglašava da je vrijednost AI-ja u podršci, a ne zamjeni ljudskog faktora: “Većina onoga što danas nazivamo AI-jem zapravo je napredno mašinsko učenje. AI u kibernetičkoj sigurnosti nije tu da potpuno automatizira ili zamijeni ljudsko znanje, već da ga unaprijedi kroz analizu podataka.”
Mašinsko učenje (ML) posebno je efikasno u automatizaciji ponavljajućih zadataka, poput prepoznavanja obrazaca i prilagođavanja promjenama i može pametno organizirati podatke u jasan i pregledan format. Ipak, kako ističe Yamout, tumačenje tih podataka i dalje zavisi od osoblja. On pojašnjava da su AI i ML već dokazali svoju vrijednost u tehničkoj zaštiti – kroz biometrijsku autentifikaciju i videonadzorne sisteme – ali i u kibernetičkoj sigurnosti. “AI/ML je pokazao da može pomoći ljudima u skaliranju automatizacije kako bi mogli analizirati veliki broj događaja”, dodaje on, ističući sposobnost AI-ja da unaprijedi efikasnost ako mu se pristupi bez ambicije da zamijeni ljudsku prosudbu.
Kako se AI razvija, od budućnosti se očekuje da donese veću moć predviđanja, dublju integraciju sigurnosnih funkcija i pametnije automatizirane odgovore. No, uz taj napredak dolazi i veći rizik. Ako se standardi, etički okviri i procedure testiranja ne razvijaju podjednako brzo, organizacije bi mogle postati ranjivije, a ne sigurnije.
Izvlačenje realnog maksimuma
Vještačka inteligencija i mašinsko učenje su moćni alati koji mogu brzo obraditi velike količine podataka i otkriti obrasce koji mogu ukazivati na sigurnosne prijetnje. U sistemima fizičke kontrole pristupa, naprimjer, AI može pratiti obrasce ulaska i izlaska, uz identifikaciju odstupanja koja mogu upućivati na pokušaje neovlaštenih upada.
Ove tehnologije podržavaju sigurnosne operacije kroz povećanje brzine, obima i dosljednosti obrade podataka. AI smanjuje opterećenje ljudskih operatera filtriranjem informacija i isticanjem potencijalnih prijetnji, što omogućuje brže donošenje odluka i planiranje odgovora. Uvođenje ljudskog operatera u ovu shemu dodatno povećava postojeću vrijednost. Kombinacijom vještačke inteligencije i obučenog osoblja, timovi mogu eliminisati nebitne podatke i primijeniti stvarni kontekst na složene situacije. Ova saradnja poboljšava mogućnosti nadzora i donošenje tačnijih prosudbi.
Ipak, Trkulja ukazuje na nekoliko praznina između obećanja koje nosi AI i stvarne primjene ove tehnologije u sigurnosti. Iako je AI široko prihvaćen uz najavu revolucije u detekciji prijetnji i upravljanju rizicima, stvarne mogućnosti često daju ispodprosječne rezultate. “Lažni pozitivni nalazi i dalje su veliki izazov”, napominje ona te dodaje kako je razlog za to činjenica da sistemi nemaju dovoljno kontekstualne svijesti da razlikuju stvarne prijetnje od bezazlenih anomalija. Osim toga, “marketing često prikazuje AI kao potpuno autonomno rješenje”, dok u praksi ljudska intervencija ostaje ključna.
Preciznost AI sistema također nosi razloge za zabrinutost. “Netačnosti usporavaju odgovor na incidente i stvaraju zamor od viška upozorenja među sigurnosnim timovima”, objašnjava Trkulja. Pristrasnost AI modela, naročito u osjetljivim segmentima poput prepoznavanja lica, dodatno kompromitira efikasnost i uvodi etičke rizike. Uz to, “AI sistemi se često oslanjaju na ogromne količine ličnih podataka”, što izaziva zabrinutost za privatnost, naročito u regijama sa strogim regulativama poput GDPR-a.
Kako bi se u potpunosti iskoristio potencijal vještačke inteligencije u sigurnosti, Trkulja savjetuje kompanijama da ulažu u pripremu podataka, kontinuiranu obuku modela i stručni nadzor. Samo rješavanjem ovih izazova AI može ostvariti svoj puni kapacitet u transformaciji sigurnosnog sektora.
Uključivanje ljudske verifikacije u sigurnosne operacije osigurava ispravno tumačenje upozorenja i anomalija. Sigurnosni stručnjaci mogu brzo procijeniti da li otkriveno ponašanje predstavlja stvarnu prijetnju ili bezopasnu radnju, uz zaštitu operativnog fokusa i izbjegavanje nepotrebnih prekida. Ljudski operateri, pritom, u igru donose kontekst, iskustvo i prilagodljivost, što su osobine koje AI još ne može replicirati.
Crne kutije, nezaštićeni sistemi i otežana integracija
Iako je AI nesumnjivo revolucionirao tehničku sigurnost i donio značajne pomake u oblastima kao što su videonadzor, kontrola pristupa i detekcija prijetnji, mnoga obećanja u vezi s ovom tehnologijom i dalje su često prenaglašena i traže pažljivu analizu realnih ograničenja prije nabavke.
Jedna od najčešće preuveličavanih tvrdnji o AI-ju u tehničkoj sigurnosti jeste da ova tehnologija može u potpunosti zamijeniti sigurnosno osoblje. “Nema šanse. AI je prava zvijer kada je u pitanju obrada podataka, ali ne može donositi sudove. Neki cyber alat može detektovati prijavu na sistem iz Kine, ali samo čovjek će znati da je to, zapravo, direktor na putovanju”, kaže Soliman.
Iako AI može automatizirati rutinske zadatke i pomagati u donošenju odluka, on ne može u potpunosti simulirati cjelovitu evaluaciju situacije. Složeni scenariji koji zahtijevaju kontekstualno razumijevanje i nijansirano odlučivanje i dalje traže ljudsku intervenciju.
AlRefai iz OPSWAT-a kao ključni nedostatak ističe i manjak transparentnosti koji kod AI-ja narušava povjerenje u odluke koje donosi ova tehnologija. “AI sistemi mogu donijeti tačne prognoze, ali često funkcionišu kao ‘crne kutije’, što timovima otežava razumijevanje ili provjeru njihovih odluka.” Drugim riječima, operateri nemaju način da spoznaju logiku kojom se AI vodio kod rješavanja određenog problema i na osnovu nje porade na otklanjanju njegovih grešaka.
Istu zabrinutost u vezi s principima rada AI-ja na bazi “crne kutije” dijeli i Yamout, koji to opisuje kao situacije u kojima AI donosi odluke koje je teško objasniti. “Preporuke ili zaključci koje daje AI moraju biti objašnjivi, posebno u kritičnim sektorima”, naglašava on.
Iako nude važan potencijal u obradi velikih količina podataka, AI sistemi su dobri koliko su dobri i podaci na kojima su obučeni. Mnogi sigurnosni sistemi oslanjaju se na velike količine označenih podataka, a ako su ti podaci netačni ili nedovoljni, to može znatno utjecati na performanse vještačke inteligencije.
Osim toga, AI je ranjiv i na sigurnosne napade, pri čemu zlonamjerni softver može lako prevariti sistem i narušiti njegovu efikasnost. Mnogi nisu svjesni ove opasnosti zbog zablude da su AI sistemi po svojoj prirodi sigurni. U stvarnosti, AI tehnologije su podložne istim cyber prijetnjama kao i drugi digitalni sistemi, uključujući kontaminaciju podataka i neovlašteni pristup. Osiguranje AI sistema zahtijeva robusne mjere cyber sigurnosti kako bi se zaštitila i tehnologija i podaci koje AI obrađuje.
Soliman navodi i da stalni problemi s tačnošću AI sistema, paradoksalno, mogu preopteretiti timove za sigurnost i više nego što je to bio slučaj prije uvođenja ove tehnologije. “Lažni alarmi su izvor problema jer neki cyber alati i dalje imaju značajnu stopu grešaka.” Preopterećen tim zbog toga može početi ignorisati ili odlagati odgovore na pretjerano učestala upozorenja, što povećava šansu za propuštanje stvarnih prijetnji.
Tržište AI rješenja se zagrijava
Kako AI potiče razvoj sigurnosnih rješenja, globalno tržište nadzornih tehnologija se ubrzano mijenja, podstaknuto tehnološkim napretkom i promjenjivom geopolitičkom situacijom. Za tržište AI nadzornih rješenja, koje je 2024. godine procijenjeno na 3,9 milijardi dolara, očekuje se da će do 2030. dostići vrijednost od 12,46 milijardi dolara. To bi se trebalo odvijati uz godišnju stopu rasta od 21,3%. Ovaj rast stimuliraju zahtjevi za javnom sigurnošću i inicijative za pametnim gradovima. Regija Azije i Pacifika, a posebno Indija, predvodi ovu transformaciju zahvaljujući ulaganjima u digitalnu infrastrukturu i urbanu sigurnost.
Panayiotis Kapiniaris, direktor prodaje iz Monitoreala, naglašava važnost rješavanja pitanja privatnosti u implementaciji AI-ja. “Privatnost podataka ostaje najvažniji izazov”, kaže on.
Osim toga, carinski rat između SAD-a i Kine doveo je do povećanja cijene opreme kineske proizvodnje, što je preusmjerilo potražnju prema evropskim i drugim azijskim alternativama, te naglasilo važnost rješenja koja su usklađena sa zakonima o suverenitetu podataka. Kako se AI nadzor razvija, on mijenja koncept urbane sigurnosti i pametnih domova, ali ravnoteža između inovacija, pristupačnosti i etike ostaje ključni izazov.
Iako tržišni rast ističe potencijal AI-ja u segmentu nadzora, njegova šira sigurnosna primjena otkriva i transformativne prednosti i ozbiljne rizike.
AI ili ljudska greška?
Za objektivniji razgovor o potencijalu i manama vještačke inteligencije, važno je saslušati glasove kritičara, uz svijest da klatno kritike ne ode predaleko u drugom smjeru.
Uzmimo za primjer tehnologiju prepoznavanja lica. Ona je često hvaljena kao alat za prevenciju kriminala i identifikaciju počinilaca, ali je, istovremeno, i izvor zabrinutosti među aktivistima za zaštitu građanskih sloboda. Iako se promoviše kao napredno rješenje za sigurnost, ova tehnologija je samo u SAD-u dovela do više slučajeva pogrešnih hapšenja, naročito među afroameričkom populacijom. Samo ta činjenica bila je dovoljna da potakne zahtjeve da se policiji potpuno zabrani korištenje prepoznavanja lica, jer kritičari tvrde da je ova tehnologija duboko pristrasna i sklona greškama.
Soliman na to gleda trezvenije. “Preciznost je složena stvar jer pretjerano obučeni modeli mogu propustiti prijetnje, a oni nedovoljno obučeni plaviti sistem lažnim uzbunama. Pristrasnost je minsko polje – ako hraniš sistem iskrivljenim statističkim podacima o kriminalu i AI će nepravedno ciljati određene grupe”, kaže on.
Ipak, ova priča ima i važan preokret na kraju. Zapravo, pogrešna hapšenja povezana s prepoznavanjem lica nisu isključivo rezultat grešaka vještačke inteligencije, nego i niza propusta osoblja unutar policijskog sistema. U jednom slučaju, osoba je bila uhapšena zbog krađe u prodavnici na osnovu svjedočenja zaštitara koji uopće nije bio prisutan na mjestu navodnog zločina. U drugom, loš policijski rad doveo je do pogrešnog hapšenja. Ovi primjeri pokazuju da problem ne leži samo u tehnologiji već i u pogrešnim postupcima i procjenama unutar institucija koje je koriste. Dakle, iako AI sigurno ima svojih manjkavosti, važno je da nas rasprava o tim slabostima ne zaslijepi u odnosu na širu sliku. Policijske greške koje dovode do pogrešnih hapšenja događale su se svakodnevno i mnogo prije nego što su se AI sistemi uopće počeli koristiti.
Dug put od obećanja preko rizika do napretka
Kako vještačka inteligencija mijenja mnogo toga u svijetu sigurnosti, od analitike preko videonadzora do kontrole pristupa i biometrije, pitanje koje se nameće je kako iskoristiti njen potencijal, a pri tome izbjeći zamke prenaglašenih očekivanja?
Vještačka inteligencija u oblasti sigurnosti nije ni čudesno rješenje ni prevara, nego moćan alat koji u paketu donosi i prilike i rizike. Od tragičnog neuspjeha AI-ja u srednjoj školi Antioch do prediktivnog kapaciteta koji može preoblikovati nadzor i sigurnosne strategije, priča o AI-ju obilježena je zapanjujućim uspjesima, ali i ozbiljnim promašajima.
Historijski ciklusi uzleta i padova entuzijazma u pogledu AI-ja podsjećaju na to da današnja prenaglašena očekivanja možda prethode novoj “zimi” za ovu tehnologiju. Ipak, stvarni napredak postoji, posebno u specifičnim primjenama poput prepoznavanja lica i prediktivne analitike. Kako tržište raste, a AI se širi u zdravstvo, maloprodaju i pametne gradove, izazovi se svode na pitanje kako zadržati entuzijazam i upariti ga s pažljivom analizom, kao i osigurati transparentnost, etičnost i otpornost AI sistema. Stručnjaci za sigurnost, kreatori politika i poslovni lideri moraju dati prednost ljudskom nadzoru i kvalitetnim standardima kako bi iskoristili AI a da ne postanu slijepe žrtve njegovog medijskog sjaja.
Kahler iz Eagle Eye Networksa potvrđuje takav stav, naglašavajući da AI treba biti podrška, a ne zamjena ljudskom faktoru. “Vještačka inteligencija neće, a i ne treba zamijeniti ljude. Ona je odličan pomoćnik, a ne ona koja donosi konačne odluke”, kaže on.
Slično razmišlja i Kapiniaris iz Monitoreala, koji ističe da je stvarna vrijednost AI-ja u tome što nadopunjuje ljudske sposobnosti: “Možda zvučim previše optimistično, ali uvjeren sam da sadašnji nivo AI-ja već danas omogućava izuzetno pouzdane performanse. Problem nije u nedostatku mogućnosti, već u vremenu potrebnom da se i tehnologija i ljudi razviju u pravcu potrebne kulture, infrastrukture i navika. Tek tada će se moći raditi u pravoj harmoniji.” Zato svi naši sagovornici šalju jasnu poruku: AI je moćan alat, ali ga treba koristiti s oprezom, stručnošću i jasnim razumijevanjem njegovih ograničenja.
Na kraju, o ulozi AI-ja u sigurnosti neće odlučivati sami algoritmi, već vrijednosti i prosudbe koje u vezi s ovom tehnologijom budu imali sami korisnici. Budućnost ne leži u zamjeni ljudske intuicije, već u njenom osnaživanju na promišljen i etičan način uz širom otvorene oči. Pravi napredak na planu AI-ja u sigurnosti neće doći jurcanjem za novim tehnološkim benchmarkom, već izgradnjom povjerenja, jasnoće i odgovornosti u odnosu na svaki sistem koji se implementira na terenu.
AI ide i dalje od sigurnosti
Izvan oblasti sigurnosti, AI transformira čitave sektore kroz predviđanje rizika i optimizaciju poslovanja. U zdravstvu, algoritmi prepoznaju pacijente s rizikom od padova, čime se smanjuje broj hospitalizacija. U maloprodaji, videoanalitika poboljšava raspored unutar prodavnica i korisničko iskustvo kroz analizu kretanja i zadržavanja kupaca na pojedinim mjestima. Pametni gradovi koriste AI za upravljanje saobraćajnim gužvama i raspodjelu resursa, uz integraciju nadzora s gradskim platformama.
Dr. Arijana Trkulja, voditeljica Centra za izvrsnost u kibernetičkoj sigurnost u kompaniji Ingram Micro, naglašava utjecaj AI-ja u maloprodaji i finansijama, gdje sigurnost jača i izvan sfere klasičnog nadzora. “Finansijske institucije i e-commerce platforme koriste AI za nadzor transakcija i otkrivanje znakova prevara u stvarnom vremenu”, kaže ona.
Hibridni sistemi zasnovani na kombinaciji oblaka i rubne obrade danas omogućavaju ovu transformaciju jer kombiniraju brzu analitiku na terenu s dubinskom analizom u oblaku. Otvoreni AI modeli ubrzavaju prilagođavanje rješenja, čineći ih dostupnijim širom različitih industrija. Kako bi maksimalno iskoristile AI, organizacije moraju ulagati u obuku za etičku primjenu i najbolje prakse zaštite privatnosti te osigurati besprijekornu integraciju s postojećom infrastrukturom.
Kako AI podiže kvalitet primjene i efikasnosti u zdravstvu, maloprodaji i urbanom upravljanju, njegov potencijal je ogroman, ali samo ako ga u budućnosti budu pratili odgovornost i upravljanje podacima koje ulijeva povjerenje.
Za Hansa Kahlera, operativnog direktora iz Eagle Eye Networksa, AI više nije samo marketinška fraza s primjenama izvan sigurnosti, nego praktičan alat koji već sada unapređuje operacije s jasno mjerljivim rezultatima. “AI danas rješava stvarne probleme”, kaže on, ukazujući na jedan od dugogodišnjih izazova industrije u vidu potrebe za efikasnim i brzim pregledanjem velike količine videozapisa. Umjesto da ručno prolaze kroz sate snimaka, korisnici uz Smart Video Search funkciju mogu jednostavno “unijeti pojam za pretragu, slično kao na internetu, i odmah dobiti relevantne rezultate”, kaže Kahler. Time se ne samo štedi vrijeme već omogućava brža i preciznija reakcija.
Kahler ističe i primjene poput prepoznavanja registarskih oznaka (LPR), obavještenja o neuobičajenom ponašanju i analitike koja prati prometne obrasce i poštivanje sigurnosnih procedura. Ovo nisu funkcije iz budućnosti jer su već danas u upotrebi.