Sačuvane vesti Pretraga Navigacija
Podešavanja sajta
Odaberi pismo
Odaberi grad
  • Novi Sad
  • Bačka Palanka
  • Bačka Topola
  • Bečej
  • Beograd
  • Inđija
  • Kragujevac
  • Leskovac
  • Niš
  • Pančevo
  • Ruma
  • Sombor
  • Stara Pazova
  • Subotica
  • Vršac
  • Zrenjanin

DOBAR DAN, JA SAM ČETBOT! Stupio na snagu evropski ZAKON O VEŠTAČKOJ INTELIGENCIJI koji donosi novi pogled na AI

04.08.2024. 15:03 15:11
Piše:
Izvor: Pixabay

Prvi zakon o veštačkoj inteligenciji na svetu – Zakon o veštačkoj inteligenciji Evropske unije (AI Act) zvanično je stupio na snagu u četvrtak, označavajući najnoviju prekretnicu u naporima ovog ekonomskog i političkog bloka da reguliše tu tehnologiju. 

Podsetimo, Evropski parlament je usvojio Zakon o veštačkoj inteligenciji u martu ove godine, a Savet je dao odobrenje u maju. Ovaj pravni akt zaprtavo predstavlja sveobuhvatan pravilnik za upravljanje veštačkom inteligencijom u Evropi, ali bi mogao da posluži i kao vodič za druge vlade koje još uvek pokušavaju da uspostave smernice za ovu brzo napredujuću tehnologiju. I mada Srbija nije članica EU, svoja akta prilagođava donetim aktima Unije, tako da se uskoromože očekivati i srpska verzija AI Acta.

Zvaničnici kažu da će AI Act zaštititi „osnovna prava“ građana u Evropskoj uniji, ali i da će ova rešenja podsticati investicije i inovacije u rastućoj industriji veštačke inteligencije. Kako? Zakon o veštačkoj inteligenciji pokriva, naime, svaki proizvod ili uslugu ponuđenu u EU koja koristi veštačku inteligenciju, bilo da je to platforma iz tehnološkog giganta iz Silicijumske doline ili lokalni startap. Ograničenja se baziraju na četiri nivoa rizika, a očekuje se da će velika većina AI sistema spadati u kategoriju niskog rizika, poput sistema za preporuku sadržaja ili filtera za spam.

– Evropski pristup tehnologiji stavlja ljude na prvo mesto i osigurava da su prava svih očuvana – tvrdi izvršna potpredsednica Evropske komisije Margret Vestager. – Evropska unija je s AI Actom preduzela važan korak kako bi osigurala da prihvatanje AI tehnologije poštuje pravila EU na tlu Evrope.

Ilustracije radi, AI sistemi koji predstavljaju „neprihvatljiv rizik“, poput sistema za socijalno ocenjivanje koji utiču na ponašanje ljudi, nekih vrsta prediktivne policijske procene i sistema za prepoznavanje emocija u školama i na radnim mestima, biće potpuno zabranjeni do februara. Pravila pak koja pokrivaju takozvane AI modele opšte namene, kao što je OpenAI-ov jezički model GPT-4, stupiće na snagu do avgusta 2025.

OpenAI je u blog postu čak saopštio da je „posvećen usklađivanju sa AI Actom i da će blisko sarađivati sa novom evropskom AI kancelarijom u Briselu dok se zakon bude implementirao.“ Ovo u praksi znači da će odgovori na naša pitanja biti usklađivani sa direktivama Zakona, tako da ne narušavaju lična prava ni korisnika, ni ljudi o kojima je GPT-4 dobio upit.

Podsetimo se, u osvit razvoja veštačke inteligencije, dešavali su se „gličevi“, poput AI fotografija mladih ljudi razne boje kože u nacističkim uniformama, dipfejk aplikacija u kojima ste bukvalno svakog mogli da postavite u smešan ili kompromitujući video, zasipanja AI sistema pogrešnim informacijama, tako da korisnicima prosledi odgovor na osnovu tih informacija umesto pravih izvora... 

Takođe, četbotovi od sad moraju informisati korisnike o tome da komuniciraju s mašinom, a sadržaj generisan veštačkom inteligencijom, poput dipfejkova, mora biti jasno označen. Drugim rečima, ako na sajtu banke komunicirate sa četbotom, moraće da vam se pojavi obaveštenje da je u pitanju AI, a mediji će, ako generišu neku fotografiju, iskamče od OpenAI tekst ili naprave video uz pomoć veštačke inteligencije, morati da AI navedu kao izvor.

Do sredine 2026. godine kompletan set regulativa, uključujući ograničenja za AI visokog rizika kao što su sistemi koji odlučuju ko dobija kredit ili koji upravljaju autonomnim robotima, biće na snazi, kažu odrednice. Kompanije koje se ne pridržavaju pravila suočavaju se sa kaznama u iznosu do sedam odsto njihovog godišnjeg globalnog prihoda, a kad tome dodate tužbe (ako ste povredili i nečija prava, recimo, objavljujući njihovu lažnu fotografiju), potpisivaćete i gde treba i gde ne treba. Ostaje da se vidi kako će na ovo reagovati vlasnici društvenih mreža, smeštenih prvenstveno u SAD, ali i u Kini (TikTok) i da li će svoju politiku ponašanja prilagoditi ovoj legislativi.

Novo je i da će sistemi veštačke inteligencije koji predstavljaju pretnju za ljude biti zabranjeni. Oni uključuju kognitivnu i bihevioralnu manipulaciju ljudi ili specifičnih ranjivih grupa: na primer, glasovno aktivirane igračke koje podstiču opasno ponašanje kod dece. Zabranjena je i klasifikacija ljudi na osnovu ponašanja, socio-ekonomskog statusa ili ličnih karakteristika, kao i biometrijska identifikacija i kategorizacija ljudi, među kojima su sistemi za biometrijsku identifikaciju u realnom vremenu i na daljinu, kao što je prepoznavanje lica. No, ne brinite, ovi sistemi biće dozvoljeni u ograničenom broju ozbiljnih slučajeva, dok će „post” sistemi za biometrijsku identifikaciju na daljinu, gde se identifikacija obavlja nakon značajnog odlaganja, biti dozvoljeni za gonjenje ozbiljnih zločina i samo nakon odobrenja suda. Dakle, može da se beleži, ne sme da se koristi i objavi, slično našim medicinskim kartonima.

- AI će se sve više koristiti u sistemima kritičnim za sigurnost - kaže za „Dnevnik” dr Lilijan Balatsu, ekspertkinja za jezik veštačke inteligencije i savetnica Vodafona, ističući da će razvoj veštačke inteligencije imati značajan uticaj pre svega na oblasti telekomunikacije, bankarstva i digitalne transformacije. - AI sistemi su etički neutralni, inherentno zavisni od podataka i odluka koje mogu biti pristrasne. Zbog toga veštačka inteligencija može postati nesigurna. Pristrasnost u algoritmima, dipfejkovi i pretnje privatnosti mogu dovesti do sigurnosnih proboja. Osim toga, sajberkriminalci mogu koristiti dipfejkove da se predstavljaju kao izvršni direktori ili druge pouzdane ličnosti, obmanjujući zaposlene da otkriju osetljive informacije ili odobre lažne transakcije. U medijima i na društvenim mrežama, recimo, dipfejkovi se mogu koristiti za kreiranje lažnih vesti i propagande, te manipulaciju javnim mnjenjem. Na kraju, zbog straha od mašinerije laži, ugrožava se sloboda govora, jer  ljudi postaju nevoljni da veruju bilo čemu što dolazi iz sajber prostora, pa čak i životno važnim informacijama.

Ivana Radoičić

Autor:
Pošaljite komentar