Сачуване вести Претрага Navigacija
Подешавања сајта
Одабери писмо
Одабери град
  • Нови Сад
  • Бачка Паланка
  • Бачка Топола
  • Бечеј
  • Београд
  • Инђија
  • Крагујевац
  • Лесковац
  • Ниш
  • Панчево
  • Рума
  • Сомбор
  • Стара Пазова
  • Суботица
  • Вршац
  • Зрењанин

ДОБАР ДАН, ЈА САМ ЧЕТБОТ! Ступио на снагу европски ЗАКОН О ВЕШТАЧКОЈ ИНТЕЛИГЕНЦИЈИ који доноси нови поглед на AI

04.08.2024. 15:03 15:11
Пише:
Фото: Pixabay

Први закон о вештачкој интелигенцији на свету – Закон о вештачкој интелигенцији Европске уније (АИ Ацт) званично је ступио на снагу у четвртак, означавајући најновију прекретницу у напорима овог економског и политичког блока да регулише ту технологију. 

Подсетимо, Европски парламент је усвојио Закон о вештачкој интелигенцији у марту ове године, а Савет је дао одобрење у мају. Овај правни акт запртаво представља свеобухватан правилник за управљање вештачком интелигенцијом у Европи, али би могао да послужи и као водич за друге владе које још увек покушавају да успоставе смернице за ову брзо напредујућу технологију. И мада Србија није чланица ЕУ, своја акта прилагођава донетим актима Уније, тако да се ускороможе очекивати и српска верзија АИ Ацта.

Званичници кажу да ће АИ Ацт заштитити „основна права“ грађана у Европској унији, али и да ће ова решења подстицати инвестиције и иновације у растућој индустрији вештачке интелигенције. Како? Закон о вештачкој интелигенцији покрива, наиме, сваки производ или услугу понуђену у ЕУ која користи вештачку интелигенцију, било да је то платформа из технолошког гиганта из Силицијумске долине или локални стартап. Ограничења се базирају на четири нивоа ризика, а очекује се да ће велика већина АИ система спадати у категорију ниског ризика, попут система за препоруку садржаја или филтера за спам.

– Европски приступ технологији ставља људе на прво место и осигурава да су права свих очувана – тврди извршна потпредседница Европске комисије Маргрет Вестагер. – Европска унија је с АИ Ацтом предузела важан корак како би осигурала да прихватање АИ технологије поштује правила ЕУ на тлу Европе.

Илустрације ради, АИ системи који представљају „неприхватљив ризик“, попут система за социјално оцењивање који утичу на понашање људи, неких врста предиктивне полицијске процене и система за препознавање емоција у школама и на радним местима, биће потпуно забрањени до фебруара. Правила пак која покривају такозване АИ моделе опште намене, као што је ОпенАИ-ов језички модел ГПТ-4, ступиће на снагу до августа 2025.

ОпенАИ је у блог посту чак саопштио да је „посвећен усклађивању са АИ Ацтом и да ће блиско сарађивати са новом европском АИ канцеларијом у Бриселу док се закон буде имплементирао.“ Ово у пракси значи да ће одговори на наша питања бити усклађивани са директивама Закона, тако да не нарушавају лична права ни корисника, ни људи о којима је ГПТ-4 добио упит.

Подсетимо се, у освит развоја вештачке интелигенције, дешавали су се „гличеви“, попут АИ фотографија младих људи разне боје коже у нацистичким униформама, дипфејк апликација у којима сте буквално сваког могли да поставите у смешан или компромитујући видео, засипања АИ система погрешним информацијама, тако да корисницима проследи одговор на основу тих информација уместо правих извора... 

Такође, четботови од сад морају информисати кориснике о томе да комуницирају с машином, а садржај генерисан вештачком интелигенцијом, попут дипфејкова, мора бити јасно означен. Другим речима, ако на сајту банке комуницирате са четботом, мораће да вам се појави обавештење да је у питању АИ, а медији ће, ако генеришу неку фотографију, искамче од ОпенАИ текст или направе видео уз помоћ вештачке интелигенције, морати да АИ наведу као извор.

До средине 2026. године комплетан сет регулатива, укључујући ограничења за АИ високог ризика као што су системи који одлучују ко добија кредит или који управљају аутономним роботима, биће на снази, кажу одреднице. Компаније које се не придржавају правила суочавају се са казнама у износу до седам одсто њиховог годишњег глобалног прихода, а кад томе додате тужбе (ако сте повредили и нечија права, рецимо, објављујући њихову лажну фотографију), потписиваћете и где треба и где не треба. Остаје да се види како ће на ово реаговати власници друштвених мрежа, смештених првенствено у САД, али и у Кини (ТикТок) и да ли ће своју политику понашања прилагодити овој легислативи.

Ново је и да ће системи вештачке интелигенције који представљају претњу за људе бити забрањени. Они укључују когнитивну и бихевиоралну манипулацију људи или специфичних рањивих група: на пример, гласовно активиране играчке које подстичу опасно понашање код деце. Забрањена је и класификација људи на основу понашања, социо-економског статуса или личних карактеристика, као и биометријска идентификација и категоризација људи, међу којима су системи за биометријску идентификацију у реалном времену и на даљину, као што је препознавање лица. Но, не брините, ови системи биће дозвољени у ограниченом броју озбиљних случајева, док ће „пост” системи за биометријску идентификацију на даљину, где се идентификација обавља након значајног одлагања, бити дозвољени за гоњење озбиљних злочина и само након одобрења суда. Дакле, може да се бележи, не сме да се користи и објави, слично нашим медицинским картонима.

- АИ ће се све више користити у системима критичним за сигурност - каже за „Дневник” др Лилијан Балатсу, експерткиња за језик вештачке интелигенције и саветница Водафона, истичући да ће развој вештачке интелигенције имати значајан утицај пре свега на области телекомуникације, банкарства и дигиталне трансформације. - АИ системи су етички неутрални, инхерентно зависни од података и одлука које могу бити пристрасне. Због тога вештачка интелигенција може постати несигурна. Пристрасност у алгоритмима, дипфејкови и претње приватности могу довести до сигурносних пробоја. Осим тога, сајберкриминалци могу користити дипфејкове да се представљају као извршни директори или друге поуздане личности, обмањујући запослене да открију осетљиве информације или одобре лажне трансакције. У медијима и на друштвеним мрежама, рецимо, дипфејкови се могу користити за креирање лажних вести и пропаганде, те манипулацију јавним мњењем. На крају, због страха од машинерије лажи, угрожава се слобода говора, јер  људи постају невољни да верују било чему што долази из сајбер простора, па чак и животно важним информацијама.

Ивана Радоичић

Пише:
Пошаљите коментар