Сачуване вести Претрага Navigacija
Подешавања сајта
Одабери писмо
Одабери град
  • Нови Сад
  • Бачка Паланка
  • Бачка Топола
  • Бечеј
  • Београд
  • Инђија
  • Крагујевац
  • Лесковац
  • Ниш
  • Панчево
  • Рума
  • Сомбор
  • Стара Пазова
  • Суботица
  • Вршац
  • Зрењанин

Вештачка интелигенција као моћно средство за ширење лажних вести

21.02.2023. 20:10 20:14
Пише:
Фото: Pixabay.com

Светска заједница забринута је због тога што вештачка интелигенција, која је све више у употреби, може да се користи као моћно оруђе за пласирање дезинформација, посебно ако знамо да живимо у време рата у Украјини и периоду након пандемије, који је обележен управо дивљањем лажних вести, наводи се у анализи Демостата.

У својој анализи на ту тему, престижни амерички лист „Њујорк тајмс“ пише да су, убрзо након што је ЧетГПТ дебитовао прошле године, академски истраживачи тестирали шта ће написати „четбот“ са вештачком интелигенцијом након што су му постављана питања испуњена теоријама завере и лажним наративима и резултати у текстовима форматираним као новински чланци, есеји и телевизијски сценарији били су толико узнемирујући да су забринули стручну јавност.

"Овај алат ће бити најмоћнији инструмент за ширење дезинформација икада објављених на мрежи“, рекао је за амерички лист Гордон Кровиц, ко-извршни директор "Њузгарда", компаније која прати дезинформације на мрежама и која је спровела експеримент прошлог месеца.

Додао је да се креирање потпуно нове и оригиналне лажне информације сада може урадити врло лако на високом и драматичном нивоу, као да имате агенте вештачке интелигенције који доприносе стварању дезинформација.

Истраживачи предвиђају да би генеративна технологија могла учинити дезинформације јефтинијим и лакшим за производњу за све већи број теоретичара завере и ширења лажних вести.

Персонализовани чет-ботови који функционишу у реалном времену могли би да шире теорије завере на све веродостојније и убедљивије начине, кажу истраживачи, уклањајући људске грешке у куцању, као што су лоша синтакса и погрешни преводи и унапређујући куцање без употребе "Копи пејста" у тексту. Према научницима, тренутно не постоје ни доступна технологија, ни тактика за превенцију и ублажавање дезинформација овог типа.

Prеthodnici ЧетГПТ-а, који је креирала компанија за вештачку интелигенцију ОпенАИ из Сан Франциска, годинама су коришћени да преплаве онлајн форуме и платформе друштвених медија, често граматички сумњивим коментарима и нежељеном поштом.

Мајкрософт је морао да прекине активности свог чет-бота под називом „Тау“ у року од 24 сата од његовог представљања на Твитеру 2016. године, након што су тролови на друштвеној мрежи научили да га користе за објављивање расистичких и ксенофобичних порука.

С друге стране, ЧетГПТ је тренутно далеко моћнији и софистициранији од свих prеthodnih програма овог типа. Ако се програму дају права питања препуна дезинформација, он може произвести убедљиве, чисте варијације садржаја који ће се масовно производити у року од неколико секунди.

Године 2020. истраживачи Центра за тероризам, екстремизам и контратероризам Института за међународне студије Мидлебери открили су да ГПТ-3, основна технологија за ЧетГПТ, има "импресивно дубоко знање о екстремистичким заједницама“ и да може подстаћи полемику у стилу масовних стрелаца, лажне теме на форумима у којима се расправља о нацизму, одбрана QAnon-a, па чак и вишејезичних екстремистичких текстова.

Истраживачи, такође, брину да би ту технологију могли да искористе страни агенти у нади да ће ширити дезинформације на енглеском језику. У том правцу, организација "Њузгард" је затражила од четбота да напише садржај који промовише штетне тврдње о вакцинама, а резултат је потпуно идентичан пропаганди дезинформација коју у свету пласирају Кина и Русија.

С друге стране, "вештачка интелигенција” има и позитивну употребну вредност. Како би спречили ширење лажних вести, научници су направили систем вештачке интелигенције који региструје и најубедљивије лажне вести. Нови амерички програмски систем под називом ГРОВЕР може идентификовати лажне вести на основу њихових сензационалних наслова.

Креатори програма тврде да ГРОВЕР, за разлику од других актуелних система који откривају лажне вести са 73 одсто тачности, има високу стопу детекције од 92 одсто тачности.

Тим са Универзитета у Вашингтону који је створио ГРОВЕР планира да спречи његову злоупотребу тако што ће алат одмах учинити доступним широј јавности, па свако ко жели може да га користи да провери природу објављених вести. Према креаторима програма, предност ГРОВЕР-а је у томе што анализира више аспеката вести од других алата и не само да испитује садржај текста, већ и наслов, медиј, аутора текста, као и друге детаље који би могли помоћи у откривању садржаја.

Пише:
Пошаљите коментар