Сачуване вести Претрага Navigacija
Подешавања сајта
Одабери писмо
Одабери град
  • Нови Сад
  • Бачка Паланка
  • Бачка Топола
  • Бечеј
  • Београд
  • Инђија
  • Крагујевац
  • Лесковац
  • Ниш
  • Панчево
  • Рума
  • Сомбор
  • Стара Пазова
  • Суботица
  • Вршац
  • Зрењанин

Творци Chat GPT-4 предлажу међународног регулатора за вештачку интелигенцију

24.05.2023. 09:16 09:20
Пише:
Фото: freeimages.com

ВАШИНГТОН: Тим програмера компаније Опен АИ, који стоји иза Чет Џи Пи Ти-4 (Chat ГПТ-4), позвао је на регулисање  вештачке интелигенције, уз тврдњу да је потребан еквивалент Међународној агенцији за атомску енергију да би се човечанство заштитило од ризика да случајно створи нешто што би могло да га уништи.

У краткој објави на  сајту  Опен АИ, компаније која је развила напредни систем вештачке интелигенције, њени суоснивачи позивају међународног регулатора да почне да ради на томе како да „врши инспекцију система, захтева ревизије, тестира усаглашеност са безбедносним стандардима и поставља ограничења на степене примене и нивое безбедности“ како би се смањио „егзистенцијални ризик“ који такви системи могу представљати, преноси Гардијан.

„Могуће је да у наредних 10 година системи вештачке интелигенције надмаше ниво вештина стручњака у већини домена и да обављају исто толико продуктивних активности као једна од највећих корпорација данашњице“, пишу они. 

Према њиховим речима "у погледу потенцијалних предности и недостатака, суперинтелигенција ће бити моћнија од других технологија са којима се човечанство морало борити у прошлости".

Можемо имати драматично просперитетнију будућност, али морамо да управљамо ризиком да бисмо тамо стигли, поручили су творци Chat ГПТ.

Краткорочно гледано, они позивају на „известан степен координације“ међу компанијама које раде на најсавременијим истраживањима вештачке интелигенције, како би се осигурало да се развој све моћнијих модела несметано интегрише у друштво, уз давање приоритета безбедности.

Та координација би према њиховом предлогу могла да дође кроз пројекат који води влада, на пример, или кроз колективни уговор за ограничавање раста способности вештачке интелигенције.

Истраживачи  деценијама упозоравају на потенцијалне ризике од суперинтелигенције, али како се развој вештачке интелигенције убрзао, ти ризици су постали конкретнији, наводи Гардијан.

Пише:
Пошаљите коментар