
Да ли је већ почео обрачун човвечанства са вештачком интелигенцијом или само бесни рат неистомишљеника?
Тешко је проценити у којој је мери интелектуално забавна, а у којој застрашујућа брзина којом се развија расправа за и против вештачке интелигенције.
При томе треба обратити пажњу да се вештачка интелигенција тренутно (барем за сада) прихвата мирољубиво, док су поједини експерти за тему вештачке интелигенције већ почели да предлажути нуклеарне ударе како би се хитно зауставио њен развој. Нејасно је како би на то требало да одговоре поборници развоја вештачке интелигенције; нуклеарним ударима или пак конвенционалним истрагама те хапшењима? Исто тако треба приметити како је нарастао број оних који заговарају теорије смака света који ће намерно или грешком узроковати вештачка интелигенција. Чека ли увештачку памет историјско раздобље ас каквим се суочавала људска у доба инквизиције или се ту ипак ради само о ‘добром старом‘ сукобу човека против човека? Колико је АИ уопште опасна?
Експерт за вештачку интелигенцију (АИ) Елиезер Јудковски између осталог је у часопису Тиме предложио превентивне нуклеарне нападе на тзв. ЦПУ кластере – велике ‘фарме‘ компјутера пресудне за функционисање АИ решења – уколико се мораторијум на развој вештачке интелигенције не осигура уобичајеним политичким и дипломатским путем. Пре тога би покушао конвенционални зрачни војни напад на компјутерске ‘фарме‘ државе која одбије да заустави развој АИ, али морамо бити сигурни “..да су савезничке нуклеарне земље спремне да се изложе одређеном ризику нуклеарне размене ако је то оно што је потребно за смањење ризика од развоја АИ-ја”.
Јудковски, иначе амерички теоретичар доношења одлука који се у филозофији бави етиком својевољно је популаризовао ‘пријатељску‘ АИ те је суоснивач и истраживач Мацхине Леарнинг Ресеарцх Института у Беркелеју, а његов рад на питању експлозије утицаја АИ-а имао је значајан утицај на славну књигу Ника Бострома “Суперинтеллигенце: Патхс, Дангерс, Стратегиес”.
Колико год се не чини интелигентним предлагати превентивни нуклеарни напад на, рецимо, Кину, уколико не пристане на хипотетички међународни споразум о заустављању развоја вештачке интелигенције, за Јудковског се не може рећи да није добро упућен, него чак да располаже вишком информација. Па ипак, остаје доследан око тезе како би човечанство због вештачке интелигенције требало бити спремно на најрадикалније потезе.
Упитан на друштвеним мрежама да ли би одобравао нуклеарни напад на АИ инфраструктуру, он је само потврдио како би прво ипак кренуо са конвенционалним зрачним нападом.
Тек када је добио више јавних критика због зазивања нуклеарног обрачуна како би се по сваку цену зауставила вештачка интелигенција, Јудковски је путем Твитера поручио како његов чланак у Тиме-у не сугерише нуклеарне ударе, иако је потпуно јасно да их је експлицитно предлагао.
Укратко, Јудковски се толико боји АИ-а да свима објашњава како је њено ширење Земљом једнако смрти свих људи, што је пак тешко остварити без нуклеарне размене.
Додајмо и чињеницу да Јудовски није усамљен у тези да је брзи развој вештачке интелигенције превише опасан. Велики број најугледнијих научника-истраживача и пословних лидера, међу којима и Илон Маск, већ су потписало отворено јавно писмо које тражи заустављање развоја АИ на најмање шест месеци.






