Очекује се да ће генеративна вјештачка интелигенција револуционисати начин на који људи раде или проналазе информације на мрежи
ТеасерУспон виртуелног саговорника за „чаврљање“, четбота, који је сабласно сличан човеку, подстакао је дискусију о томе која су правила потребна за вјештачку интелигенцију и ко може да их одређује.
Ко треба да напише правила за доба вјештачке интелигенције? Ако то питање добије један од најпознатијих система вјештачке интелигенције данашњице, ЦхатГПТ, он ће вам рец́и да је – па, компликовано је: „Постоји много различитих гледишта о том питању“, одговор је четбота који је развила технолошка компанија ОпенАИ из Сан Франциска.
„Као језички модел вјештачке интелигенције, немам лична мишљења, увјерења или предрасуде“, одговара ЦхатГПТ. Али напори би, додаје, требало да „укључују доприносе различитог спектра заинтересованих страна, укључујући стручњаке из области вјештачке интелигенције, представнике других релевантних области као што су право, етика и политика, заинтересоване заједнице, цивилно друштво и владу“.
Лилијен Едвардс, професорка за право, иновације и друштво на Универзитету Њукасл, за ДЊ каже да се „не слаже“ са процјеном четбота. „Али додала бих да правила треба да буду обавезујућа.“
У року од неколико мјесеци, ЦхатГПТ постао је најистакнутији представник нове генерације „генеративних“ система вјештачке интелигенције. Други се зову ЛаМДА, ДАЛЛ-Е или Стабле Диффусион. Програми производе темељно нове текстове, кодове, слике или чак видео-записе. Резултати су толико убједљиви да је често немогуће рец́и да ли их је створио човјек или машина.
Очекује се да ће генеративна вјештачка интелигенција револуционисати начин на који људи раде или проналазе информације на мрежи. Али, појавио се и страх да би милиони људи могли остати без посла или да би систем могао да буде злоупотребљен за дезинформације. То је изазвало дебату о неопходним правилима.
„Потребна нам је регулатива“, каже професорка Едвардс. То би значило и примјену постојећег законодавства и израду нацрта нових закона за вјештачку интелигенцију. Истовремено, она указује да програми попут ЦхатГПТ доминирају насловима, али они „нису тек ствар на мрежи која се дешава унутар вјештачке интелигенције. Постоји реална опасност да доминантношћу у конверзацији угуше наш глас.“
Успон вјештачке интелигенције
Истраживање вјештачке интелигенције почело је педесетих година прошлог вијека, али су тек почетком прошле деценије инжењери почели да уграђују вјештачку интелигенцију у свакодневне апликације. Током последњих неколико година, системи су бивали све бољи у креирању потпуно нових садржаја.
Ти пробоји су, међутим, у великој мјери остали непримјећени у јавности, све док крајем новембра 2022. ОпенАИ није представио прототип ЦхатГПТ. Једноставан је за коришћење, све што треба да урадите јесте да унесете захтјев. Затражите, на примјер, резиме „Фауста“ Јохана Волфганга Гетеа у стилу четрнаестогодишњака и четбот ће да испљуне текст који гласи као да га је написао тинејџер. Замолите систем да напише исти текст у стилу Олдоса Хакслија и добићете га у стилу прозе 20. вијека.
Тако је први пут софистицирани алат вјештачке интелигенције постао доступан на бесплатном сајту, што је подстакло дебату о томе шта би успон генеративне вјештачке интелигенције могао да значи за људску креативност. Професори су оплакивали „смрт есеја на факултету“. Новине су најавиле да ће користити софтвер да помогну својим новинарима да пишу вијести.
Џоана Брајсон, професорка етике и технологије на приватном берлинском факултету Херти (Хертие Сцхоол), нагласила је важност подизања свијести о томе како функционишу системи вјештачке интелигенције, на примјер, укључивањем у школске наставне планове и програме – како би се помогло људима да развију разумијевање начина комуницирају с технологијом која изгледа као да је човјек, али није.
„Вољела бих да видим да ђеца то уче у школи, а затим да оду кући и испричају родитељима о томе“, рекла је она за ДЊ.
Министарка образовања у Сјеверној Рајни-Вестфалији Дороте Фелер, најавила је да планира конкретне кораке. Министарство нема на уму забрану вјештачке интелигенције у школама, већ ради на упутствима за наставнике да заузму „конструктивно критички поглед“ на могуц́ности таквог софтвера за наставу.
Ствар научне фантастике?
Међутим, почетна еуфорија се погоршала када је у фебруару амерички технолошки гигант Мицрософт објавио да је опремио свој претраживач Бинг напредном верзијом ЦхатГПТ и дозволио групи тестера да се поиграју са њим. Убрзо након тога, објавили су снимке застрашујућих дијалога у којима је четбот постао борбен, називао се „Сидни“ или изразио жељу да буде човјек.
Стручњаци су пожурили да објасне како четбот није способан да има емоције. Умјесто тога, та технологија примјењује анализу огромних количина текста. То систем чини невјероватно добрим у погађању која ријеч треба да прати претходну. Он то ради толико добро да звучи као емоционално људско биће.
Ипак, инциденти су изазвали негодовање јавности на друштвеним мрежама. Професорка етике Џоана Брајсон каже да су људи схватили да је све теже разликовати људска бића од креација система вјештачке интелигенције. То искуство је „нешто потпуно ново“. Па ипак, она сматра да су „правила која препоручујемо вец́ деценију и даље довољна“.
Од средине прошле деценије стотине институција — од свјетских технолошких гиганата, до Католичке цркве или међународних организација попут Уједињених нација — објавиле су необавезујуће смјернице о томе како да се одговорно развија и користи вјештачка интелигенција. Ти текстови су највјероватније и били извори које је ЦхатГПТ користио за извођење закључака цитираних на почетку чланка.
Али, како технологија брзо напредује, сада постоји консензус да добровољне смјернице саме по себи неће бити довољне, каже правница Лилијен Едвардс.
Владе широм свијета вец́ годинама раде на законодавству. Преглед Организације за економску сарадњу и развој (ОЕЦД) наводи политичке иницијативе у преко 65 земаља, од Аргентине, до Узбекистана. Ипак, само неколико их је до сада поштовало строге законе. Кина је значајан изузетак, јер је прошле године објавила закон о вештачкој интелигенцији.
На Западу су све очи упрте у ЕУ. Европска унија, која се често сматра предводницом у регулативи, почела је још 2018. рад на „Закону о вјештачкој интелигенцији“. Пет година касније, институције Уније треба да почну завршну расправу. То би могло да доведе до законске обавезе компанија да открију клијентима кад год заправо разговарају са софтвером као што је ЦхатГПТ.
„Нисмо далеко од потенцијално страшнијих алата“
Стручњаци попут Едвардсове упозоравају међутим да је генеративна интелигенција само врх леденог брега. Компаније и јавне институције одавно су почеле да користе сличну технологију машинског учења за аутоматизацију одлука у другим областима, од наџора, до кривичног правосуђа, гђе је ризик од трајне штете још већи.
Занимљиво је да је и сам извршни директор компаније која је створила ЦхатГПТ издао слично упозорење. Сем Алтман из ОпенАИ написао је на Твитеру средином фебруара: „Иако алати за вештачку интелигенцију тренутне генерације нису много страшни, мислим да вјероватно нисмо толико далеко од потенцијално страшнијих.“
У Европској унији предстојец́и правилник о вјештачкој интелигенцији укључиће посебно строга правила за „високо ризичне апликације“, како би се између осталог обезбиједило да вјештачка интелигенција не дискриминише угрожене мањине. Званичници у Бриселу се надају да ће закони ЕУ постати „златни стандард“ за регулацију вјештачке интелигенције и да ће их копирати владе широм свијета.