
Човјек којег многи називају кумом вјештачке интелигенције дао је отказ и упозорио “на све веће опасности од развоја на пољу АИ-а”. Џефри Хинтон (75) најавио је оставку у Гуглу у интервјуу за Њујорк Тајмс, рекавши да сада жали због свог рада.
За BBC је рекао да су неке од опасности AI chatbota “прилично застрашујуће”.
“Тренутно нису интелигентнији од нас, колико ја видим. Али мислим да би ускоро могли бити”, рекао је.
Пионирско истраживање др. Хинтона о дубоком учењу и неуронским мрежама отворило је пут за садашње AI системе попут ChatGPT-a.
Но, британско-канадски психолог и информатичар рекао је за ББЦ да би цхатбот ускоро могао престићи ниво информација коју чува људски мозак.
“Управо сада видимо да ствари попут GPT-4 засјењују особу у количини општег знања које има. У смислу резоновања, није тако добро, али већ јесте у смислу једноставних образложења. С обзиром на брзину напретка, очекујемо да ће прилично брзо постати све бољи. Стога морамо бити забринути”, рекао је за BBC.
“Погледајте како је било прије пет година, а како је сада. Погледајте колики је то искорак, а даље га ширите. То је застрашујуће”, истакао је.
Хинтон је рекао да такмичење између технолошких дивова тјера компаније да производе нове AI технологије опасним брзинама, угрожавајући радна мјеста и ширећи дезинформације.
“Тешко је видјети како можете спријечити лоше актере да то искористе за лоше ствари”, рекао је за Тимес.
“Сценариј из ноћне море”
У чланку у Њујорк Тајмсу Хинтон је спомињао “лоше људе” који би покушали користити AI за “лоше ствари”. Када га је BBC упитао да то појасни, одговорио је: “Ово је само врста најгорег могућег сценарија, врста сценарија из ноћне море. Можете замислити, на примјер, неког попут руског предсједника Владимира Путина који је одлучио дати роботима могућност стварања властитих под-циљева.”
Научник је упозорио да би то на крају могло “створити подциљеве попут ‘Морам добити више снаге’”. “Дошао сам до закључка да се врста интелигенције коју развијамо јако разликује од интелигенције коју имамо. Ми смо биолошки системи, а ово су дигитални системи. А велика је разлика у томе што с дигиталним системима имате много копија истог модела свијета”, рекао је.
“И све те копије могу учити засебно, али одмах дијеле своје знање. Дакле, то је као да имате 10.000 људи и кад год једна особа нешто научи, сви то аутоматски знају. И тако ти цхатботови могу знати много више од било које особе”, закључује.
Радна мјеста и ширење дезинформација
Иако се вјештачка интелигенција користи за подршку људским радницима, брзо ширење цхатбота попут ChatGPT-а могло би угрозити радна мјеста. AI “одузима тежак посао”, али “може одузети више од тога”, рекао је за Тајмс. Научник је упозорио на потенцијално ширење дезинформација које ствара AI, рекавши за Тимес да просјечна особа “више неће моћи знати што је истина”.
Хинтон је такође рекао да постоји неколико других разлога због којих је дао отказ. “Један је тај дан имам 75 година. Дакле, вријеме је за пензију. Други је – заправо желим рећи неке добре ствари о Гооглеу. А оне су вјеродостојније ако не радим за Гоогле”, каже.
Нагласио је да не жели критиковати Гоогле те да је технолошки див био “врло одговоран”.
Џеф Дин, водећи научник за Google AI, захвалио је Хинтону у изјави америчким медијима. “Као једна од првих компанија која је објавила начела вјештачке интелигенције, остајемо предани одговорном приступу вјештачкој интелигенцији”, додаје се у изјави.
“Непрекидно се учимо суочавати с новим ризицима, док истовремено храбро унапређујемо”, истакнуо је.
Позив на паузу у развоју AI-а
У марту су технолошки милијардер Елон Мaск и низ стручњака позвали на паузу у развоју АИ система како би се омогућило вријеме у којему би се провјерило и увјерило јесу ли сигурни.
Отворено писмо, које је потписало више од 1000 људи, укључујући Муска и суоснивача Apple-a Стива Возниака, подстакло је издавање GPT-4, пуно моћније верзије технологије коју користиChatGPT. Хинтон у то вријеме није потписао то писмо, али је за Њујорк Тајмс рекао да научницу не би требали “повећати ово док не схвате могу ли то контролисати”.