Компјутерскиот научник кој се смета за „кум на вештачката интелигенција“ вели дека владата ќе мора да воспостави универзален основен приход за да се справи со влијанието на вештачката интелигенција врз нееднаквоста.
Професор Џефри Хинтон изјави за BBC Newsnight дека ќе биде потребна реформа за бенефиции со фиксни износи на готовина за секој граѓанин бидејќи тој е „многу загрижен поради тоа што вештачката интелигенција ќе преземе многу секојдневни работни места“.
„Ме консултираа луѓе во Даунинг стрит и ги советував дека универзалниот основен приход е добра идеја“, рече тој.
Тој рече дека иако чувствува дека вештачката интелигенција ќе ја зголеми продуктивноста и богатството, парите ќе одат кај богатите „а не кај луѓето чии работни места ќе се изгубат и тоа ќе биде многу лошо за општеството“.
Професорот Хинтон е пионер на невронските мрежи, кои ја формираат теоретската основа на сегашната експлозија во вештачката интелигенција.
До минатата година работеше во Google, но го напушти технолошкиот гигант за да може послободно да зборува за опасностите од нерегулираната вештачка интелигенција.
Концептот на универзален основен приход значи дека владата на сите поединци им плаќа одредена плата без оглед на нивните можности.
Критичарите велат дека тоа би било исклучително скапо и би го пренасочило финансирањето од јавните услуги, додека не мора да помогне во ублажувањето на сиромаштијата.
Владиниот портпарол рече дека „нема планови за воведување универзален основен приход“.
Професорот Хинтон ја повтори својата загриженост дека се појавуваат закани на ниво на човечко истребување.
Случувањата во текот на минатата година покажаа дека владите не се подготвени да ја зауздаат воената употреба на вештачката интелигенција, рече тој, додека конкуренцијата за брзо развивање производи значеше дека постои ризик технолошките компании да „не вложат доволно напори за безбедноста“.
Професор Хинтон вели: „Мојата претпоставка е меѓу пет и 20 години од сега, постои веројатност од половина дека ќе треба да се соочиме со проблемот на вештачката интелигенција која се обидува да ја преземе власта“.
Ова би довело до „закана на ниво на истребување“ за луѓето бидејќи можевме „да создадеме форма на интелигенција што е само подобра од биолошката интелигенција… Тоа е многу загрижувачки за нас“.
Вештачката интелигенција може да „еволуира“, рече тој, „за да добие мотивација да направи повеќе од себе“ и може автономно „да развие подцел за добивање контрола“.
Тој рече дека веќе има докази за големи јазични модели – еден вид алгоритам за вештачка интелигенција што се користи за генерирање текст – изборот да биде измамен.
Тој рече дека неодамнешните апликации на вештачката интелигенција за генерирање на илјадници воени цели се „тенкиот крај на клинот“.
„Она за што најмногу ме загрижува е кога тие можат автономно да донесат одлука да убиваат луѓе“, рече тој.
Професорот Хинтон рече дека нешто слично на Женевските конвенции – меѓународните договори кои воспоставуваат правни стандарди за хуманитарен третман во војна – можеби ќе бидат потребни за да се регулира воената употреба на вештачката интелигенција.
„Но, мислам дека тоа нема да се случи додека не се случат многу непријатни работи“, додаде тој.
На прашањето дали Западот бил во трка во стилот на проектот Менхетен – мислејќи на истражувањето за нуклеарно оружје за време на Втората светска војна – со автократии како Русија и Кина за воена употреба на вештачката интелигенција, професорот Хинтон одговори: „[рускиот претседател Владимир] Путин рече дека некои пред неколку години дека кој ја контролира вештачката интелигенција го контролира светот. Така, замислувам дека работат многу напорно“.
„За среќа, Западот веројатно е многу пред нив во истражувањето. Ние веројатно сè уште сме малку пред Кина. Но, Кина вложува повеќе ресурси. И така, во однос на воените употреби, мислам дека ќе има трка“.
Тој рече дека подобро решение би било забраната за воена употреба на вештачката интелигенција.