ПОВЕЌЕ

    „ВРЕМЕТО ИСТЕКУВА“: 700 светски интелектуалци и јавни личности апелираат за забрана за развој на суперинтелигентна вештачка интелигенција

    Време зa читање: 4 минути

    Отворено писмо со кое се повикува на забрана за развој на суперинтелигентна вештачка интелигенција беше објавено во среда, со потписи на повеќе од 700 познати личности, научници за вештачка интелигенција, верски лидери и креатори на политики.

    Меѓу потписниците се петмина добитници на Нобелова награда; двајца таканаречени „кумови на вештачката интелигенција“; Стив Вознијак, коосновач на Apple; Стив Бенон, близок сојузник на претседателот Трамп; Паоло Бенанти, советник на папата; па дури и Хари и Меган, војводата и војвотката од Сасекс.

    „Повикуваме на забрана за развој на суперинтелигенција, која не треба да се укине пред да се постигне широк научен консензус дека тоа ќе се прави безбедно и контролирано, и силна јавна поддршка.“

    Писмото беше координирано и објавено од Институтот за иднината на животот FLI, непрофитна организација која во 2023 година објави друго отворено писмо со кое повика на шестмесечна пауза во развојот на моќни системи за вештачка интелигенција. Иако беше широко циркулирано, тоа писмо не ја постигна својата цел.

    Организаторите рекоа дека решиле да започнат нова кампања, со поспецифичен фокус на суперинтелигенцијата, бидејќи веруваат дека технологијата – која ја дефинираат како систем што може да ги надмине човечките перформанси во сите корисни задачи – би можела да пристигне за само една до две години. „Времето истекува“, вели Ентони Агире, извршен директор на FLI, во интервју за TIME. Единственото нешто што веројатно ќе ги спречи компаниите за вештачка интелигенција да се движат кон суперинтелигенција, вели тој, „е да има широко распространето сфаќање меѓу општеството на сите негови нивоа дека ова всушност не е она што го сакаме.“

    Анкетите објавени заедно со писмото покажаа дека 64% од Американците веруваат дека суперинтелигенцијата „не треба да се развива сè додека не биде докажано безбедна и контролирана“, а само 5% веруваат дека треба да се развие што е можно побрзо. „Мал број многу богати компании ги градат овие, а многу, многу голем број луѓе би сакале да тргнат по друг пат“, вели Агире.

    Актерите Џозеф Гордон-Левит и Стивен Фрај, раперот will.i.am и авторот Јувал Ноа Харари, исто така, го потпишаа писмото. Сузан Рајс, советничката за национална безбедност во администрацијата на Барак Обама, потпиша. Исто така, потпиша и еден вработен во OpenAI – организација опишана од нејзиниот извршен директор, Сем Алтман, како „компанија за истражување на суперинтелигенција“ – Лео Гао, член на техничкиот персонал во компанијата. Агире очекува повеќе луѓе да потпишат како што се одвива кампањата. „Верувањата се веќе таму“, вели тој. „Она што го немаме е луѓето да се чувствуваат слободни да ги искажат своите верувања гласно“.

    „Иднината на вештачката интелигенција треба да му служи на човештвото, а не да го заменува“, рече принцот Хари, војводата од Сасекс, во пораката што ја придружуваше неговиот потпис. „Верувам дека вистинскиот тест за напредокот нема да биде колку брзо се движиме, туку колку мудро управуваме. Нема втора шанса.“

    Потписот на Џозеф Гордон-Левит беше придружен со пораката: „Да, сакаме специфични алатки за вештачка интелигенција што можат да помогнат во лекувањето на болести, зајакнувањето на националната безбедност итн. Но, дали вештачката интелигенција треба да ги имитира луѓето, да ги подготвува нашите деца, да нè претвори сите во зависници од ѓубре и да заработува милиони долари сервирајќи реклами? Повеќето луѓе не го сакаат тоа. Но, тоа е она што овие големи технолошки компании го мислат кога зборуваат за градење „суперинтелигенција“.

    Изјавата беше минимална за да привлече широк и разновиден сет потписници. Но, за значајна промена, Агире смета дека е неопходна регулација. „Голем дел од штетите доаѓаат од перверзните структури на стимулации на кои компаниите се подложени во моментов“, вели тој, забележувајќи дека компаниите во Америка и Кина се натпреваруваат да бидат први во создавањето суперинтелигенција.

    „Без разлика дали ќе биде наскоро или ќе потрае некое време, откако ќе развиеме суперинтелигенција, машините ќе бидат главни“, вели Агире. „Дали тоа ќе биде добро за човештвото или не, навистина не знаеме. Но, тоа не е експеримент кон кој сакаме само да се стремиме.

    (Фото: sify.com)

    14,794Следи нè на facebookЛајк

    слично