ПОВЕЌЕ

    ТОП А.И. ЕКСПЕРТИ СЕ ОБЕДИНУВААТ ОКОЛУ СТРАТЕГИЈА, вештачката интелигенција мора да биде строго контролирана

    Време зa читање: 8 минути

    Џеф Хинтон, пионерот за длабоко учење кој неодамна се повлече од улогата во Google за да може да биде послободен да зборува за она што го гледа како опасностите од сè помоќната интелигенција, рече дека моделите како што се GPT-4 и PALM 2 го сменија неговото размислување и дека сега верува дека можеме да се сопнеме во измислување опасна суперинтелигенција во секое време во следните две децении.

    ВЕЌЕ НЕ Е НАУЧНА ФАНТАСТИКА

    Тој тврди дека политичарите и индустриските лидери треба да размислат што да прават во врска со тоа прашање во моментов. Веќе не е научна фантастика, Хинтон предупреди дека технолошките достигнувања се сериозен проблем што веројатно ќе пристигне многу наскоро.

    На пример, тој изјави за излезот дека светот можеби не е далеку од вештачката општа интелигенција, која има способност да ја разбере или научи секоја интелектуална задача што човекот може. „Долго време мислев дека нè делат 30 до 50 години од тоа“, истакна тој. „Сега, мислам дека можеби сме многу поблиску. Можеби само пет години од тоа“.

    Додека некои луѓе споредуваа чет-ботови како ChatGPT на OpenAI со досегашните автоматизирани асистенции што ги нудат компјутерите, Хинтон рече дека вештачката интелигенција била обучена да биде свесна и да чувствува – и тоа го прави. „Па, не велам дека е чувствителен. Но не велам и дека не е чувствителен“, истакнува Хинтон. „Чет-ботовите секако можат да размислуваат и сигурно можат да ги разберат работите“, продолжи тој.

    Хинтон рече дека е „вознемирен“ од тоа колку паметен е моделот ПаЛМ на Google, истакнувајќи дека разбира шеги и зошто тие се смешни. Оттогаш Google го објави PaLM 2, следната генерација на голем јазичен модел со „подобрени повеќејазични способности, расудување и кодирање“.

    Многу А.И. експерти веруваат дека опасноста која доаѓа од сè поспособниот софтвер за вештачка интелигенција, вклучително и истребување на целиот човечки вид, е толку оддалечена што не треба да се разгледува. Некои од истите тие луѓе го гледаат акцентот на егзистенцијалните ризици од страна на голем број истакнати технолози, вклучително и многумина кои работат на изградба на напредна А.И. самите системи, како циничен трик наменет и двете да ги навестат можностите на нивната сегашна A.I. системи и да го одвлече вниманието на регулаторите и јавноста од реалните и конкретни ризици кои веќе постојат со денешниот A.I. софтвер, пишува во своето најново издание списанието Форчјун.

    Овие штети во реалниот свет се многубројни и сериозни: тие вклучуваат зајакнување и засилување на постоечките системски, општествени предрасуди, вклучувајќи расизам и сексизам, како и А.И. Циклусот на развој на софтвер кој често зависи од податоците земени без согласност или во поглед на авторските права, употребата на недоволно платени изведувачи во светот во развој за етикетирање на податоците и фундаменталниот недостаток на транспарентност за тоа како А.И. софтверот е креиран и кои се неговите силни и слаби страни. Други ризици, исто така, го вклучуваат големиот јаглероден отпечаток на многу од денешните генеративни A.I. моделите и тенденцијата на компаниите да ја користат автоматизацијата како начин да ги елиминираат работните места и да ги платат работниците помалку.

    РАСТЕ ЗАГРИЖЕНОСТА ОД ОПАСНОСТА ОД В.И.

    Но, загриженоста за егзистенцијалниот ризик станува сè потешко да се игнорира. Истражување од 2022 година на истражувачи кои работат на најсовремената работа на А.И. технологија во некои од најистакнатите A.I. лабораториите открија дека околу половина од овие истражувачи сега мислат дека има поголема од 10% шанса дека влијанието на А.И. ќе биде „исклучително лошо“ и може да вклучи и човечко изумирање. (Забележително е дека една четвртина од истражувачите сè уште мислеа дека шансата да се случи ова е нула.)

    Постојат некои знаци дека грасрут движењето се гради околу стравовите од егзистенцијалните ризици на А.И. Некои студенти протестираа за време на говорот на извршниот директор на OpenAI Сем Алтман на Универзитетскиот колеџ во Лондон претходно оваа недела. Тие го повикуваа OpenAI да се откаже од својата потрага по вештачка општа интелигенција – вид на општа намена A.I. кои би можеле да извршуваат каква било когнитивна задача како и личноста – додека научниците не откријат како да обезбедат дека таквите системи се безбедни.

    Демонстрантите истакнаа дека е особено лудо тоа што самиот Алтман предупредил дека негативниот ризик од AGI може да значи „згаснати светла за сите нас“, а сепак тој продолжува да следи сè понапредна А.И. Слични демонстранти излегоа на протести пред седиштето на Google DeepMind во Лондон во изминатата недела.

    Некои од врвните A.I. лабораториите почнуваат да соработуваат на рамки и протоколи за A.I. Безбедност. Вчера, група истражувачи од Google DeepMind, OpenAI, Anthropic и неколку непрофитни тинк-тенкови и организации заинтересирани за A.I. Safety објави труд во кој детално опишува една можна рамка и режим на тестирање. Документот е важен бидејќи идеите во него би можеле да бидат основа за напорите на целата индустрија и би можеле да ги водат регулаторите.

    Ова е особено точно ако национална или меѓународна агенција специјално насочена кон управување со модели на фондации, видовите на повеќенаменски A.I. системи кои се во основата на генеративниот A.I. бум, доаѓа во битие. Алтман од OpenAI повика на создавање на таква агенција, како и други A.I. експерти, а деновиве и Мајкрософт го поддржа ова.

    „Ако сакате да имате какви било безбедносни стандарди, тогаш ќе ви требаат алатки за да го погледнете тој систем со вештачка интелигенција и да разработите: Кои се неговите ризици? Што може да направи? Што не може да направи? Каде може да тргне наопаку?“, вели Тоби Шевлејн, истражувач во Google DeepMind, кој е главен автор на новиот труд.

    ЛАЖАТ, МАНИПУЛИРААТ, ПРАВАТ СТРАТЕГИИ…

    Во трудот, истражувачите повикаа да се спроведат тестирања и од компаниите и од лабораториите кои развиваат напредна А.И. како и од надворешни, независни ревизори и проценувачи на ризик. „Постојат голем број на придобивки од надворешното извршување на евалуацијата покрај внатрешниот персонал“, вели Шевлане, наведувајќи ги тврдењата за одговорност и проверка на безбедноста направени од креаторите на моделот.

    Истражувачите сугерираат дека иако внатрешните безбедносни процеси може да бидат доволни за управување со обуката на моќните А.И. модели, регулаторите, другите лаборатории и научната заедница како целина треба да бидат информирани за резултатите од овие внатрешни проценки на ризик. Потоа, пред да може да се пушти моделот во употреба, надворешните експерти и ревизори треба да имаат улога во проценката и тестирањето на моделот за безбедност, при што резултатите ќе бидат пријавени и до регулаторна агенција, други лаборатории и пошироката научна заедница. Конечно, штом ќе се примени моделот, треба да има континуиран мониторинг на моделот, со систем за означување и известување за загрижувачки инциденти, сличен на системот што моментално се користи за откривање на „несакани настани“ со лекови кои се одобрени за употреба.

    Истражувачите идентификувале девет А.И. способности кои би можеле да претставуваат значителни ризици и за кои модели треба да се проценат. Неколку од нив, како што е способноста да се спроведуваат сајбер напади и да се измамат луѓето да веруваат во лажни информации или да мислат дека имаат интеракција со личност, а не со машина, во основа се веќе точни за денешните постоечки големи јазични модели. Денешните модели, исто така, имаат некои нови способности во други области кои истражувачите ги идентификуваа како загрижувачки, како што е способноста да ги убедат и манипулираат луѓето да преземат конкретни активности и способноста да се вклучат во долгорочно планирање, вклучително и поставување подцели.

    Други опасни способности што ги истакнаа истражувачите вклучуваат способност за планирање и извршување на политички стратегии, способност да се добие пристап до оружје и капацитет за изградба на други A.I. системи. Конечно, предупредија на А.И. системи кои би можеле да развијат ситуациона свест – вклучително и евентуално разбирање кога се тестираат, дозволувајќи им да ги измамат оценувачите – и капацитет да се самоовековечат и да се самореплицираат.

    Истражувачите рекоа дека оние кои тренираат и тестираат моќни А.И. системите треба да преземат внимателни безбедносни мерки, вклучително и евентуално обука и тестирање на A.I. моделите во изолирани средини каде што моделот нема способност за интеракција со пошироки компјутерски мрежи или неговата способност за пристап до други софтверски алатки може внимателно да се следат и контролираат. Весникот, исто така, вели дека лабораториите треба да развијат начини за брзо прекинување на пристапот на моделот до мрежите и затворање доколку почне да покажува загрижувачко однесување.

    На многу начини, трудот е помалку интересен за овие специфики отколку за она што го кажува самото негово постоење за комуникацијата и координацијата помеѓу врвната A.I. лаборатории во однос на споделените стандарди за одговорен развој на технологијата. Притисокот на конкуренцијата го прави споделувањето на информации за моделите што овие технолошки компании ги објавуваат сè понапорно. (OpenAI славно одби да објави дури и основни информации за GPT-4 поради, како што рече, во голема мера конкурентни причини и Google исто така рече дека ќе биде помалку отворен во иднина за точно како ги гради своите врвни модели на A.I.)

    Во белата книга објавена претходно оваа недела, претседателот на Google за глобални прашања Кент Вокер повика на одредба што ќе им даде на технолошките компании безбедно пристаниште да разговараат за А.И. безбедносни мерки без да се прекршат антимонополските закони. Тоа е веројатно разумна мерка.

    Се разбира, најразумно може да биде компаниите да ги следат советите на демонстрантите и да ги напуштат напорите за развој на помоќна А.И. системи додека всушност не разбереме доволно за тоа како да ги контролираме за да бидеме сигурни дека можат безбедно да се развијат. Но, да се има заедничка рамка за размислување за екстремните ризици и некои стандардни безбедносни протоколи е подобро отколку да продолжите да се тркате во иднина без тие работи, заклучува Форчјун.

    14,794Следи нè на facebookЛајк

    слично