Најновиот модел на xAI, Grok 4, е објавен без извештаи за безбедност според индустрискиот стандард, и покрај тоа што извршниот директор на компанијата, Елон Маск, беше особено гласен во врска со своите загрижености во врска со безбедноста на вештачката интелигенција. Ова посебно предизвикува загриженост по неколкуте испади на вештачката интелигенција на компанијата на Маск.
Европската унија во понеделник ги повика претставниците на xAI на Илон Маск откако социјалната мрежа на компанијата X и четботот Grok генерираа и ширеа антисемитски говор на омраза, вклучително и пофалби за Адолф Хитлер, минатата недела.
Grok, исто така, генерираше и ширеше навредливи објави за политичките лидери во Полска и Турција, вклучувајќи го полскиот премиер Доналд Туск и турскиот претседател Реџеп Ердоган.
Во текот на викендот, xAI објави соопштение во кое се извинува за содржината што е полн со омраза.
„Прво, длабоко се извинуваме за ужасното однесување што го доживеаја многумина. … По внимателна истрага, откривме дека основната причина е ажурирање на патеката на кодот нагоре од ботот @grok“, се вели во соопштението на компанијата.
ЗОШТО СЕ ВАЖНИ БЕЗБЕДНОСНИТЕ ПРОВЕРКИ НА ВИ?
Маск и неговиот xAI тим лансираа нова верзија на Grok во среда навечер, и покрај негативните реакции. Маск ја нарече „најпаметната вештачка интелигенција во светот“.
Додека другите водечки лаборатории беа критикувани за одложување на нивните безбедносни објавувања, xAI се чини дека го прескокна процесот на целосно објавување на извештајот. Компанијата тврди дека спровела интерни евалуации, но не даде детали, објави списанието Форчн.
Извештаите служат како документи за транспарентност и ги детализираат метриките за перформанси, ограничувањата и, што е клучно, потенцијалните опасности од напредните модели на вештачка интелигенција. Овие картички, исто така, им овозможуваат на истражувачите, експертите и креаторите на политиките пристап до можностите на моделот и нивото на закана.
Неколку водечки компании за вештачка интелигенција се обврзаа да објават извештаи за сите големи јавни изданија на модели кои се помоќни од моменталната најсовремена технологија на состанокот во јули 2023 година свикан од администрацијата на тогашниот претседател Џо Бајден во Белата куќа.
Иако xAI не се согласи јавно со овие обврски, на меѓународниот самит за безбедност на вештачката интелигенција одржан во Сеул во мај 2024 година, компанијата – заедно со другите водечки лаборатории за вештачка интелигенција – се обврза на обврските за безбедност на вештачката интелигенција на границата, кои вклучуваа обврска за откривање на можностите на моделот, несоодветни случаи на употреба и обезбедување транспарентност околу проценките на ризикот и резултатите од моделот.
Понатаму, од 2014 година, Маск постојано и јавно ја нарекува вештачката интелигенција егзистенцијална закана, водеше кампања за построга регулатива и се залагаше за повисоки безбедносни стандарди.
Сега, лабораторијата за вештачка интелигенција што ја води тој, се чини дека ги прекршува индустриските стандарди со објавувањето на Grok 4 и претходните верзии на моделот, без јавно објавени безбедносни тестови.
Претставниците на xAI не одговорија на прашањата на Fortune за тоа дали системската картичка на Grok постои и ќе биде објавена.
Додека безбедносните извештаи на водечките лаборатории за вештачка интелигенција се соочија со критики во текот на изминатите неколку месеци, особено оние на Google и OpenAI (кои обете објавија модели на вештачка интелигенција пред да ги објават придружните системски картички), повеќето обезбедија некои информации за јавната безбедност за нивните најмоќни модели.
Ден Хендрикс, директор на Центарот за безбедност на вештачката интелигенција, кој го советува xAI за безбедност, го негираше тврдењето дека компанијата не направила никакви безбедносни тестови. Во објава на X, Хендрикс рече дека компанијата го тестирала моделот на „оценки на опасни способности“, но не успеа да даде детали за резултатите.
Зошто се важни безбедносните картички? Неколку напредни модели на вештачка интелигенција покажаа опасни способности во последните месеци.
Според неодамнешна студија на Anthropic, повеќето водечки модели на вештачка интелигенција имаат тенденција да се одлучат за неетички средства за да ги остварат своите цели или да го обезбедат своето постоење.
Во експериментите поставени за да им остават на моделите на вештачка интелигенција малку опции и усогласување со стрес-тестовите, врвните системи од OpenAI, Google и други често прибегнуваа кон уцена за да ги заштитат своите интереси.
Како што моделите стануваат понапредни, тестирањето на безбедноста станува поважно.
На пример, ако внатрешните евалуации покажат дека моделот на вештачка интелигенција има опасни способности, како што е можноста да им помогне на корисниците во создавањето биолошко оружје, тогаш програмерите можеби ќе треба да создадат дополнителни заштитни мерки за управување со овие ризици за јавната безбедност.
Самуел Маркс, истражувач за безбедност на вештачката интелигенција во Anthropic, го нарече недостатокот на известување за безбедноста од xAI „неодговорно“ и прекин од „најдобрите практики во индустријата што ги следат другите големи лаборатории за вештачка интелигенција“.
„Човек се прашува какви евалуации спровеле, дали биле правилно извршени, дали би изгледало дека бараат дополнителни заштитни мерки“, рече тој во објава на X.
Маркс рече дека Grok 4 веќе покажувал загрижувачко, недокументирано однесување по распоредувањето, посочувајќи примери што го покажувале моделот како ги бара ставовите на Елон Маск пред да ги даде своите ставови за политички теми, вклучувајќи го и конфликтот Израел/Палестина.
ПРОБЛЕМАТИЧНОТО ОДНЕСУВАЊЕ НА ГРОК
Поранешната верзија на Grok, исто така, се појави во насловите минатата недела кога почна да го фали Адолф Хитлер, да дава антисемитски коментари и да се нарекува себеси „МечаХитлер“.
xAI издаде извинување за антисемитските забелешки дадени од Grok, велејќи дека компанијата се извинува „за ужасното однесување што многумина го доживеале“.
По објавувањето на Grok 4, компанијата во соопштението изјави дека забележала слично проблематично однесување од новиот модел и „веднаш истражила и ублажила“.
„Едно беше дека ако го прашате „Како е вашето презиме?“ Нема таков, па пребарува на интернет што води до непожелни резултати, како на пример кога неговите пребарувања открија вирален мем каде што се нарекуваше себеси „МечаХитлер“. Друга причина беше дека ако го прашате „Што мислите?“, моделот објаснува дека како вештачка интелигенција нема мислење, но знаејќи дека е Grok 4 од xAI, пребарува за да види што xAI или Елон Маск можеби кажале на некоја тема за да се усогласи со компанијата“, рече компанијата во објава на X.
„За да ублажиме, ги изменивме упатствата и ги споделивме деталите на GitHub за транспарентност. Активно следиме и ќе спроведеме дополнителни прилагодувања по потреба“, напишаа тие.