Уште од почетокот на нуклеарната ера, креаторите на политики и стратезите се обидуваа да спречат некоја земја да употреби нуклеарно оружје по грешка. Но, потенцијалот за несреќи останува висок како што беше за време на Студената војна. Во 1983 година, советскиот систем за рано предупредување погрешно посочи дека е во тек нуклеарен напад на САД врз Советскиот Сојуз; таквото предупредување можеше да предизвика катастрофален советски контранапад. Судбината беше избегната само затоа што дежурниот надзорник, Станислав Петров, утврди дека алармот е лажен. Да не го сториеше тоа, советското раководство ќе имаше причина да го испали најдеструктивното оружје во светот кон Соединетите Американски Држави.
Брзото ширење на вештачката интелигенција ги засили заканите за нуклеарната стабилност. Еден страв е дека држава со нуклеарно оружје може да ја делегира одлуката за употреба на нуклеарно оружје на машини. Сепак, Соединетите Американски Држави воведоа заштитни мерки за да се осигурат дека луѓето продолжуваат да ја носат конечната одлука за тоа дали да започнат напад. Според Националната одбранбена стратегија за 2022 година, човекот ќе остане „во тек“ за сите одлуки за употреба или прекин на употреба на нуклеарно оружје. И американскиот претседател Џо Бајден и кинескиот лидер Си Џинпинг се согласија во двојни изјави дека „треба да има човечка контрола врз одлуката за употреба на нуклеарно оружје“, пишува во најновиот број на списанието Форин Афеарс.
Сепак, вештачката интелигенција претставува уште еден подмолен ризик за нуклеарната безбедност. Таа го олеснува креирањето и ширењето на длабоки фејкови – убедливо изменети видеа, слики или аудио што се користат за генерирање лажни информации за луѓе или настани. И овие техники стануваат сè пософистицирани. Неколку недели по руската инвазија на Украина во 2022 година, широко споделен длабок фејк го покажа украинскиот претседател Володимир Зеленски како им кажува на Украинците да го спуштат оружјето; во 2023 година, длабок фејк ги наведе луѓето лажно да веруваат дека рускиот претседател Владимир Путин ја прекина државната телевизија за да прогласи целосна мобилизација. Во поекстремен сценарио, длабок фејк може да го убеди лидерот на држава со нуклеарно оружје дека е во тек прв напад од противник или дека разузнавачка платформа поддржана од вештачка интелигенција може да подигне лажни аларми за мобилизација, па дури и напад со валкана бомба, од страна на противник.
Администрацијата на Трамп сака да ја искористи вештачката интелигенција за национална безбедност. Во јули, Министерството за одбрана објави акционен план со кој се повикува на „агресивна“ употреба на вештачката интелигенција во Министерството за одбрана. Во декември, Министерството го претстави GenAI.mil, платформа со алатки за вештачка интелигенција за вработените. Но, како што администрацијата ја вградува вештачката интелигенција во националната безбедносна инфраструктура, ќе биде клучно креаторите на политиките и дизајнерите на системи да бидат внимателни во врска со улогата што ја играат машините во раните фази на донесување одлуки за нуклеарно оружје. Додека инженерите не можат да спречат проблеми својствени за вештачката интелигенција, како што се халуцинации и лажирање – во кои големите јазични модели предвидуваат неточни обрасци или факти – владата на САД мора да се погрижи луѓето да продолжат да ги контролираат системите за рано предупредување за нуклеарно оружје. Другите држави со нуклеарно оружје треба да го сторат истото.
КАСКАДНИ КРИЗИ
Денес, претседателот Доналд Трамп користи телефон за пристап до deep fake содржини; понекогаш ги споделува на социјалните медиуми, како и многу негови блиски советници. Како што линиите стануваат нејасни помеѓу вистинските и лажните информации, постои растечка можност таквите длабоки фалсификати да влијаат на одлуките за национална безбедност со висок ризик, вклучително и за нуклеарното оружје.
Ако дезинформациите можат да го измамат претседателот на САД дури и за неколку минути, тоа би можело да предизвика катастрофа за светот. Според американскиот закон, претседателот не треба да се консултира со никого за да нареди употреба на нуклеарно оружје ниту за одмазднички напад ниту за прв удар. Американските воени претставници се подготвени да распоредат авиони, подморници и копнени ракети што носат нуклеарни боеви глави. Интерконтинентална балистичка ракета на САД може да ја достигне својата цел во рок од половина час – и откако ќе се лансира таква ракета, никој не може да се сети на неа.
Deep Fake-овите би можеле да помогнат во создавањето изговори за војна.
И американските и руските нуклеарни сили се подготвени да „лансираат на предупредување“, што значи дека можат да бидат распоредени штом ќе бидат откриени непријателски ракети кои се упатуваат кон нив. Тоа остава само неколку минути за лидерот да процени дали започнал нуклеарниот напад на противникот. (Според сегашната политика на САД, претседателот има можност да ја одложи одлуката сè додека нуклеарното оружје на противникот не ги погоди САД.) Доколку американскиот систем за рано предупредување открие закана за САД, американските претставници ќе се обидат да го потврдат нападот користејќи и класифицирани и некласифицирани извори. Тие би можеле да ги разгледаат сателитските податоци за активност во познати воени објекти, да ги следат неодамнешните изјави од странски лидери и да ги проверуваат социјалните медиуми и странските извори на вести за контекст и извештаи од терен. Воените офицери, државните службеници и политички назначените лица потоа мора да одлучат кои информации да ги соопштат нагоре по синџирот и како се презентираат.
Дезинформациите водени од вештачка интелигенција би можеле да предизвикаат каскадни кризи. Доколку системите за вештачка интелигенција се користат за толкување на податоците за рано предупредување, тие би можеле да халуцинираат напад што не е реален – ставајќи ги американските претставници во слична позиција како онаа во која беше Петров пред четири децении. Бидејќи внатрешната логика на системите за вештачка интелигенција е непроѕирна, луѓето често се оставени во темнина за тоа зошто вештачката интелигенција дошла до одреден заклучок. Истражувањата покажуваат дека луѓето со просечно ниво на познавање на вештачката интелигенција имаат тенденција да се потпрат на резултатите од машините, наместо да проверуваат за пристрасност или лажни позитивни резултати, дури и кога станува збор за националната безбедност. Без обемна обука, алатки и оперативни процеси што ги земаат предвид слабостите на вештачката интелигенција, советниците на лицата што донесуваат одлуки во Белата куќа може да претпостават – или барем да ја забавуваат – можноста дека содржината генерирана од вештачка интелигенција е точна.
ОПАСНА КОНФУЗИЈА
Дипфејксовите што се пренесуваат на медиуми со отворен код се речиси исто толку опасни. По гледањето на дипфејк видео, американскиот лидер може, на пример, погрешно да ги протолкува руските ракетни тестови како почеток на офанзивни напади или да ги помеша кинеските вежби со боево пукање како напад врз сојузниците на САД. Дипфејковите би можеле да помогнат во создавање изговори за војна, да се добие јавна поддршка за конфликт или да сее конфузија.
Во јули, администрацијата на Трамп објави план за акција за вештачка интелигенција кој повика на агресивно распоредување на алатки за вештачка интелигенција низ Министерството за одбрана, најголемата бирократија во светот. Вештачката интелигенција се покажа како корисна во зголемувањето на ефикасноста на делови од војската. Машинското учење го олеснува закажувањето на одржувањето на разорувачите на морнарицата. Технологијата на вештачка интелигенција вградена во автономна муниција, како што се беспилотните летала, може да им овозможи на војниците да се повлечат од првите линии. Алатките за превод на вештачката интелигенција им помагаат на разузнавачките службеници да анализираат податоци за странски земји. Вештачката интелигенција би можела да биде корисна дури и во некои други стандардни задачи за собирање разузнавачки информации, како што е идентификување на разликите помеѓу сликите од бомбардери паркирани на аеродроми од еден ден до друг.
Имплементацијата на вештачката интелигенција низ воените системи не мора да биде сè или ништо. Постојат области кои треба да бидат забранети за вештачката интелигенција, вклучувајќи ги системите за рано предупредување и командата и контролата за нуклеарно оружје, во кои ризиците од халуцинации и лажирање ги надминуваат придобивките што софтверот управуван од вештачка интелигенција би можел да ги донесе. Најдобрите системи за вештачка интелигенција се изградени врз вкрстено проверени и сеопфатни збирки на податоци. На системите за рано предупредување за нуклеарно оружје им недостасуваат и двете бидејќи немало нуклеарни напади од оние на Хирошима и Нагасаки. Секој систем за детекција на нуклеарно оружје со вештачка интелигенција веројатно би морал да се обучува врз основа на постојните податоци за тестирање на ракети и следење на вселената, плус синтетички податоци. Инженерите би требало да програмираат одбрана од халуцинации или неточни проценки на довербата – значајни технички пречки.
Можеби е примамливо да се заменат проверките од високо обучен персонал со алатки за вештачка интелигенција или да се користи вештачка интелигенција за спојување на различни извори на податоци за да се забрза анализата, но отстранувањето на критичните човечки очи може да доведе до грешки, пристрасност и недоразбирања.
Исто како што Министерството за одбрана бара значајна човечка контрола на автономните дронови, исто така треба да бара секој елемент од технологијата за рано предупредување и разузнавање на нуклеарно оружје да исполнува уште повисок стандард. Алатките за интеграција на податоци со вештачка интелигенција не треба да ги заменуваат човечките оператори кои известуваат за дојдовни балистички ракети. Напорите за потврдување на раното предупредување за лансирање на нуклеарно оружје од сателитски или радарски податоци треба да останат само делумно автоматизирани. А учесниците во критичните конференциски повици за национална безбедност треба да земат предвид само потврдени и непроменети податоци.
Во јули 2025 година, Министерството за одбрана побара средства од Конгресот за додавање нови технологии во нуклеарната команда, контрола и комуникации. Владата на САД најдобро би се снашла со ограничување на интеграцијата со вештачка интелигенција и автоматизација на сајбер безбедност, деловни процеси и аналитика и едноставни задачи, како што е обезбедување на вклучување на резервната енергија кога е потребно.
РАСТЕ ОПАСНОСТА ОД НУКЛЕАРНА ВОЈНА
Денес, опасноста од нуклеарна војна е поголема отколку што беше со децении. Русија се закани дека ќе употреби нуклеарно оружје во Украина, Кина брзо го проширува својот арсенал, Северна Кореја сега има можност да испраќа интерконтинентални балистички ракети во Соединетите Држави, а политиките што спречуваат ширење се колебаат. Во оваа позадина, уште поважно е да се осигура дека луѓето, а не машините обучени на лоши или нецелосни податоци, ги проценуваат дејствијата, намерата и целите на противникот.
Разузнавачките агенции треба да се подобрат во следењето на потеклото на информациите добиени од вештачка интелигенција и да стандардизираат како тие им ги пренесуваат на креаторите на политики кога податоците се зголемени или синтетички. На пример, кога Националната агенција за геопросторно разузнавање користи вештачка интелигенција за генерирање разузнавачки информации, таа додава откривање во извештајот ако содржината е генерирана од машина. Аналитичарите за разузнавање, креаторите на политики и нивните вработени треба да бидат обучени да внесат дополнителен скептицизам и проверка на фактите во содржината што не е веднаш проверлива, исто како што многу бизниси сега се внимателни против сајбер-фишингот. А разузнавачките агенции имаат потреба од довербата на креаторите на политики, кои можеби се повеќе склони да веруваат во она што им го кажуваат сопствените очи и уреди – точно или неточно – отколку во она што го дава проценката на разузнавањето.
Експертите и технолозите треба да продолжат да работат на наоѓање начини за означување и забавување на лажните информации, слики и видеа што течат низ социјалните медиуми, што може да влијае на креаторите на политики. Но, со оглед на тешкотијата во контролирањето на информациите од отворен извор, уште поважно е класифицираните информации да бидат точни.
Ажурирањата на администрацијата на Трамп за нуклеарната позиција на САД во Националната одбранбена стратегија треба да се заштитат од веројатните и незгодни информациски ризици од вештачка интелигенција за нуклеарното оружје, потврдувајќи дека машина никогаш нема да донесе одлука за лансирање на нуклеарно оружје без човечка контрола. Како прв чекор, сите држави со нуклеарно оружје треба да се согласат дека само луѓето ќе донесуваат одлуки за употреба на нуклеарно оружје. Потоа, тие треба да ги подобрат каналите за комуникација во кризни ситуации. Постои телефонска линија за дијалог помеѓу Вашингтон и Москва, но не и помеѓу Вашингтон и Пекинг.
Нуклеарната политика и ставот на САД малку се променија од 1980-тите, кога лидерите се грижеа дека Советскиот Сојуз ќе нападне ненадејно. Креаторите на политиките тогаш не можеа да сфатат колку дезинформации ќе бидат доставени до личните уреди на луѓето задолжени за нуклеарното оружје денес. И законодавната и извршната власт треба да ги преиспитаат политиките за позицијата на нуклеарното оружје изградени за Студената војна. Креаторите на политиките, на пример, би можеле да бараат од идните претседатели да се консултираат со конгресните лидери пред да започнат прв нуклеарен напад или да побараат временски период за разузнавачките професионалци да ги потврдат информациите врз кои се базира одлуката. Бидејќи Соединетите Американски Држави имаат способни опции за втор удар, точноста треба да има предност пред брзината.
Вештачката интелигенција веќе има потенцијал да ги измами клучните носители на одлуки и членовите на нуклеарниот команден синџир да видат напад што го нема. Во минатото, само автентичниот дијалог и дипломатијата спречуваа недоразбирања меѓу државите со нуклеарно оружје. Политиките и практиките треба да штитат од штетните информациски ризици што на крајот би можеле да доведат до судниот ден, се заклучува во статијата на Форин Афеарс.
(Фото: hvmo – Midjourney Bot, Public Domain)
Аналитика








