Неодамнешните воени игри користејќи модели со вештачка интелигенција од OpenAI, Meta и Anthropic открија вознемирувачки тренд: моделите со вештачка интелигенција се поверојатно од луѓето да ескалираат конфликти до кинетичка, дури и нуклеарна војна. Во јули 2023 година, Блумберг објави дека САД Министерството за одбрана (ДО) спроведуваше сет на тестови во кои оценуваат пет различни големи јазични модели (LLMs) за нивните воено планирачки капацитети во симулирано конфликтно сценарио. Воздухопловниот полковник на САД, Метју Штромајер, кој беше дел од тимот, изјави дека „може да се очекува војската да ги користи во многу блиска иднина“
Овој исход ја нагласува фундаменталната разлика во природата на војната меѓу луѓето и вештачката интелигенција. За луѓето, војната е средство за наметнување волја за опстанок; за вештачката интелигенција пресметката на ризик и награда е сосема поинаква, бидејќи, како што забележа пионерскиот научник Џефри Хинтон, „ние сме биолошки системи, а тоа се дигитални системи“.
ОПАСНОСТА Е РЕАЛНА
Без оглед на тоа колкава контрола имаат луѓето врз системите со вештачка интелигенција, не можеме да го запреме проширувањето на дивергенцијата помеѓу нивното и нашето однесување, бидејќи невронските мрежи со вештачка интелигенција се движат кон автономија и се потешко се објаснуваат.
Да се каже отворено, додека човечките воени игри и самата војна повлекуваат намерна употреба на сила за принудување на непријателот на нашата волја, вештачката интелигенција не е врзана за сржта на човечките инстинкти, самоодржување. Човечката желба за опстанок ја отвора вратата за дипломатија и решавање на конфликти, но дали и до кој степен може да им се верува на моделите на вештачка интелигенција да се справат со нијансите на преговорите кои се усогласени со човечките вредности, не е познато.
Потенцијалот за катастрофална штета од напредната вештачка интелигенција е реален, како што е подвлечено со Декларацијата Блечли за вештачка интелигенција, потпишана од речиси 30 земји, вклучувајќи ги Австралија, Кина, САД и Велика Британија. Декларацијата ја нагласува потребата за одговорен развој на вештачка интелигенција и контрола врз алатките за војна што ги создаваме.
Слично на тоа, тековните дискусии на ОН за смртоносното автономно оружје нагласуваат дека алгоритмите не треба да имаат целосна контрола врз одлуките кои вклучуваат живот и смрт. Оваа загриженост ги отсликува минатите напори за регулирање или забрана на одредени оружја. Сепак, она што ги издвојува автономните оружја со ВИ е степенот до кој тие го отстрануваат човечкиот надзор од употребата на сила.
Главниот проблем со вештачката интелигенција е она што се нарекува парадокс на објаснување: дури и неговите развивачи често не можат да објаснат зошто системите со вештачка интелигенција носат одредени одлуки. Овој недостаток на транспарентност е значаен проблем во областите со висок влог, вклучително и военото и дипломатското одлучување, каде што може да ги влоши постоечките геополитички тензии. Како што истакнува Мустафа Сулејман, ко-основачот на DeepMind, неразбирливата природа на вештачката интелигенција значи дека не можеме да ги дешифрираме одлуките на вештачката интелигенција за да објасниме прецизно зошто алгоритам произведува одреден резултат.
Наместо да се гледа вештачката интелигенција како обична алатка, попрецизно е да се гледа како агент способен да донесува независни пресуди и одлуки. Оваа способност е без преседан, бидејќи вештачката интелигенција може да генерира нови идеи и да комуницира со други агенти за вештачка интелигенција автономно, надвор од директна човечка контрола. Потенцијалот за агентите со вештачка интелигенција да донесуваат одлуки без човечки придонес предизвикува значителна загриженост за контролата на овие моќни технологии – проблем со кој се соочија дури и развивачите на првото нуклеарно оружје.
Додека некои сакаат да наметнат регулатива за вештачката интелигенција донекаде како режимот за неширење на нуклеарното оружје, кој досега го ограничуваше нуклеарното оружје на девет држави, вештачката интелигенција претставува уникатни предизвици. За разлика од нуклеарната технологија, нејзиниот развој и распоредување се децентрализирани и водени од приватни субјекти и поединци, па затоа е инхерентно тешко да се регулира. Технологијата се шири универзално и брзо со мал владин надзор. Отворен е за злонамерна употреба од државни и недржавни актери.
Како што системите за вештачка интелигенција стануваат понапредни, тие воведуваат нови ризици, вклучително и издигнување на дезинформациите и дезинформациите на невидени нивоа.
Апликацијата на ВИ во биотехнологијата отвора нови патишта за терористичките групи и поединци да развијат напредно биолошко оружје. Тоа би можело да ги поттикне малигните актери, да го намали прагот за конфликт и да ги направи нападите поверојатни.
Одржувањето на човекот во јамката е од витално значење бидејќи системите за вештачка интелигенција сè повеќе влијаат на критичните одлуки. Дури и кога се вклучени луѓето, нивната улога во надзорот може да се намали бидејќи довербата во излезот на вештачката интелигенција расте, и покрај познатите проблеми на ВИ со халуцинации и грешки. Потпирањето на вештачката интелигенција може да доведе до опасна прекумерна доверба во нејзините одлуки, особено во воени контексти каде брзината и ефикасноста честопати ја надминуваат претпазливоста.
Како што вештачката интелигенција станува сеприсутна, човечкото вклучување во процесите на донесување одлуки може да се намали поради трошоците и неефикасноста поврзани со човечкиот надзор. Во воени сценарија, брзината е критичен фактор, а способноста на вештачката интелигенција да извршува сложени задачи брзо може да обезбеди одлучувачка предност. Сепак, оваа предност во брзината може да дојде по цена на предавање на човечката контрола, покренување етички и стратешки дилеми за степенот до кој дозволуваме машините да го диктираат текот на човечкиот конфликт.
Забрзаното темпо со кое функционира вештачката интелигенција на крајот би можело да ја притисне улогата на луѓето во јамките за донесување одлуки, бидејќи побарувачката за побрзи одговори може да доведе до отфрлање на човечкото расудување. Оваа динамика може да создаде несигурна ситуација каде што потрагата по брзина и ефикасност го поткопува самиот човечки надзор потребен за да се осигура дека употребата на вештачка интелигенција се усогласува со нашите вредности и безбедносни стандарди, се вели во истражувањето на военото списание Стратеџист.