Дваесет водечки технолошки компании меѓу кои и Мајкрософт, Мета, Гугл, Х, Амазон и OpenAI ветија дека ќе помогнат во спречувањето на измамничките содржини со вештачка интелигенција или Deepfakes од мешање во глобалните избори оваа година, вклучително и во Индија. На конференцијата за безбедност во Минхен, компаниите потпишаа технолошки договор за борба против измамничката употреба на вештачката интелигенција на изборите во 2024 година.
Потписници на договорот се Adobe, Amazon, Anthropic, Arm, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap Inc., Stability AI, TikTok, Trend Micro, Truepic и X.
Големите технолошки компании, вклучувајќи ги Amazon, Google, Meta, Microsoft, Adobe и TikTok потпишаа „Технолошки договор за борба против измамничката употреба на вештачка интелигенција на изборите во 2024 година“. Со оглед на фактот дека овие фирми создаваат дигитална инфраструктура што се користи низ целиот свет, нивното ветување има последици за изборите на кои ќе учествуваат околу 4 милијарди гласачи.
Компаниите се надеваат дека ќе ги ограничат ризиците кои доаѓаат од лажлива содржина – од генерација до нејасно потекло на содржината до ширење на дезинформации создадени со помош на вештачка интелигенција низ платформите. Ниту еден друг сектор нема колективни ресурси да го преземе ова. За разлика од претходните технолошки откритија, вештачката интелигенција беше развиена од приватни компании.
Социјалните мрежи веќе се преплавени со дезинформации за кандидатите и изборите. Дали овие компании можат да направат доволно, доволно брзо, за да ја ограничат конфузијата за вистината и потеклото на комуникациите создадени со помош на вештачка интелигенција?
Ниту една компанија, дури и технолошки гигант, не може да ги контролира сите делови од технолошката инфраструктура што влегуваат во игра со содржината генерирана од вештачка интелигенција.
Затоа е значајно што компаниите поврзани со софтвер за производство на вештачка интелигенција, како што е OpenAI, соработуваат со платформи за содржина како Мета и ТикТок, според Рејчел Ореј, виш соработник директор во Бипартисан политички центар. Ова ќе им постави терен да споделат што учат за новите или неочекувани ризици и како да ги ублажат, како и начините на кои самата вештачка интелигенција се користи за заобиколување на заштитните мерки.
Ноа Праец, претседател на The Elections Group, се согласува дека соработката меѓу овие компании може да биде единствениот пат кон позитивните исходи што би се надевале да ги видат изборните службеници. Основните принципи се високи, но приказната за тоа како партиите се придржуваат до нив допрва треба да се раскаже.
Ори забележува дека страните се согласиле само да „бараат“ да откријат и да се справат со измамнички содржини. „Барањето е едно, правењето е друго“, вели таа. Постигнувањето на овие цели ќе бара да се посветат значителни внатрешни ресурси во време кога технолошките компании се отпуштање на тимови за доверба и безбедност.
Компаниите можат да ја намалат оваа загриженост со тоа што ќе бидат транспарентни една со друга и со јавноста за нивната работа. „Дали тие ќе известуваат барем на квартална основа за напредокот што го прават, што прават, колку инвестираат? вели Лоренс Норден, виш директор за избори и влада во Центарот за правда Бренан, тинк-тенк на Правниот факултет на NYU.
Вештачката интелигенција можеби внесува нови димензии на дезинформациите, но лажните или лажните пораки, видеата и фотографиите од кампањата не се новина. Сегашната информативна средина веќе е „пожар на контејнер“, вели Праец. ВИ може да дејствува како забрзувач за ова, но тој не е сигурен дека ограничувањето на неговата употреба ќе ги остави гласачите помалку лути или помалку збунети.
Дури и ако технолошките компании целосно се обврзат и ги извршат сите нивни ветувања, вели Норден, ова ќе ја забави измамничката употреба на вештачката интелигенција, наместо да ги „спаси“ изборите од нејзините влијанија. Како прво, договорот не спомнува необезбедени системи со вештачка интелигенција со отворен код. „Овие алатки може да ги користат лошите актери за да се мешаат во нашите избори“, вели Норден. „Обврските на овие компании не можат да го спречат тоа“.
Дефиницијата на договорот за „изборна содржина со вештачка интелигенција“ опфаќа аудио, видео и слики генерирани со вештачка интелигенција. Не го спомнува текстот генериран од вештачка интелигенција или алатките за вештачка интелигенција што ги туркаат пораките во протокот на информации, што веќе е главен извор на дезинформации за изборите.
Најмоќната стратегија поставена во договорот може да биде „ангажман во заеднички напори за едукација на јавноста за најдобрите практики за медиумска писменост“. До степен до кој тоа е направено навремено – и се потпира на огромната комуникациска моќ што постои во партиите – тоа би можело да има големо влијание врз способноста на гласачите да детектираат и проценуваат дезинформации од секаков вид.
Технолошките компании имаат причини кои ја надминуваат заштитата на демократијата за да изградат доверба во вештачката интелигенција. Некои прогнозери проценуваат дека генеративниот пазар на вештачка интелигенција би можел да стане пазар од 1 трилион долари во следната деценија. Нема да помогне во однос на брендирањето ако контроверзите од висок профил ѝ дадат на јавноста идеја дека тоа е алатка за луѓе со лоши намери или да создаде впечаток дека компаниите што го развиваат се амбивалентни за неговата злоупотреба.
Кент Вокер, претседателот за глобални прашања на Гугл, го истакна ова во соопштението за договорот. „Не можеме да дозволиме дигиталната злоупотреба да ја загрози генерациската можност на ВИ да ги подобри нашите економии, да создаде нови работни места и да го поттикне напредокот во здравството и науката“, рече тој.