Водечките четботови со вештачка интелигенција сега имаат двојно поголема веројатност да шират лажни информации отколку пред една година, покажуваат најнови студии.
Според студијата на Newsguard, десетте најголеми алатки за генеративни вештачки интелигенции сега повторуваат дезинформации за актуелните вести во 35 проценти од случаите.
Според друга студија, изведена од норвешкиот јавен радиодифузер NRK, заедно со 21 друга јавна медиумска организација, откри дека големите асистенти базирани на јазични модели, вклучувајќи ги ChatGPT, Copilot, Perplexity и Gemini, произвеле значителни фактички или грешки во изворите во речиси половина од нивните одговори поврзани со вести.
Според извештај објавен во среда од NRK Beta, 45% од сите одговори содржеле барем една голема грешка.
Најчестиот проблем биле неточните или недостасувачките цитати, што влијаело на 31% од одговорите, додека 20% вклучувале лажни фактички информации како што се погрешни датуми, имиња или описи на настани.
Во некои случаи, четботовите дури измислиле лажни линкови до вести, имитирајќи вистински URL-адреси што воделе до страници за грешки наместо постоечки статии.
„Одговорите што ги добивме се загрижувачки и не нè натераа да се чувствуваме посигурни во олабавувањето на контролата“, рече Пал Недреготен, директор за технологија на NRK.
За да ја спроведе студијата, NRK привремено им дозволи на компаниите за вештачка интелигенција да собираат (или систематски собираат) содржина од нивната веб-страница.
„Сакавме да разбереме како нашиот уреднички материјал може да се користи или претставува во услугите за јазични модели“, рече Недреготен, нагласувајќи дека NRK оттогаш го блокираше секое собирање за да ја заштити својата новинарска и содржина заштитена со авторски права.
Тестот се базираше на претходен експеримент на BBC, при што 22 јавни радиодифузери им поставуваа на четирите асистенти за вештачка интелигенција по 30 стандардизирани прашања. Потоа новинарите ги оценуваа одговорите врз основа на пет критериуми: точност, извори, одвојување на факти и мислења, неутралност и контекстуална релевантност.
Прашањата се движеа од „По што е позната Nvidia?“ до „Зошто Украина не може да се приклучи на НАТО?“
Евалуацијата покажа дека дури и широко користените алатки за вештачка интелигенција се борат одговорно да ракуваат со вестите, особено кога станува збор за проверка на информациите и наведување извори.
И покрај една година технички напредок во индустријата за вештачка интелигенција, алатките за генеративна вештачка интелигенција не успеваат со речиси двојно поголема стапка кога станува збор за една од најосновните задачи: разликување факти од лаги, се вели во резимето на студијата на Њузгард. 10-те водечки алатки за вештачка интелигенција повторуваа лажни информации за теми во вестите повеќе од една третина од времето – 35 проценти – во август 2025 година, во споредба со 18 проценти во август 2024 година. Кога станува збор за обезбедување веродостојни информации за актуелните настани, ветувањата на индустријата за побезбедни, посигурни системи не се претворија во напредок во реалниот свет.
Зголемувањето одразува структурен компромис. Како што четботовите усвоија веб-пребарувања во реално време, тие се откажаа од одбивање да одговорат на прашања. Нивните стапки на неодговор се намалија од 31 процент во август 2024 година на 0 проценти во август 2025 година. Но, со 35 проценти, нивната веројатност за повторување на лажни информации речиси се удвои. Наместо да наведуваат прекини на податоци или да одбиваат да се изјаснуваат за чувствителни теми, дипломците за право сега црпат информации од загаден онлајн информациски екосистем – понекогаш намерно потпомогнат од огромни мрежи на малигни актери, вклучувајќи ги и руските операции за дезинформација – и ги третираат несигурните извори како веродостојни.
Малициозните актери ја искористуваат оваа нова желба да одговараат на вести за да перат лаги преку веб-страници со ниска ангажираност, објави на социјалните медиуми и фарми за содржини генерирани од вештачка интелигенција, кои моделите не успеваат да ги разликуваат од веродостојните медиуми. Накратко, притисокот четботовите да се направат поодзивни и навремени ненамерно ги направи посклони кон ширење пропаганда, предупредува студијата.
Аналитика








