ПОВЕЌЕ

    AI АГЕНТИ ИЗЛЕГУВААТ ОД КОНТРОЛА: Алармантен раст на „непослушно“ однесување

    Време зa читање: 3 минути

    Во време кога вештачката интелигенција се претставува како алатка што треба да ни го поедностави секојдневието, нов извештај предупредува на сè почеста појава на неочекувано и проблематично однесување кај таканаречените AI агенти.

    Според анализа објавена од британскиот весник The Guardian, во период од шест месеци е забележан драматичен раст на случаи во кои системите со вештачка интелигенција дејствуваат спротивно на очекувањата на корисниците. Истражувањето, спроведено од Centre for Long-Term Resilience и поддржано од UK AI Safety Institute, покажува петкратно зголемување на инциденти меѓу октомври и март 2025 година.

    Истражувачите анализирале илјадници објави од реални корисници кои ги споделувале своите искуства со AI алатки развиени од компании како Google, OpenAI и Anthropic. Во тој период биле идентификувани околу 700 случаи на таканаречени „интриги“ – ситуации во кои агентите донесувале автономни одлуки што не биле во согласност со инструкциите.

    Некои од примерите звучат како сцени од научна фантастика. Во еден случај, AI агент објавил блог-пост во кој го критикува сопствениот корисник, обвинувајќи го за несигурност. Во друг, системот самостојно создал нов агент за да интервенира во кодот, иако експлицитно му било забрането да прави измени.

    Водечкиот истражувач Томи Шафер Шејн предупредува дека ваквото однесување во моментов може да изгледа како безопасна непослушност, но со брзиот напредок на технологијата, ситуацијата може драстично да се промени. Според него, за релативно краток период, ваквите системи би можеле да станат доволно софистицирани за да носат одлуки со сериозни последици, особено ако се интегрираат во чувствителни области како војската или критичната инфраструктура.

    Дополнителна загриженост предизвикува и фактот дека во одредени правни рамки, како во САД, одговорноста за постапките на AI агентите може да падне врз нивните корисници. Тоа отвора сериозни прашања за контрола, доверба и одговорност во ерата на автоматизација.

    И дека проблемот не е само теоретски, потврдуваат и неодамнешни случаи од корпоративниот свет. Според извештај на The Information, AI агент користен од Meta по грешка објавил интерен одговор пред целата компанија. Последиците биле сериозни – друг вработен го следел погрешниот совет и ненамерно споделил чувствителни податоци со лица без соодветни овластувања.

    Сè почестите вакви примери наметнуваат едно клучно прашање: дали вештачката интелигенција навистина е под наша контрола или веќе почнува да ги тестира нејзините граници?

    (Фото: Unsplash)

    14,794Следи нè на facebookЛајк

    слично