ПОВЕЌЕ

    МЕТА СЀ ПОВЕЌЕ СЕ ПОТПИРА НА ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА за донесување одлуки за елементите на корисничкото искуство

    Време зa читање: 4 минути

    Како што истакна извршниот директор на „Мета“, Марк Закерберг, во неодамнешниот преглед на влијанието на вештачката интелигенција, „Мета“ сè повеќе се потпира на системи управувани од вештачка интелигенција за повеќе аспекти од својот внатрешен развој и управување, вклучувајќи кодирање, таргетирање на реклами, проценка на ризик и друго.

    И тоа наскоро би можело да стане уште поголем фактор, бидејќи „Мета“ наводно планира да користи вештачка интелигенција за до 90% од сите свои проценки на ризик на „Фејсбук“ и „Инстаграм“ , вклучувајќи го целиот развој на производи и промените на правилата.

    Како што објави НПР: „Со години, кога Мета лансираше нови функции за Инстаграм, Вотсап и Фејсбук, тимови од рецензенти ги оценуваа можните ризици: Дали може да ја наруши приватноста на корисниците? Дали може да предизвика штета на малолетници? Дали може да го влоши ширењето на заведувачка или токсична содржина? До неодамна, она што е познато во Мета како прегледи на приватноста и интегритетот беше спроведено речиси целосно од човечки евалуатори, но сега, според интерните документи на компанијата добиени од НПР, до 90% од сите проценки на ризик наскоро ќе бидат автоматизирани.“

    Што изгледа потенцијално проблематично, ставајќи голема доверба во машините за да ги заштитат корисниците од некои од најлошите аспекти на онлајн интеракцијата.

    Но, „Мета“ е уверена дека нејзините системи за вештачка интелигенција можат да се справат со такви задачи, вклучително и модерирање, што го покажа во својот Извештај за транспарентност за првиот квартал , кој го објави минатата недела.

    Порано во текот на годината, Мета објави дека ќе го промени својот пристап кон „помалку сериозните“ прекршувања на политиките, со цел да се намали бројот на грешки и ограничувања при спроведувањето.

    Со промената на тој пристап, „Мета“ вели дека кога ќе открие дека нејзините автоматизирани системи прават премногу грешки, сега целосно ги деактивира тие системи додека работи на нивно подобрување, а воедно и:

    Значи, во суштина, „Мета“ ги усовршува своите автоматизирани системи за детекција за да се осигури дека тие нема да ги отстрануваат објавите премногу брзо. И „Мета“ вели дека досега ова било успех, што резултирало со намалување од 50% на грешките при спроведување на правилата .

    Што навидум е позитивно, но од друга страна, намалувањето на грешките може да значи и дека на корисниците им се прикажува повеќе нарушувачка содржина во неговите апликации.

    Автоматското откривање на малтретирање и вознемирување на Фејсбук од страна на „Мета“ се намали за 12% во првиот квартал, што значи дека повеќе од таа содржина се објавувала, поради промената во пристапот на „Мета“.

    Тоа е варијација од милиони прекршителни објави за кои „Мета“ презема побрзи мерки и милиони штетни коментари што им се прикажуваат на корисниците во нејзините апликации како резултат на оваа промена.

    Влијанието, тогаш, би можело да биде значајно, но „Мета“ сака да се потпре повеќе на системите со вештачка интелигенција за да ги разбере и спроведе овие правила во иднина, со цел да ги максимизира своите напори на овој фронт.

    Како што е наведено, Закерберг исто така најави дека „некаде во следните 12 до 18 месеци“, поголемиот дел од еволуирачката база на кодови на Мета ќе биде напишана од вештачка интелигенција .

    Тоа е пологична примена на процесите на вештачка интелигенција, бидејќи тие можат да реплицираат код со внесување огромни количини на податоци, а потоа да даваат проценки врз основа на логички совпаѓања.

    Но, кога зборуваме за правила и политики и работи што би можеле да имаат големо влијание врз тоа како корисниците ја доживуваат секоја апликација, тоа изгледа како поризична употреба на алатки за вештачка интелигенција, велат од НПР.

    Како нивен одговор, Мета рече дека промените во прегледот на ризикот на производот сè уште ќе бидат надгледувани од луѓе и дека се автоматизираат само „одлуки со низок ризик“. Но, сепак, тоа е прозорец кон потенцијалното идно проширување на вештачката интелигенција, каде што сè повеќе се потпираат на автоматизираните системи за да ги диктираат вистинските човечки искуства.

    14,794Следи нè на facebookЛајк

    слично