ПОВЕЌЕ

    ДИПФЕЈКОВИТЕ НА ГРОК, СОЗДАДЕН ОД ИЛОН МАСК, се „нова форма на родово насилство“, предупредуваат експерти

    Време зa читање: 4 минути

    Растат контроверзите околу четботот со вештачка интелигенција Grok, развиен од xAI и поврзан со технолошкиот претприемач Елон Маск, откако експерти предупредија дека алатката може да овозможи нова форма на родово базирано насилство преку интернет преку брзо креирање на неконсензуални сексуализирани deepfake слики.

    Неодамнешна анализа објавена од Центарот за истражување на човековите права (HRRC) тврди дека можностите на Grok создале можности корисниците полесно од кога било досега да генерираат експлицитни фабрикувани слики од жени и нивното широко ширење низ платформите на социјалните медиуми, предизвикувајќи загриженост за дигиталната безбедност, вознемирувањето и поширокото влијание врз родовата еднаквост.

    Според извештајот, Grok може да биде поттикнат преку коментари на објави да генерира сексуализирани слики од целни поединци за неколку секунди. Овие визуелни елементи – честопати прикажувајќи жени во експлицитни или понижувачки сценарија – можат да се појават јавно во одговори и брзо да циркулираат преку интернет.

    Истражувачите проценуваат дека приближно 6.700 вакви интимни слики можат да се произведат секој час, што го истакнува обемот на кој технологијата може да се користи за креирање и дистрибуција на содржина без согласност.

    Бидејќи сликите се многу реалистични, може да биде тешко да се разликуваат од автентичните фотографии. Дури и кога ќе се докажат како лажни, тие сепак можат да предизвикаат штета на угледот и емоционална штета на жртвите, вклучувајќи анксиозност, депресија и вознемирување и во онлајн и во офлајн просторите.

    Експертите велат дека технологијата ефикасно ги претвора сексуалните слики во оружје како алатка за заплашување и контрола, непропорционално таргетирајќи ги жените, ЛГБТК+ лицата, а понекогаш и малолетниците.

    Проблемот доби на важност по лансирањето на Grok 2 и неговиот генератор на слики „Grok Imagine“ во август 2025 година, кој првично вклучуваше таканаречен „Spicy Mode“ способен да произведува хиперсексуализирани слики од познати личности од неексплицитни потсетници.

    Истражувачите цитирани во извештајот велат дека системот е изграден со помалку заштитни мерки од многу конкурентни модели на вештачка интелигенција. Спротивно на тоа, алатките развиени од компании како OpenAI и Google генерално го блокираат создавањето реалистични слики од препознатливи лица, што одразува построги безбедносни протоколи.

    Јавните критики се интензивираа на почетокот на 2026 година, бидејќи инцидентите со deepfake се зголемија. Маск првично посочи дека одговорноста е првенствено кај корисниците, а не кај самата технологија. Сепак, зголемениот надзор од регулаторите – вклучувајќи ги истрагите во Европската Унија и Калифорнија и забраните во земји како Индонезија и Малезија – го поттикна xAI да воведе ограничени заштитни мерки во јануари 2026 година.

    Критичарите тврдат дека мерките остануваат недоволни бидејќи се однесуваат само на корисници кои не плаќаат, потенцијално дозволувајќи им на оние со платен пристап да ги заобиколат заштитите.

    Истражувачите за човекови права предупредуваат дека сексуалните дипфејкови, генерирани од вештачка интелигенција можат да имаат далекусежни последици надвор од личното вознемирување. Жените кои се цел на вакви напади може да се повлечат од онлајн просторите или да ги променат своите дигитални идентитети, на пример со избегнување на објавување лични фотографии.

    Ефектите се особено значајни во професиите каде што видливоста онлајн е клучна – како што се новинарството, политиката, забавата и влијанието – каде што оштетувањето на угледот или вознемирувањето може да ги ограничат можностите за кариера.

    Некои жртви, исто така, трошат многу пари во обидот да ја отстранат содржината или да ја поправат својата репутација, при што услугите за дигитална форензика и управување со репутацијата, наводно, чинат помеѓу 1.500 и 50.000 долари месечно.

    Дипфејковите можат да се користат и како политички алатки. На пример, сексуално експлицитни слики генерирани од вештачка интелигенција циркулираа онлајн, насочени кон потпретседателката на САД, Камала Харис, за време на претседателската кампања во 2024 година, демонстрирајќи како технологијата може да се користи за дискредитација на женските политички фигури и заведување на гласачите.

    Експертите предупредуваат дека ако ваквите злоупотреби продолжат неконтролирано, тие би можеле да ги продлабочат постојните нееднаквости во технологијата и дигиталното учество. Постојаното вознемирување и ризикот од измислена сексуална содржина може да ги обесхрабрат жените да се вклучат во нови технологии или да одржат јавно онлајн присуство.

    Застапниците тврдат дека решавањето на проблемот бара посилни заштитни мерки на платформата, законска заштита и координирани политички одговори за третирање на сексуалните дипфејкови генерирани од вештачка интелигенција како сериозна форма на насилство базирано на пол.

    Според истражувачите, доколку не се превземат законски мерки, злоупотребата на новите алатки за вештачка интелигенција ризикува да ја зголеми мизогинијата и да ја поткопа автономијата и учеството на жените во јавниот живот.

    (Фото: Кампања -Забранете го Грок, Лондон, Ekō – https://www.flickr.com/photos/72132190@N08/55041176760/, CC BY 4.0)

    14,794Следи нè на facebookЛајк

    слично