ПОВЕЌЕ

    ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА ИМА ПРОБЛЕМ СО ПРИВАТНОСТА, внимателно со личните податоци

    Време зa читање: 5 минути

    Метеорската популарност на генеративната вештачка интелигенција создаде вистинска технолошка сензација благодарение на производите фокусирани на корисниците како што се ChatGPT на OpenAI, Dall-E и Lensa. Но, бумот на широко прифатеното користење на AI пристигна заедно со тоа што корисниците навидум ги игнорираат или не се свесни за ризиците за приватност наметнати од овие проекти.

    Меѓутоа, среде целата оваа возбуда, меѓународните влади и големите технолошки фигури почнуваат да алармираат, па некои држави поставија привремена забрана за ChatGP, а стотици технолошки и бизнис лидери, вклучувајќи ги Илон Маск и Стив Возниак, потпишаа отворено писмо во кое бараат шестмесечен мораториум за развој на вештачка интелигенција надвор од опсегот на GPT-4.

    Но поширокиот пејзаж на закани што вештачката интелигенција ги претставува за приватноста и безбедноста на податоците оди подалеку од еден модел или развивач.

    Проблемот со приватноста на податоците на вештачката интелигенција, оваа тема беше отворена долго пред да влезе во мејнстримот. Скандалите околу приватноста на податоците во вештачката интелигенција се случија пред појавата на ChatGPT – тие главно се случуваа надвор од очите на јавноста.

    Само минатата година, на Clearview AI, фирма за препознавање лице базирана на вештачка интелигенција, наводно користена од илјадници влади и агенции за спроведување на законот со ограничено јавно знаење, ѝ беше забрането да продава технологија за препознавање лице на приватни бизниси во Соединетите држави. Clearview исто така изрече парична казна од 9,4 милиони долари во Обединетото Кралство за нејзината нелегална база на податоци за препознавање лице. Кој може да каже дека проектите за визуелна вештачка интелигенција фокусирани на потрошувачите, како што се Midjourney или други, не можат да се користат за слични цели?

    Проблемот е што тие веќе биле користени. Голем број неодамнешни скандали со deep fake порнографија и лажни вести создадени преку производи со вештачка интелигенција на ниво на потрошувачи само ја зголемија итноста да се заштитат корисниците од злобната употреба на вештачка интелигенција. Тој користи хипотетички концепт на дигитална мимикрија и го прави многу реална закана за секојдневните луѓе и влијателните јавни личности.

    Генеративните модели на вештачка интелигенција фундаментално се потпираат на нови и постоечки податоци за да ги изградат и зајакнат нивните способности и употребливост. Тоа е дел од причината зошто ChatGPT е толку импресивен. Како што е кажано, моделот кој се потпира на нови внесувања на податоци треба некаде да ги добие тие податоци, а дел од тоа неизбежно ќе ги вклучи личните податоци на луѓето што ги користат. И таа количина на податоци може лесно да се злоупотреби доколку централизираните ентитети, влади или хакери ги прифатат.

    Значи, со ограничен опсег на сеопфатна регулатива и спротивставени мислења околу развојот на вештачката интелигенција, што можат сега да направат компаниите и корисниците кои работат со овие производи?

    Фактот дека владите и другите програмери предупредуваат околу вештачката интелигенција сега всушност укажува на напредок во регулација за Web2 апликациите и крипто.

    Италијанската забрана за ChatGPT не е првиот удар што владите го преземаат против вештачката интелигенција. ЕУ и Бразил донесуваат акти за санкционирање на одредени видови на употреба и развој на вештачка интелигенција. Слично на тоа, потенцијалот на генеративната вештачка интелигенција да врши прекршување на податоците предизвика рана законска акција од канадската влада.

    Прашањето за прекршување на податоците на вештачката интелигенција е доста сериозно, до тој степен што OpenAI дури мораше да се вклучи. Ако сте отвориле ChatGPT пред неколку недели, можеби сте забележале дека функцијата за историја на разговори е исклучена. OpenAI привремено ја исклучи функцијата поради сериозен проблем со приватноста каде што беа изложени барањата на странци и откриени информации за плаќање.

    Додека OpenAI ефективно го изгасна овој пожар, може да биде тешко да им се верува на програмите предводени од Веб2 гигантите кои ги намалуваат своите тимови за етика за вештачка интелигенција за превентивно да ја направат вистинската работа.

    На ниво на индустријата, стратегијата за развој на вештачка интелигенција која повеќе се фокусира на федеративно машинско учење, исто така, ќе ја зголеми приватноста на податоците. Федерираното учење е колаборативна техника на вештачка интелигенција која ги обучува моделите со вештачка интелигенција без никој да има пристап до податоците, користејќи повеќе независни извори за да го обучи алгоритмот со свои множества податоци.

    Постојат начини да бидете попретпазливи за тоа на која генеративна ВИ ѝ дозволувате пристап во секојдневниот живот. За компаниите и малите бизниси кои вградуваат производи со вештачка интелигенција во нивните операции, да се биде внимателен за тоа кои податоци ги внесувате во алгоритмот е уште поважно, сметаат авторите на статијата за сајтот Коинтелеграф, компјутерските експерти Ерик Принс и Рајан Патерсон.

    Познатата изрека дека кога користите бесплатен производ, вашите лични податоци се производот сè уште важи за вештачката интелигенција. Имајќи го тоа на ум може да ве натера да се преиспитате на кои проекти за вештачка интелигенција го трошите вашето време и за што всушност го користите. Ако го следите секој тренд на социјалните мрежи што вклучува постирање ваши фотографии на непроверен сајт кој користи вештачка интелигенција, би било разумно да го прескокнете.

    ChatGPT достигна 100 милиони корисници само два месеци по неговото лансирање, неверојатна бројка што јасно покажува дека нашата дигитална иднина ќе користи вештачка интелигенција. Но, и покрај овие бројки, вештачката интелигенција сè уште не е сеприсутна. Регулаторите и компаниите треба да го искористат тоа во своја полза за да создадат рамки за одговорен и безбеден развој на вештачката интелигенција проактивно наместо да бркаат проекти штом ќе станат преголеми за контрола. Како што е сега, генеративниот развој на вештачката интелигенција не е избалансиран меѓу заштитата и напредокот, но сè уште има време да се најде вистинскиот пат за да се осигураме дека информациите за корисникот и приватноста остануваат во првите редови.

    14,794Следи нè на facebookЛајк

    слично