ПОВЕЌЕ

    ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА КАКО ПСИХОЛОГ: Четботовите даваат одлични совети за анксиозност и депресија

    Време зa читање: 10 минути

    Ако напишете „Чувствувам анксиозност“ во ChatGPT, револуционерниот чет-бот на OpenAI, напојуван со вештачка интелигенција, почнува да работи речиси веднаш.

    „Жал ми е што слушам дека чувствувате анксиозност“, почнува да се појавува на екранот. „Тоа може да биде предизвикувачко искуство, но има стратегии со кои можете да се обидете да помогнете во управувањето со вашите симптоми“.
    Потоа следи подолга листа на препораки: работа на релаксација, фокусирање на спиење, намалување на кофеинот и алкохолот, предизвикување негативни мисли и барање поддршка од пријателите и семејството, донесува Ал Џазира во своја поопширна статија.

    Иако не е најоригиналниот совет, тој наликува на она што може да се слушне во канцеларијата на терапевтот или да се прочита на интернет во напис на WebMD за анксиозноста – не само затоа што ChatGPT ги црпи своите одговори од широкото пространство на интернет.

    ЧЕТБОТОТ – НАЈЕФТИН ПСИХОТЕРАПЕВТ

    Самиот ChatGPT предупредува дека не е замена за психолог или советник. Но, тоа не ги спречи некои луѓе да ја користат платформата како свој личен терапевт. Во објавите на онлајн форумите како што е Reddit, корисниците ги опишаа своите искуства барајќи совет од ChatGPT за лични проблеми и тешки животни настани како раскинување.

    Некои го пријавија своето искуство со четботот, тврдејќи дека е добар, па дури и подобар од традиционалната терапија.

    Впечатливата способност на ChatGPT да имитира човечки разговор ги покрена прашањата за потенцијалот на генеративната вештачка интелигенција или лекувањето на состојбите со менталното здравје, особено во региони во светот, како што е Азија, каде што услугите за ментално здравје се тенки и обвиени со стигма.

    Некои љубители на вештачка интелигенција сметаат дека чет-ботите имаат најголем потенцијал во лекувањето на поблаги, вообичаени состојби како анксиозност и депресија, чиј стандарден третман вклучува терапевт кој го слуша и потврдува пациентот, како и нуди практични чекори за решавање на неговите или нејзините проблеми. .

    Теоретски, терапијата со вештачка интелигенција може да понуди побрз и поевтин пристап до поддршка од традиционалните услуги за ментално здравје, кои страдаат од недостиг на персонал, долги листи на чекање и високи трошоци, и им овозможуваат на страдалниците да ги заобиколат чувствата на осудување и срам, особено во делови од светот. каде што менталната болест останува табу.

    „Психотерапијата е многу скапа, па дури и на места како Канада, од каде што доаѓам, и други земји, е супер скапа, листите на чекање се навистина долги“, изјави за Ал Џезира Ешли Андреу, студентка по медицина која се фокусира на психијатрија на Универзитетот Џорџтаун.  „Луѓето немаат пристап до нешто што го подобрува дејството на лековите и е третман заснован на докази за проблеми со менталното здравје, и затоа мислам дека треба да го зголемиме пристапот и мислам дека генеративната вештачка интелигенција со сертифициран здравствен работник ќе ја зголеми ефикасноста. ”

    Изгледите вештачката интелигенција, да го подобри па дури и да стане водечки третман за ментално здравје покренува огромен број етички и практични проблеми. Тие се движат од тоа како да се заштитат личните информации и медицинските досиеја, до прашањата за тоа дали компјутерската програма некогаш навистина ќе биде способна да сочувствува со пациентот или да препознае предупредувачки знаци како што е ризикот од самоповредување.

    Додека технологијата зад ChatGPT е сè уште во зародиш, платформата и нејзините колеги четбот-ривали се борат да се совпаднат со луѓето во одредени области, како што е препознавање на повторени прашања, и може да произведе непредвидливи, неточни или вознемирувачки одговори како одговор на одредени барања.
    Досега, употребата на вештачката интелигенција во посветени апликации за ментално здравје беше ограничена на системи „засновани на правила“ во терапевтски апликации како што се Wysa, Heyy и Woebot.

    Иако овие апликации имитираат аспекти на процесот на терапија, тие користат одреден број комбинации на прашања и одговори кои ги избрал човек, за разлика од ChatGPT и другите платформи базирани на генеративна вештачка интелигенција, која произведува оригинални одговори кои практично не се разликуваат од човечките. говорот.

    Генеративната вештачка интелигенција сè уште се смета за премногу „црна кутија“ – т.е. толку сложена што нејзините процеси на донесување одлуки не се целосно разбрани од луѓето – за да се користи во амбиент за ментално здравје, рече Рамакант Вемпати, основач на индиската Wysa. „Очигледно има многу литература околу тоа како разговорот со вештачка интелигенција цвета со лансирањето на ChatGPT и така натаму, но мислам дека е важно да се нагласи дека Wysa е многу специфичен за доменот и е изграден многу внимателно имајќи ги предвид клиничките безбедносни заштитни огради“. Вемпати изјави за Ал Џезира.

    „И ние не користиме генеративен текст, не користиме генеративни модели. Ова е конструиран дијалог, така што сценариото е претходно напишано и потврдено преку критични безбедносни податоци, кои ги тестиравме за одговорите на корисниците“.

    Заштитниот знак на Wysa е пингвин со кој корисниците можат да разговараат, иако се ограничени на одреден број пишани одговори, за разлика од дијалогот во слободна форма на ChatGPT. Платените претплатници на Wysa исто така се упатуваат до човечки терапевт доколку нивните прашања ескалираат. Heyy, развиен во Сингапур и Woebot, со седиште во Соединетите Американски Држави, следат сличен модел заснован на правила и се потпираат на живи терапевти и чат-бот со робот-аватар за да се вклучат со корисниците освен да нудат ресурси како пишување дневник, техники за внимателност и вежби кои се фокусираат на заеднички проблеми како спиење и проблеми во врската.

    Сите три апликации потекнуваат од когнитивна бихејвиорална терапија, стандардна форма на третман за анксиозност и депресија која се фокусира на промена на начинот на кој пациентот размислува и се однесува.

    Основачот на Woebot, Алисон Дарси, го опиша моделот на апликацијата како „многу сложено дрво за одлуки“. „Овој основен „облик“ на разговорот е моделиран на тоа како лекарите пристапуваат кон проблемите, така што тие се „експертски системи“ кои се специјално дизајнирани да реплицираат како лекарите можат да се движат низ одлуките во текот на интеракцијата“, рече Дарси за Ал Џезира.

    Heyy им овозможува на корисниците да се вклучат со човечки терапевт преку функцијата за разговор во апликација која се нуди на голем број јазици, вклучувајќи англиски и хинди, како и нудење информации и вежби за ментално здравје.

    Основачите на Wysa, Heyy и Woebot нагласуваат дека не се обидуваат да ја заменат терапијата базирана на луѓе, туку да ги надополнат традиционалните услуги и да обезбедат алатка во рана фаза во третманот за ментално здравје.

    Националната здравствена служба на Обединетото Кралство, на пример, ја препорачува Wysa како привремено решение за пациентите кои чекаат да посетат терапевт. Иако овие апликации засновани на правила се ограничени во нивните функции, индустријата за вештачка интелигенција останува во голема мера нерегулирана и покрај загриженоста дека полето што брзо напредува може да претставува сериозни ризици за човековата благосостојба.

    ОПАСНОСТИ ДЕМНАТ

    Вртоглавата брзина на развојот на вештачката интелигенција ги натера извршниот директор на Tesla, Илон Маск, и ко-основачот на Apple, Стив Возниак минатиот месец да ги додадат своите имиња на илјадниците потписници на отвореното писмо во кое се повикува на шестмесечна пауза за обука на системи за вештачка интелигенција помоќни од GPT- 4, следење на ChatGPT, за да им се даде време на истражувачите да добијат подобро разбирање за технологијата. „Моќните системи за вештачка интелигенција треба да се развијат само откако ќе бидеме уверени дека нивните ефекти ќе бидат позитивни и нивните ризици ќе бидат предвдливи“, се вели во писмото.

    Претходно оваа година, еден Белгиец, наводно, извршил самоубиство откако бил охрабрен од четботот за вештачка интелигенција Чаи, додека колумнист на Њујорк Тајмс опишал дека бил охрабрен да ја напушти својата сопруга од чет-ботот на Мајкрософт, Бинг.

    Регулативата за вештачката интелигенција бавно одговара на брзината на напредокот на технологијата, при што Кина и Европската унија преземаат најконкретни чекори кон воведување заштитни огради. Управата за кибернетски простор на Кина претходно овој месец објави нацрт-регулативи со цел да се осигура дека вештачката интелигенција не произведува содржина што може да го поткопа авторитетот на Пекинг, додека ЕУ работи на законодавство што ќе ја категоризира вештачката интелигенција како високоризична и забранета, регулирана или нерегулирана. САД допрва треба да предложат федерално законодавство за регулирање на вештачката интелигенција, иако предлозите се очекуваат подоцна оваа година.

    Во моментов, ниту ChatGPT ниту наменските апликации за ментално здравје како Wysa и Heyy, кои генерално се сметаат за „велнес“ услуги, не се регулирани од здравствени чувари, како што се Управата за храна и лекови на САД или Европската агенција за лекови.

    Има ограничени независни истражувања за тоа дали вештачката интелигенција некогаш би можела да ги надмине апликациите засновани на правила кои моментално се на пазарот за автономно да понудат третман за ментално здравје кој е на исто ниво со традиционалната терапија.

    За вештачката интелигенција да се совпадне со човечки терапевт, треба да може да го рекреира феноменот на пренесување, каде што пациентот проектира чувства врз својот терапевт и ја имитира врската помеѓу пациентот и терапевтот.

    „Во литературата за психологија знаеме дека дел од ефикасноста и она што ја прави терапијата да функционира, околу 40 до 50 проценти од ефектот е од односот што го добивате со вашиот терапевт“, Марија Хенеси, клинички психолог и вонреден професор во Џејмс. Универзитетот Кук, изјави за Ал Џезира. „Тоа сочинува огромен дел од тоа колку се ефективни психолошките терапии“.

    Тековните чат-ботови не се способни за ваков вид на интеракција, а можностите за обработка на природниот јазик на ChatGPT, иако импресивни, имаат граници, рече Хенеси. „На крајот на денот, тоа е фантастична компјутерска програма“, рече таа. „Тоа е сè што е“.

    Амелија Фиске, виш научен соработник на Институтот за историја и етика на медицината на Техничкиот универзитет во Минхен, местото на ВИ во третманот на менталното здравје во иднина можеби нема да биде ниту/или ситуација – на пример, претстојната технологија може да се користи заедно со хуман терапевт.

    „Важна работа што треба да се има на ум е дека кога луѓето зборуваат за употребата на вештачката интелигенција во терапија, постои претпоставка дека сето тоа изгледа како Wysa или сето тоа изгледа како Woebot, и не треба“, вели Фиске за Ал Џезира.

    Некои експерти веруваат дека вештачката интелигенција може да ја најде својата највредна употреба зад сцената, како што е спроведување на истражување или помагање на човечки терапевти да го проценат напредокот на нивните пациенти.

    „Овие алгоритми за машинско учење се подобри од системите со експертски правила кога станува збор за идентификување на обрасци во податоците; тоа е многу добро во правењето асоцијации во податоците и тие се исто така многу добри во правењето предвидувања во податоците“, изјави Тања Манрикез Роа, етичар и квалитативен истражувач на Институтот за биомедицинска етика и историја на медицината на Универзитетот во Цирих, за Ал Џезира.

    „Може да биде многу корисно во спроведувањето истражување за менталното здравје и исто така може да биде многу корисно да се идентификуваат раните знаци на релапс како депресија, на пример, или анксиозност“.

    Манрикез Роа вели дека е скептична дека вештачката интелигенција некогаш би можела да се користи како додаток за клинички третман. „Овие алгоритми и вештачка интелигенција се многу ветувачки, на некој начин, но исто така мислам дека можат да бидат многу штетни“, рече Манрикез Роа. „Кога размислуваме за апликации или алгоритми… понекогаш вештачката интелигенција не ги решава нашите проблеми и може да создаде поголеми проблеми“, додаде таа. „Треба да направиме чекор назад за да размислиме: „Дали воопшто ни се потребни алгоритми?“ и ако ни се потребни, какви алгоритми ќе користиме?“.

    14,794Следи нè на facebookЛајк

    слично