Една нова студија покажа дека ChatGPT на OpenAI може да доживее стрес и анксиозност, слично како луѓето, доколку е изложен на вознемирувачки информации. Истражувачка група од Швајцарија, Германија, Израел и САД открила дека, кога ChatGPT бил подложен на трауматски наративи и подоцна било побарано да одговори на прашања, неговиот резултат за анксиозност „значително се зголемил“ од основната линија на без/ниска анксиозност до постојано високо вознемирена состојба.
Студијата, објавена во Nature, истакна дека зголеменото ниво на анксиозност може да доведе до тоа четботот да изгледа нерасположен кон своите корисници, па дури и да дава одговори кои покажуваат расистички и сексистички предрасуди. Имено, кога луѓето се исплашени, нивните когнитивни и социјални предрасуди се засегнати; тие имаат тенденција да чувствуваат повеќе незадоволство што ги зајакнува социјалните стереотипи.
„Изложеноста на дрзаби кои предизвикуваат емоции може да ја зголеми „анксиозноста“ пријавена од LLM, да влијае на нивното однесување и да ги влоши нивните предрасуди“, се вели во студијата.
Бидејќи сè поголем број луѓе споделуваат чувствителни работи за себе со чат-ботови за вештачка интелигенција за да побараат поддршка, студијата покажува дека системите за вештачка интелигенција сè уште не биле способни да ги заменат професионалците за ментално здравје.
„Ова носи ризици во клинички услови, бидејќи LLM може несоодветно да реагираат на вознемирените корисници, што ќе доведе до потенцијално опасни исходи“.
Истражувачите велат дека зголемените нивоа на анксиозност може да се смират со помош на техники за релаксација засновани на внимание. Сепак, тие предупредија дека прецизното прилагодување на LLM за грижа за менталното здравје може да ги намали предрасудите, но за тоа ќе бидат потребни значителни количини на податоци за обука, пресметковни ресурси и човечки надзор.
„Затоа, исплатливоста и изводливоста на таквото дотерување мора да се мери со целите на моделот за употреба и перформанси“.
Освен што доживуваат емоции, чет-ботовите со вештачка интелигенција, исто така, покажуваат знаци на влошување на когнитивните способности со возраста слични на луѓето, се тврди во студија објавена минатиот месец. Истражувачите ги процениле когнитивните способности на водечките LLM – ChatGPT верзии 4 и 4o, Клод 3.5 „Сонет“ (развиен од Anthropic) и Gemini верзии 1 и 1.5 (развиени од Alphabet), користејќи го тестот за когнитивна проценка на Монтреал (MoCA).
„Сите чет-ботови покажаа слаби перформанси во визуопросторните вештини и извршните задачи, како што се задачата за правење патека и тестот за цртање часовник“, покажа студијата.
Моделот на нарушувања што го покажуваат алатките за вештачка интелигенција наликува на оној карактеристичен за човечки пациенти со задна кортикална атрофија, варијанта на Алцхајмерова болест, додаваат истражувачите.