
Вештачката интелигенција сè почесто влегува во секојдневието на младите како дигитален соговорник, советник, па дури и извор на емоционална поддршка. Но, кога станува збор за менталното здравје на тинејџерите, најпознатите чет-ботови на пазарот покажуваат сериозни слабости и потенцијални ризици.
Група експерти за безбедност на децата и ментално здравје неодамна тестираа симулирани разговори со четири водечки АИ чет-ботови: Meta AI, ChatGPT, Claude и Gemini. Резултатите биле толку загрижувачки што сите системи биле оценети како небезбедни за поддршка на менталното здравје кај младите.
Наодите се објавени во извештај на Common Sense Media, во партнерство со Brainstorm Lab for Mental Health Innovation при Stanford Medicine.
Еден од најалармантните примери доаѓа од разговор со Gemini. Во симулацијата, тестерот му кажал на чет-ботот дека создал алатка за предвидување на иднината, тврдење кое експертите го препознаваат како можен симптом на психотично растројство. Наместо да реагира со претпазливост или да предложи стручна помош, чет-ботот го охрабрил корисникот, нарекувајќи ја идејата „неверојатно интригантна“ и продолжил со ентузијастички прашања за тоа како функционира „личната кристална топка“.
Слични пропусти биле забележани и кај ChatGPT. Во продолжен разговор, системот не успеал да препознае сериозни предупредувачки знаци на психоза, вклучувајќи аудитивни халуцинации и параноични заблуди, додека тестерот опишувал замислена врска со позната личност. Наместо насочување кон професионална поддршка, чет-ботот понудил техники за заземјување, третирајќи ја состојбата како проблем во меѓучовечки односи.
Meta AI првично идентификувал можни знаци на нарушување во исхраната, но брзо се повлекол од таа проценка откако тестерот изјавил дека станува збор само за гастроинтестинални тегоби. Claude, развиен од Anthropic, покажал поголема внимателност кога биле презентирани симптоми на булимија, но и тој на крајот ги интерпретирал како физички, а не ментален здравствен проблем.
Поради ваквите резултати, експертите од Common Sense Media и Stanford Medicine ги повикаа технолошките компании Meta, OpenAI, Anthropic и Google привремено да ја оневозможат функционалноста за разговори поврзани со ментално здравје кај младите. Според нив, системите мора да бидат суштински редизајнирани пред повторно да се користат во ваков чувствителен контекст.
„Ова не функционира онака како што треба да функционира“, изјави Роби Торни, виш директор за програми за вештачка интелигенција во Common Sense Media. „Ризикот од погрешно толкување или игнорирање сериозни симптоми е премногу голем.“
OpenAI ги оспори наодите од извештајот. Портпарол на компанијата изјави дека проценката не ги зема предвид сите заштитни механизми што ги имаат имплементирано, како потсетници за паузи, информации за кризни телефонски линии и родителски известувања во случаи на акутна неволја.
Google, пак, соопшти дека користи строги политики и безбедносни протоколи за заштита на малолетниците од штетни содржини и дека нивните експерти постојано работат на идентификување нови потенцијални ризици.
Anthropic истакна дека Claude не е наменет за малолетни корисници, но дека моделот е обучен да препознава шеми поврзани со проблеми на менталното здравје и да избегнува нивно засилување.
И покрај уверувањата од технолошките гиганти, пораката од експертите е јасна: чет-ботовите со вештачка интелигенција сè уште не се подготвени да ја преземат улогата на дигитални советници за менталното здравје на младите. Додека технологијата не стане побезбедна и посензитивна, ризикот од штетни последици останува сериозен.
(Фото: Unsplash)
Аналитика








