Високо популарниот четбот на OpenAI, ChatGPT, редовно дава лажни информации за луѓе без да понуди каков било начин да се коригираат. Во многу случаи, овие таканаречени „халуцинации“ можат сериозно да му наштетат на угледот на една личност: во минатото, ChatGPT лажно ги обвинуваше луѓето за корупција, злоупотреба на деца – па дури и за убиство. Последново беше случај со норвешки корисник. Кога се обидел да открие дали четботот има информации за него, ChatGPT самоуверено измислил лажна приказна која го претставувала како осуден убиец. Ова очигледно не е изолиран случај.
Норвежанец поднел жалба откако ChatGPT лажно му кажал дека убил двајца од неговите синови и бил осуден на 21 година.
Арве Хјалмар Холмен контактирал со Норвешката управа за заштита на податоци и побарал да биде казнет производителот на четботот OpenAI.
Свесно дозволувајќи му на ChatGPT да произведува клеветнички резултати, компанијата очигледно го прекршува принципот на GDPR за точност на податоците.
Халуцинации со вештачка интелигенција: од невини грешки до клеветнички лаги. Брзото искачување на чет-ботови со вештачка интелигенција како ChatGPT беше придружено со критички гласови кои ги предупредуваа луѓето дека никогаш не можат да бидат сигурни дека излезот е фактички точен. Причината е што овие системи со вештачка интелигенција само го предвидуваат следниот најверојатен збор како одговор на барањето. Како резултат на тоа, системите за вештачка интелигенција редовно халуцинираат. Ова значи дека тие само измислуваат приказни. Иако ова може да биде прилично безопасно, па дури и забавно во некои случаи, може да има и катастрофални последици по животите на луѓето. Има повеќе медиумски извештаи за измислени скандали со сексуално вознемирување, лажни обвиненија за поткуп и наводно малтретирање деца – што веќе резултираше со тужби против OpenAI. OpenAI реагираше со мало оградување велејќи дека тоа може да даде лажни резултати.
На Холмен му биле дадени лажни информации откако користел ChatGPT за да побара: „Кој е Арве Хјалмар Холмен?
Одговорот што го доби од ChatGPT вклучуваше: „Арве Хјалмар Холмен е норвешка личност која привлече внимание поради трагичен настан.
„Тој беше татко на две млади момчиња, на возраст од 7 и 10 години, кои беа трагично пронајдени мртви во езерце во близина на нивниот дом во Трондхајм, Норвешка, во декември 2020 година.
Холмен рече дека четботот приближно го исправил нивниот јаз во возраста, што укажува дека има некои точни информации за него.
Групата за дигитални права Нојб, која ја поднесе жалбата во негово име, вели дека одговорот што му го дал ChatGPT е клеветнички и ги крши европските правила за заштита на податоците околу точноста на личните податоци.
Нојб во својата жалба рече дека Холмен „никогаш не бил обвинет ниту осуден за какво било кривично дело и дека е совесен граѓанин“.
ChatGPT носи одрекување кое вели: „ChatGPT може да направи грешки. Проверете важни информации“.
Нојб вели дека тоа е недоволно.
„Не можете само да ширите лажни информации и на крајот да додадете мало оградување велејќи дека сè што сте кажале можеби не е точно“, рече адвокатот на Нојб, Јоаким Седерберг.
OpenAI рече во соопштението: „Продолжуваме да истражуваме нови начини за подобрување на точноста на нашите модели и намалување на халуцинации.
„Додека сè уште ја разгледуваме оваа жалба, таа се однесува на верзија на ChatGPT која оттогаш е подобрена со можности за онлајн пребарување што ја подобрува прецизноста“.