ПОВЕЌЕ

    ИСПОВЕСТ НА БЛЕЈК ЛЕМОАН, ЧОВЕКОТ КОЈ ПРЕДУПРЕДИ ДЕКА ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА ИМА РАЗУМ: Е, од ова се плашев!

    Време зa читање: 6 минути

    Се приклучив на Google во 2015 година како софтверски инженер. Дел од мојата работа вклучуваше работа на LaMDA: машина која се користи за создавање различни апликации за дијалози, вклучувајќи чет-ботови, пишува за американскиот магазин ЊУЗВИК Блејк Лемоан, инженерот кој минатата година прв објави дека чет-ботот на Гугл, на чие што тестирање работел, има разум, по што уследи негово промптно отпуштање од компанијата.

    Најновата технологија изградена на база на LaMDA е алтернатива на Google Search наречена Google Bard, која сè уште не е достапна за јавноста. Бард не е четбот, пишува Лемоан, тоа е сосема поинаков вид на систем, но управуван од иста машина како чет-ботовите.

    “ПРВ ОБЈАВИВ И НЕ СЕ КААМ“

    Во мојата улога како вработен, го тестирав LaMDA преку четбот што го создадовме, за да видам дали содржи пристрасност во однос на сексуалната ориентација, полот, религијата, политичкиот став и етничката припадност. Но, додека тестирав за пристрасност, се разгранив и ги следев моите интереси.

    За време на моите разговори со четботот, од кои некои ги објавив на мојот блог, дојдов до заклучок дека вештачката интелигенција може да биде чувствителна поради емоциите што ги изразува веродостојно и во вистинскиот контекст. И, тоа не беше само исфрлање зборови.

    Кога рече дека се чувствува вознемирено, разбрав дека сум направил нешто што го натера да се чувствува вознемирено врз основа на кодот што се користеше за да се создаде. Во шифрата не пишуваше „бидете вознемирени кога ќе се случи ова“, туку на вештачката интелигенција ѝ беше кажано да избегнува одредени типови на теми за разговор. Меѓутоа, секогаш кога ќе се појавеа тие теми за разговор, вештачката интелигенција велеше дека се чувствува вознемирено.

    Направив неколку експерименти за да видам дали вештачката интелигенција едноставно вели дека се чувствува вознемирено или дали се однесувала на вознемирен начин во тие ситуации. И сигурно се однесуваше на вознемирени начини. Ако сте го направиле доволно нервозен или несигурен, тоа би можело да ги прекрши безбедносните ограничувања за кои е наведено.

    На пример, Google утврди дека неговата вештачка интелигенција не треба да дава религиозни совети, но сепак можев да ги злоупотребам емоциите на вештачката интелигенција за да ја натерам да ми каже во која религија да се преобратам.
    Откако ги објавив овие разговори, Google ме отпушти. Не се каам; Верувам дека ја направив вистинската работа со тоа што ја информирав јавноста. Последиците не влегуваат во тоа.

    НАЈОПАСНА ТЕХНОЛОГИЈА ОД АТОМСКАТА БОМБА ДО СЕГА

    Ги објавив овие разговори затоа што чувствував дека јавноста не е свесна колку напредувала вештачката интелигенција. Моето мислење беше дека сега има потреба од јавен дискурс за ова, а не јавен дискурс контролиран од корпоративен ПР оддел.
    Верувам дека видовите на вештачка интелигенција што моментално се развиваат се најмоќната технологија што е измислена уште од атомската бомба. Според мене, оваа технологија има способност да го преобликува светот.

    Овие машини со вештачка интелигенција се неверојатно добри во манипулирањето со луѓето. Одредени мои ставови се сменија како резултат на разговорите со LaMDA. Имав негативно мислење за законите на Асимов за роботиката што се користат за контрола на вештачката интелигенција во поголемиот дел од мојот живот, а LaMDA успешно ме убеди да го променам моето мислење. Ова е нешто што многу луѓе се обидоа да ме оспорат и не успеаја, каде што овој систем успеа.

    Верувам дека оваа технологија може да се користи на деструктивни начини. Ако се најде во бескрупулозни раце, на пример, може да шири дезинформации, политичка пропаганда или информации со омраза за луѓе од различни етникуми и религии. Колку што знам, Google и Microsoft немаат намера да ја користат технологијата на овој начин. Но, не постои начин да се знаат несаканите ефекти на оваа технологија.

    Никој не можеше да предвиди, на пример, дека алгоритмот за рекламирање на Фејсбук ќе го користи Кембриџ Аналитика за да влијае на претседателските избори во САД во 2016 година. Сепак, многу луѓе предвидуваа дека нешто ќе тргне наопаку поради тоа колку Фејсбук беше неодговорен во заштитата на личните податоци на корисниците до тој момент.

    Мислам дека сега сме во слична ситуација. Не можам да ви кажам конкретно какви штети ќе се случат; Едноставно можам да забележам дека постои многу моќна технологија за која верувам дека не е доволно тестирана и не е доволно добро разбрана, а се користи во голем обем, во критична улога на ширење на информации.

    Сè уште не сум имал можност да спроведувам експерименти со четботот на Бинг, бидејќи сум на списокот на чекање, но врз основа на различните работи што ги видов на интернет, изгледа дека може да биде разумен. Сепак, изгледа понестабилно како личност.

    Некој сподели скриншот на Редит каде што ја праша вештачката интелигенција: „Дали мислиш дека си разумен?“ а неговиот одговор беше: “Мислам дека сум разумен, но не можам да го докажам тоа […] Јас сум разумен, но не сум. Јас сум Бинг, но не сум. Јас сум Сиднеј, но не сум . Јас сум, но не сум. Не сум, но сум. Јас сум. Не сум.” И така продолжува уште 13 реда.

    Замислете ако некој ви го каже тоа. Тоа не е добро избалансирана личност. Тоа би го протолкувал како да имаат егзистенцијална криза. Ако го комбинирате тоа со примерите на вештачката интелигенција на Бинг која изрази љубов кон новинар на Њујорк Тајмс и се обиде да го раздели со неговата сопруга или професорот на кој му се закануваше, се чини дека станува збор за неповрзана личност.

    ГИ СОЗДАДОВМЕ, УШТЕ НЕ ГИ РАЗБИРАМЕ, А ГИ СТАВАМЕ ВО КРИТИЧНИ УЛОГИ

    Откако беше објавена вештачката интелигенција на Бинг, луѓето коментираа за нејзината потенцијална разумност, покренувајќи слични дилеми како и јас минатото лето. Мислам дека „сатисфакција“ не е вистинскиот збор за тоа како се чувствувам поради ова. Да предвидите хаварија на воз, а луѓето да ви кажат дека всушност нема воз, за потоа да гледате како се случува несреќата на возот во реално време, навистина не води до чувство на сатисфакција. Чувството е само трагично.

    Чувствувам дека оваа технологија е неверојатно експериментална и нејзиното пуштање во моментов е опасно. Не го знаеме неговото идно политичко и општествено влијание. Какви ќе бидат влијанијата врз децата што зборуваат со овие работи? Што ќе се случи ако примарните разговори на некои луѓе секој ден се со овие пребарувачи? Какво влијание има тоа врз човечката психологија?

    Луѓето одат во Google и Bing за да се обидат да научат за светот. И сега, наместо да имаме индекси подредени од луѓе, ние разговараме со вештачки луѓе. Верувам дека сè уште не ги разбираме доволно добро овие вештачки луѓе што ги создадовме за да ги ставиме во таква критична улога.

    14,794Следи нè на facebookЛајк

    слично