Извршниот директор на OpenAI, компанијата одговорна за креирање на четбот со вештачка интелигенција ChatGPT и генератор на слики Dall-E 2, рече дека „регулацијата на вештачката интелигенција е од суштинско значење“ како што сведочеше во своето прво појавување пред американскиот Конгрес.
Говорејќи пред сенатската комисија за правосудство во вторникот, Сем Алтман рече дека ги поддржува регулаторните заштитни огради за технологијата што ќе ги овозможи придобивките од вештачката интелигенција, а истовремено ќе ги минимизира штетите. „Сметаме дека регулаторната интервенција од страна на владите ќе биде критична за да се ублажат ризиците од сè помоќните модели“, рече Алтман во своите подготвени забелешки.
„ЗА НОВА ТЕХНОЛОГИЈА ТРЕБА И НОВА РАМКА“
Алтман сугерираше дека американската влада би можела да ги разгледа барањата за лиценцирање и тестирање за развој и објавување на модели со вештачка интелигенција. Тој предложи да се воспостават сет на безбедносни стандарди и специфичните модели за тестирање треба да поминат пред да можат да бидат распоредени, како и да им се дозволи на независните ревизори да ги испитаат моделите пред да бидат лансирани. Тој, исто така, тврди дека постоечките рамки како Секција 230, кој ги ослободува платформите од одговорност за содржината што нејзините корисници ја објавуваат, нема да бидат вистинскиот начин за регулирање на системот.
„За нова технологија ни треба нова рамка“, рече Алтман.
И Алтман и Гери Маркус, почесен професор по психологија и невронаука на Универзитетот во Њујорк, кој исто така сведочеше на сослушувањето, повикаа на нова регулаторна агенција за технологијата. Вештачката интелигенција е комплицирана и брзо се движи, тврди Маркус, исклучително е важно да се направи „агенција чија единствена работа ќе биде да ја регулира“.
Во текот на сослушувањето, сенаторите повлекуваа паралели помеѓу социјалните медиуми и генеративната вештачка интелигенција, и лекциите што пратениците ги научија од неуспехот на владата да дејствува на регулирање на социјалните платформи.
Сепак, рочиштето беше многу помалку спорно од оние на кои сведочеа извршниот директор на Мета, Марк Закерберг. Многу пратеници му оддадоа заслуга на Алтман за неговите повици за регулирање и признавање на замките на генеративната вештачка интелигенција. Дури и Маркус, доведен да обезбеди скептицизам за технологијата, го нарече сведочењето на Алтман искрено.
Сослушувањето дојде бидејќи реномирани и почитувани експерти и етичари за вештачка интелигенција, вклучително и поранешните истражувачи на Google, д-р Тимнит Гебру, кој го предводеше тимот за етичка вештачка интелигенција на компанијата, и Мередит Витакер, алармираат за брзото усвојување на генеративната вештачка интелигенција, расправајќи ја технологијата. е премногу нагласена.
Алтман рече дека додека OpenAI гради алатки кои еден ден „ќе се справат со некои од најголемите предизвици на човештвото како климатските промени и лекувањето на ракот“, сегашните системи сè уште не биле способни да ги прават овие работи.
Но, тој верува дека придобивките од досега употребените алатки „многу ги надминуваат ризиците“ и рече дека компанијата спроведува опширно тестирање и имплементира системи за безбедност и следење пред да објави кој било нов систем.
„OpenAI е основан на верувањето дека вештачката интелигенција има способност да го подобри речиси секој аспект од нашите животи, но исто така и создава сериозни ризици со кои треба да работиме заедно за да управуваме“, рече Алтман.
Алтман рече дека технологијата значително ќе влијае на пазарот на труд, но тој верува дека „ќе има многу поголеми работни места од другата страна на ова“. „Работните места ќе се подобрат“, рече тој. „Мислам дека е важно да се размислува за GPT како алатка, а не како суштество… GPT 4 и алатки како него се добри во извршувањето задачи, а не работни места. Мислам дека GPT 4 целосно ќе автоматизира некои работни места и ќе создаде нови за кои веруваме дека ќе бидат многу подобри“.
ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА И ИЗБОРИТЕ ВО САД
Алтман, исто така, рече дека е многу загрижен за влијанието што ќе го имаат услугите со големи јазични модели врз изборите и дезинформациите, особено пред прелиминарни избори.
„Има многу што можеме и правиме“, рече Алтман како одговор на прашање од сенаторката Ејми Клобучар за твитот направен од ChatGPT во кој се наведени лажни локации за гласање. „Има работи што моделот нема да ги направи и има мониторинг. Во размер… можеме да откриеме некој што генерира многу од тие [дезинформации] твитови“.
Алтман сè уште немаше одговор за тоа како креаторите на содржини чии дела се користат во песни, статии или други дела генерирани со вештачка интелигенција можат да бидат обесштетени, велејќи дека компанијата е ангажирана со уметници и други субјекти за тоа како би можел да изгледа тој економски модел.
Темата која беше допрена во конгресното сослушување на Алтман, но не беше разработена беше потенцијалната опасност од мала група на моќни играчи кои доминираат во индустријата, иако Витакер предупреди на ризиците од зацврстување на постојната динамика на моќ.
„Постојат само неколку компании во светот кои имаат комбинација од податоци и инфраструктурна моќ за да го создадат она што го нарекуваме вештачка интелигенција од нос до опашка“, рече таа во интервјуто за Meet the Press. „Сега сме во позиција дека оваа пренагласена технологија се создава, дистрибуира и на крајот се обликува да им служи на економските интереси на истите тие неколку актери“.