ПОВЕЌЕ

    Google, Microsoft, OpenAI и Anthropic формираат организација за безбеден развој на вештачка интелигенција

    Време зa читање: 3 минути

    Google, Microsoft, OpenAI и Anthropic објавија дека оформиле заедничко тело, чија цел е промовирање безбеден развој на вештачка интелигенција. Идејата е компанииите кои создаваат вештачка интелигенција да соработуваат со креаторите на политики и со истражувачите околу начините за регулирање на развојот на најсовремената вештачка интелигенција.

    Новата организација, позната како Форум на граничен модел (Frontier Model Forum), беше објавена во средата од Google, Microsoft, OpenAI и Anthropic. Компаниите објавија дека мисијата на форумот ќе биде да развие најдобри практики за безбедност на вештачката интелигенција, да промовира истражување за ризиците од вештачката интелигенција и јавно да споделува информации со владите и граѓанското општество.

    Развивачите на вештачка интелигенција се здружуваат околу доброволните заштитни огради за технологијата пред очекуваниот притисок оваа есен од страна на законодавците на САД и Европската унија да создадат обврзувачка легислатива за индустријата.

    Вестите за форумот доаѓаат откако четирите компании за вештачка интелигенција, заедно со неколку други, вклучувајќи ги Amazon и Meta, ветија пред администрацијата на Бајден дека ќе ги подложат нивните системи за вештачка интелигенција на тестирање од трета страна пред да ги објават во јавноста и јасно ќе ја означуваат содржината генерирана од вештачка интелигенција.

    Форумот предводен од индустријата, кој е отворен и за други компании кои ги дизајнираат најнапредните модели на вештачка интелигенција, планира да ги направи достапни своите технички проценки и одредници преку јавно достапна библиотека, се вели во заедничката изјава на компаниите.

    „Компаниите што создаваат технологија за вештачка интелигенција имаат одговорност да обезбедат дека таа е безбедна, безбедна и останува под човечка контрола“, рече претседателот на Мајкрософт, Бред Смит. „Оваа иницијатива е витален чекор за здружување на технолошкиот сектор во одговорно унапредување на вештачката интелигенција и справување со предизвиците, така што ќе му користи на целото човештво“.

    Најавата доаѓа еден ден откако експертите за вештачка интелигенција, како што се извршниот директор на Антропик, Дарио Амодеи и пионерот на вештачката интелигенција Јошуа Бенџо, ги предупредија законодавците на потенцијално сериозни, дури и „катастрофални“ општествени ризици кои произлегуваат од неограничениот развој на вештачката интелигенција.

    „Конкретно, загрижен сум дека системите со вештачка интелигенција би можеле да бидат злоупотребени во големи размери во доменот на сајбер безбедноста, нуклеарната технологија, хемијата и особено биологијата“, рече Амодеи во своето писмено сведочење.

    Во рок од две до три години, рече Амодеи, вештачката интелигенција може да стане доволно моќна за да им помогне на злонамерните актери да изградат функционално биолошко оружје, каде што денес тие актери може да немаат специјализирано знаење потребно за завршување на процесот.

    Најдобар начин да се спречат големи штети, рече Бенџо пред панелот во Сенатот, е да се ограничи пристапот до системите за вештачка интелигенција; развиваат стандардни и ефективни режими за тестирање за да се осигури дека тие системи ги одразуваат заедничките општествени вредности; ограничи колкав дел од светот може вистински да го разбере секој поединечен систем со вештачка интелигенција; и го ограничи влијанието што системите за вештачка интелигенција можат да го имаат врз реалниот свет.

    Европската унија се движи кон законодавство кое би можело да се финализира уште оваа година, кое ќе ја забрани употребата на вештачка интелигенција за предвидливо полициско работење и ќе ја ограничи неговата употреба во сценарија со помал ризик, додека американските законодавци далеку заостануваат во истиот процес.

    14,794Следи нè на facebookЛајк

    слично