• Tekniikka
  • Sähkölaitteet
  • Materiaaliteollisuus
  • Digitaalinen elämä
  • Tietosuojakäytäntö
  • O nimi
Location: Home / Tekniikka / Kuinka Yhdysvallat aikoo hallita tekoälyä

Kuinka Yhdysvallat aikoo hallita tekoälyä

Tekninen palvelu |
1113

Kun EU:n tekoälylaki taistelee useiden tarkistuskierrosten läpi Euroopan parlamentin jäsenten käsissä, Yhdysvalloissa vähän tunnettu organisaatio valmistelee hiljaa omia suuntaviivojaan auttaakseen kanavoimaan niin lupaava ja silti vaarallinen tekniikka.

Maaliskuussa Marylandissa toimiva National Institute of Standards and Technology (NIST) julkaisi ensimmäisen luonnoksen tekoälyn riskinhallintakehyksestään, jossa esitetään hyvin erilainen näkemys kuin EU:ssa.

Työtä johtaa Elham Tabassi, tietokonenäkötutkija, joka liittyi organisaatioon hieman yli 20 vuotta sitten. Sitten: "Rakensimme [AI]-järjestelmiä vain siksi, että pystyimme", hän sanoi. "Nyt kysymme itseltämme: pitäisikö meidän?"

Vaikka EU:n tekoälylaki on lainsäädäntöä, NISTin kehys on täysin vapaaehtoinen. NIST, kuten Tabassi toistuvasti korostaa, ei ole säätelijä. 1900-luvun alussa perustettu NIST luo sen sijaan standardeja ja mittausjärjestelmiä teknologioille, jotka vaihtelevat atomikelloista nanomateriaaleihin, ja Yhdysvaltain kongressi pyysi sitä laatimaan tekoälyohjeet vuonna 2020.

Toisin kuin EU:n tekoälylaki, NIST ei mainitse mitään erityistä tekoälyn käyttöä rajoitusten ulkopuolelle (laki sitä vastoin voisi kieltää viranomaisten kasvojentunnistuksen julkisilla paikoilla, vaikkakin poikkeuksin, kuten terrorismi).

Ja kuten NIST:n ohjeissa kuivuvasti huomautetaan, sen kehys "ei määrää riskikynnyksiä tai [riski]arvoja." Toisin sanoen kehittäjien tehtävänä on punnita tekoälyjärjestelmiensä vapauttamisen riskejä ja etuja maailmassa.

"Loppujen lopuksi uskomme todella, että kaikille ei ole yhtä kokoa", sanoi Tabassi. "On sovelluksen omistajan, kehittäjän […] tehtävä, kuka tahansa vastuussa oleva, tehdä kustannus-hyötyanalyysi ja päättää." Hän väittää, että poliisin suorittama kasvojentunnistus on paljon riskialtisempi mahdollisuus kuin sen käyttäminen älypuhelimen lukituksen avaamiseen. Tämän vuoksi tietyn käyttötapauksen kieltäminen ei ole järkevää (vaikka viimeaikaiset EU:n tekoälylakia koskevat kompromissitekstit viittaavat siihen, että puhelimien lukituksen avaamiseen voi olla poikkeuksia).

EU:n tekoälylaissa korostetaan toistuvasti, että tekoälyn on oltava perimmäinen "inhimillinen valvonta". NISTin ohjeissa ei mainita tätä, koska tarvitaanko sitä vai ei, kaikki riippuu siitä, kuinka tekoälyä käytetään. "Uskomme todella, että tekoäly perustuu kontekstiin, ja "AI ilman ihmistä" ei merkitse paljon", sanoi Tabassi. NIST ei yritä säännellä niin yksityiskohtaisesti, milloin ihmisen pitäisi olla silmukassa, hän korostaa.

Kulttuurivallankumous

Kovien punaisten lakiviivojen sijaan NIST toivoo saavansa aikaan vapaaehtoisen vallankumouksen tekoälyn kehityskulttuurissa. Se haluaa tekoälyn tekijöiden pohtivan älykkäiden järjestelmiensä vaaroja ja sudenkuoppia ennen kuin ne päästetään julkisuuteen. "Riskien hallinnan ei pitäisi olla jälkikäteen", Tabassi sanoi.

Käytännössä NISTin ohjeet voivat johtaa siihen, että yhdysvaltalaiset teknologiayritykset joutuvat melko suureen ulkopuoliseen valvontaan luodessaan tekoälytuotteitaan. NIST suosittelee, että "riippumaton kolmas osapuoli" tai "asiantuntijat, jotka eivät toimineet etulinjan kehittäjinä", punnisivat tekoälyjärjestelmän edut ja haitat ja kuulevat "sidosryhmiä" ja "yhteisöjä, joihin vaikutus on vaikuttanut".

Samankaltaiset ideat ovat jo alkaneet levitä alalla. Jotkut suuret tekoälykehittäjät ovat jo käyttäneet "punaista tiimityötä", jossa yritys avaa järjestelmänsä simuloidulle hyökkäykselle haavoittuvuuksien etsimiseksi, sanoi Stanfordin yliopiston tekoälypolitiikan asiantuntija Sebastien Krier. "En sanoisi, että normi on vielä olemassa, mutta sitä käytetään yhä enemmän."

NIST haluaa myös tekoälykehittäjien varmistavan, että heillä on "työvoiman monimuotoisuus", jotta tekoäly toimii kaikille, ei vain kapealle käyttäjäjoukolle.

"Teknologiaa kehittävien ihmisten tai vain heidän ei todellakaan pitäisi olla miettiä seurauksia ja vaikutuksia", Tabassi sanoi. "Siksi tarvitset hyvin monipuolisen ryhmän."

Tämä ei tarkoita vain demografisesti ja etnisesti erilaisia ​​tiimejä, hän painotti. Tekoälyjärjestelmiä luovilla ihmisillä on myös oltava tieteenalojen monimuotoisuutta, mukaan lukien esimerkiksi sosiologit, kognitiiviset tutkijat ja psykologit. Tekoälyä ei voida jättää vain huoneeseen, joka on täynnä tietojenkäsittelytieteen valmistuneita.

Ja jos kehittäjä päättää, että tekoälyjärjestelmällä on enemmän etuja kuin riskejä, hänen on dokumentoitava, miten hän päätyi tähän päätökseen, NIST-ohjeet sanovat. Toistaiseksi on epäselvää, julkistetaanko nämä asiakirjat.

Eturistiriidat

H hallita Yhdysvaltain keinotekoisia yhteyksiä

Tämä viittaa yhteen ilmeiseen eturistiriitaan, jonka mukaan tekoälykehittäjät voivat päättää, ovatko heidän järjestelmänsä liian riskialttiita. Uusi tekoälytyökalu voi antaa teknologiayritykselle mahdollisuuden saada valtavia voittoja ja samalla aiheuttaa mittaamatonta vahinkoa todellisessa maailmassa, kuten sosiaalisen median alustat luultavasti tekevät nykyään. Tätä kannustimien vääristymistä ei toistaiseksi käsitellä suoraan NIST-kehyksessä, vaikka ulkopuoliset asiantuntijat voisivat tarjota laajemmalle yhteiskunnalle äänen päätöksenteossa.

"Emme usko, että meidän tehtävämme on sanoa, mikä on hyväksyttävä riskitaso, mikä on hyväksyttävä hyöty", sanoi Tabassi. "Tehtävämme on antaa riittävästi ohjausta, jotta tämä päätös voidaan tehdä tietoisella tavalla."

On paljon ehdotuksia tämän eturistiriidan poistamiseksi. Yksi on vaatia, että tekoälyjärjestelmät ovat "lojaaleja": toisin sanoen, että ne todella palvelevat käyttäjiä, eivät niitä rakentavia yrityksiä tai muita ulkopuolisia etuja.

"Siellä on monia järjestelmiä, jotka eivät ole läpinäkyviä siitä, kenen kannustimien kanssa ne ovat linjassa", sanoi Carlos Ignacio Gutierrez, tekoälypolitiikan tutkija Yhdysvalloissa sijaitsevasta Future of Life Institutesta, joka kampanjoi riskien vähentämiseksi. kehittyvät teknologiat.

Esimerkiksi navigointityökalulla voi olla sopimus pikaruokayrityksen kanssa, joten se muuttaa reittiäsi hieman ohjatakseen sinut lähemmäksi hampurilaisravintolaa. Vakavammin sanottuna lääketieteellisen diagnostiikan sovellus voitaisiin itse asiassa ohjelmoida säästämään sairausvakuutusyhtiön rahaa sen sijaan, että se tekisi potilaalle parasta.

"Koko ajatus uskollisuudesta on se, että näiden kannustimien kohdistaminen on läpinäkyvää", Gutierrez sanoi. Mutta tällä hetkellä käsite ei ole juurtunut NISTin ohjeisiin eikä EU:n tekoälylakiin, hän huomauttaa.

Yleinen tekoäly

NIST-ohjeissa ei myöskään käsitellä suoraan pelkoja, jotka liittyvät niin kutsutun yleisen tekoälyn (AGI) luomiseen: agentti, joka kykenee kaikkeen, mitä ihminen voi tehdä ja joka, jos sitä ei soviteta älykkäästi ihmisten tavoitteisiin, voi irrota hallinnassamme ja useiden tekoälyvalaisimien ja muiden henkilöiden, mukaan lukien Elon Muskin, mielestä uhkaavat ihmiskunnan olemassaoloa.

"Vaikka katastrofaalisten tapahtumien todennäköisyys on pieni, niiden mahdollinen vaikutus vaatii huomattavaa huomiota", varoittaa Oxfordissa sijaitseva Center for the Governance of AI NISTille äskettäin toimittamassaan ohjeistuksessaan. Vaikka Yhdistynyt kuningaskunta suhtautui tekoälyyn yleisesti ottaen laissez faire -asenteella, tunnusti "liittymättömän yleisen tekoälyn pitkän aikavälin riskin" tekoälystrategiassaan viime vuonna.

AGI ei ole ongelma seuraaviin viiteen vuoteen, ehkä vuosikymmeneen, Tabassi sanoi. "Mutta onko aika suunnitella se ja ymmärtää se nyt? Varmasti." Yhdysvalloissa NIST:n sijaan AGI:tä koskevia huolenaiheita tutkitaan National Artificial Intelligence Advisory Committeessa, joka on presidentin neuvoa-antava elin, joka nimitti viime kuussa ensimmäiset jäsenensä.

Luottamuksen rakentaminen

Tabassi myöntää, että NIST ei tiedä, mitkä yritykset käyttävät sen puitteita ja missä määrin. "Ei, meillä ei ole vaikutusta siihen", hän sanoi.

Mutta yritykset ovat omaksuneet aiemmat yksityisyyttä ja kyberturvallisuutta koskevat NIST-kehykset, vaikka ne ovat myös vapaaehtoisia. Kyberohjeet kodifioitiin Yhdysvaltain liittovaltion virastoissa ja levisivät sitten yksityiselle sektorille. "Täällä olevat todella hyvät tiedemiehet antavat meille mahdollisuuden rakentaa luottamusta alaan", Tabassi sanoi.

Monet Yhdysvaltain suurimmista teknologiayrityksistä, kuten Google, IBM, Adobe ja Microsoft, ovat antaneet suosituksia tai osallistuneet NIST-työpajoihin auttaakseen ohjeiden laatimisessa.

NISTin kaltaiset vapaaehtoiset tai "pehmeän lain" viitekehykset otetaan käyttöön teollisuudessa, kun yritykset tietävät, että sitä tukeva kova laki on tulossa tielle tai tulee olemaan, jos ne eivät siivoa toimintaansa, Gutierrez sanoi.

Mutta liittovaltiotasolla Yhdysvalloissa ei ole odotettavissa kovaa lakia lähitulevaisuudessa, vaikka jotkin osavaltiot, kuten Texas ja Illinois, ovat luoneet kasvojentunnistusta säätelevää lainsäädäntöä.

"NISTin on siis toivottava, että yritykset pitävät kehyksen käyttöönottoa etujensa mukaisena", Gutierrez sanoi. "Se on signaali markkinoille, että hei, yritän olla vastuullinen."

Lisäksi hän huomautti, että jos teknologiayritys käyttää kehystä, tämä voi rajoittaa tuomioistuimessa määrättyjä vahingonkorvauksia, jos ja kun yritystä haastaa oikeuteen tekoälyn toimintahäiriöstä.

Ja NISTin pehmeän lain etu on sen ketteryys. Ensimmäiset viralliset puitteet julkaistaan ​​tammikuussa 2023, jolloin EU:lla on todennäköisesti vielä vuosia edessään kiistelyä omasta tekoälylainsäädännöstään. "Se on ensimmäinen askel, jotta tästä tulee yksi tapa hallita riskejä, ei maalakia [… ] vaan maan harjoitus”, Gutierrez sanoi.