Докато Законът за изкуствения интелект (AI) на ЕС си проправя път през множество кръгове на ревизии от страна на членовете на ЕП, в САЩ малко известна организация тихомълком разработва свои собствени насоки, за да помогне за насочването на развитието на такава обещаваща и същевременно опасна технология.
През март базираният в Мериленд Национален институт за стандарти и технологии (NIST) публикува първи проект на своята Рамка за управление на риска от изкуствен интелект, която излага много различна визия от тази на ЕС.
Работата се ръководи от Елхам Табаси, изследовател на компютърното зрение, който се присъедини към организацията преди малко повече от 20 години. След това „Изградихме [AI] системи, просто защото можехме“, каза тя. „Сега се питаме: трябва ли?“
Докато Законът за ИИ на ЕС е законодателство, рамката на NIST ще бъде изцяло доброволна. NIST, както Табаси многократно подчертава, не е регулатор. Основан в началото на 20-ти век, NIST вместо това създава стандарти и измервателни системи за технологии, вариращи от атомни часовници до наноматериали, и беше помолен от Конгреса на САЩ да изработи насоки за AI през 2020 г.
За разлика от Закона за изкуствен интелект на ЕС, NIST не посочва никаква конкретна употреба на изкуствен интелект като забранена (Законът, напротив, може да забрани разпознаването на лица на обществени места от властите, макар и с изключения за неща като тероризма).
И както указанията на NIST сухо отбелязват, неговата рамка „не предписва прагове на риска или [рискови] стойности.“ С други думи, зависи от разработчиците да претеглят рисковете и предимствата от пускането на своите AI системи в света.
„В крайна сметка ние наистина вярваме, че няма един размер, който да пасва на всички“, каза Табаси. „Зависи от собственика на приложението, разработчика […] който и да отговаря, да направи анализ на разходите и ползите и да реши.“ Разпознаването на лица от полицията, да речем, е много по-рискова перспектива, отколкото използването му за отключване на смартфон, твърди тя. Като се има предвид това, забраната за конкретен случай на употреба няма смисъл (въпреки че последните компромисни текстове относно Закона за изкуствен интелект на ЕС предполагат, че може да има изключения за отключване на телефони).
Законът на ЕС за ИИ многократно подчертава, че трябва да има окончателен „човешки надзор“ върху ИИ. Насоките на NIST не споменават това, защото дали е необходимо или не, всичко се свежда до това как се използва AI. „Ние наистина вярваме, че AI е свързан с контекста и „AI без човек“ не означава много“, каза Табаси. NIST не се опитва да регулира до това ниво на детайлност кога точно човек трябва да бъде в течение, подчертава тя.
Културна революция
Вместо твърди червени правни линии в пясъка, NIST се надява да предизвика доброволна революция в културата на развитие на ИИ. Той иска създателите на изкуствен интелект да помислят за опасностите и клопките на своите интелигентни системи, преди да бъдат разпространени пред обществеността. „Управлението на риска не трябва да бъде закъсняла мисъл“, каза Табаси.
На практика насоките на NIST могат да накарат американските технологични компании да се подчинят на доста голям външен надзор, когато създават своите AI продукти. NIST препоръчва „независима трета страна“ или „експерти, които не са служили като разработчици на първа линия“, да претеглят плюсовете и минусите на AI система, консултирайки се със „заинтересованите страни“ и „засегнатите общности“.
Подобни идеи вече започват да се налагат в индустрията. Практиката на „червен екип“, при която една компания отваря системата си за симулирана атака, за да изследва уязвимостите, вече е използвана от някои големи разработчици на AI, каза Себастиен Криер, експерт по политиката за AI в Станфордския университет. „Не бих казал, че все още има норма, но тя се използва все повече.“
NIST също иска разработчиците на AI да гарантират, че разполагат с „разнообразие на работната сила“, за да са сигурни, че AI работи за всички, а не само за тясна подгрупа от потребители.
„Наистина не трябва да зависи от хората, които разработват технологии, или само от тях, да мислят за последствията и въздействието“, каза Табаси. „Ето защо имате нужда от много разнообразна група от хора.“
Това не означава само демографски и етнически различни екипи, подчерта тя. Хората, създаващи AI системи, също трябва да имат дисциплинарно разнообразие, включително, да речем, социолози, когнитивни учени и психолози. AI не може просто да бъде оставен в стая, пълна с завършили компютърни науки.
И ако разработчик реши, че дадена AI система има повече ползи, отколкото рискове, той трябва да документира как е стигнал до това решение, се казва в указанията на NIST. Все още не е ясно дали тези документи ще бъдат публикувани.
Конфликти на интереси
Това сочи един очевиден конфликт на интереси с това да позволим на разработчиците на AI да решат дали техните системи са твърде рискови или не. Нов инструмент за изкуствен интелект може да позволи на технологична компания да извлече огромни печалби, като същевременно причинява неописуеми щети в реалния свят, както вероятно правят платформите за социални медии днес. Това несъответствие на стимулите засега не се разглежда директно в рамката на NIST, въпреки че външни експерти биха могли да осигурят глас на по-широко общество при вземането на решения.
„Не смятаме, че е наша работа да казваме какво е приемливото ниво на рисковете, какво е приемливото ниво на ползите“, каза Табаси. „Нашата работа е да предоставим достатъчно насоки, за да може това решение да бъде взето по информиран начин.“
Има много предложения за това как да се предотврати този конфликт на интереси. Едната е да изискваме системите с ИИ да са „лоялни“: тоест те наистина да служат на потребителите, а не на компаниите, които ги изграждат, или на някакъв друг външен интерес.
„Има много системи, които не са прозрачни за това с чии стимули са съгласувани“, каза Карлос Игнасио Гутиерес, изследовател на политиката за ИИ в базирания в САЩ Институт за бъдещето на живота, който води кампании за намаляване на риска нововъзникващи технологии.
Например, инструмент за навигация може да има сделка с компания за бързо хранене, така че да отклони маршрута ви много леко, за да ви насочи по-близо до заведението за бургери. По-сериозно, приложението за медицинска диагностика всъщност може да бъде програмирано да спестява пари на медицински застраховател, вместо да прави това, което е най-добро за пациента.
„Цялата идея зад лоялността е, че има прозрачност между тези стимули, които са подравнени“, каза Гутиерес. Но в момента концепцията не е залегнала нито в насоките на NIST, нито в Закона за ИИ на ЕС, отбелязва той.
Изкуствен общ интелект
Насоките на NIST също така не успяват да адресират директно страховете около създаването на така наречения изкуствен общ интелект (AGI): агент, способен на всичко, което човек може да направи, който, ако не е умело приведен в съответствие с човешките цели, може да се развие от нашия контрол и, според мнението на редица светила на ИИ и други фигури, включително Илон Мъск, застрашават съществуването на самото човечество.
„Дори ако вероятността от катастрофални събития е ниска, тяхното потенциално въздействие изисква значително внимание“, предупреждава базираният в Оксфорд Център за управление на изкуствения интелект в неотдавнашното си подаване до NIST относно своите насоки. Обединеното кралство, въпреки че заема laissez faire отношение към AI като цяло, призна „дългосрочния риск от необвързан общ изкуствен интелект“ в стратегията си за AI миналата година.
AGI „не е проблем за следващите пет години, може би десетилетие“, каза Табаси. „Но време ли е да го планираме и да го разберем сега? Със сигурност." В САЩ, вместо NIST, притесненията около AGI се изследват в Националния консултативен комитет за изкуствен интелект, президентски консултативен орган, който миналия месец назначи първите си членове.
Изграждане на доверие
Табаси признава, че NIST не знае кои компании ще използват неговата рамка и до каква степен. „Не, нямаме никакви лостове за това“, каза тя.
Но предишните рамки на NIST относно поверителността и киберсигурността бяха приети от компаниите, въпреки че също бяха доброволни. Кибер насоките станаха кодифицирани във федералните агенции на САЩ и след това се разпространиха в частния сектор. „Наистина добрите учени, които имаме тук, ни позволяват да изградим доверие в индустрията“, каза Табаси.
Много от най-големите технологични фирми в САЩ, като Google, IBM, Adobe и Microsoft, изпратиха препоръки или взеха участие в семинари на NIST, за да помогнат за изработването на насоките.
Доброволни или „меки законови“ рамки като NIST се възприемат от индустрията, когато компаниите знаят, че твърдото законодателство, което го подкрепя, идва по пътя или ще бъде, ако не изчистят действията си, каза Гутиерес.
Но на федерално ниво в САЩ няма изгледи за твърд закон в близко бъдеще, въпреки че някои щати като Тексас и Илинойс създадоха законодателство, контролиращо разпознаването на лица.
„Така че NIST ще трябва да се надява, че компаниите смятат, че е в техен интерес да приемат рамката“, каза Гутиерес. „Това е сигнал към пазара, който казва, хей, опитвам се да бъда отговорен.“
Нещо повече, отбеляза той, ако технологична компания използва рамката, това може да ограничи обезщетенията, присъдени в съда, ако и когато дадена компания бъде съдена за неправилно функциониране на AI.
А предимството на незадължителния закон на NIST е неговата гъвкавост. Първата официална рамка трябва да бъде пусната през януари 2023 г., когато ЕС вероятно все още ще има години на спорове относно собственото си законодателство за ИИ. „Това е първа стъпка към превръщането на този начин за управление на рисковете, а не на земното право [… ] но практиката на земята“, каза Гутиерес.