Проблясък на сини китове в сълзите ви
Каква е разликата между сълза и океан? Въпросът може да изглежда смешен, но океаните и сълзите имат повече общо, отколкото може да изглежда на пръв поглед. И двете са до голяма степен съставени от солена вода, и в двете живеят същества (малки микроорганизми в случая на сълзи), средната температура на сълзата и океана са удобно в диапазона, в който водата е течна. Истинската разлика е в обема – но добавете 1024 (за не-математически склонни, това е единица с двадесет и четири нули след нея или 1 000 000 000 000 000 000 000 000) сълзи заедно и ще получите всички океани на Земята .
Това илюстрира истината за възникващите свойства. В определен момент повече престава да бъде просто повече от същото и се превръща в нещо качествено различно. Появяват се свойства, които не са очевидни в по-малките колекции. Една сълза е едва забележима. Няколкостотин е мокра носна кърпичка в края на „плачлив“ филм. Приливи и отливи, драматични брегове, вълни, по които можете да сърфирате, и местообитания, които могат да поддържат всичко - от арктически пингвини до тропически корали, се появяват, докато се движите нагоре по скалата на размера от сълза до океан.
Битове, байтове и йотабайтове.
Същият феномен на възникващи свойства се прилага и в компютърните науки. Пътуването от най-ранните вентилни компютри с размерите на стая от 1940 г. до днешния напълно свързан свят илюстрира това. Днес всеки носи мрежов суперкомпютър в джоба си – който след това се използва за критични задачи като проверка на социални медии или резервиране на доставка на храна. Малко от тези дейности биха били очевидни за всеки, който обмисля Колосът в Блечли Парк през 1944 г., а съвременният свързан свят със сигурност е нововъзникващо свойство, което не би било очевидно, преминавайки от един транзистор към милиарди.
Много от принципите, които стоят в основата на днешните авангардни AI системи, имат своите корени в самата зора на революцията в електронните компютри през 40-те и 50-те години. Въпреки че може да мислим, че системите, базирани на невронни мрежи, са текущото състояние на техниката в машинното обучение, произходът на днешните системи може да бъде проследен назад до перцептрона, разработен в края на 50-те години. Това устройство демонстрира необичайните ефекти, произтичащи от няколко прости правила, и с вход от само 20 x 20 фотодиода може да бъде обучено да разпознава прости набори от изображения – правоъгълник срещу овал например.
Ако тези първи персептрони имаха само 400 „подлежащи на обучение“ параметъра (20 x 20), днешните най-съвременни системи за обработка на естествен език може да имат 175 милиарда или повече параметъра – девет порядъка повече. В основата си отделните изкуствени „неврони“, които се използват в невронните мрежи, са прости – няколко входа, свързани с неврона. На всяка входна връзка се присвоява тегло. От математически термини входната стойност се умножава по теглото. След това невронът сумира всички резултати от умноженията и резултатът определя нивото на активиране на неврона (често след като резултатът е нормализиран, за да се побере в определен диапазон на активиране).
В изолация единичен неврон е напълно предвидим и разбираем. Няма очевидни трудности с пристрастията или етиката. Нито едно от различните потенциални злополуки, които са разгледани в различни бели книги и проекторегулации относно ИИ, не се проявява.
Потенциалът за тези ефекти се създава от възникващите свойства, произтичащи от мащабирането от един неврон до стотици милиарди.
Въпрос на определение
Адвокатите обичат определение. Те създават илюзията за сигурност, въпреки че почти всяка дума има множество нюансирани значения. Представете двама съдещи се с една и съща дефиниция в дело, което обръща значението му, и дори най-привидно кристално чистият текст ще се разпадне в двусмислие и контрааргументи. Въпреки това определенията както в законодателството, така и в договорите са изключително важни и ще очертаят обхвата на задълженията или пейзажа на забранените поведения.
В областта на ИИ коментаторите често ще прекарват време в изследване на очевидната невъзможност да се дефинира „интелигентност“ и следователно двойната невъзможност да се дефинира ИИ чрез препратка към интелект.
Онези, които се борят с дефинициите в договорите или законодателството, често ще възприемат или технологичен подход, или целенасочен подход, или ще заобиколят двете.
Подходът, базиран на технологии, може да осигури предимството на много ясен тест за това дали дадена система попада или не в дефиницията. Например, „AI означава всяка система, използваща невронна мрежа“ може да осигури относителна яснота относно това кои системи са уловени, но е натоварен с очевидни недостатъци. Какво се случва, когато технологията върви напред? Какво ще кажете за системи, които проявяват злополуките, които искате да регулирате, но които може да не разчитат на съответната технология? Какво ще кажете за системи, които могат да използват невронни мрежи по прост или безвреден начин и на които не възнамерявате да налагате задълженията, които включват дефиницията?
Целенасочените подходи са склонни да се фокусират върху случая на използване на дадена система, често чрез позоваване на умения, които преди са били запазени за човешки същества, или чрез позоваване на способността на системата да „учи“.
Първото (замяна на хора) предполага, че замяната на човек е или абсолютна, или особено уместна. В много случаи сравнително прости технологии, използвани при комбинация, могат да позволят на един служител да поеме работата, извършвана преди това от няколко. Особено когато задачите са преструктурирани, за да включват елемент на „самообслужване“, всяка дефиниция, която включва машини, изпълняващи задачи, които преди са били запазени за хората, рискува да улови технологии, толкова банални като банкоматите или системите за самообслужване в супермаркетите. Тези системи може да са заменили съответно банковите касиери и касиерите, но малко от нас биха ги сметнали за ИИ, заслужаващи специален контрол или регулиране.
Последното (капацитет за учене) разкрива заблуда в популярното мислене за системите с ИИ. Докато системите може да се учат по време на фаза на обучение, тези, внедрени в производствени среди, обикновено са във фиксирано състояние за извод, като новите версии от допълнително обучение се пускат само периодично (и след това в подобно фиксирано състояние). Всички системи, използвани за извод, сами по себе си не биха имали капацитета да се обучават и следователно биха били пропуснати от дефиниция, която се фокусира единствено върху това качество.
Точно тези предизвикателства присъстват в дефиницията на системата за ИИ в последния проект на Регламента за ИИ на ЕС към датата на писане. Актуализираната версия в компромисния текст, публикуван от Европейския съвет през ноември 2021 г., гласи:
„система с изкуствен интелект“ (AI система) означава система, която
Съдържанието на Приложение 1, в което са изброени техниките и подходите, остава според първоначалния проект:
(a) Подходи за машинно обучение, включително контролирано, неконтролирано и подсилващо обучение, като се използва голямо разнообразие от методи, включително задълбочено обучение;
(b) Подходи, базирани на логика и знания, включително представяне на знания, индуктивно (логическо) програмиране, бази от знания, изводи и дедуктивни машини, (символно) разсъждение и експертни системи;
(c) Статистически подходи, байесова оценка, методи за търсене и оптимизация.
Позоваването на тази дефиниция на изброените технологии или техники в Приложение 1 разгръща мрежата, за да се опита да бъде надеждна определението. Това ще доведе до много широк клас системи, считани за „системи с изкуствен интелект“, което от своя страна ще обхване операторите на много съществуващи системи, които не проявяват и не могат да проявяват нито едно от потенциално проблемните възникващи свойства, които регламентът е предназначен основно да контролира. В резултат на това (и ако приемем, че нещо подобно на това определение остава във версията на регламента, който е приет), регулаторната тежест и съпътстващите разходи за съответствие ще паднат върху много по-широк кръг от системи и оператори, отколкото е строго необходимо.
Нова алтернатива
В идеалния случай всяка дефиниция на AI трябва да бъде сравнително ясна, технологично агностична и да обхваща онези системи, които могат да проявят съответните злополуки, като същевременно не хвърля мрежата твърде широко и не налага задължения на онези, които не представляват риск.
Авторите предлагат дефинициите да се фокусират върху възникващите свойства на сложността и неочакваното поведение, което може да доведе, а не върху конкретна технология или цел.
Разгледайте следното като пример:
„AI система“ е всяка автоматизирана система за обработка на данни или вземане на решения:
Тази дефиниция се фокусира върху идеята, че злополуките, които основно трябва да бъдат контролирани чрез каквито и да било задължения, свързани със системите с ИИ, са тези, които възникват неочаквано.
Всеки оператор, използващ система за умишлено извършване на дейност, която е предубедена, дискриминационна, ненадеждна или измамна, вече би носил отговорност по закон за такова предубедено или нечестно поведение, независимо дали включва или не някаква AI система. Нюансът при системите с изкуствен интелект е, че подобно поведение може да не е предвидено, но (ако системата не е добре проектирана и наблюдавана) въпреки това може да се прояви.
Прилагайки това определение, оператор, който умишлено е създал система като дискриминационна, може да не бъде хванат от това определение, но ще бъде хванат от съществуващото законодателство, контролиращо съответните поведения. До степента, в която съответните престъпления изискват виновно намерение (mens rea за тези, които предпочитат латиница), такова намерение очевидно ще е налице в такъв случай.
Въпреки това, операторът, който е създал система, която показва неочаквани отклонения или която от време на време и непредсказуемо дава грешни резултати, ще бъде хванат от това ново определение. Следователно всички контроли, прилагани в съпътстващото законодателство, използващо това определение, биха уловили онези системи, които биха могли да се възползват от тези контроли. Примери за съответен контрол върху операторите могат да включват:
За тези, които предпочитат подход с медно дъно на колани и презрамки, определението може да бъде разширено с трети крайник, за да включи конкретно системи, при които проблемното поведение е умишлено проявено в системата, така че да не е необходимо да разчитат изцяло на настоящите антидискриминационни закони и т.н., за да контролират тези лоши актьори, използващи сложни системи за антисоциални цели.
Интелигентно регулиране
Въпреки че представянето на възможни алтернативни определения представлява отклоняващо философско предизвикателство, определенията, които операторите на ИИ трябва да имат предвид, са тези, които в крайна сметка се появяват в съответното законодателство.
От гледна точка на ЕС изглежда вероятно Регламентът на ЕС за ИИ да запази определение, сравнително близко до това в настоящите проекти. Точно както определението на GDPR за „лични данни“ стана де факто стандарт, определението за AI система в Регламента на ЕС за AI може следователно да се превърне в еталонно определение в индустрията. Други конкуриращи се (и потенциално несъвместими) определения вероятно ще се съдържат в законите, регулиращи аспекти на внедряването на AI в САЩ, Обединеното кралство, Китай и другаде. В САЩ и вероятно в Обединеното кралство законодателите могат да приложат по-секторен подход, насочен към конкретни употреби на ИИ в определени индустрии. Този секторен подход може да доведе до повече смесица от дефиниции на ИИ в зависимост от контекста.
На този фон регулаторите, като изпълнители на тези нови правила, ще трябва да приложат собствената си философия към законодателните определения. Отново можем да погледнем към опита в областта на защитата на данните, за да видим как може да се развие, въпреки че трябва да се върнем по-назад от GDPR. В първите години след въвеждането на Директивата за защита на данните от 1995 г. в законите на държавите-членки видяхме чисто новото определение за лични данни, тествано отново и отново – Какво представляват лични данни? Колко лесно трябва да бъде идентифициран субектът на данни? Наистина ли беше забранено на родителите да заснемат училищни пиеси на Рождество Христово? При решаването на тези въпроси регулаторите бяха длъжни да следват текста на дефиницията, но по този начин неизбежно разкриха собствената си гледна точка и философия.
Същото ще важи и за ключовите дефиниции на ИИ в тези нови закони – въпреки че предвид обхвата на дефинициите, регулаторите ще се радват на още по-голяма свобода на действие при тълкуването на ограниченията на дефинициите в съответствие със собствените си концепции и цели. Имайки предвид това, ако тези регулатори обръщат внимание на това дали определени системи показват или не проявяват потенциално проблемни възникващи свойства, това би могло да даде полезна насока къде трябва да се съсредоточат усилията за правоприлагане.
Следващи стъпки
За тези, които искат да се възползват от обещанието, предлагано от най-съвременните AI системи в тяхната организация, всяко определение, предложено от законодателите (независимо дали широкото определение, което вероятно ще бъде прието в ЕС, или потенциално по-целенасочени определения което може да намери благоволение другаде) е вероятно да се приложи към тази система по един или друг начин. Фокусирането върху осигуряването на потенциалните възникващи свойства (и отрицателните ефекти, които могат да възникнат от тях) е от решаващо значение. Коментарите от правителствата и предложените регулаторни режими са фокусирани върху обяснимостта, прозрачността, надеждността и способността да се забелязват и изкореняват пристрастия, които могат да възникнат. Проектирането на системи с оглед на тези цели е най-добрият начин да се гарантира, че подходът „съответствие при проектиране“ е възприет с развитието на регулациите.
Разбира се, бизнесът не стои неподвижен и не чака регулациите да бъдат уредени, приложени и разбрани. Поради това в момента ще има безброй сложни дейности по внедряване на технологии по целия свят. Следователно опасенията са, че възникващата регулация може да пресече бизнес нужда, продуктова пътна карта или нов бизнес. За да разрешат това безпокойство, организациите трябва да вземат предвид потенциалните нови разпоредби, преди да пристигнат, за да гарантират, че имат защитим, подлежащ на одит и в крайна сметка разумен подход за внедряване (в контекста на техния сектор).