Европейският подход към регулиране на изкуствения интелект
Развитието на технологиите води до по-широко приложение на различни алгоритми, които могат да се развиват на базата на машинно учене. Затова има особено значение какъв ще бъде подходът към регулиране на изкуствения интелект и неготово приложение в различни сфери на икономическата и административната дейност.
Към момента Европейската комисия е предложила проект на Регламент за хармонизирани правила за регулиране на изкуствения интелект. В законодателното предложение изрично е посочено, че е необходимо този въпрос да се уреди именно с регламент, за да се гарантира единно прилагане на правилата и сигурност за всички адресати на територията на целия ЕС. Неговият обхват ще включва всички системи, които използват изкуствен интелект на територията на ЕС, включително такива, които се намират физически на територията на трети държави, ако резултатът от работата им се използва на територията на ЕС. Разбира се може да се постави въпросът какво би се случило, ако резултатът не се ползва на територията на ЕС – за тези случаи ще има значение какви данни се обработват: за данни, които няма специален режим за събиране и ползване, това ще може да се направи свободно; за данни, за които има регулация, например лични данни, тя ще трябва да бъде спазена преди да започне обработването им от съответната система.
Първият въпрос, който следва да изясни регламентът, е какво е понятието за изкуствен интелект, като към момента на ниво Европейски съвет все още има дебат дали предложеният подход е подходящ. За момента предложението е понятието за изкуствен интелект да е софтуер, който при определени от човек цели може да дава съдържание, препоръки, прогнози или решения, които имат влияние в средата, с която взаимодействат. За да се осигури гъвкавост и стабилност на понятието, следва да бъдат изброени изрично технологии, които следва да се използват за изграждане на софтуера, за да се приеме, че е налице изкуствен интелект. Списъкът с такива технологии ще е в приложение към регламента, като ЕК ще може да го допълва и разширява.
По отношение на системите, които попадат в приложното поле на регламента са предвидени няколко групи правила:
1. За пускане на пазара и ползването на системи, които включват изкуствен интелект;
2. Забрана на определени практики, свързани с изкуствен интелект;
3. Специфични изисквания за системи с висок риск;
4. Правила за прозрачност за системи, които взаимодействат с хора, или които се основават на разпознаване на емоциите, биометрично категоризиране, или които могат да се използват за създаване или манипулиране на образи, аудио или визуално съдържание.
5. Правила за наблюдение на пазара.
Независимо, че сферите на регулиране на изкуствения интелект са така подредени в чл. 1 от проекта за регламент, на първо място са изброени забраните на определени практики. В тази група попадат следните практики:
– системи, които подсъзнателно въздействат върху хора, в резултат на което могат да настъпят вреди за човек;
– системи, които експлоатират слабости на специфична група хора, в резултат на което могат да настъпят вреди за човек;
– системи за оценяване на поведението или класифициране на благонадеждността на лице на база на наблюдение на неговото поведение, когато това оценяване води до по-неблагоприятно третиране на лицето в контекст, различен от този, в който данните са събрани, или води до по-неблагоприятно третиране, непропорционално на поведението на тези лица;
– системи за отдалечена биометрична идентификация в реално време (тук се допускат изключения за определени цели, но само по изключение).
В предложението за регламент се предвижда и регулиране на изкуствения интелект във връзка със системи с висок риск. За такива системи се определят тези, които гарантират безопасността на стоки и услуги, посочени в приложение № 2 към регламента, и съответно за тях е предвидено оценка за съответствие от трето лице. Допълнително, високорискови системи могат да се посочват и в приложение № 3 към регламент, което може да се допълва от Европейската комисия. По отношение на такива системи с висок риск се изисква задължително да се ползва система за контрол на риска. Като нов законодателен подход може да се отчете, че регламентът предвижда правила не само към функционирането на изкуствения интелект, но и към входните данни, на които това функциониране се основава. Освен това са формулирани изрични изисквания цялата техническа документация да е прозрачна и разбираема за потребителите, както и да се съхраняват регистри (записи) за всички извършени действия. Задължително е системи с висок риск да бъдат непрекъснато под човешки надзор. Регламентът предвижда редица допълнителни задължения, които се разпределят между създателя на изкуствения интелект и лицето, което го е пуснало в експлоатация.
Спазването на тези изисквания ще може да се установява чрез установяване на съответствие с хармонизирани стандарти, публикувани в „Официален вестник на ЕС“, или стандартни спецификации, одобрени от ЕК. Ако не се спазват тези стандарти, доставчиците на изкуствен интелект ще трябва да доказват, че са предприети еквивалентни мерки за постигане на тези стандарти. Предвидена е и процедура за оценка на съответствието на системите за изкуствен интелект, като това ще може да става чрез вътрешен контрол или с участие на нотифициран орган, определен съгласно регламента. По отношение на тези органи е предвидено, че те трябва да бъдат одобрени от определен от всяка държава нотифициращ орган.
Като част от правилата за регулиране на изкуствения интелект се предвиждат и задължения за прозрачност за системи, които не са високорискови. Тези задължения предполагат всеки човек да може да разбере, че взаимодейства със система, базирана на изкуствен интелект. Допълнително уведомяване следва да има, ако системата разпознава човешки емоции или събира биометрични данни. Системи, които редактират снимки, аудио или визуално съдържание (за създаване на “deep fake” или „дълбинни фалшификати“), следва да гарантират предоставяне на информация, че съдържанието е редактирано.
Регламентът предвижда и мерки за насърчаване на инвестициите – например регулаторни лаборатории за развитие на изкуствен интелект, включително възможност за повторно използване на събрани за други цели лични данни, т.е. изключение от правилата на Общия регламент относно защитата на данните.
За спазване на предложените мерки за регулиране на изкуствения интелект се предлага създаване на Европейски съвет за изкуствения интелект, както и определяне на национални компетентни органи. Предвиждат се и мерки да се изиска привеждане на изкуствения интелект в съответствие или снемането му от пазара, ако той представлява риск на национално ниво.
Предложените мерки ще са обект на продължителни преговори, но проектът на регламент дава ясна представа в каква посока ще се движи законодателството за регулиране на изкуствения интелект.