Комисията приветства политическото споразумение относно Законодателния акт за изкуствения интелект

Урсула фон дер Лайен, председател на Европейската комисия, заяви: Изкуственият интелект вече променя ежедневието ни. И това е само началото: използван разумно и широко, ИИ обещава огромни ползи за нашата икономика и общество. Ето защо горещо приветствам днешното политическо споразумение между Европейския парламент и Съвета относно Законодателния акт за изкуствения интелект. Актът на ЕС за ИИ е първата по рода си всеобхватна правна рамка за изкуствения интелект в световен мащаб. Това е исторически момент. Актът за ИИ транспонира европейските ценности в нова ера. Чрез съсредоточаване на регулирането върху разпознаваемите рискове днешното споразумение ще насърчи отговорните иновации в Европа. Като гарантира безопасността и основните права на хората и предприятията, то ще подкрепи разработването, внедряването и използването на надежден ИИ в ЕС. Нашият Акт за ИИ ще допринесе значително за развитието на глобални правила и принципи за ориентиран към човека ИИ. 

Европейският подход към надежден ИИ

Новите правила ще се прилагат пряко по еднакъв начин във всички държави членки въз основа на ориентирано към бъдещето определение за ИИ. Те следват основан на риска подход:

Минимален риск: Огромната част от системите с ИИ попадат в категорията на минимален риск. Приложенията с минимален риск, като например препоръчващите системи или филтрите за спам с ИИ, ще се ползват от безплатен достъп и липса на задължения, тъй като тези системи представляват само минимален или никакъв риск за правата или безопасността на гражданите. Въпреки това на доброволна основа дружествата могат да се ангажират с допълнителни кодекси за поведение за тези системи с ИИ.

Висок риск: От системите с ИИ, определени като високорискови, ще се изисква да отговарят на строги изисквания, включително системи за смекчаване на риска, високо качество на наборите от данни, регистриране на дейността, подробна документация, ясна информация за потребителите, човешки надзор и високо ниво на надеждност, точност и киберсигурност. Регулаторните лаборатории ще улеснят отговорните иновации и разработването на съответстващи на изискванията системи с ИИ.

Примерите за такива високорискови системи с ИИ включват някои критични инфраструктури, например в областта на водоснабдяването, газоснабдяването и електроснабдяването; системи за определяне на достъпа до образователни институции или за набиране на персонал; или някои системи, използвани в областта на правоприлагането, граничния контрол, правораздаването и демократичните процеси. Освен това системите за биометрична идентификация, категоризация и разпознаване на емоции също се считат за високорискови.

Неприемлив риск: Системите с ИИ, които се считат за несъмнена заплаха за основните права на хората, ще бъдат забранени. Тук се включват системите и приложенията с ИИ, които манипулират човешкото поведение с цел заобикаляне на свободната воля на потребителите, като играчки с гласов асистент, които насърчават опасно поведение от страна на малолетни или непълнолетни лица или системи, които дават възможност за социално оценяване от страна на държавното управление или дружествата, и някои приложения за прогнозиране в полицейската област. Освен това, някои видове използване на биометрични системи ще бъдат забранени, например системите за разпознаване на емоции, използвани на работното място, и някои системи за категоризиране на хора или отдалечена биометрична идентификация в реално време за целите на правоприлагането на обществено достъпни места (с малки изключения).

Специфичен риск за прозрачността: Когато използват системи с ИИ, като чатботове, потребителите следва да са наясно, че си взаимодействат с машина. Дълбоките фалшификати и друго създадено с ИИ съдържание ще трябва да бъдат обозначавани като такива, а потребителите трябва да бъдат информирани, когато се използват системи за биометрична категоризация или разпознаване на емоции. Освен това доставчиците ще трябва да проектират системите така, че съдържанието под формата на синтетично аудио, видео, текст и изображения да е маркирано в машинночетим формат и да е отбелязано като изкуствено създадено или манипулирано.

Глоби

На дружествата, които не спазват правилата, ще бъдат налагани глоби. Глобите ще бъдат 35 милиона евро или 7 % от общия годишен оборот (която от двете стойности е по-висока) за нарушения във връзка със забранени приложения с ИИ, 15 милиона евро или 3 % за нарушения на други задължения и 7,5 милиона евро или 1,5 % за предоставянето на невярна информация. Предвиждат се по-пропорционални тавани за административните глоби за МСП и стартиращи предприятия в случай на нарушения на Акта за ИИ.

ИИ с общо предназначение

С Акта за ИИ се въвеждат специални правила за моделите на ИИ с общо предназначение, които ще гарантират прозрачност по веригата за създаване на стойност. За много мощните модели, които биха могли да породят системни рискове, ще има допълнителни обвързващи задължения, свързани с управлението на рисковете и наблюдението на сериозни инциденти и с извършване на оценка на моделите и изпитване с подаване на неочаквано или вредно съдържание. Тези нови задължения ще бъдат приведени в действие чрез кодекси на добрите практики, разработени от промишлеността, научната общност, гражданското общество и други заинтересовани страни заедно с Комисията.

Що се отнася до управлението, националните компетентни органи за надзор на пазара ще упражняват надзор върху прилагането на новите правила на национално равнище, а създаването на нова Европейска служба за ИИ в рамките на Европейската комисия ще осигури координация на европейско равнище. Новата служба за ИИ също така ще наблюдава изпълнението и прилагането на новите правила за моделите на ИИ с общо предназначение. Заедно с националните органи за надзор на пазара Службата за ИИ ще бъде първият орган в световен мащаб, който правоприлага задължителни правила за ИИ и следователно се очаква да се превърне в международна референтна точка. Що се отнася до моделите с общо предназначение, научна група от независими експерти ще играе централна роля, като подава сигнали за системни рискове и допринася за класифицирането и изпитването на моделите.

Следващи стъпки

Понастоящем политическото споразумение подлежи на официално одобрение от Европейския парламент и Съвета и ще влезе в сила 20 дни след публикуването му в Официален вестник. След това Актът за ИИ ще започне да се прилага две години след влизането му в сила, с изключение на някои специфични разпоредби: Забраните ще започнат да се прилагат след 6 месеца, а правилата относно ИИ с общо предназначение ще започнат да се прилагат след 12 месеца.

Във връзка с преходния период преди да започне цялостното прилагане на регламента, Комисията ще стартира Пакт за ИИ. Той ще обедини разработчици на ИИ от Европа и целия свят, които доброволно се ангажират да изпълнят основните задължения в Акта за ИИ преди законоустановените срокове.

За да насърчава правилата за надежден ИИ на международно равнище, Европейският съюз ще продължи да работи в рамките на форуми като Г-7, ОИСР, Съвета на Европа, Г-20 и ООН. Неотдавна подкрепихме споразумението на лидерите на Г-7 в рамките на процеса Хирошима в областта на ИИ относно международните ръководни принципи и доброволния кодекс за поведение за усъвършенстваните системи с ИИ.

Контекст

В течение на години Комисията улеснява и укрепва сътрудничеството в областта на ИИ в целия ЕС, за да повиши конкурентоспособността му и да гарантира доверието в него въз основа на ценностите на ЕС.

След публикуването на Европейската стратегия за ИИ през 2018 г. и след консултации със заинтересованите страни на широка основа експертната група на високо равнище по въпросите на ИИ разработи Насоки за надежден ИИ през 2019 г. и списък за оценяване на надеждния ИИ през 2020 г. В същото време през декември 2018 г. беше публикуван първият Координиран план за ИИ като съвместен ангажимент с държавите членки.

В Бялата книга относно ИИ на Комисията, публикувана през 2020 г., беше представена ясна визия за ИИ в Европа: екосистема на високи постижения и доверие, с което беше подготвена и средата за днешното политическо споразумение. В обществената консултация по Бялата книга за ИИ се включиха участници от цял свят. Бялата книга беше придружена от Доклад относно отражението на изкуствения интелект, интернет на предметите и роботиката върху безопасността и отговорностите, в който се заключава, че в днешното законодателство за безопасността на продуктите има редица празноти, които трябва да бъдат запълнени, по специално в Директивата относно машините.

Независимите, основани на доказателства научни изследвания, изготвяни от Съвместния изследователски център (JRC), са от основно значение за оформянето на политиките на ЕС в областта на ИИ и за гарантирането на тяхното ефективно прилагане. Чрез задълбочени научни изследвания и анализи JRC подкрепи разработването на Акта за ИИ, като предостави информация за терминологията, класификацията на рисковете и техническите изисквания и допринесе за текущото разработване на хармонизирани стандарти.

За повече информация

Изявление на председателя Фон дер Лайен относно политическото споразумение за Акта на ЕС за ИИ

Нови правила относно изкуствения интелект — въпроси и отговори

Нови правила относно изкуствения интелект – основни факти

Процес Хирошима в областта на ИИ: Ръководни принципи и кодекс за поведение в областта на изкуствения интелект

Координиран план за изкуствения интелект

Регламент относно машините

Правила за отговорност във връзка с изкуствения интелект

Източник: Европейска комисия