Във вторник Европейският парламентът прие предложения за това как ЕС може най-добре да регулира изкуствения интелект (ИИ) с цел насърчаване на иновациите, етичните стандарти и доверието в технологиите, съобщи пресслужбата на ЕП.
Основните критерии трябва да са свързани с:
• Намиране на баланс между защитата на гражданите и насърчаването на технологичното развитие
• Ориентирана към бъдещето схема за гражданска отговорност за защита на частните лица и бизнеса
• Ефективна система за интелектуална собственост и гаранции за разработчиците
Европейският парламент е сред първите институции, отправящи препоръки какво следва да включват правилата относно ИИ в областта на етичните стандарти, гражданската отговорност и правата върху интелектуалната собственост. Изпълнението на препоръките ще проправи пътя за превръщането на ЕС в световен лидер в развитието на ИИ.
Законодателното предложение на Комисията се очаква в началото на следващата година.
Етична рамка за изкуствения интелект
Докладът за законодателна инициатива на Ибан Гарсия дел Бланко (С&Д, Испания) настоятелно призовава Европейската комисия да представи нова нормативна рамка, очертаваща етичните принципи и правните задължения, които трябва да се зачитат при разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни
Докладът беше приет с 559 гласа „за“, 44 „против“ и 88 „въздържал се“.
Бъдещото законодателство трябва да бъде изготвено в съответствие с няколко ръководни принципа, включително: ориентирани към човека и създадени от него технологии в областта на ИИ, безопасност, прозрачност и отчетност, защитни мерки срещу предубеждения и дискриминация, право на правна защита, социална и екологична отговорност, зачитане на неприкосновеността на личния живот и защита на данните.
Високорисковите технологии в областта на ИИ, като например тези със способности за самообучение, следва да бъдат проектирани така, че да позволяват човешки надзор по всяко време. Ако използването на дадена функционалност доведе до сериозно нарушение на етичните принципи и може да представлява опасност, следва да се дезактивират способностите за самообучение и да се възстанови пълният човешки контрол.
Отговорност за причинени от ИИ вреди
Законодателната инициатива на докладчика Аксел Фос (ЕНП, Германия) призовава за ориентирана към бъдещето рамка за гражданска отговорност, която предвижда лицата, управляващи високорискови технологии на ИИ, да носят отговорност в случай на причинени вреди. Наличието на ясна правна рамка ще стимулира иновациите, предоставяйки на компаниите правна сигурност, като същевременно защитава гражданите и насърчава доверието им в технологиите на ИИ чрез възпиране на потенциално опасни дейности.
Правилата следва да се прилагат за физическа или виртуална дейност, свързана с ИИ, която нанася щети или вреди на живота, здравето, физическата неприкосновеност и имуществото или причинява значителна неимуществена вреда, водеща до „проверима икономическа загуба“. Макар високорисковите технологии на ИИ да са все още рядкост, евродепутатите считат, че операторите на подобни технологии следва да имат застраховка, подобна на прилаганата при моторните превозни средства.
Докладът беше приет с 626 гласа „за“, 25 „против“ и 40 „въздържал се“.
Права върху интелектуалната собственост
Докладът, внесен от Стефан Сежурне (Renew Europe, Франция), изяснява, че ролята на ЕС като глобален лидер в областта на изкуствения интелект изисква ефективна система на права върху интелектуалната собственост и защитни мерки, така че патентната система на ЕС да защитава иновативните дизайнери. В него също се подчертава, че това не трябва да бъде за сметка на интересите на хората творци, нито на етичните принципи на Европейския съюз.
Евродепутатите считат, че е важно да се прави разграничение между човешките творби, подпомагани от ИИ, и творбите, създадени самостоятелно от ИИ. Те уточняват, че ИИ не следва да има правосубектност; ето защо притежаването на права върху интелектуалната собственост следва да е възможно само за хората. Разглеждат се също въпросите за авторското право, събирането на данни, търговските тайни, използването на алгоритми и дълбинни фалшификати (deep fakes).
Докладът беше приет с 612 гласа „за“, 66 „против“ и 12 „въздържал се“.