Нормативно-правове регулювання ШІ в Європейському Союзі
![]() |
Маєте Телеграм? Два кліки - і ви не пропустите жодної важливої юридичної новини. Нічого зайвого, лише #самасуть. З турботою про ваш час! |
З 2021 року Європейський Союз розпочав ініціативу зі створення Artificial Intelligence Act (схвалений Радою ЄС 21 травня 2024 року) [1] — це перший у світі всеосяжний законодавчий акт, покликаний регулювати сферу штучного інтелекту. Мета цього законопроєкту — забезпечення розвитку ШІ в чітких етичних і правових межах, щоб інновації служили на благо суспільства та не порушували права і свободи людини. У документі закладено низку важливих положень, зокрема заборону неприйнятних ризиків, встановлення чітких вимог до систем підвищеного ризику, проведення обов’язкової оцінки відповідності перед введенням ШІ в експлуатацію, контроль після запуску, а також створення європейської системи управління ШІ.
Закон запроваджує ризик-орієнтований підхід до класифікації систем штучного інтелекту на чотири категорії: неприйнятний, високий, обмежений і мінімальний ризики. До неприйнятного ризику належать системи, які становлять загрозу правам і безпеці людей (наприклад, соціальний рейтинг або стимулювання небезпечної поведінки). Високий ризик поширюється на сфери критичної інфраструктури, освіти, охорони здоров’я, працевлаштування, правоохоронної діяльності, міграційного контролю та судочинства [1]. Подібні системи дозволені, але підлягають суворому контролю. Обмежений ризик передбачає вимоги до прозорості, а мінімальний ризик не потребує додаткового регулювання.
Системи штучного інтелекту з високим ступенем ризику повинні відповідати суворим вимогам перед виведенням на ринок. До них належать обов’язкові заходи з оцінки та зниження ризиків, висока якість даних, що використовуються системою, реєстрація результатів роботи ШІ з метою відстеження, детальна технічна документація, навчання користувачів, людський нагляд, а також гарантії безпеки, точності та надійності системи. Обмежений ризик стосується систем із низьким рівнем прозорості. У подібних випадках закон вимагає, щоб люди були поінформовані про взаємодію зі штучним інтелектом, зокрема зазначаючи, що текст був згенерований штучним інтелектом. Системи із мінімальним ризиком (наприклад, спам-фільтри або відеоігри) не потрапляють під обмеження.
Нормативно-правове регулювання ШІ в США
У жовтні 2022 року Офіс науково-технічної політики Білого дому презентував проєкт Білля про права штучного інтелекту, який передбачає п’ять основних принципів етичної розробки та застосування систем штучного інтелекту.
Перший принцип — це забезпечення безпечності та ефективності систем. Він визначає, що розробники повинні захищати людей від шкідливих або неефективних технологій, співпрацюючи з різними соціальними групами, професіоналами та зацікавленими сторонами з метою виявлення ризиків. Системи штучного інтелекту повинні підлягати попередньому тестуванню перед впровадженням і безперервному моніторингу після запуску. Вагомою умовою є можливість незалежної перевірки системи експертами, зокрема дослідниками, журналістами чи аудиторами, з дотриманням конфіденційності та законодавства.
Другий принцип — захист від алгоритмічної дискримінації. Штучний інтелект має відтворювати і не посилювати упередження, тож дані, які беруться для його навчання, повинні бути представницькими для різних соціальних груп [2]. Перед запуском системи в експлуатацію вона має бути ретельно протестована, щоб уникнути дискримінації за ознаками раси, статі, національності, релігії, віку, інвалідності, гендерної ідентичності, ветеранського статусу та інших критеріїв, які можуть вплинути на справедливе ставлення до людини.
Третій принцип плану законопроєкту про права ШІ полягає у забезпеченні конфіденційності даних користувачів. Люди мають бути впевнені, що їхні персональні дані, які збираються системами штучного інтелекту, безпечно захищені, і повинні мати можливість контролювати, як вони використовуються. Розробники ШІ мають впроваджувати механізми, які передбачають збір, обробку, передачу, доступ і видалення персональних даних тільки з дозволу користувача [2]. Такий процес має бути простим, прозорим і зрозумілим. У цьому контексті прикладом може слугувати заборона на користування технологією розпізнавання облич у нью-йоркських школах, яка стала реакцією на справу Локпорта, де такі системи були встановлені без згоди учнів та їхніх родин [3]. Це спричинило занепокоєння щодо порушення особистих прав, і тепер законодавці вимагають ретельної оцінки біометричних систем перед тим, як використовувати їх в освіті.
Четвертий принцип передбачає інформування користувачів про мету використання штучного інтелекту, його функціонал і вплив. Люди мають розуміти, як і чому ШІ працює в тому чи іншому сервісі, яку роль він грає в ухваленні рішень і які наслідки може мати його використання. При цьому розробники повинні забезпечити чітку та доступну інформацію, зокрема опис роботи системи, її призначення, відповідальних осіб або організації та очікувані результати.
П’ятий принцип захищає право на альтернативу — вибір між використанням ШІ та втручанням людини. Навіть якщо деякі послуги автоматизовані, у користувача має бути можливість звернутися до людини. Особливо це важливо у випадках помилок системи. Так, у штаті Мічиган автоматизована лікарняна система переплутала медичні дані пацієнтки з інформацією про її собаку, що спричинило відмову у призначенні знеболювального [3]. Такий випадок наголошує на важливості людського контролю як запобіжника від технологічних помилок. Загалом проєкт Білля про права людини у сфері штучного інтелекту спрямований на створення правової бази, яка забезпечить баланс між інноваціями та захистом прав людини в епоху штучного інтелекту.
Нормативно-правове регулювання ШІ в Китаї
У 2017 році Китайська інженерна академія ініціювала проєкт ШІ 2.0, який передбачає 15-річний план розвитку штучного інтелекту майбутнього покоління. Метою плану було досягнення прориву у фундаментальних теоріях і ключових технологіях ШІ, зокрема у сферах розпізнавання образів, обробки природної мови та автономних систем. Акцент робився на інтеграції ШІ в різні сфери економіки та суспільства, як-то: промисловість, транспорт, охорону здоров’я та фінанси, з метою підвищення ефективності та інноваційного потенціалу цих галузей [4]. Проєкт також містив заходи з розвитку талантів, створення інфраструктури для обробки великих даних і стимулювання інвестицій у дослідження і розробки в галузі ШІ.
Для вивчення стратегічних питань, пов’язаних зі штучним інтелектом, та надання відповідних рекомендацій уряду в листопаді 2017 року було створено Консультативний комітет зі стратегії у сфері штучного інтелекту. У 2018 році Китайська академія інформаційно-комунікаційних технологій (CAICT) видала Білу книгу зі стандартизації штучного інтелекту, в якій досліджує питання правового регулювання, управління та етики у сфері штучного інтелекту [4].
Також у 2018 році було створено Національну групу зі стандартизації штучного інтелекту та Національну експертно-консультативну групу зі штучного інтелекту й опубліковано Білу книгу зі стандартизації штучного інтелекту, в якій наголошується на важливості розв’язання питань юридичної відповідальності, етики та безпеки у сфері ШІ [5].
У 2019 році Китай опублікував Пекінські принципи штучного інтелекту, які розділені на три основні розділи: «Дослідження та розробка», «Використання» та «Управління». Серед цих принципів — відкритість, служіння людським цінностям, таким як недоторканність приватного життя, гідність, свободи і права; зосередженість на благо людства і навколишнього середовища; увага до безпеки ШІ; підтримка міжнародного співробітництва та уникнення гонки ШІ; інклюзивність, а також довгострокове планування і розробка передових систем штучного інтелекту [6].
Висновок
Глобальне правове регулювання штучного інтелекту характеризується трьома підходами: ЄС фокусується на етиці та ризиках, США — на правах людини та відповідальних розробниках, а Китай — на питаннях стратегічного розвитку та контролю. Для України це означає потребу у створенні комплексного законодавства, яке поєднує принципи етичного використання ШІ, захисту прав людини та національних інтересів. Слід запровадити механізми оцінки ризиків, контролю над системами штучного інтелекту та прозорості їх використання, особливо в таких критично важливих сферах, як державне управління, медицина та безпека.
Україна проактивно ставиться до формування нормативно-правової бази для розвитку та використання штучного інтелекту. У 2020 році Кабінет Міністрів України затвердив Концепцію розвитку штучного інтелекту, яка окреслює мету, принципи та завдання розвитку технологій штучного інтелекту в країні, акцентуючи увагу на важливості цього напряму для національного прогресу. А 1 січня 2023 року набув чинності новий Закон України «Про авторське право і суміжні права», який вводить правовий режим sui generis для неоригінальних об’єктів, породжених комп’ютерними програмами. Таке нововведення має на меті захистити права осіб, які мають майнові права або ліцензійні повноваження на відповідні комп’ютерні програми.
Слід зауважити, що за українським законодавством штучний інтелект не може бути визнаний автором твору, адже для набуття авторського права необхідна творча діяльність фізичної особи. Отже, твори, створені за допомогою ШІ без безпосередньої участі людини, потрапляють до категорії неоригінальних об’єктів і охороняються особливим законодавством. Загалом Україна робить важливі кроки для створення вигідного правового середовища, яке заохочує інновації у сфері штучного інтелекту, забезпечуючи при цьому захист прав інтелектуальної власності та дотримання етичних стандартів.
СПИСОК ВИКОРИСТАНОЇ ЛІТЕРАТУРИ
1. AI Act. Shaping Europe’s digital future. URL: https://eurlex.europa.eu/eli/reg/2024/1689/oj/ eng
2. Prime Minister’s Office, 10 Downing Street. The Bletchley Declaration by Countries Attending the AI Safety Summit, 1–2 November 2023. URL: https://www.gov.uk/government/publications/ ai-safety-summit-2023-the-bletchley-declaration.
3. Scherer, Matthew U. (2015). Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies and Strategies. Harvard Journal of Law & Technology, 29 (2). URL: https://papers. ssrn.com/sol3/papers.cfm?abstract_id=2609777.
4. A Next Generation Artificial Intelligence Development Plan. China State Council. 2017. URL: https://na-production.s3.amazonaws.com/ documents/translation-fulltext-8.1.17.pdf.
5. White Paper on Standardization in AI. National Standardization Management Committee. Second Ministry of Industry. 2018. URL: file:///C:/ Users/User/Downloads/t0120_AI_standardization_ white_paper_EN.pdf.
6. Муравська Ю., Сліпченко Т. Правове регулювання штучного інтелекту в Україні та світі. Актуальні проблеми правознавства. 1 (37)/2024. URL: file:///C:/Users/User/ Downloads/1–2024–188–195.pdf.




