13 березня 2023, 14:50

Закон України «Про штучний інтелект»: він є?

Костянтин Глоба
Костянтин Глоба «Barristers» керуючий партнер, адвокат
Інна Вахліс
Інна Вахліс юристка АО «Barristers»

18 лютого 2023 року міністр цифрової трансформації України Михайло Федоров повідомив про те, що новий чат-бот ChatGPT, розробки компанії штучного інтелекту OpenAI, доступний для користувачів в Україні. Вказаний інструмент штучного інтелекту викликав жваве обговорення у суспільстві, неоднозначно він був сприйнятий й представниками юридичної спільноти. Тож, що не так із таким зручним, як його презентують розробники, чат-ботом ChatGPT і чи є він безпечним для користувачів?


Маєте Телеграм? Два кліки - і ви не пропустите жодної важливої юридичної новини. Нічого зайвого, лише #самасуть. З турботою про ваш час!


Відзначимо, що за допомогою чат-боту ChatGPT користувач може швидко отримати відповідь на будь-яке поставлене запитання, написати електронного листа, звітувати чи згенерувати текст за заданою темою. Водночас виникає багато запитань з приводу правових наслідків такої інтелектуальної діяльності, а також правового статусу творів, створених за допомогою штучного інтелекту. 

Встановимо, що визначення авторського права на твір, який був «написаний», а фактично згенерований ChatGPT на сьогодні залишається відкритим. Відповідно до національного законодавства авторське право на об’єкти, створенні штучним інтелектом не регулюється. Так само відповідно до п.1 ч.1 ст.1 Закону України «Про авторське право та суміжні права» від 01.12.2022 року,  автор – це фізична особа, яка своєю творчою діяльністю створила твір. Отже, автором може бути тільки фізична особа, яка, використовуючи свій творчий потенціал, створила об’єкт авторського права – твір. Однак, хто ж тоді є автором твору, створеного за допомогою чат-боту ChatGPT, якщо сам чат-бот автором відповідно до національного законодавства бути не може? Відзначимо, що у світі склалися два кардинально протилежні підходи до встановлення автора твору, створеного штучним інтелектом. Передусім автором будь-якого твору, створеного комп’ютерною програмою, є особа його розробника. Інший підхід передбачає те, що автором твору, створеного за допомогою штучного інтелекту, є людина, яка задала завдання штучному інтелекту створити певний твір, тобто фактично користувач відповідної програми. Однак, якщо за першим підходом, з деякими заувагами, говорити про авторство розробника твору, створеного штучним інтелектом, доцільно, то чи варто стверджувати, що авторство твору, створеного штучним інтелектом, належить особі-користувачу, яка жодної інтелектуальної діяльності, спрямованої на написання твору, не здійснила, а тільки сформувала короткий запит на створення твору програмою? Очевидно, що ні, адже у протилежному випадку нівелюється сама суть авторського права, а інтелектуальна діяльність людини знецінюється.  

Інше, не менш важливе питання, стосується відповідальності за зміст текстів, створених за допомогою ChatGPT. Як зазначають розробники чат-боту, одним із його недоліків є те, що зміст текстів залежить від підбірки джерел, з яких беруться дані, а також відсутність етичної оцінки їх змісту. Отже, цілком ймовірно, що тексти, створені за допомогою ChatGPT, можуть завдавати шкоди честі, гідності та діловій репутації, як осіб, про яких йдеться у них, так і особам, які використовують ChatGPT без подальшої вичитки згенерованих текстів. І знову ж таки відкритим залишається питання, хто буде притягатися до юридичної відповідальності, у разі заподіяння шкоди інтересам третіх осіб текстами, створеними ChatGPT. Відзначимо, що відповідно до Резолюції 2015/2103 (INL) Європейського парламенту від 16 лютого 2017 р. встановлюється, що відповідальність за завдання шкоди штучним інтелектом може бути покладено на одного з так званих агентів (human agent), а саме: на виробника, оператора, власника або користувача штучного інтелекту. Водночас встановлюючи, хто саме із так званих агентів буде нести відповідальність за заподіяння шкоди та у якому обсязі, варто оцінювати можливість передбачення негативних наслідків і їх запобігання. Також ч. 2 ст. 1187 ЦК України, встановлює, що шкода, завдана джерелом підвищеної небезпеки, відшкодовується особою, яка на відповідній правовій підставі (право власності, інше речове право, договір підряду, оренди тощо) володіє … механізмом, іншим об'єктом, використання, зберігання або утримання якого створює підвищену небезпеку [3]. Отже, фактично саме користувач ChatGPT має нести повну відповідальність за той текст, який був згенерований системою. У будь-якому випадку національний законодавець у короткостроковій перспективі має прямо передбачити, хто повинен притягатися до відповідальності за шкоду, заподіяну штучним інтелектом, адже за протилежного – фактично правові регулятори у цьому контексті  будуть відсутні. 

Окрім того, ресурс ChatGPT не убезпечений від збору персональної та конфіденційної інформації його користувачів, а тому останні не зможуть почувати себе захищеними від використання їх даних проти них самих.

З урахуванням вищевикладеного, а також швидкого й активного розвитку технологій штучного інтелекту, нагальними видаються зміни у національне законодавство, з огляду на створення дієвих правових інструментів регулювання діяльності об’єктів штучного інтелекту і навіть ChatGPT, зокрема й у контексті правового статусу об’єктів, створених штучним інтелектом, а також нормативного передбачення юридичної відповідальності за шкоду, що була заподіяна ним. У протилежному випадку доволі швидко настане час,  коли  об’єкти штучного інтелекту зможуть самостійно існувати та співіснувати між собою та навколишнім світом, а світ людей перетвориться на світ роботів та програмних машин, які вже не будуть піддаватися людському контролю. 

0
0

Додати коментар

Відмінити Опублікувати