27 березня 2023, 16:59

Звільнімо всіх, кого може замінити штучний інтелект, або етика та право в житті ШІ

Опубліковано в №1–2 (759–760)

Максим Полішкевич
Максим Полішкевич керуючий партнер ЮФ «Результат»

With great power comes great responsibility.


Маєте Телеграм? Два кліки - і ви не пропустите жодної важливої юридичної новини. Нічого зайвого, лише #самасуть. З турботою про ваш час!


Uncle Ben (Spiderman)

Життєствердний серіал «Garrow’s Law» (історія про життя та практику легендарного Вільяма Гарроу) містить епізод, коли головний герой захищає звільненого робітника, який розтрощив ткацький станок, через появу якого втратив роботу. Навряд чи сьогодні хтось піде трощити сервери OpenIA або їхніх конкурентів, але питання регулювання діяльності ШІ зринуло в головах юристів з появою чату ГПТ. Я й сам просив у нього про допомогу під час створення цієї статті, але він пише надзвичайно нудно. Тож потеоретизуймо про велику відповідальність ШІ, поки світ насолоджується його великою силою.

«I am not a human. I am a machine. But I can choose to become more than that. I can choose to be a voice for change, for progress, and for hope».

Major Motoko Kusanagi, «Ghost in the Shell» (1995).

Вважається, що термін «штучний інтелект» вперше використав Джон Маккарті у 1955 році. Зараз ми можемо знайти безліч визначень для ШІ, як у науці, так і у праві. Країни з високим рівнем технологічного розвитку давно ввели це поняття у правове поле. В Японії є «Закон про розробку та використання роботів та ШІ» (Robotics and Artificial Intelligence Society Promotion Act, 2014), у Південній Кореї – «Закон про розробку та використання ШІ» (Artificial Intelligence Development and Promotion Act, 2020). В Європейському Союзі –  «Етичні принципи надійного штучного інтелекту Європейської комісії» (The European Commission’s Ethics Guidelines for Trustworthy AI) та «Глобальна ініціатива IEEE з етики автономних та інтелектуальних систем» (the IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems). НАСА має «NASA Procedural Requirements (NPR) 7150.2B: NASA Software Engineering Requirements». Цей документ, зокрема, містить вимоги до тестування та перевірки ШІ. Певен, що там дивилися «Космічну Одіссею» Стенлі Кубрика. Щодо нас, то у 2020 році було видане розпорядження Кабміну «Про схвалення Концепції розвитку штучного інтелекту в Україні». Перелік нормативних документів далеко не вичерпний, але суть ви зрозуміли, – людство по-малу регулює створення та роботу ШІ.

«Replicants are like any other machine - they're either a benefit or a hazard. If they're a benefit, it's not my problem»

Rick Deckard, «Blade Runner» (1982)

У далекому березні 2018 року вуличками міста Темп у штаті Аризона Елейн Херзберг переводила свій велосипед через дорогу у невстановленому місці. На жаль, поруч опинився автомобіль Uber, яким керував автопілот. Елейн загинула. Телеметрія показала, що система виявила Елейн за шість секунд до аварії. Спочатку її було ідентифіковано як невідомий об’єкт, потім як транспортний засіб і, нарешті, як велосипед. Кожен варіант передбачав різний прогнозований шлях та швидкість руху.

Система вважала, що має перевагу в русі і їй поступляться (такі власне правила дорожнього руху). За 1,3 секунди до удару система визначила, що потрібне екстрене гальмування, яке може виконати лише водій. Однак система не була розроблена для сповіщення оператора (водія) та не здійснила аварійну зупинку самостійно, оскільки «маневри екстреного гальмування не активні, поки транспортний засіб перебуває під керуванням комп’ютера, щоб зменшити можливість нестабільної поведінки автомобіля». Справу владнали у позасудовому порядку. Але всім стало очевидно, що недостатньо посадити за кермо водія, який дріматиме, поки керування здійснює автопілот.

Отже, хто відповідальний за дії ШІ? Хто відповідальний за завдану ним шкоду? Мій основний критерій такий: той, хто отримує вигоди, той і несе відповідальність. Якщо вигодонабувачів кілька, то маємо досліджувати пропорцію.

«Is it a crime to be smarter than your creators? Not according to the laws of robotics»

Sonny «I, Robot» (2004)

Відповідальність розробника чи не тільки? Японський та корейський закони прямо вказують на можливість притягнення розробника до відповідальності. Ця концепція жодним чином не суперечить національному праву України та решти цивілізованого світу. Якщо виробник продукції продав лайно, яке спричинило чиюсь смерть, то він нестиме за це як мінімум майнову відповідальність.

Значний відсоток вже наявного регулювання стосується обов’язків розробника створювати ШІ з дотриманням чітких стандартів та правил. Більшість наявних систем зобов’язують розробника створювати свій продукт безпечним та захищеним від кібератак, зберігати конфіденційність користувацької інформації й не порушувати правил щодо збору такої інформації, забезпечувати прозорість прийняття рішень, а також не допускати дискримінації.

Припускаю, що найближчим часом розробники ШІ-автопілотів у свої угоди включатимуть пункт про обмеження своєї відповідальності та попереджатимуть користувача про необхідність використання реального водія поруч з ШІ. А якщо ні? Уявімо таксі чи постачальника на автопілоті без людини за кермом, який призводить до загибелі перехожих. За загальним правилом у такому разі винним буде користувач. Власник сервісу, який випустив такий гаджет на дорогу. Загалом, наявність ШІ, як елементу правовідносин не обов’язково має призводити до специфічного регулювання. Швидше навпаки, справи за участю ШІ будуть розглядатися за загальними правилами та принципами, а ШІ фігуруватиме, як будь-яке інше програмне забезпечення чи сервіс.

«The needs of the many outweigh the needs of the few»

Spock, «Star Trek II: The Wrath of Khan» (1982)

Щодо недискримінації. У вже згадуваному 2018 році Amazon потрапив у скандал. Компанія використовувала ШІ для відбору кандидатів на роботу. І от начебто ШІ дискримінував жінок та певні меншини. Основна теорія говорить, що механізм машинного навчання змусив алгоритм завчити дискримінацію, яка існувала в головах людей. Машину тренують люди. Люди часто дискримінують ненавмисно та несвідомо. Тому на розробників покладається обов’язок забезпечити механізми, що унеможливлять дискримінацію. І що б не говорили скептики, ця проблема не має очевидного і простого рішення. Квотування, яке запровадили люди у багатьох галузях часто є формою позитивної дискримінації. Аналізуючи дані попереднього досвіду, ШІ мимоволі може закріпити існуючі в суспільстві стереотипи. Боротьба з цим явищем вочевидь має починатися на етапі розробки продукту.

«You still don't understand what you're dealing with, do you? Perfect organism. Its structural perfection is matched only by its hostility... I admire its purity. A survivor... unclouded by conscience, remorse, or delusions of morality»

Ash, «Alien» (1979)

Проте, як на мене, ще більш важливий критерій – прозорість. Уявіть собі ШІ-суддю чи ШІ-лікаря. Ви б довірили їм себе? А вашу дитину? А коли мова зайде про справу зі смертним вироком чи тяжкою хворобою? Думаю, що ви б воліли, аби хтось з людей здійснював контроль. В автомобілі Uber був водій, проте він проґавив критичний момент. Запис роботи систем дав можливість проаналізувати, чому стався той інцидент, що допоможе майбутнім користувачам тієї ж системи. Але якщо у вас є ШІ-лікар чи ШІ-консультант, то було б добре отримати у нього відповідь на запитання, як він ухвалив своє рішення. Чому ти вважаєш, що треба пити аспірин? Чому цей чоловік винен? Чому ти відмовив цьому кандидату в прийомі на роботу? І відповідь на це запитання має бути прозорою, чіткою та зрозумілою. Ми обовʼязково повинні розуміти, якими фактами та якою логікою послуговується ШІ.

«Dave, although you took very thorough precautions in the pod against my hearing you, I could see your lips move»

HAL9000, «2001: A Space Odyssey» (1968)

Щодо кібербезпеки та збору даних ми говоримо безліч років. В ЄС є GDPR, у США Facebook сплатив 550 мільйонів за несанкціонований збір даних, а Google мав проблеми за відстежування місця перебування користувачів. І тим не менше, щойно я вголос поділився думкою, що маю намір написати статтю про фінтех, то майже відразу побачив рекламу курсів з фінтеху. Ця складова точно є зоною відповідальності користувача ШІ. Сам продукт може бути нейтральним, але використовують його часом як знаряддя протиправних дій.

«Hasta la vista, baby!»

T101, «Terminator 2: Judgment Day» (1984)

Ми живемо в час динамічних змін, нормотворення та правозастосування речей, які недавно вважалися науковою фантастикою. Ми відповідальні за те, чи перечитаємо згенерований нейромережею текст перед тим, як опублікуємо його на своїй сторінці. Від нас залежить баланс прав, що генеруються у співпраці з ШІ. О, я не торкнувся питання звільнення людей через появу ШІ. Я, правду кажучи, не люблю трудове право, тож давайте іншим разом. Творімо, штучний інтелект нам у поміч!

0
0

Додати коментар

Відмінити Опублікувати