Конституційно-правові проблеми використання ШІ в системах розпізнавання емоцій
![]() |
Маєте Телеграм? Два кліки - і ви не пропустите жодної важливої юридичної новини. Нічого зайвого, лише #самасуть. З турботою про ваш час! |
Штучний інтелект (ШІ) є однією з найвпливовіших технологій сучасності, що поступово інтегрується у різні сфери суспільного життя. Одним із напрямів його застосування є системи розпізнавання емоцій, які використовуються у правоохоронній діяльності, маркетингу, медицині, освіті тощо. Ці системи аналізують міміку, жести, тон голосу та інші параметри для визначення емоційного стану людини.
Попри значний потенціал, використання таких технологій викликає серйозні конституційно-правові проблеми, пов’язані з правами людини та основоположними свободами. Однією з ключових проблем є порушення права на приватність і захист персональних даних. Відповідно до ст. 32 Конституції України ніхто не може зазнавати втручання в його особисте життя, крім випадків, передбачених законом. Проте системи розпізнавання емоцій часто обробляють біометричні дані без згоди особи, що суперечить не лише національному законодавству, а й міжнародним правовим актам, таким як Загальна декларація прав людини та Конвенція про захист прав людини і основоположних свобод. Крім того, ці технології можуть використовуватися для масового стеження, що становить загрозу демократичним цінностям та принципам верховенства права.
Ще однією важливою проблемою є ризик дискримінації через алгоритмічні упередження, оскільки технології ШІ можуть неточно інтерпретувати емоції різних етнічних або соціальних груп.
Відомо, що деякі алгоритми розпізнавання емоцій демонструють нижчу точність при аналізі виразу обличчя представників певних етнічних груп, що може призвести до необґрунтованих звинувачень або обмеження прав окремих осіб. У Європейському Союзі вже вживаються заходи для обмеження або навіть заборони використання таких систем у певних сферах через їхню потенційну небезпеку. Водночас у США та Китаї активно розробляються власні підходи до контролю та впровадження таких технологій. Крім правових ризиків, важливим питанням є етичний аспект використання ШІ для аналізу емоційного стану людини. Зокрема, постає питання щодо добровільної згоди на участь у такому аналізі та можливого маніпулювання емоційним станом людини в комерційних або політичних цілях. У деяких країнах вже обговорюється можливість повної заборони використання таких технологій у певних сферах, зокрема у правоохоронній діяльності, щоб уникнути зловживань та порушення прав людини. Крім того, відсутність належного контролю за діяльністю компаній, що впроваджують ці технології, може спричинити масові порушення прав громадян без належного правового захисту.
Почнемо з визначення дефініції «розпізнавання емоцій» — це технологія, що здатна виявляти й аналізувати настрої та власне емоції з різних джерел. Джерелом інформації можуть слугувати фотографії людей, відео, аудіо їхніх голосів, тексти, коментарі тощо. Кожен із цих специфічних видів «представлення» людей потребує відповідних специфічних методів роботи з ними. Було досліджено, що 55% емоційної інформації є візуальною, 38% — звуковою, тобто створеною голосом, і 7% — вербальною, тобто самі слова та їхній зміст [1]. Розпізнавання емоцій за обличчям (Facial Emotion Recognition, FER) виявляють емоції на людському обличчі шляхом аналізу такої візуальної інформації, як зображення чи відео.
Класичне завдання FER складається з трьох послідовних етапів, як-от [2]:
1. Виявлення обличчя (face detection). Спершу на вхідному зображенні визначається місцезнаходження обличчя чи облич. Кожне з них поміщається в спеціальну обмежувальну рамку (bounding box). Далі аналізуватиметься лише інформація в межах цих рамок, оскільки за їх межами відсутні обличчя, а значить, і інформація для аналізу.
2. Виявлення виразу обличчя (facial expression detection). На знайдених обличчях шукаються ключові ознаки, що відповідатимуть за позиції очей, брів, рота й інших рис обличчя чи їхніх певних частин.
3. Вираз обличчя класифікується до певної емоції. Для цього аналізуються наявність, положення та взаємне розташування ключових ознак, що були знайдені на попередньому кроці. Класифікаційний алгоритм зазвичай побудований на основі AI-методів як машинне навчання.
Описані етапи узгоджуються з традиційними методами машинного навчання, що використовуються для класифікації виразів обличчя. У процесі побудови нейронних мереж другий і третій етапи, а в деяких випадках і перший, можуть бути об’єднані в єдиний процес. Це зумовлено тим, що нейромережі мають здатність самостійно виявляти значущі характеристики без необхідності додаткових алгоритмічних рішень. Така особливість дає змогу безпосередньо застосовувати їх для розпізнавання та класифікації емоційних станів, що сприяє підвищенню точності та ефективності аналізу. Залежно від алгоритму можуть розпізнаватися різні емоції. Найзагальнішим варіантом є розпізнавання базових емоцій. До них належать всього шість емоцій: гнів, огида, страх, радість, сум та здивування. Також до них дуже часто додають сьому «нейтральну» емоцію, тобто коли обличчя не виражає ніяких емоцій. Іноді до базових зараховують презирство, але це непоширений випадок. Іншим варіантом є розпізнавання складених (compound) емоцій. Наприклад, здивовано-зляканий, розгнівано-сумний тощо. Ще одним варіантом FER є розпізнавання ментальних станів, таких як втома, нудьга, закоханість, зацікавленість тощо [2]. Для збільшення точності розпізнавання методи FER часто можуть узагальнюватися до більш складних алгоритмів, що, окрім візуальної інформації, аналізуватимуть голос людини, її біологічні характеристики, такі як серцебиття [2]. Обробка такої різноманітної інформації, що надходить із різних джерел, сприятиме більш повному та всеохоплюючому розумінню певної людини і відповідно її емоційного стану.
Людина може дуже просто, швидко і точно розпізнати емоції на обличчі інших. Але для комп’ютера це завдання не є тривіальним і є доволі складним. На сьогодні камери відеоспостереження стали дуже поширеними. Більшість телефонів і комп’ютерів також мають власні камери. Завдяки цьому стало дуже просто моніторити вираз обличчя потрібної людини, що збільшує необхідність появи гарних FER-систем. Розробка такої інформаційної системи буде корисною в багатьох сферах. Нижче перераховані основні з них.
1. Охорона здоров’я та медицина [2], [3]. FER-системи можуть бути дуже корисними в медицині, особливо в психології та психіатрії, допомагаючи лікарям ставити діагноз. Вони можуть допомогти виявити такі ментальні порушення, як депресія, суїцидальні схильності, аутизм та інші. Також такі системи здатні покращити піклування за пацієнтами, проводити моніторинг їхнього стану, їхню задоволеність лікуванням та наданими умовами.
2. Безпека водія [3]. Використання FER зробить автомобілі значно безпечнішими для водіїв і їхніх пасажирів і зменшить кількість аварій. Така система аналізуватиме вираз обличчя водія, щоб визначити, чи є воно втомленим, сонним або п’яним. У позитивному випадку розумна система попередить водія і запропонує йому перепочити чи взагалі не дозволить поїхати.
3. Працевлаштування [2], [3]. FER-система допоможе відсіяти незацікавлених кандидатів на робоче місце і сформувати уявлення про характер і настрій кандидатів. Це дозволить роботодавцям краще зрозуміти їхні особисті якості та допоможе зробити остаточне рішення щодо прийому кандидатів на роботу.
4. Освіта [2]. Системи розпізнавання емоцій зможуть визначати емоційну відповідь і зацікавленість студентів при навчанні, що дозволить краще адаптувати навчальні програми. FER-системи зможуть виміряти ступінь залученості студентів у процес онлайн-навчання.
5. Суспільна безпека [2]. FER-системи здатні аналізувати емоції натовпу та окремих людей. Це дозволить виявити настрої, що можуть становити потенційну терористичну загрозу, виявити злочинців, крадіїв і шахраїв, що видають себе специфічною поведінкою та виразом обличчя. Також інтеграція FER у детектори брехні здатна підвищити їхню надійність і точність.
Аналіз сцен із місць злочину за допомогою FER-систем дозволить краще зрозуміти мотиви злочинців. Є кілька широко відомих наборів даних, що містять зображення облич із різними емоційними виразами. Однією з важливих особливостей цих датасетів є методика збору зображень. Деякі з них були сформовані в контрольованих умовах, коли професійні актори навмисно відтворювали певні емоції для фіксації. Такий підхід дозволяє отримати чіткі й структуровані зразки, але водночас має свої обмеження. Подібні набори даних зазвичай містять відносно невелику кількість зображень, а самі фото мають низку спільних характеристик, зокрема стабільне освітлення, однаковий фон і фіксоване положення голови. Це створює певні труднощі при використанні таких датасетів для тренування нейронних мереж, оскільки вони можуть не враховувати варіативність умов реального середовища, де освітлення, кут нахилу голови та фон можуть значно відрізнятися. До таких датасетів належать, наприклад, CK+ (593 записаних коротких відео) [1], JAFFE (213 чорно-білих фотографій японських жінок) [1] тощо. Інші датасети мають різні зображення, що були взяті з мережі «Інтернет». Такі датасети називають real-world, і вони є дуже різноманітними. Вони мають обличчя в різних позах і нахилах, з різними умовами освітлення, різних рас і віку. Також такі датасети зазвичай мають значно більше зображень, ніж їхні «лабораторні» аналоги. До таких датасетів належать, наприклад, FER-2013 (майже 36 000 чорно-білих зображень низької роздільної здатності 48×48 пікселів) [1], AffectNet (420 000 кольорових зображень, з яких 291 600 фото облич класифіковані до базових емоцій) [4] та інші. Було прийнято рішення використовувати real-world датасет, оскільки такі набори даних характеризуються значною різноманітністю та мінімальним впливом упередженості, що може виникати через контрольовані умови зйомки, наприклад, однакове освітлення або фіксоване положення голови. Завдяки цьому розроблений програмний продукт матиме змогу ефективно працювати з фотографіями, зробленими в реальних, неконтрольованих умовах, що значно підвищить його універсальність. Крім того, у процесі роботи будуть детально досліджені ознаки, які залишаються стійкими (інваріантними) до змін зовнішніх факторів, таких як освітлення, фон або кут нахилу голови. Це дозволить підвищити точність розпізнавання емоцій незалежно від умов зйомки. Ще однією вагомою перевагою real-world датасетів є їхній значний обсяг — вони містять велику кількість зображень, що сприяє покращенню навчання моделей. Велика вибірка дає змогу розробити більш стійкі та точні класифікатори, оскільки нейромережа може навчитися розпізнавати широкий спектр особливостей людських емоцій. Це також допомагає мінімізувати проблему перенавчання, адже модель не буде надто орієнтована на обмежений набір умов, а зможе ефективніше узагальнювати результати для нових, невідомих зображень. Було вирішено використовувати саме датасет AffectNet, оскільки він має значні переваги перед іншим популярним набором реальних зображень FER-2013. Головною відмінністю є те, що AffectNet містить кольорові зображення, що дозволяє нейромережі краще розпізнавати тонкі особливості міміки та додаткову інформацію, пов’язану з відтінками шкіри, освітленням і контекстом сцени. Крім того, якість зображень у цьому датасеті є вищою завдяки кращій роздільній здатності, що сприяє точнішому аналізу деталей обличчя. Ще одним вагомим аргументом на користь AffectNet є те, що його відкриті підвибірки мають більш рівномірний розподіл даних між різними класами емоцій. Це означає, що різниця у кількості зображень для кожної категорії є менш вираженою, що допомагає уникнути проблеми дисбалансу даних під час навчання моделі. Завдяки цьому алгоритм не буде схильний до упередженості щодо домінуючих класів, а розпізнавання емоцій стане більш точним і об’єктивним.
Поставлене завдання належить до традиційних проблем класифікації зображень, а саме — необхідно проаналізувати фотографію обличчя людини та визначити, яку емоцію воно виражає. Відповідно, цей процес передбачає автоматичне розпізнавання емоційного стану людини та віднесення зображення до певної категорії емоцій, таких як радість, сум, злість, страх тощо. Розв’язання цього завдання можна розділити на два основні етапи. Перший етап включає попередню обробку зображень, що передбачає нормалізацію, видалення шумів, корекцію освітлення та можливе виявлення ключових точок обличчя для подальшого аналізу. Це важливо для забезпечення стабільності результатів, оскільки вхідні фотографії можуть суттєво відрізнятися за якістю, освітленістю, ракурсом та іншими параметрами. Другий етап безпосередньо пов’язаний із застосуванням алгоритмів машинного навчання або глибоких нейронних мереж для класифікації емоцій. На цьому рівні модель аналізує отримані характеристики обличчя, виявляє патерни, характерні для кожної емоції, та приймає рішення щодо категорії, до якої належить вираз обличчя. Попередня обробка зображень (image preprocessing) є важливим етапом у підготовці вхідних даних перед їхнім використанням у нейронних мережах або інших алгоритмах комп’ютерного зору. Основна мета цього процесу — підвищення якості зображень (з погляду алгоритму, а не людини) та їхньої інформативності, що сприяє ефективнішому розпізнаванню та класифікації об’єктів. Усі фотографії, що використовуються в завданні розпізнавання емоцій, можуть суттєво відрізнятися за низкою параметрів, таких як кольорова гама, рівень освітлення, кут нахилу голови та навіть фонове середовище. Якщо подати їх у сирому вигляді без попередньої обробки, нейромережа може сфокусуватися на другорядних аспектах, що не є ключовими для аналізу емоційного виразу. Саме тому етап препроцесингу дозволяє стандартизувати всі зображення, усунути небажані артефакти та видалити зайві фрагменти, що не несуть важливої інформації для навчання моделі.
Один із важливих аспектів цього процесу — нормалізація кольорів і яскравості, що зменшує вплив різних умов освітлення. Також часто використовується вирівнювання геометрії обличчя, що допомагає звести всі фотографії до єдиного формату та уникнути значних відмінностей у положенні голови. Крім того, масштабування зображень до єдиного розміру дозволяє ефективніше використовувати обчислювальні ресурси та забезпечує стабільність результатів. Ще одним важливим етапом є аугментація зображень — метод, що дозволяє штучно розширити навчальний набір даних без зміни основної суті зображення. Це може включати такі операції, як повороти, дзеркальні відображення, зміну контрастності, випадкові обрізання та інші маніпуляції, що дозволяють створити більш різноманітний датасет. Завдяки цьому модель стає стійкішою до варіацій у вхідних даних, що суттєво покращує її узагальнюючу здатність та знижує ризик перенавчання. Препроцесинг та аугментація буде виконуватися, як було запропоновано в статті [5]. Авторами було експериментально показано, що саме такі дії значно покращують навчання та підвищують точність моделей при розпізнаванні емоцій. Виконуються такі кроки:
1. На першому етапі, використовуючи бібліотеку Dlib, на обличчі ідентифікуються 68 ключових точок. Для цього застосовується попередньо навчена модель shape_predictor_68_face_landmarks, яка дозволяє ефективно знаходити ці орієнтири. В основі її роботи лежить метод гістограми орієнтованих градієнтів (HOG) у поєднанні з алгоритмом опорних векторів (Support Vector Machine, SVM), що забезпечує високу точність розпізнавання структурних особливостей обличчя.
2. Вирівнювання обличчя здійснюється шляхом визначення центральних точок обох очей: лівого (координати точок 37–42) та правого (координати точок 43–48). Після цього обчислюється кут нахилу між цими центрами, і зображення повертається відносно його центру так, щоб лінія, що з’єднує очі, стала горизонтальною. Це дозволяє усунути нахили голови та забезпечити стандартизоване розташування обличчя на зображенні, що покращує точність подальшого аналізу.
3. Обрізання. З вирівняного зображення видаляються усі зайві ділянки, залишаючи мінімум фону та неінформативних частин голови [4].
4. Вирівнювання гістограми. Контраст і яскравість різних зображень є різною. Тому щоб зменшити цю різницю, був застосований метод вирівнювання гістограми (histogram equalization) до кожного вже повернутого та обрізаного зображення.
5. Нормалізація зображень. На цьому останньому етапі всі зображення були приведені до єдиного розміру, що забезпечує узгодженість вхідних даних. Далі для стандартизації всього набору зображень застосовується метод z-score normalization, завдяки якому середнє значення яскравості пікселів приводиться до нуля, а дисперсія — до одиниці. При цьому кожен канал зображення нормалізується окремо, що дозволяє зберегти важливі особливості кольорової гами та покращує подальшу обробку даних нейронною мережею.
Отже, ми розглянули поняття та детальні принципи роботи систем розпізнавання емоцій. Розпізнавання емоцій за допомогою штучного інтелекту є сучасним напрямом, що поєднує алгоритми машинного навчання, комп’ютерного зору та аналізу даних. Використання нейронних мереж дає змогу автоматично ідентифікувати та класифікувати емоційний стан людини на основі міміки, жестів і тональності голосу. Однак для досягнення високої точності необхідні якісні датасети, коректна обробка зображень та належна нормалізація вхідних даних. Попри значний прогрес у цій сфері, технологія має низку викликів, зокрема етичні та правові аспекти, які потребують подальшого вивчення та врегулювання. Штучний інтелект впливає на всі сфери, зокрема і на юридичну, і мені є що про це сказати. Як же впливає штучний інтелект? Чи порушує він права на приватність і захист персональних даних? Які є проблеми законності збору та обробки біометричних даних? Чи є ризики дискримінації та порушення принципу рівності?
Згідно з Постановою КМУ від 30 квітня 2024 №476 «Про затвердження переліку пріоритетних тематичних напрямів наукових досліджень і науково-технічних розробок на період до 31 грудня року, наступного після припинення або скасування воєнного стану в Україні», системи штучного інтелекту, глибоке навчання, великі дані (big data) та нейроподібні мережі є актуальними до опрацювання, зокрема, у правовій доктрині, оскільки штучний інтелект в епоху цифровізації людства створює нові виклики для безпеки в кіберпросторі, одні з яких створюють загрозу витоків великих наборів персональних даних, зловживання ними та несанкціонованого доступу до них [6].
Емоційний штучний інтелект та емпатичні медіа — це нові сучасні терміни, що використовуються для позначення субдисципліни афективних обчислень і, зокрема, технологій, які, як стверджується, здатні виявляти, класифікувати та належним чином реагувати на емоційне життя користувачів, у такий спосіб, здавалося б, розуміючи свою аудиторію. Ці технології покладаються на різні методи, серед яких аналіз виразу обличчя, фізіологічні вимірювання, аналіз голосу, моніторинг рухів тіла та відстеження очей. Попри серйозні дебати щодо їхньої точності, впровадження технологій емоційного ШІ набуває все більшого поширення в багатьох сферах і для різних цілей як у державному, так і в приватному секторах. Чи потрібні нам нові (конституційні) права, як дехто пропонує, у світлі зростаючої практики маніпулювання алгоритмами загалом і появи емоційного ШІ зокрема? Чи здатне чинне законодавство адекватно реагувати на такі зміни? Поставлені запитання є одними з найцікавіших у дискусіях для правознавців як на сьогодні, так і на найближчі роки. Вони також перебувають у полі зору CAHAI, Спеціального комітету Ради Європи зі штучного інтелекту, створеного 11 вересня 2019 року з метою вивчення доцільності та потенційних елементів правової бази для розробки, проєктування та застосування штучного інтелекту на основі стандартів Ради Європи щодо прав людини, демократії та верховенства права [7].
Емоції завжди були в основі реклами та маркетингу, а виявлення емоцій використовується в маркетингових дослідженнях вже кілька десятиліть. Відповідно, в різних сферах законодавства ЄС і національних законів були прийняті правила для захисту споживачів та обмеження форм маніпулятивних практик у відносинах між бізнесом і споживачами. Закони про ЗМІ та рекламу запровадили заборону на неправдиву, оманливу, недобросовісну та приховану рекламу, зокрема пряму заборону на підсвідому рекламу. Інструменти законодавства про захист прав споживачів захищають споживачів від агресивних, недобросовісних та оманливих торговельних практик.
Антимонопольне законодавство суворо забороняє будь-які форми зловживання ринковою владою, спрямовані на отримання неправомірних конкурентних переваг або експлуатацію споживачів. Водночас законодавство щодо захисту персональних даних встановлює жорсткі вимоги до збору, зберігання та обробки особистої інформації громадян, забезпечуючи їхню конфіденційність і право на приватність.
У сфері договірного права є низка обставин, за яких контракт може бути визнаний недійсним. До основних підстав належать примус до укладення угоди, зловживання впливом, навмисне введення в оману або шахрайство. Останнє, тобто свідомий обман, спрямований на отримання незаконних переваг чи позбавлення іншої сторони її законних прав, є не лише цивільним правопорушенням, а й кримінальним злочином, що тягне за собою відповідальність згідно з нормами кримінального права. Проте використання емоційного ШІ може виправдати додаткові рівні захисту. Зростаюча ефективність технології привернули увагу громадськості після згаданого вище експерименту Facebook з емоційним зараженням, коли стрічками новин користувачів маніпулювали для оцінки змін в емоціях (щоб визначити, чи пости з емоційним контентом були більш привабливими) [8], а також після скандалу з Cambridge Analytica [9], де ШІ використовувався для оцінки особистостей потенційних виборців Трампа.
Як зазначають науковці Старк і Кроуфорд, коментуючи наслідки експерименту з емоційним зараженням, очевидно, що кількісна оцінка, відстеження та «маніпулювання емоціями» є зростаючою частиною бізнес-моделі соціальних мереж. Дослідники документують появу того, що Зубофф називає «капіталізмом спостереження» [10], і, зокрема, його залежність від відстеження поведінки та маніпулювання. Форми темних патернів дедалі частіше виявляються, викриваються і певною мірою юридично обмежуються. Темні патерни можна описати як експлуататорський вибір дизайну, «особливості дизайну інтерфейсу, створені для того, щоб обманом змусити користувачів робити те, чого вони, можливо, не хотіли б, але що приносить користь бізнесу, про який йдеться». У своєму звіті за 2018 рік Норвезьке управління з питань захисту прав споживачів назвало використання великими постачальниками цифрових послуг (зокрема Facebook, Google і Microsoft) таких темних патернів «неетичною» спробою підштовхнути споживачів до найменш безпечних для приватності варіантів їхніх сервісів [11]. Крім того, він поставив під сумнів відповідність такої практики принципам захисту даних за замовчуванням і захисту даних за задумом, а також те, чи можна вважати згоду, надану за таких обставин, чітко вираженою, поінформованою та вільно наданою. Він заявив, що «коли цифрові послуги використовують темні схеми, щоб підштовхнути користувачів до надання більшої кількості персональних даних, фінансовий стимул має перевагу над повагою до права користувачів на вибір».
Проте є сумніви, що чинне законодавство про захист прав споживачів (у широкому розумінні) здатне дати остаточну та вичерпну відповідь на питання, де провести межу між формами допустимого переконання та неприпустимого маніпулювання у випадку емоційного ШІ. З одного боку, можливі ситуації, коли сумнівні практики виходять за межі застосування чинних законів. Згадаймо камери, встановлені на вогні Пікаділлі в Лондоні, які здатні розпізнавати обличчя в натовпі навколо статуї Ероса в цирку Пікаділлі, і «коли вони ідентифікують обличчя, технологія визначає приблизний вік, стать, настрій (на основі того, чи вважає вона, що ви насуплені або смієтеся) і відзначає деякі характеристики, такі як наявність окулярів або бороди» [12].
Камери використовувалися протягом певного періоду з метою оптимізації реклами, що відображається на вогні Пікаділлі. Навіть якщо такі практики емоційного ШІ в публічному просторі не вважаються порушенням Загального регламенту ЄС про захист даних (з огляду на заявлену негайну анонімізацію виявлених осіб), вони викликають серйозні сумніви з етичного погляду. З іншого боку, масовість, з якою застосовуються певні практики, може виходити за межі забезпечення дотримання прав особистості. Парламентська асамблея Ради Європи висловила занепокоєння тим, що технології переконання уможливлюють «масові психологічні експерименти та переконання в інтернеті». Такі практики, як видається, потребують колективної відповіді (наприклад, шляхом включення їх до чорного списку комерційних практик), оскільки правозастосування в окремих випадках ризикує виявитися неефективним для усунення шкідливих наслідків для суспільства загалом. Ба більше, емоційний ШІ, можливо, кидає виклик самій парадигмі раціональності, що лежить в основі законодавства про захист прав споживачів (особливо, але не обмежуючись ним).
Сучасне право характеризується відокремленням раціонального мислення (або розуму) від емоцій, а захист прав споживачів, по суті, покладається на раціональність. Як зазначає Малоні, закон працює з погляду того, що раціональне мислення та емоції «належать до окремих сфер людського існування; сфера права визнає лише розум; і необхідна пильна поліція, щоб утримати емоції від проникнення туди, де їм не місце» [14].
Закон традиційно тяжіє до захисту перевіреного пропозиційного змісту комерційних комунікацій, однак міждисциплінарні дослідження все частіше визнають переконливий ефект неперевіреного контенту (наприклад, зображень, музики) і що люди взаємодіють із комп’ютерами як соціальні агенти, а не лише як інструменти. Можна обґрунтовано стверджувати, що відокремлення раціональності від афекту в законі не враховує міждисциплінарні уявлення. У зв’язку з цим виникає сумнів щодо здатності чинної правової системи впоратися із сучасними технологічними досягненнями. Зокрема, оскільки розвиток технологій виявлення емоцій сприяє створенню емоційно забарвлених взаємодій зі споживачами, це створює виклики для системи, яка покладається на раціональність. Ці зміни можуть викликати занепокоєння щодо подальшої залежності від парадигми раціональності в межах захисту прав споживачів, а отже, самовизначення споживачів та їхньої індивідуальної автономії як основних принципів правового захисту.
Важливо розуміти, що, окрім занепокоєння щодо маніпулятивних можливостей ШІ, про які йшлося вище, емоційний ШІ та його застосування також вимагають врахування потенційного шкідливого афективного впливу, з одного боку, і потенційних помилок профілювання, з іншого. Щодо першого (про друге йтиметься пізніше), то добре відомо, що стеження може спричинити охолоджуючий ефект на поведінку, отже, зазіхати на наші права на свободу вираження поглядів і ,так чи інакше, в якій на кону поставлено нашу моральну цілісність — наше право на приватне життя та особисту ідентичність. Само собою спостереження або сприйняття спостереження може мати охолоджуючий ефект на поведінку.
Як стверджує Стенлі [15] (в контексті відеоаналітики), однією з найбільш тривожних проблем є «можливість широкомасштабного охолоджуючого ефекту, оскільки ми всі усвідомлюємо, що наші дії не просто записуються і зберігаються, але й ретельно вивчаються та оцінюються щосекунди». Здебільшого такий моніторинг може також мати вплив на здатність людини «самопрезентуватися».
Недостатня точність емоційного ШІ, що призводить до помилок у профілюванні та неправильних висновків, створює додаткові ризики заподіяння шкоди, зокрема незручності, збентеження або навіть матеріальної чи фізичної шкоди. У цьому контексті особливо важливо, що часто прийнятий підхід для виявлення емоцій спирається на шість основних емоцій, як зазначено Екманом (тобто щастя, смуток, здивування, страх, гнів і огиду). Інститут AI Now при Нью-Йоркському університеті попереджає (у світлі розпізнавання облич), що нові технології реанімують «давню традицію фізіогноміки — псевдонауки, яка стверджує, що риси обличчя можуть розкрити вроджені аспекти нашого характеру та особистості», і підкреслює, що контекстуальні, соціальні та культурні фактори відіграють більшу роль в емоційному вираженні, ніж вважали Екман і його колеги. Якщо залишити в стороні той факт, що виявлення емоцій за виразом обличчя є псевдонаукою, то підвищення точності виявлення емоцій загалом може вимагати більш інвазивного спостереження для збору більш контекстуальних уявлень і сигналів, що парадоксальним чином створює додаткові труднощі з погляду приватності. З огляду на виявлені обставини, ризики, пов’язані з профілюванням, тісно пов’язані з тим, що бази даних, які використовуються для висновків, часто є «вирваними з контексту, неповними або частково забрудненими», що призводить до ризику хибнопозитивних і хибнонегативних висновків. Цей ризик залишається неврахованим підходом, що ґрунтується на індивідуальних правах участі в системі захисту даних ЄС. Дійсно, хоча права на доступ, виправлення та видалення даних, передбачені Загальним регламентом ЄС про захист даних, можуть мати теоретичне значення, практична реалізація цих прав вимагає значних зусиль і стає дедалі складнішою [15]. А це може мати значний вплив на користування ключовими фундаментальними правами і свободами, такими як право на повагу до приватного і сімейного життя та захист персональних даних, рівність і недискримінацію, свободу думки, совісті та релігії — і це підводить нас до ключових понять автономії та людської гідності, що лежать в основі.
Як на рівні ЄС, так і Ради Європи інституції підкреслюють, що нові технології повинні бути розроблені так, щоб зберігати людську гідність і автономію — як фізичну, так і психологічну: «Розробка і використання програмного забезпечення для переконання, а також алгоритмів ІКТ або штучного інтелекту... повинні повністю поважати гідність і права людини всіх користувачів» [16]. Хоча поняття автономії має різні значення і концепції, засновані на різних філософських, етичних, правових та інших теоріях, для цілей цього розділу приймається разіанське тлумачення автономії, оскільки воно визнає необхідність сприяння створенню середовища, в якому індивіди можуть діяти автономно. Вдаватися до маніпуляцій слід за тих самих умов, що й до примусу. Отже, маніпуляція вибором за своєю суттю може перешкоджати автономії, і можна зробити висновок, що крізь цю призму надмірне переконання також суперечить автономії. Автономія є невід’ємною частиною функціонування демократичних цінностей, які на фундаментальному рівні захищені основними правами і свободами. Однак ні в ЄКПЛ, ні в ДФЄС немає прямого посилання на право на автономію або самовизначення. Попри те, що право на автономію не визнається в окремому положенні ЄКПЛ, Європейський суд з прав людини (далі — ЄСПЛ) кілька разів постановив, що захист автономії підпадає під дію ст. 8 ЄКПЛ, яка визначає право на повагу до приватного і сімейного життя. Цей зв’язок неодноразово проілюстровано у практиці ЄСПЛ, що стосується фундаментального життєвого вибору людини, зокрема щодо сексуальних уподобань/орієнтації, а також особистого та соціального життя (тобто включаючи міжособистісні стосунки людини). Такі випадки ілюструють роль, яку відіграє право на недоторканність приватного життя у розвитку особистості через самореалізацію та автономію (у широкому розумінні).
Отже, зв’язок між правом на недоторканність приватного життя та автономією є сильним, і тому, хоча недоторканність приватного життя та автономія не є синонімами, можна обґрунтовано стверджувати, що право на недоторканність приватного життя наразі пропонує спосіб захисту автономії (про що свідчить прецедентне право ЄСПЛ). Поява емоційного ШІ та виявлення емоцій у реальному часі за допомогою спостереження за емоціями кидає виклик одночасно двом аспектам цього права, а саме: по-перше, приватності як усамітнення або інтимності через виявлення емоцій і, по-друге, приватності як свободи дій, самовизначення та автономії через їхню монетизацію. Гідність, як і автономію, нелегко визначити. Значення цього слова аж ніяк не є однозначним, а його зв’язок із основними правами незрозумілим. Інститут Ратенау торкнувся цього питання, зазначивши, що технології, ймовірно, втручаються в інші права, якщо використання технологій зачіпає людську гідність [17].
Проте немає майже ніякого консенсусу щодо того, чого концепція людської гідності вимагає від законодавців та суддів, і, як зазначає О’Махоні, в результаті багато коментаторів стверджують, що вона є в кращому випадку безглуздою або некорисною, а в гіршому — потенційно шкідливою для захисту прав людини [18]. Хоча повний аналіз змісту цього поняття виходить за межі цієї глави, можна зазначити, що людська гідність, попри те, що її тлумачать по-різному через культурні відмінності, вважається центральною цінністю, що лежить в основі всього міжнародного права в галузі прав людини, одним із основних принципів основоположних прав і основою більшості цінностей, підкреслених у ЄКПЛ. Хоча сама ЄКПЛ прямо не згадує про людську гідність, її важливість підкреслюється в декількох правових джерелах, пов’язаних із ЄКПЛ, включаючи прецедентне право ЄСПЛ та різні документи РЄ. Людська гідність також прямо визнається основою всіх фундаментальних прав, гарантованих ДФЄС, і її роль була підтверджена Судом ЄС (далі — Суд ЄС). Щодо її змістовного наповнення можна зазначити, що, як стверджує О’Махоні, мабуть, найбільш загальновизнаними аспектами людської гідності є рівне ставлення та повага [18].
У контексті емоційного ШІ особливо актуальним є те, що хоча людська гідність не може розглядатися як право сама по собі, вона є джерелом права на особисту автономію та самовизначення (тобто останні є похідними від основоположного принципу людської гідності). Як зазначає Фельдман, мабуть, немає жодного права людини, яке не пов’язане з людською гідністю, однак «деякі права, здається, відіграють особливо важливу роль у підтримці людської гідності», і до них належать право на свободу від нелюдського або такого, що принижує гідність, поводження, право на повагу до приватного і сімейного життя, право на свободу совісті і переконань, право на свободу об’єднання, право на шлюб і створення сім’ї, а також право на свободу від дискримінаційного поводження [17]. Фельдман стверджує, що, окрім свободи від нелюдського та такого, що принижує гідність, поводження, ці права «не спрямовані головним чином на захист гідності, а більш безпосередньо спрямовані на захист інтересів в автономії, рівності та повазі». Однак стверджується, що ці інтереси — автономія, рівність і повага — важливі для забезпечення умов, у яких «гідність може процвітати», тоді як права, які їх захищають, слугують наріжним каменем гідності. У зв’язку з цим, оскільки застосування емоційного ШІ може становити загрозу цим правам (наприклад, праву на повагу до приватного та сімейного життя, як проілюстровано вище, або праву на свободу від дискримінаційного поводження), по суті, воно може становити загрозу людській гідності.
Задля ілюстрації можна послатися на аналіз технологій розпізнавання обличчя у реальному часі, проведений Агентством ЄС з фундаментальних прав (далі — FRA) [19], у якому підкреслюється, що обробка зображень обличчя може по-різному впливати на людську гідність. На думку FRA, людська гідність може бути порушена, наприклад, коли люди відчувають себе некомфортно, відвідуючи певні місця або заходи, змінюючи свою поведінку або відсторонюючись від соціального життя. «Вплив того, що люди можуть сприймати як технології спостереження, на їхнє життя може бути настільки значним, що може вплинути на їхню здатність жити гідним життям». FRA стверджує, що використання розпізнавання обличчя може мати негативний вплив на гідність людей і, відповідно, становити загрозу правам на приватність і захист даних [19].
Підсумовуючи, розгортання емоційного ШІ в контексті «бізнес — споживач» потребує обговорення на фундаментальному, конституційному рівні. Хоча він може приносити користь як бізнесу, так і споживачам (наприклад, забезпечуючи прибуток і задоволеність споживачів відповідно), він має функціональні недоліки, а також викликає певні юридичні міркування. Окрім очевидних проблем, пов’язаних із захистом приватності і даних з погляду споживача, під загрозою може опинитися індивідуальна автономія та людська гідність як основні цінності. Діяльність з впливу, очевидно, втручається не лише в автономію та самовизначення особи, але й у свободу думки, совісті та релігії. Як зазначив Комітет міністрів Ради Європи, очевидно, що і в інших контекстах (наприклад, під час політичної кампанії) дрібнодисперсні, підсвідомі та персоналізовані рівні алгоритмічного переконання можуть мати значний вплив на когнітивну автономію індивідів та їхнє право формувати думки і приймати незалежні рішення. Як наслідок, не лише може бути ослаблена реалізація та користування індивідуальними правами людини, але й демократія та верховенство права можуть опинитися під загрозою, оскільки вони однаковою мірою ґрунтуються на фундаментальній вірі в рівність та гідність усіх людей як незалежних моральних агентів.
Системи FER вимагають доступу до зовнішніх станів, але є воротами до внутрішнього досвіду. Отже, вони надають доступ до якостей, тобто «емпіричних властивостей відчуттів, почуттів, сприйняття, думок і бажань». Крім того, системи FER, представляючи корисні аспекти для здоров’я та безпеки, можуть також створювати нові ризики. Наприклад, пристрої, розміщені в автомобілях, які попереджають водіїв про втому, можуть знизити пильність, адже вони можуть покладатися на технології та зменшити свою увагу. На співбесіді з кандидатами зі схожими навичками, але різними емоційними каналами, в роботі може бути відмовлено тому, хто не може приховати тривогу. Знання емоцій «вразливих» споживачів може допомогти брендам служити їхнім інтересам. Вони можуть формувати поведінку покупців, щоб змусити їх платити за товар. Потенційні ризики стосуються як окремих осіб, так і суспільства. Системи, призначені для виявлення підозрілих висловлювань у натовпі, можуть призвести до приписування негативних емоцій людям, які не мають поганих намірів. Людські та фінансові ресурси, такі як співробітники служб безпеки або медична допомога, можуть бути мобілізовані без необхідності, що матиме фінансові наслідки. Інше занепокоєння пов’язане з імовірним маніпулюванням громадською думкою та поведінкою людей, оскільки політичні погляди можуть бути досягнуті шляхом виявлення емоцій у соціальних мережах.
Зловмисне використання FER може порушувати основоположні права і свободи. Маніпулювання політичними намірами може порушити право на вільне голосування. Особи, за якими стежать на робочому місці або в інтернеті, можуть постраждати від втручання в особисте життя. Щоб уникнути обмеження свободи та індивідуального розвитку, попередній збір згоди та повага до можливостей контролю є важливими, але чи є вони достатніми? Збір та використання персональних даних підпадає під сферу дії GDPR в Європі.
Наразі обговорюється новий регламент, який розглядає ФЕД як «практику з низьким рівнем ризику та зобов’язаннями щодо прозорості». Отже, наразі FER чітко не регулюється, але підпадає під дію положень GDPR щодо законності, інформування користувачів, права на заперечення, принципу мінімізації тощо. Розгортання технології також керується рекомендаціями Ради Європи, в яких зазначається, що «приватним компаніям не можна дозволяти використовувати цю технологію в неконтрольованих, вільно доступних середовищах». Такі рекомендації унеможливлюють деякі види використання, представлені раніше. Ба більше, використання GDPR правоохоронними органами вважається «прийнятним лише у разі суворої необхідності та пропорційності для запобігання неминучим і суттєвим загрозам громадській безпеці». Зрештою, ідея полягає в тому, щоб заборонити використання радіоелектронних засобів з метою «емоційного розпізнавання» і для виявлення «рис особистості, внутрішніх почуттів, психічного здоров’я або прихильності працівників». Зловмисне використання радіоелектронних засобів може порушувати основоположні права і свободи людини. Навіть ті види використання, які на перший погляд виглядають корисними, мають потенційно негативні наслідки, яких хоче уникнути заборона. Проте застосування у сфері психічного здоров’я є іншим, оскільки вони можуть активно сприяти соціальній справедливості [19].
Утримання від використання РОД у сфері охорони здоров’я може навіть порушити Європейську соціальну хартію: «Кожна людина має право користуватися всіма заходами, що дають їй змогу мати найвищий досяжний рівень здоров’я» [20]. У Франції Кодекс громадського здоров’я також стверджує, що «жодна особа не може бути дискримінована в доступі до профілактики або лікування» [21]. Дійсно, людям з алекситимією (нездатністю відчувати емоції) не буде гарантовано рівного ставлення.
Поєднання рівності та доступу до FER як нової форми допомоги з повагою до важливих правових принципів може стати серйозним викликом. Запропонувавши Закон про штучний інтелект (AIA), Європейський Союз представив концепцію набору стандартів, засновану на розумінні того, що системи штучного інтелекту (ШІ) набувають все більшого значення в суспільному житті і що зростаюча важливість цих систем вимагає розумного, ефективного і стійкого регулювання (21.4.2021 COM(2021) 206 final 2021/0106 (COD)). З використанням систем штучного інтелекту зростають не лише можливості, але й небезпеки та ризики для життя та співіснування людей, саме тому пропозиція ґрунтується на підході до систем штучного інтелекту, що базується на оцінці ризиків. Єдиного визначення терміну «система штучного інтелекту» немає через складність технологій штучного інтелекту, але спочатку передбачається інтелект, що виходить від машин, що контрастує з природним інтелектом живих істот. Пропозиція AIA визначає систему ШІ як «програмне забезпечення, розроблене з використанням одного або декількох методів і концепцій, перелічених у Додатку I, яке здатне виробляти такі результати, як контент, прогнози, рекомендації або рішення, що впливають на середовище, з яким воно взаємодіє, з урахуванням цілей, визначених людиною» (ст. 3, п. 1). Пропозиція враховує структурні, соціальні, політичні та економічні аспекти використання ШІ, що, по суті, відповідає реальності багатьох осіб, які приймають рішення, від яких все частіше вимагають використовувати можливості систем ШІ у своїх сферах відповідальності, але також намагаються мінімізувати ризики, що зростають.
Тому законодавці покликані створити відповідні рамкові умови, які дозволять використовувати переваги технологій і водночас намагатися мінімізувати можливі ризики. Соціальна значущість цього протиріччя також відображається в тому, що незаконодавчі ініціативи та заходи саморегулювання з боку приватних суб’єктів зростають як на національному, так і на міжнародному рівнях. Наприклад, Партнерство з питань ШІ на благо людей і суспільства об’єднує технологічні компанії, наукові та дослідницькі кола та організації громадянського суспільства, які закликають до належного підходу до ШІ в суспільстві. Нещодавно опублікована Заява громадянського суспільства від 30 листопада 2021 року (підписана 115 організаціями з різних європейських країн) посилається на пропозицію Комісії і звертає особливу увагу на структурну нерівність влади, яка виникає в результаті використання систем ШІ. У зверненні міститься заклик до інституцій Європейського Союзу взяти на себе відповідальність за дотримання фундаментальних прав у передбачуваній регуляторній базі. У будь-якому разі очевидним є інтерес до громадянської участі в дискурсі (AnEU Artificial Intelligence Act for Fundamental Rights, 2021).
Тож суспільство генерує більше інформації про людські емоції і виводить наміри й ставлення в системний спосіб. Ця тенденція врахована в пропозиції AIA в ст. 3, Z 34, яка визначає «системи розпізнавання емоцій» як системи штучного інтелекту, які слугують для визначення або виведення емоцій або намірів фізичних осіб на основі їхніх біометричних даних. Як видно з визначення, виявлення руху, наприклад, призначене для того, щоб зробити емоції зрозумілими шляхом аналізу рухів людини. Уявіть собі людину, яка рано вранці блукає безлюдним підземним паркінгом, заглядаючи крізь вікна автомобілів у їхні салони. З погляду індустрії безпеки тут може виникнути поведінковий прогноз, наприклад, ймовірність неминучого правопорушення. Як слід розуміти цей системний процес, буде пояснено на прикладі розпізнавання емоцій за виразом обличчя (Facial Emotion Recognition, FER). Це аналіз емоцій за допомогою технологій, що об’єднані загальним терміном «афективні обчислення» (affective computing). Йдеться про мультидисциплінарну галузь досліджень, яка вивчає можливості інтерпретації людських емоцій і станів свідомості за допомогою комп’ютерних технологій. У цьому контексті часто використовуються застосунки штучного інтелекту (ШІ). Вирази обличчя як форми невербальної комунікації та їх інтерпретація за допомогою технологій є предметом дослідження психології, зокрема в галузі взаємодії людини з комп’ютером. У загальних рисах аналіз FER здійснюється в три етапи, який представлено на рис. 1.
Рис. 1. Загальні риси аналізу FER
Залежно від конкретного алгоритму ці вирази можуть класифікуватися за категоріями, як-от: злість, відраза, страх, радість, смуток, здивування. Також можливе виділення складних емоцій, таких як: сумна радість, радісне здивування, радісна відраза, сумний страх, сумна злість, сумне здивування. Або ж вони можуть бути віднесені до фізіологічних або психічних станів, таких як втома чи нудьга.
Крім того, можливе поєднання з біометричними ідентифікаціями, тобто з подібними аналізами голосу, тексту або медичних даних (EDPS, 2021). Те, що ми маємо розпізнати та класифікувати з юридичного та етичного погляду — це системний процес, у якому технологія ШІ використовується для перетворення біометричних даних на дані про емоції людей, які ми тут будемо називати емоційними даними. Якщо ми замислюємося над юридичними та етичними викликами інформаційних і комунікаційних технологій, зосереджуючи увагу на емоційних даних, то центральним постає питання: яким може бути юридичне визначення термінів «емоції» та «емоційні дані». Особливо в контексті нормативної системи, яка встановлює правила щодо прав, обов’язків і санкцій, потрібно також з’ясувати, чи пов’язані емоції та цінності між собою. Люди можуть мати ірраціональні емоції, або ж емоції можуть зберігатися навіть тоді, коли пов’язана з ними цінність давно зникла (Berninger & Döring, 2009; Mulligan, 2009; Tappolet, 2009). Це питання передумови, як саме емоції пов’язані з ціннісними судженнями, мають значення для визначення емоційних даних і їхньої юридичної ваги. Крім того, необхідно враховувати етичні міркування щодо того, які наслідки для суспільства може мати технологічно зумовлений зв’язок між системами розпізнавання емоцій і ціннісними судженнями.
Обидва ці контексти (юридичний та етичний) є важливими для роздумів про сучасні технології спостереження. Загальний регламент про захист даних (GDPR) також містить положення щодо роботи із системами штучного інтелекту, зокрема шляхом уніфікації зобов’язань у сфері обробки даних і формування прав суб’єкта персональних даних при їх використанні. GDPR застосовується у випадках, коли системи ШІ отримують персональні дані, використовують їх або слугують основою для прийняття рішень. Тож принципи, закріплені в GDPR, як-от заборона дискримінації чи принцип обмеження мети обробки, також мають значення для систем ШІ. Як і у випадку з усіма великими та комплексними базами даних, є ризик систематичного зловживання з боку третіх осіб. GDPR також позиціонує себе як регуляторна система для європейського простору даних, у якому можливе та необхідне використання даних у дедалі цифровізованішому середовищі. Персональні дані — це дані, які ідентифікують або можуть ідентифікувати особу. У 26-му вступному положенні GDPR зазначено, що «для визначення, чи є фізична особа ідентифікованою, слід враховувати всі засоби, які обґрунтовано можуть бути використані контролером або будь-якою іншою особою для прямої або непрямої ідентифікації фізичної особи, такі як сегрегація».
При визначенні того, наскільки ймовірно буде використано ті чи інші засоби для ідентифікації фізичної особи, слід брати до уваги всі об’єктивні фактори, зокрема вартість і час, необхідні для ідентифікації, а також наявні на момент обробки технології й рівень технологічного розвитку. Як можна визначити термін «емоційні дані» так, щоб він підходив для юридичного контексту, зокрема в контексті систем розпізнавання емоцій, згаданих у проєкті AIA (Акта про штучний інтелект)? Як ми вже бачили, біометричні дані стають емоційними даними через обробку в системі розпізнавання емоцій. На першому кроці розглядається обробка біометричних даних у межах законодавства про захист даних, на другому постає питання, які висновки можна зробити щодо роботи з емоційними даними. Визначення поняття «біометричні дані» міститься в ст. 4 (14) GDPR. Це «персональні дані, отримані за допомогою спеціальних технічних процедур, що стосуються фізичних, фізіологічних або поведінкових характеристик фізичної особи, які дають змогу або підтверджують унікальну ідентифікацію цієї фізичної особи, такі як зображення обличчя або дактилоскопічні дані».
Біометрія — це наука про реєстрацію та вимірювання живих істот, числове вимірювання в галузі біології. Біометрія охоплює автоматизовану ідентифікацію живих осіб на основі фізичних характеристик або типових моделей поведінки. Біометричні дані придатні для унікальної ідентифікації людей, якщо зафіксовані характеристики є унікальними. Оскільки біометричні дані безпосередньо пов’язані з тілом людини, їх складно змінити або підробити. Водночас деякі біометричні характеристики можуть змінюватися з віком. Визначення базується на понятті «спеціальних технічних процедур», за допомогою яких отримуються персональні дані. Тому лише дані, зібрані технічними засобами, підпадають під це визначення. Тож звичайні фотографії осіб самі собою не є біометричним матеріалом. Лише подальша технічна обробка зображень приводить до утворення біометричних даних [22].
Згідно з формулюванням регламенту, він також охоплює акустичні характеристики голосу (розпізнавання мовлення), а також біотехнологічні чи хімічні методи вимірювання. Біометрія використовується для ідентифікації особи за відбитками пальців, автоматичного розпізнавання сітківки й райдужки ока, складного розпізнавання голосу, підписів, обличчя, рухів тіла, статистичних або динамічних методів візуалізації, за допомогою рентгену або інфрачервоного випромінювання, акустичних профілів голосу, поведінки під час друкування на клавіатурі або сканування в реальному часі. Повернімося до процедури аналізу FER (розпізнавання емоцій за виразом обличчя), яку ми розглянули вище.
Емоційні дані можуть бути корисними для унікальної ідентифікації людей, якщо зафіксовані ознаки є унікальними. Риси обличчя є унікальними, але вони все ще належать до категорії біометричних даних. Ознаки, отримані на етапах виявлення виразу обличчя та класифікації виразу за емоційним станом, також можуть бути унікальними, якщо певні емоційні шаблони повторюються. Нарешті, під час третього етапу процесу біометричні дані перетворюються на емоційні дані. Аналогічно до біометричних шаблонів також слід розглядати поняття емоційних шаблонів.
На мою думку, цілком можливо визначити емоційні дані в контексті законодавства про захист даних як персональні дані про емоційні характеристики або стани фізичної особи, отримані за допомогою спеціальних технічних процедур, які дозволяють або підтверджують унікальну ідентифікацію цієї особи. У будь-якому разі дані, отримані під час виявлення обличчя, вже є персональними даними через свою біометричну природу і, відповідно, підпадають під категорію чутливих даних згідно зі ст. 9 (1) GDPR, для яких передбачено спеціальний рівень захисту.
У вступному положенні 51 GDPR зазначається: «Персональні дані, які за своєю природою є особливо чутливими щодо основних прав і свобод, заслуговують на особливий захист, оскільки контекст їхньої обробки може створювати суттєві ризики для основних прав і свобод» [23]. У цьому сенсі законодавство про захист даних враховує чутливі дані, такі як расове чи етнічне походження, політичні погляди, релігійні чи філософські переконання, членство в профспілках, генетичні дані, дані про здоров’я, сексуальну орієнтацію, як зазначено в ст. 9 (1) [23]. Для цих категорій даних у системі GDPR передбачені спеціальні вимоги щодо згоди. При визначенні спільних характеристик чутливих даних необхідно враховувати «суттєвий ризик для основних прав і свобод», як зазначено у вступному положенні 51 GDPR. Як йдеться в проєкті AIA (Акта про штучний інтелект), через «непрозорість, складність, залежність від даних та автономну поведінку […] використання ШІ може призвести до порушення деяких з основоположних прав, закріплених у Хартії основних прав ЄС». Головною метою AIA є «високий рівень захисту цих основоположних прав» та вирішення різних джерел ризику шляхом чітко визначеного підходу, заснованого на оцінці ризиків [24]. У документі підкреслюється, що всі учасники ланцюгів створення цінності зобов’язані дотримуватися вимог щодо надійності ШІ та пропорційних обов’язків, щоб гарантувати захист прав, закріплених у Хартії. Серед ключових прав є такі:
- людська гідність (ст. 1);
- повага до приватного життя і захист персональних даних (ст.ст. 7, 8);
- недискримінація (ст. 21) і рівність між жінками та чоловіками (ст. 23);
- право на свободу вираження поглядів (ст. 11) і свободу зібрань і асоціацій (ст. 12);
- право на ефективний засіб правового захисту та справедливий судовий розгляд, презумпція невинуватості та права на захист (ст.ст. 47, 48);
- загальний принцип належного управління.
Значною також є увага до прав окремих груп, зокрема:
- право працівників на справедливі та гідні умови праці (ст. 31);
- захист прав споживачів (ст. 28);
- права дитини (ст. 24);
- інтеграція осіб з інвалідністю (ст. 26).
Окрім того, йдеться про право на високий рівень захисту та покращення якості довкілля (ст. 37), особливо в контексті охорони здоров’я та безпеки людей. Щодо оцінки ризиків і небезпек, пов’язаних з емоційними даними, слід звернути увагу на сферу фактичного захисту, яку забезпечують ст. 9 Європейської конвенції з прав людини (ЄКПЛ) і ст. 10 Хартії основоположних прав ЄС (CFR), що включає свободу думки, совісті та релігії. У контексті проблеми емоційних даних важливим аспектом є саме свобода думки. Свобода думки захищає внутрішні людські процеси, що ведуть до формування переконань і поглядів, включно з релігійними і совісними переконаннями. Вона має на меті захистити найглибшу суть людського самовизначення, а отже, повагу до індивідуальної особистості. «Це стосується не лише внутрішніх розумових процесів, але також вираження думок, сформульованих у — свідомому чи несвідомому, мимовільному чи довільному — внутрішньому монолозі, коли людина відчуває себе «наодинці із собою», і за певних обставин це може включати й інші розмови чи файли, збережені в інформаційно-технологічній системі» (Graupner, 2021). Це основоположне право охоплює не лише свободу думки, але й свободу приховувати власні думки та зберігати їх у таємниці. Які положення щодо мінімізації ризиків передбачені для систем ШІ у контексті захисту основоположних прав? У вступному положенні 70 Акта про штучний інтелект (AIA) розглядаються інформаційні обов’язки щодо «систем розпізнавання емоцій», а ст. 52 встановлює стандартизовані вимоги прозорості для використання та впровадження таких систем [24]. Але чи є ці інформаційні та прозорі заходи справді достатніми гарантіями захисту основоположних прав при використанні емоційних даних? У Додатку III до проєкту AIA згадуються системи ШІ високого ризику (які мають класифікуватися та оцінюватися як такі відповідно до ст. 6(2)). Згідно з пунктом 6 (b) Додатку III (правоохоронна діяльність) та пунктом 7 (a) (міграція, надання притулку та прикордонний контроль), йдеться про системи ШІ, які передбачається використовувати правоохоронними органами як детектори брехні або подібні інструменти або ж для визначення емоційного стану фізичної особи [24]. «Гідність людини є недоторканною. Її необхідно поважати й захищати» (ст. 1 Хартії основоположних прав ЄС). Центральне послання наших сучасних каталогів основоположних прав майже як преамбула проголошує недоторканність людської гідності (ст. 1 ХОПЄС, ст. 1 Загальної декларації прав людини).
Однак у цьому контексті також необхідно поставити запитання: що саме мається на увазі під філософськи значущим поняттям людської гідності? У зв’язку з цим часто згадують німецького філософа І. Канта. Для нього гідність — це те, що неможливо обчислити; вона не має ціни й не визнає еквівалентів. Кант підкреслює самоцільність людини, і в цьому сенсі рішуче виключає знецінення людини до рівня об’єкта та пов’язану з цим оціночну порівнюваність [25]. Кожна людина наділена цією гідністю, яка є абсолютною і непорівнянною цінністю, і її не можна втратити за жодних обставин.
У своєму звіті за 2019 рік Комісія з питань етики даних при уряді Німеччини також посилається на фундаментальний характер людської гідності і у своїх аргументах неявно опирається на філософські положення, сформульовані І. Кантом. При цьому вона однозначно наголошує, що кожна людина є індивідуальністю, а не набором точок даних, і не може бути класифікована системою, яка охоплює всі сфери її життя, як, наприклад, у випадку суперсистеми оцінювання. Людська гідність породжує вимогу, щоб кожну людину в усіх державних процесах розглядали як суб’єкта, а не як об’єкт. Це прагнення до соціальної цінності та поваги, зокрема, проявляється в забороні принизливих або деградуючих покарань у кримінальному процесі, у забороні застосування детектора брехні чи сироватки правди (певних препаратів) проти волі особи. Під поняттям людської гідності мають зберігатися фундаментальні правові засади індивідуального та соціального існування людини. Це означає, що жодна особа не може бути зведена до рівня простого об’єкта державної влади, якщо при цьому ставиться під сумнів її суб’єктність. Філософиня Марта Нусбаум системно досліджувала це питання. Згідно з її підходом, людину об’єктивують, якщо до неї застосовується хоча б одна з перелічених характеристик, як-от:
- Інструментальність — ставлення до особи як до засобу досягнення цілей інших людей.
- Позбавлення автономії — заперечення її здатності до самостійного прийняття рішень.
- Інертність — сприйняття особи як пасивної, без власної активності.
- Замінність — уявлення про те, що її можна легко замінити кимось іншим.
- Піддатливість — повне підпорядкування чужій волі.
- Привласнення — ставлення до неї як до чиєїсь власності.
- Заперечення суб’єктивності — трактування людини так, ніби її внутрішні переживання або почуття не мають жодного значення.
У цьому контексті слід ще раз звернутися до Додатка III проєкту Акта про штучний інтелект (AIA), в якому згадуються системи ШІ високого ризику відповідно до ст. 6 (2). У пункті 6 (b) (правоохоронна діяльність) та пункті 7 (a) (міграція, надання притулку та прикордонний контроль) згадуються системи ШІ, які мають використовуватися правоохоронними органами як детектори брехні або подібні інструменти чи для визначення емоційного стану фізичної особи [24]. Об’єктивація діє в обидва боки у взаємозв’язку між людьми: коли одна людина об’єктивується, водночас відбувається самооб’єктивація іншої, яка зі свого боку втрачає самосвідомість суб’єкта.
А що, коли одного з двох людських суб’єктів замінює об’єкт, наприклад машина, і доступ цієї машини до індивідуальних даних людей перетворює їх на цифрові об’єкти для потреб компаній або установ? Особливо якщо йдеться про техніко-цифрові спроби об’єктивації одного з найбільш інтимних і особистих аспектів людського буття — наших емоцій. Якщо у першому прикладі маємо справу з неминучою взаємодією суб’єкта й об’єкта в конкретному контексті, то другий приклад ставить перед нами новий, навіть особливий виклик. Чи означає це, що гідність людей, на яких впливають такі системи ШІ, порушується? З огляду на вчення Канта відповідь має бути ствердною, адже людина ніколи не повинна бути засобом, об’єктом для досягнення інших цілей, вона завжди є метою сама собою. Це породжує питання: коли людина перетворюється на об’єкт?
Зважаючи на критерії, встановлені Мартою Нусбаум, з яких достатньо навіть одного для того, щоб ідентифікувати об’єктивацію особи, ми бачимо, що тут виконуються одразу кілька таких критеріїв. Розглядати кожен окремо в межах цієї статті не дозволяє обсяг, тому з дослідницько-прагматичного погляду ми коротко зупинимося лише на двох: позбавлення автономії та заперечення суб’єктивності. Критерії, що застосовуються в конкретному випадку, завжди залежать від відповідної системи ШІ та конкретного контексту. Тому тут не може бути загальновалідного твердження.
На мою думку, емоційний ШІ, особливо якщо він пов’язаний із системою оцінювання (scoring), принаймні частково обмежує особисту автономію людини, а отже, її самовизначення. Наприклад, коли певна поведінка формує бал, який впливає на реальне життя людини, як це відбувається в деяких містах і муніципалітетах у межах системи соціального кредиту в Китаї. Проте саме критерій «заперечення суб’єктивності» я вважаю особливо дотичним у контексті емоційних даних і емоційного ШІ. Техніко-цифрова об’єктивація емоцій у вигляді шаблонів даних у подальшому дозволяє їх класифікувати. Це означає, що почуття, внутрішні переживання та емоції людини не враховуються або враховуються лише частково. Ця класифікація за різними категоріями й групами та пов’язана з цим об’єктивація особистості з економічною, політичною чи іншою метою, незалежно від того, йдеться про здійснення контролю чи захист зацікавлених осіб, порушує людську гідність. А разом із цим перевищуються абсолютні межі, які з етичного погляду мають бути особливо шанованими й захищеними. Технологічний розвиток дедалі більше демонструє, наскільки взаємопов’язаними є дані. Профілювання та прогнозування з різною метою, і все це потребує подальшого уточнення з боку законодавства про захист даних, що повинні розглядатися з особливою обережністю.
Вочевидь, сьогодні емоційні дані створюють нові категорії інформації, які поки що не охоплені належною мірою чинним правом у сфері захисту даних. Обробка емоційних даних особливо сильно впливає на приватність особи і, відповідно, створює високий рівень ризику. Тому виникає необхідність у розробці диференційованих регуляторних концепцій для поводження з такими даними. Наше суспільство стоїть перед величезними етичними й правовими викликами. Як показано, емоції все частіше автоматично реєструються й оцінюються. Тому важливо сформувати усвідомлення цієї категорії даних у сфері захисту персональної інформації, а також (з етичного погляду) враховувати інтереси як окремої людини, так і суспільного блага.
Загалом зі зростанням технологізації життя зростатиме й важливість людиноцентричного підходу до дизайну систем. Ми показали, що емоційні дані та емоційний ШІ створюють великі виклики, особливо в питаннях їх регулювання. Хоча певні регуляторні імпульси можна вивести з уже наявних норм, потрібне більш чітке й пряме регулювання поводження з такими даними і технологіями. Висока ймовірність того, що ці дані й системи ШІ будуть поєднані із системами соціального кредиту, становить загрозу як для особистого, так і суспільного добробуту, оскільки в цьому випадку перетинаються кілька етичних меж. Особливо складні теми, такі як емоційні дані та емоційний ШІ, зачіпають низку основоположних прав (зокрема свободу вираження поглядів, право на приватність). Такі технології можуть використовуватись і на благо, і в негативному ключі, наприклад, для зміцнення безпеки або ж для необґрунтованого контролю та спостереження. Саме пов’язання емоційного ШІ з технологіями сучасного нагляду створює складні етичні та правові виклики для нашого суспільства сьогодні. Отже, ці виклики потрібно розв’язувати гуманним способом. У підсумку завжди має йтися про людину та її добробут. Основоположні права людини не повинні бути обмежені через нові технологічні можливості незалежно від економічних, політичних чи інших інтересів.
Джерела
1. Mellouk W. Facial emotion recognition using deep learning: review and insights [Електронний ресурс] / W. Mellouk, W. Handouzi // Procedia Computer Science, 2020. Режим доступу до ресурсу: https://www.sciencedirect.com/science/article/pii/S1877050920318019.
2. Vemou K. Facial Emotion Recognition [Електронний ресурс] / K. Vemou, A. Horvath // EDPS TechDispatch, 2021. Режим доступу до ресурсу: https://edps.europa.eu/system/files/2021-05/21-05-26_techdispatch-facial-emotionrecognition_ref_en.pdf.
3. Modawal A. How facial recognition and emotion detection helps businesses [Електронний ресурс] / Archana Modawal // Softweb Solutions Inc., 2022. Режим доступу до ресурсу: https://www.softwebsolutions.com/resources/benefits-of-facialrecognition.html.
4. Connie T. Facial Expression Recognition Using a Hybrid CNN– SIFT Aggregator [Електронний ресурс] / T. Connie, M. Al-Shabi, W. Cheah // Springer International Publishing, 2017. Режим доступу до ресурсу: https://arxiv.org/ftp/arxiv/papers/1608/1608.02833.pdf.
5. Facial expression recognition with convolutional neural networks via a new face cropping and rotation strategy [Електронний ресурс] / [Y. Jin, R. Han, M. Akram та ін.] // The Visual Computer, 2020. Режим доступу до ресурсу: https://www.researchgate.net/publication/330301581_Facial_expression_recognition_with_
convolutional_neural_networks_via_a_new_face_cropping_and_rotation_strategy.
6. Постанова Кабінету Міністрів України від 30 квітня 2024 р. №476 «Про затвердження переліку пріоритетних тематичних напрямів наукових досліджень і науково-технічних розробок на період до 31 грудня року, наступного після припинення або скасування воєнного стану в Україні».
7. CAHAI — Ad hoc Committee on Artificial Intelligence [Електронний ресурс], 2019. Режим доступу до ресурсу: https://www.coe.int/en/web/artificial-intelligence/cahai.
8. Kramer A., Guillory J.and Hancock J. Experimental Evidence of Massive-Scale Emotional Contagion through Social Networks (Research Article 2014). Режим доступу до ресурсу: https://doi.org/10.1073/pnas .1320040111 accessed.
9. Tiku. N. Facebook’s Ability to Target Insecure Teens Could Prompt Backlash (Article 2017), 2020. Режим доступу до ресурсу: policyreview.info/articles/analysis/exploitation-vulnerability-through-personalised-marketing-communication-are.
10. Zuboff S. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, 2019.
11. The Norwegian Consumer Council, Deceived by Design (Report 2018). Режим доступу до ресурсу: www.forbrukerradet.no/undersokelse/no-undersokelsekategori/deceived-by-design/.
12. Landsec, Archived Privacy Policy Piccadilly Lights. Режим доступу до ресурсу: https://landsec.com/policies/privacy-policy/piccadilly-lights-english.
13. Council of Europe, Committee on Culture, Science, Education and Media, Rapporteur Mr Jean-Yves LE DE´ AUT, Technological Convergence, Artificial Intelligence and Human Rights, 2017. Режим доступу до ресурсу: https://assembly.coe.int/nw/xml/XRef/Xref-XML2HTML-en.asp?fileid=23726&lang=en.
14. Maroney T. Law and Emotion: A Proposed Taxonomy of an Emerging Field [2019] 30 Law Hum Behav 119.
15. Koops B. On Decision Transparency, or How to Enhance Data Protection after the Computational Turn’ in M. Hildebrandt and K. de Vries (eds), Privacy, Due Process and the Computational Turn: The Philosophy of Law Meets the Philosophy of Technology (Routledge 2013) 199.
16. Parliamentary Assembly, Technological Convergence, Artificial Intelligence and Human Rights (Recommendation 2102 2017). https://assembly.coe.int/nw/xml/XRef/Xref-XML2HTML-en.asp?filei d=23726&lang=en accessed 11 June 2020 para. 9.1.5. In relation to bio-medicine, reference can be made to the 1997 Convention for the Protection of Human Rights and Dignity of the Human Being with regard to the Application of Biology and Medicine: Convention on Human Rights and Biomedicine (also known as ‘Oviedo Convention’). At EU level, see, for example, in the area of robotics and AI the European Parliament resolution on civil law rules on robotics: Parliament resolution with recommendations to the Commission 2015/2103(INL) on Civil Law Rules on Robotics [2015] OJ C 252.
17. For details, see R. van Est and J. Gerritsen, Human Rights in the Robot Age: Challenges Arising fromthe Use of Robotics, Artificial Intelligence, and Virtual and Augmented Reality (Rathenau Instituut Expert report written for the Committee on Culture, Science, Education and Media of the Parliamentary Assembly of the Council of Europe 2017). www.rathenau.nl/sites/default/files/2018-02/ Human%20Rights%20in%20the%20Robot%20Age-Rathenau%20Instituut-2017.pdf accessed 11 June 2020 27–28.
18. O’Mahony C. There Is No Such Thing as a Right to Dignity’ [2012] 10 Int J Const Law 551.
19. Although this report focuses on the employment of technologies in the context of law enforcement, certain insights are relevant both for private and public sectors. European Union Agency for Fundamental Rights, Facial Recognition Technology: Fundamental Rights Considerations in the Context of Law Enforcement (Paper 2019) https://fra.europa.eu/sites/default/files/fra_uploads/fra2019-facial-recognition-technology-focus-paper-1_en.pdf accessed 11 June 2020.
20. Henriette Roscam Abbing. 2005. The Right to Care for Health: The Contribution of the European Social Charter. European Journal of Health Law 12, 3 (2005), 183–191.
21. 2022. Article L1110-3 — Code de la santé publique.
22. Hödl E. (2021). Art 4, RZ 146-153. In R. Knyrim (Ed.), Großkommentar. Der DatKomm: Praxiskommentar zum Daten-schutzrecht in 2 Mappen inkl. 53. Lfg (p. 148). MANZ Verlag Wien.
23. Grabenwarter, Art 9 ECHR, in Korinek/Holoubek et al (eds), Bundesverfassungsrecht (6th ed, 2003) Rz 8 and 10; Grabenwarter,Art 9 ECHR, in Pabel/Schmal (eds), IntKommEMRK (8th ed, 2008) Rz 32 and 35 f.
24. Artificial Intelligence Act for Fundamental Rights: A Civil Society Statement (2021). https://edri.org/wp-content/uploads/2021/12/Political-statement-on-AI-Act.pdf.
25. Kant I. Grundlegung der Metaphysik der Sitten. https://www.projektgutenberg.org/kant/sitte/sitte.html accessed [5October 2021].