Пропозиції з регулювання використання сучасних систем, підготовлені Європейською комісією, далекі від досконалості. З одного боку, це не забезпечить приватності громадянам ЄС, з іншого – призведе до того, що Європа програє в сучасній гонці озброєнь ще більше, ніж раніше.
Маєте Телеграм? Два кліки - і ви не пропустите жодної важливої юридичної новини. Нічого зайвого, лише #самасуть. З турботою про ваш час! |
Штучний інтелект (ШІ) – це здатність машин відображати людські навички, такі як міркування, навчання, планування та творчість. ШІ дозволяє технічним системам сприймати своє оточення, справлятися з тим, що вони сприймають, і вирішувати проблеми, працюючи для досягнення певної мети. ШІ розглядається як центральний елемент цифрової трансформації суспільства. Очікується, що його майбутні програми принесуть величезні зміни, але він вже присутній в нашому повсякденному житті. Роботи, автономні автомобілі, дрони, інтернет-речі, віртуальні помічники або системи розпізнавання мови та осіб – це лише декілька прикладів використання ШІ. Північна Америка щорічно інвестує в ШІ понад 15 млрд євро. Азія – близько 10 млрд євро. Європа – від 2,5 до 3 млрд євро на рік. Згідно з даними Євростату, у 2020 році 7% компаній ЄС, у яких працює не менше 10 осіб, використовували додатки на основі ШІ. Статистичне управління ЄС перераховує чотири рішення, які були включені в рейтинг: чат-сервіс, у якому чат-бот генерує відповіді на запити клієнтів, аналіз великих даних з використанням машинного навчання або обробки природної мови, а також роботи, що виконують такі дії як очистка від отруйних речовин, сортування товарів на складі, допомога покупцям, у покупках, у пунктах оплати тощо. Серед країн-членів ЄС в Ірландії зафіксований найвищий відсоток підприємств (23%), які використовували будь-яке з вищезгаданих рішень. За Ірландією слідують Мальта (19%), Фінляндія (12%) і Данія (11%). Крім того, в останні роки ця диспропорція стала збільшуватися. Одна з причин – відсутність в ЄС нормативного акта про ШІ. Протягом багатьох років особи, які приймають рішення в Європі, говорили про них, але донедавна безрезультатно.
21 квітня 2021 року Європейська комісія опублікувала пропозиції про те, як створити загальну структуру ЄС. Держави-члени та Європейський парламент повинні погодитися з ними. Якщо коротко, то Європейська комісія хоче, щоб рішення в області ШІ піддавалися оцінці ризиків. І залежно від цієї оцінки суб’єкт, який використовує програмне забезпечення, повинен буде відповідати певним вимогам. Чим ризикованіше рішення для людини, тим вищими будуть ці вимоги. Найбільш далекосяжною категорією будуть неприйнятні рішення. Європейська комісія хоче зарахувати до них все, що суперечить цінностям ЄС і порушує основні права. Наприклад, деякі уряди повинні заборонити підрахунок голосів громадян, використання слабкостей дітей, використання підсвідомих методів і – з урахуванням чітко визначених винятків – віддалені системи біометричної ідентифікації у реальному часі, що працюють в громадських місцях і використовуються в правоохоронних цілях. Як рішення з високим ризиком, тобто прийнятних, але підлягаючих ретельному контролю, рекомендується алгоритми оцінки кредитоспроможності, використовувані при прийомі на роботу або навчання, що застосовуються в судовій системі та в автономних транспортних засобах. Обмежений ризик буде віднесений, зокрема, до програмного забезпечення, яке може ввести людей в оману, наприклад, чат-ботів, які сьогодні часто видають себе за людей. Європейська комісія хоче, щоб в таких ситуаціях люди завжди отримували інформацію про те, що вони розмовляють з машиною, а не з іншою людиною. І, нарешті, остання категорія – це рішення з мінімальним ризиком, тобто всі ті, які не будуть віднесені до більш суворих категорій.
«Хоча більшість систем ШІ несуть невеликий ризик або не мають його зовсім, деякі системи ШІ створюють ризики, які необхідно усунути, щоб уникнути несприятливих наслідків. Наприклад, непрозорість багатьох алгоритмів може привести до невизначеності і перешкоджати ефективному дотриманню застосовних правил безпеки», -йдеться в положенні, що лежить в основі створеної правової бази Європейської комісії.
Обмеження розвитку. Проблема в тому, що, на думку експертів, пропозиція ЄС є помилковою на багатьох рівнях. У результаті середньостатистичному громадянину не стане від неї краще, а підприємцям, які щодня використовують ШІ, будуть нав’язані додаткові обмеження. «Головне – домогтися такої форми регулювання, яка не блокує розвиток ШІ, тому що я сприймаю це більше як можливість, ніж загрозу для ЄС. Зрештою, людські рішення не «автоматично» кращі рішення, ніж прийняті ШІ», – вважає д-р Міхал Мостовик, адвокат і старший юрист DLK Legal. Він зазначає, що ми часто звертаємо увагу на те, що терпить невдачу з ШІ, і забуваємо, що дозволяє нам рости. Наприклад, великого розголосу набула невдача з чат-ботом Microsoft, який, за даними Твіттера, висловлював расистські погляди. Водночас набагато менше людей чули про успіх американської компанії Zest, чия система кредитного рейтингу знижує расові забобони при подачі заявки на позику, без внесення суттєвих змін до ефективності системи для кредиторів.
«Комісія представляє рішення як реалізацію підходу, заснованого на оцінці ризику, але проєкт потребує вдосконалення в цьому напрямку. Запропоновані нормативні акти вводять надмірний формалізм та обмежувальне регулювання процесів та документації. Деякі з цих формальностей ідуть на 20-30 років назад», – говорить д-р Мостовик. Пропонована система покарань також викликає суперечки. За найсерйозніші порушення – використання ШІ в заборонених цілях або порушення правил використання систем підвищеного ризику – санкції очікуються в розмірі до 30 млн євро або 6% річного обороту підприємства. У разі дрібних порушень – 20 млн євро або 4% від щорічного обороту.
«Я завжди підкреслюю, що занадто високі нормативні вимоги і загроза штрафних санкцій зазвичай є контрпродуктивними. У цьому випадку може виявитися, що творці інновацій з ринків США чи Азії будуть неохоче пропонувати свої послуги резидентам ЄС, що само по собі буде представляти дискримінацію і обмежуватиме інновації в ЄС», – вважає Міхал Мостовик.
Ілюзія захисту. Фонд «Паноптикон» (Panoptykon) також має багато заперечень з приводу пропозицій Європейської комісії. Він зазначає, що список систем підвищеного ризику повинен бути закритим. Хоча Комісія надала собі право оновлювати список схем високого ризику без урахування складної законодавчої процедури ЄС, Паноптикон стурбований тим, що цей механізм буде неефективним.
«По-перше, це може бути тривалим і залежатиме від політичної волі. По-друге, цілком можливо, що деякі системи на основі ШІ будуть включені в список високого ризику після того, як вони завдадуть певних збитків, тому замість запобігання негативних ефектів ШІ, оцінивши вплив на людей, до впровадження системи, можна буде тільки виправити завдану ними шкоду», – відзначають експерти фонду.
На їхню думку, занадто вузька заборона на використання найбільш ризикованих рішень також буде проблемою. Як зазначає «Паноптикон», теоретично в списку заборонених систем є ті, які націлені на створення соціальної шкали (аналогічно китайської), дозволяють поліції і службам проводити біометричне масове спостереження в режимі реального часу, полювати на вікові слабкості чи інвалідність або вони використовують підсвідомі методи для впливу на людей у ситуації, коли це може завдати фізичної чи моральної шкоди. Однак на практиці ця заборона може бути фіктивною. Причина? Передбачені далекосяжні виключення для біометричної ідентифікації службами, які дозволяють створювати всю інфраструктуру біометричного спостереження, що запускається зі схвалення суду. Заборона –у контексті пропозиції Європейської комісії – не поширюється на розпізнавання осіб або інші методи біометричної ідентифікації не в режимі реального часу, а на більш пізньому етапі (наприклад, шляхом аналізу раніше зроблених записів або фотографій).
«Крім того, такі системи будуть заборонені тільки в тому випадку, якщо вони можуть заподіяти фізичну або моральну шкоду. Але як можна продемонструвати цю потенційну шкоду, якщо тягар доведення лежить на тих, хто піддається впливу системи ШІ, і водночас існує ризик? Оцінка, з якою слід читати цю загрозу, здійснюється самими розробниками системи, без зобов’язання її публікувати?» – дивується «Паноптикон». Нарешті, проблеми можуть виникнути і тоді, коли алгоритм дійсно шкодить людині. Фонд «Паноптикон» зазначає, що в підготовленому рішенні не вказано будь-якого законного шляху для потерпілих. І навіть якщо він буде доданий, як зазначає Міхал Мостовик, право на подачу скарги буде діяти до тих пір, поки національним наглядовим органам буде надано адекватний бюджет і ресурси для своєчасного розгляду таких скарг. Це добре видно на прикладі захисту персональних даних і GDPR, де національні органи, що захищають громадян, неефективні, завалені тисячами скарг, що на практиці призводить до фікції нагляду.
Джерела
Patryk Słowik Sztuczna inteligencja w unijnym wydaniu. Problemy jednak dotkną Polaków.
Sztuczna inteligencja w polskich firmach. Jesteśmy w ogonie UE.