29 листопада 2023, 15:01

Декларація Блетчлі з безпеки використання ШІ: аналіз основних положень

Геннадій Андрощук
Геннадій Андрощук головний науковий співробітник НДІ інтелектуальної власності НАПрН України, к.е.н., доцент, судовий експерт

У 1950 році талановитий британський математик і криптограф Алан Тюрінг опублікував в журналі «Mind» академічну статтю «Обчислювальні машини й розум» (Computing Machinery and Intelligence), метою якої була відповідь на запитання «Чи можуть машини мислити?». Для відповіді знадобилося майже 12 000 слів. Проте закінчення статті лаконічне: «Ми можемо бачити лише обмежене майбутнє, проте і так ми можемо побачити, як багато всього ще треба зробити».


Маєте Телеграм? Два кліки - і ви не пропустите жодної важливої юридичної новини. Нічого зайвого, лише #самасуть. З турботою про ваш час!


Через сім десятиліть ця теза стала ілюстрацією для саміту з безпеки штучного інтелекту (ШІ) (AI Safety Summit), який зібрав у Великій Британії провідних політиків, дослідників і технічних лідерів. Учасниками заходу стали топменеджери технологічних і ШІ-компаній Anthropic, Google DeepMind, IBM, Meta, Microsoft, Nvidia, OpenAI, Tencen та представники неурядових організацій. Сучасні лідери держав і технологій обговорили своє бачення майбутнього ШІ в маєтку Блечлі-парк: там де раніше знаходилась Урядова школа кодів і шифрів, а 1–2 листопада 2023 року тривали дискусії щодо правил існування ШІ. Хто та як саме прагне «керувати» ШІ? Підписаний за підсумками саміту документ «Декларація Блетчлі», (Policy paper The Bletchley Declaration by Countries Attending the AI Safety Summit, 1–2 November 2023) за назвою садиби Блетчлі-парк поблизу Лондона, де під час Другої світової війни в головному шифрувальному підрозділі Великої Британії було зламано код німецької машини «Енігма».

Абсолютна більшість людей, які щось чули про історію зламу коду «Енігми» впевнені, що британський математик Алан Тюрінґ під час Другої світової війни самотужки зламав цей код і створив неймовірний механізм — «криптологічну бомбу». І саме цю версію популяризував Голівуд. (Гра в імітацію) Проте це лише половина правди.

Розшифрування коду «Енігми» наприкінці 1932 року стало одним із найбільших успіхів польської розвідки у міжвоєнний період. Протягом багатьох років це також трималося в найсуворішому секреті, і влада у Варшаві не повідомляла про це навіть своїм найближчим союзникам. Тільки перед лицем війни, що насувається, було вирішено розкрити свої карти англійцям і французам.

Як підкреслює Сер Дермот Тюрінг — племінник Алана Тюрінга (1912–1954), британського математика, криптолога, творця машини Тюрінга, якого вважають батьком штучного інтелекту, у своїй книзі XYZ. Справжня історія злому шифру Enigma. Поляки вже давно вміли зламувати щоденні ключі, реконструювати роботу машини, вони також мали пристрої, які визначали її щоденні змінні налаштування. Одним словом, вони мали все. У Бюро шифрів Варшави працювало три блискучих математика — Мар’ян Реєвський, Єжи Ружицький і Генрик Зиґальський, саме вони першими розшифрували код «Енігми»

На думку головного організатора, британського прем’єра Ріші Сунака, цей захід мав позиціонувати країну як лідера глобальних перегонів у гамуванні та регулюванні ШІ. Варто зазначити, що Велика Британія останнім часом насправді виявляє значну активність у галузі ШІ.

До відкриття Саміту ШІ був залучений навіть король Чарльз ІІІ, який надіслав відеопривітання учасникам заходу. «Ми є свідками одного з найбільших технологічних проривів в історії людської цивілізації. Існує чітка потреба пересвідчитися в тому, що ця технологія, яка стрімко розвивається, буде безпечною та надійною», — зазначив він. Проте Велика Британія не єдина країна, що має лідерські амбіції. 30 жовтня, за два дні до саміту США анонсували 100 аркушів законодавчої ініціативи щодо врегулювання технології ШІ. Міністер торгівлі та співочільниця делегації США Джина Раймондо на саміті, заявила, що США збираються розробити «найкращі у своєму роді» стандарти. врегулювання ШІ. Варто зазначити, що учасників цих перегонів багато: «Закон про ШІ» від ЄС найближчим часом має бути узгоджений, існують також законодавчі ініціативи від КНР. Про що вдалося домовитися представникам  урядів 29 країн, зокрема  США, Китаю, Австралії, країн Євросоюзу та України, яку на саміті представив заступник міністра цифрової трансформації Георгій Дубинський? 1 листопада 2023 року уряд Великої Британії оприлюднив документ  «Декларація Блечлі» (Policy paper The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023). Його підписали представники країн — учасниць саміту, серед яких США та Китай.

Прикметно, що укладачі словника Collins 1 листопада назвали «штучний інтелект» словом 2023 року. За їхніми даними, його використання впродовж останнього року збільшилося в чотири рази. Кембриджський словник назвав словом 2023 року слово «галюцинація», оскільки цей термін отримав нове додаткове визначення, що стосується ШІ, який виробляє неправдиву інформацію.

У документі попереджається про небезпеку, що її потенційно можуть нести найбільш розвинуті ШІ-системи. «Існує можливість серйозної, навіть катастрофічної шкоди, навмисної чи ненавмисної, яку здатні завдати найсучасніші ШІ-моделі. Багато ризиків, пов'язаних із ШІ, мають міжнародний характер, тому їх найкраще вирішувати шляхом міжнародної співпраці. Ми маємо намір працювати разом, щоб забезпечити орієнтованість на людину, надійність і відповідальність штучного інтелекту», — йдеться в декларації. Підписаний документ передбачає співпрацю урядів у дослідженнях безпеки ШІ.

Одна з головних цілей декларації — колективна домовленість країн щодо розробки та імплементації ризик-орієнтованих політик регулювання ШІ, які б унеможливлювали негативні наслідки. На саміті наголосили, що ШІ є корисною технологією для економічного зростання та сталого розвитку, але не може розвиватися без будь-якого нагляду й потребує встановлених «правил гри».

Метою декларації є встановлення порядку денного, на який винесено: виявлення ризиків, що викликає найбільше занепокоєння в урядів, оскільки незрозуміло, яким буде вплив ШІ на навколишній світ; формування наукових алгоритмів, здатних передбачати й аналізувати ризики; розробка міждержавних політик задля пом’якшення впливу ризиків на довкілля. Водночас уряди намагаються передбачити або принаймні запобігти ризикам, що створює технологія ШІ. Відправною точкою стала презентація ChatGPT минулого року, яка запустила глобальний бум довкола технології. Велика мовна модель, яка лежала в основі ChatGPT, показала, що майбутні покоління ШІ-систем можуть пришвидшити постановку діагнозів, допомогти в боротьбі зі змінами клімату та поліпшити виробничі процеси, а також нести загрози робочим місцям, інформаційній і національній безпеці.

У звіті, оприлюдненому урядом Великої Британії, вказується, що ШІ «може допомогти зловмисникам вчиняти кібератаки, проводити дезінформаційні кампанії та створювати біологічну чи хімічну зброю». Важливим позитивним фактором щодо «Декларації Блетчлі» є підписи представників Пекіну та Вашингтону, які останнім часом нечасто можна побачити на одному документі.

Викладемо основні позиції цього важливого міжнародного документу. Штучний інтелект (ШІ) відкриває величезні глобальні можливості: він має потенціал для перетворення та підвищення добробуту людей, миру та процвітання. Щоб реалізувати це, ми заявляємо, що для загального блага ШІ повинен проєктуватися, розроблятися, впроваджуватися та використовуватися безпечним чином, у такий спосіб, щоб він був орієнтований на людину, заслуговував на довіру і був відповідальним. Ми вітаємо зусилля міжнародного співтовариства зі співробітництва в галузі ШІ з метою сприяння інклюзивному економічному зростанню, сталому розвитку та інноваціям, захисту прав людини та основних свобод, а також зміцнення суспільної довіри та впевненості в тому, що системи ШІ повною мірою реалізують свій потенціал. моделях. Системи ШІ вже використовуються в багатьох сферах повсякденного життя, включаючи житло, зайнятість, транспорт, освіту, охорону здоров'я, доступність та правосуддя, і їх використання, ймовірно, розширюватиметься. Ми визнаємо, що це унікальний момент для того, щоб діяти та підтвердити необхідність безпечного розвитку ШІ та використання перетворюючих можливостей ШІ на благо та для всіх на інклюзивній основі у наших країнах та у всьому світі. Це включає громадські послуги, такі як охорона здоров'я та освіта, продовольча безпека, наука, чиста енергія, біорізноманіття та клімат, для реалізації прав людини та для активізації зусиль для досягнення Цілей сталого розвитку Організації Об'єднаних Націй. Поряд із цими можливостями, ШІ також створює значні ризики, зокрема у цих сферах повсякденного життя. У зв'язку з цим ми вітаємо відповідні міжнародні зусилля щодо вивчення та усунення потенційного впливу ШІ-систем на існуючі форуми та інші відповідні ініціативи, а також визнання того, що необхідно вирішувати питання захисту прав людини, транспарентності та зрозумілості, справедливості, підзвітності, регулювання, безпеки, належного людського нагляду, етики, пом'якшення упередженості, недоторканності приватного життя та захисту даних. Відзначається можливість непередбачених ризиків, пов'язаних з можливістю маніпулювання контентом або створення контенту, що вводить в оману. Всі ці питання є критично важливими, і учасники підтверджують необхідність та актуальність їх вирішення. Особливі ризики для безпеки виникають на «передньому краї» ШІ, під яким розуміються високопродуктивні моделі ШІ загального призначення, зокрема базові моделі, які можуть виконувати широкий спектр завдань, а також відповідні специфічні вузькі ШІ, які можуть демонструвати можливості, які завдають шкоди. Ці проблеми частково пов'язані з тим, що ці можливості не до кінця вивчені і тому їх важко передбачити. Ми особливо стурбовані такими ризиками в таких областях, як кібербезпека та біотехнології, а також там, де передові системи ШІ можуть посилювати такі ризики, як дезінформація. Існує ймовірність серйозних, навіть катастрофічних збитків, навмисних або ненавмисних, у зв'язку з найбільш значними можливостями цих моделей ШІ. Враховуючи швидкі та невизначені темпи змін у галузі ШІ, а також у контексті прискорення інвестицій у технології, ми підтверджуємо, що поглиблення нашого розуміння цих потенційних ризиків та дій щодо їх усунення є особливо невідкладним. Багато ризиків, пов'язаних з ШІ, за своєю природою мають міжнародний характер, тому їх найкраще усувати в межах міжнародного співробітництва. Ми сповнені рішучості працювати разом на інклюзивній основі, щоб забезпечити безпеку ШІ, орієнтована на людину, яка заслуговує на довіру і відповідає загальному благу за допомогою існуючих міжнародних форумів та інших відповідних ініціатив, а також сприяти співпраці з метою усунення широкого спектру ризиків, пов'язаних з ШІ. При цьому ми визнаємо, що країнам слід враховувати важливість орієнтованого на інновації та пропорційного підходу до управління та регулювання, який максимізує вигоди та враховує ризики, пов'язані з ШІ. Це може включати, у разі потреби, класифікацію та категоризацію ризиків на основі національних умов та застосовних правових рамок. Ми також наголошуємо на актуальності співробітництва, де це доцільно, за такими підходами, як загальні принципи та кодекси поведінки. Що стосується конкретних ризиків, які, швидше за все, будуть виявлені у зв'язку з передовим ШІ, ми сповнені рішучості активізувати та підтримувати нашу співпрацю, а також розширювати її з іншими країнами, щоб виявляти, розуміти та, за необхідності, діяти в рамках існуючих міжнародних форумів та інших відповідних ініціатив, включаючи майбутні міжнародні саміти з безпеки ШІ. Усі зацікавлені сторони мають відігравати свою роль у забезпеченні безпеки ШІ: країни, міжнародні форуми та інші ініціативи, компанії, громадянське суспільство та наукові кола повинні працювати разом. Відзначаючи важливість інклюзивного ШІ та подолання цифрового розриву, ми знову підтверджуємо, що міжнародне співробітництво має бути спрямоване на залучення широкого кола партнерів у міру необхідності, та вітаємо підходи та політику, орієнтовані на розвиток, які могли б допомогти країнам, що розвиваються, зміцнити потенціал у галузі ШІ та використовувати стимулюючу роль ШІ для підтримки сталого зростання та усунення розриву у розвитку. Ми стверджуємо, що, незважаючи на те, що безпека повинна враховуватися на ті системи ШІ, які є надзвичайно потужними та потенційно небезпечними, несуть особливо серйозну відповідальність за безпеку цих ШІ-систем, зокрема за допомогою систем тестування безпеки, оцінок та інших належних заходів. Ми закликаємо всіх відповідних суб'єктів забезпечити відповідну контексту транспарентність та підзвітність щодо своїх планів щодо вимірювання, моніторингу та пом'якшення потенційно небезпечних можливостей та пов'язаних з ними наслідків, які можуть виникнути, зокрема, для запобігання неправомірному використанню та проблемам контролю, а також посилення інших ризиків. У контексті нашої співпраці, а також з метою інформування про дії на національному та міжнародному рівнях наш порядок денний щодо усунення ризиків, пов'язаних з передовим ШІ, буде зосереджений на:  виявлення загроз безпеки ШІ, що викликають загальну занепокоєність, формування загального наукового обґрунтованого розуміння цих ризиків та підтримання цього розуміння в міру подальшого розширення можливостей у контексті ширшого глобального підходу до розуміння впливу ШІ на наші суспільства. Розробка відповідних політик, заснованих на оцінці ризиків, у наших країнах для забезпечення безпеки у світлі таких ризиків, співпраця в міру потреби, визнання того, що наші підходи можуть відрізнятися залежно від національних обставин та правових рамок. Це включає, поряд з підвищенням прозорості з боку приватних суб'єктів, які розробляють передові можливості в галузі ШІ, належні оціночні показники, інструменти для тестування безпеки, а також розвиток відповідного потенціалу державного сектору та наукових досліджень. У межах реалізації цього порядку денного ми сповнені рішучості підтримувати міжнародну інклюзивну мережу наукових досліджень у галузі безпеки передового ШІ, яка охоплює та доповнює існуючу та нову багатосторонню, плюрилатеральну та двосторонню співпрацю, зокрема в межах існуючих міжнародних форумів та інших відповідних ініціатив, з метою сприяння наданню найкращих наукових даних, доступних для розробки політики та суспільного блага. Визнаючи перетворюючий позитивний потенціал ШІ та в межах забезпечення ширшої міжнародної співпраці в галузі ШІ, ми сповнені рішучості підтримувати інклюзивний глобальний діалог за участю існуючих міжнародних форумів та інших відповідних ініціатив та вносити відкритий внесок у ширші міжнародні дискусії, а також продовжувати дослідження в галузі передового ШІ , щоб гарантувати, що переваги технології можуть бути використані відповідально на благо і для всіх. Ми протягом усього життєвого циклу ШІ, суб'єкти, які розробляють передові можливості ШІ, зокрема з нетерпінням чекаємо на нову зустріч у 2024 році.

У межах узгодження подальшого процесу міжнародної співпраці щодо безпеки ШІ на кордоні Республіки Корея погодилася спільно провести віртуальний саміт з ШІ протягом наступних 6-ти місяців. Відтак Франція прийматиме наступний особистий саміт через рік.

«Це визначне досягнення, яке свідчить про те, що найбільші світові держави в галузі штучного інтелекту погоджуються з нагальністю розуміння ризиків штучного інтелекту, допомагаючи забезпечити довгострокове майбутнє наших дітей і онуків», — сказав прем’єр-міністр Великої Британії Ріші Сунак. Україна розробила власну дорожню карту з регулювання ШІ, яка допоможе українцям навчитися захищати себе від ризиків ШІ. Український уряд розпочав роботу над нормативним полем для використання ШІ. У Мінцифри наголосили, що це важливо для розвитку країни, оскільки Україна «повинна не відставати від всього світу, а очолити тренд ШІ». Високопоставлений посадовець Міністерства оборони США Крейг Мартелл, який займається питаннями ШІ, заявив, що відомство хоче дізнатися більше про інструменти ШІ, перш ніж воно погодиться взяти на себе зобов’язання використовувати  цю технологію.

Центральне розвідувальне управління США анонсувало запуск функції, подібної до ChatGPT, яка використовуватиме ШІ для надання аналітикам кращого доступу до відкритих джерел інформації. Американська корпорація конгломерату соціальних мереж Meta представила функції ШІ у своїх програмах, які нададуть 3 млрд користувачів компанії можливості, подібні до ChatGPT OpenAI.

Декларація Блетчлі  не є нормативною базою як такою, а закликом до її розробки шляхом міжнародної співпраці. Вона постає як ознака міжнародної єдності, яка має на меті суттєво змінити глобальні стандарти та практики безпеки ШІ. Її ширші наслідки розкривають далекоглядну дорожню карту, яка проголошує більш стандартизований підхід до безпеки ШІ в країнах. Завдяки пропаганді підвищених стандартів безпеки він створює прецедент, який, ймовірно, гармонізує  правила безпеки штучного інтелекту, розвиваючи більш глобально єдиний підхід до управління ризиками ШІ.

Список використаних джерел

1.Policy paper The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023 Published 1 November 2023.URL: The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023 - GOV.UK (www.gov.uk)

2. Світ нарешті починає регулювати штучний інтелект.

0
0

Додати коментар

Відмінити Опублікувати